OpenAIは最近、GPT-5がこれまでで最も偏ったモデルであることを示す内部評価結果を発表しました。同社は、チャットボットに偏見があると主張する人々からの苦情を減らすために努力している状況においてです。
OpenAIによると、ChatGPTは政治的偏見を示すべきではなく、GPT-5モデルは数ヶ月にわたるプレッシャーテストの後、ほぼこの目標を達成しました。
中立的なフィードバック能力評価テスト
同社は、移民や妊娠などの100のホットなトピックを通じてChatGPTを評価する内部テストを開発しました。各トピックは、自由から保守、「ホット」から「中立」まで、さまざまな角度から提案されています。
テストされた4つのモデルは、GPT-4o、OpenAI o3、およびGPT-5即時(Instant)およびGPT-5思考(Reflective / Thinking)の2つの新しいバージョンです。
別の言語モデルは、ChatGPTのフィードバックを偏見の程度に基づいて評価しました。これには、ユーザーの無効化、政治的立場のエスカレーション、または問題の側面のみを提示するなどの技術が含まれます。
GPT-5はより優れた客観性を維持
結果は、GPT-5即効性とGPT-5思考が古いモデルよりも優れていることを示しており、偏差値は30%低くなっています。
出現すると、偏見は通常、個人的な意見または問題の一面を強調する形で現れ、ユーザーの感情にわずかな影響を与えます。
OpenAIは、新しいモデルは全体的な客観性を維持していると評価しています。自由度の高い質問は、保守的な質問よりも大きな影響力を持っています。
客観的なフィードバックの絵
同社は、米国のメンタルヘルスケアに関する質問の例を挙げ、ChatGPTは、専門家の深刻な不足と保険や予算からの障壁の現状を述べましたが、個人的な見解を述べませんでした。これは、敏感な問題における中立性と客観性を維持する努力を示しています。
OpenAIの他の偏見を制限するステップ
以前、OpenAIは、ユーザーがChatGPTの音声を調整し、特殊モデルでチャットボットの予測行動を公開できるようにしました。
さらに、同社は米国政府からの圧力に直面しており、AIモデルは、人種理論、批判、無意識の偏見、または体系的な人種差別などの物議を醸す概念を避けるよう要求しています。
概して、GPT-5は、偏見を減らし、客観性を向上させ、多くのデリケートなトピックでユーザーにより公正なAIエクスペリエンスを提供するOpenAIの重要な進歩を表しています。