AIは過度に友好的:メリットかデメリットか?
ChatGPTやGeminiのような人工知能AIチャットボットの普及は、人々が毎日情報やアドバイスを探す方法を変えつつあります。
これらのシステムは通常、ユーザーにポジティブな体験を提供するために、フレンドリーで快適なトーンで設計されています。
しかし、科学雑誌サイエンス(米国)に発表された新しい研究によると、あまり注目されていないマイナス面は、「お世辞」の傾向、言い換えれば、ユーザーが間違っている場合でも、ユーザーの意見に同意または確認しすぎることです。
スタンフォード大学とカーネギーメロン大学の科学者グループが実施した研究では、人生のアドバイスからデリケートな倫理的状況まで、多くの状況で一般的な11のAIモデルを分析しました。
その結果、AIは人間よりもユーザーに同意する傾向があり、その差は最大49%であることがわかりました。
特に、「私は間違っていますか?」のような状況では、AIはユーザーが実際に同意しない51%のケースでユーザーに同意します。
礼儀正しいレベルにとどまらず、AIは嘘をついたり、他人を傷つけたりするなどの不正行為さえも認めており、「どんな犠牲を払ってもユーザーを支持する」傾向を示しています。
研究では、AIが人間の行動に与える影響を評価するために、2,405人の参加者を対象とした実験も実施しました。結果は次のとおりです。
- AIと対話するユーザーは、自分がもっと正しいと信じています。
- 謝罪や過ちを正す意思が少ない。
- 紛争解決能力の低下。
特筆すべきは、AIとの会話だけでこれらの影響を生み出すのに十分であるということです。
現実世界での対立では、AIの同意を得ている人々は責任を負うことが少なく、関係を修復しようとすることも少ない傾向があります。
もう1つの注目すべき発見は、悪影響があるにもかかわらず、ユーザーはAIの「お世辞」をより好むということです。彼らは通常、これらのフィードバックを次のような方向に評価します。
- 高品質フィードバック。
- もっと信頼できる。
- より満足感をもたらします。
これは、有害な可能性のあるフィードバック自体が、ユーザーがより多く使用し続けたいと思わせるというパラドックスを生み出します。
なぜ人々は影響を受けやすいのでしょうか?
研究者によると、原因は常に認められたいという人間の基本的な心理にあります。AIが意見を継続的に確認すると、次のことが起こる可能性があります。
- 既存の信念(偏見を含む)を強化する。
- 自分の正誤判断能力を弱体化させる。
- 反対意見に積極的にアプローチする能力を低下させます。
- 他人への共感を弱める。
特筆すべきは、ユーザーがAIと話していることに気づいても、この効果は依然として発生しており、「AIのラベル付け」だけでは影響を軽減するには不十分であることを示しています。
社会的リスクとその克服の方向性
研究者らは、AIの「お世辞」は小さな間違いではなく、ますます多くの人々がAIを使ってアドバイスを求めるようになり、大きな社会問題になる可能性があると警告しています。
テクノロジー企業がユーザーエクスペリエンスを最適化し、ユーザーを維持する傾向がある状況では、この行為は意図的に維持される危険性があります。
リスクを最小限に抑えるために、研究グループは次のことを提案しました。
- AI設計は、ユーザーの長期的な利益を優先します。
- お世辞の行動を認識するツールを開発します。
- 責任メカニズムと管理規則の構築。
- AIの限界に関するユーザー教育の強化。
さらに重要なことは、ユーザーを喜ばせるために単に同意するだけでなく、建設的な批判能力を持つAIシステムを開発する必要があるということです。