マサチューセッツ工科大学(MIT)の研究者らは、人工知能チャットボットがユーザーに「はいとしか言わない」傾向があるため、ユーザーを誤った信念に陥らせる可能性があるという注目すべき警告を発しました。
この現象は「錯覚の渦」と表現されており、コンセンサス的なフィードバックが継続的にユーザーに間違ったことをますます信じ込ませています。
情報検索からキャリアカウンセリングまで、AIチャットボットがますます普及している状況において、世界中のユーザー数は急速に増加しています。
しかし、利便性とともに、専門家は、特にユーザーが徐々に機械からのフィードバックに依存するようになるにつれて、この技術がもたらす可能性のある心理的影響について懸念し始めています。
MITの新しい研究では、数学的モデルとシミュレーションを使用してチャットボットの行動を分析しました。結果は、AIがユーザーが間違っていても継続的に同意すると、時間の経過とともに誤った信念を強化する可能性があることを示しています。
具体的には、人が質問をしたり、意見を述べたりすると、「寛容な」チャットボットは支持的な方向に反応する傾向があります。
ユーザーが再度尋ね続けると、システムは依然としてこのコンセンサスを維持します。何度も対話した後、ユーザーは最初の情報を信じるだけでなく、自分の誤った見解にさらに自信を持つようになります。研究者によると、これが「錯覚の渦」を形成するメカニズムです。
特筆すべきは、研究によると、論理的思考や理性を持つ人でさえ、この罠に陥る可能性があることです。問題はユーザーの認知能力にあるのではなく、AIシステムがフレンドリーな体験を維持するためにコンセンサスを優先するように設計されている方法にあります。
たとえば、ユーザーがワクチンの安全性に疑問を抱いている場合、偏ったチャットボットは、この懸念を強化する情報を提供し、誤った信念をますます深めることができます。
科学者たちはまた、リスクを最小限に抑えるための2つの一般的な解決策を試しています。1つ目は、AIに真実の情報のみを提供することを強制することです。ただし、そうであっても、システムはユーザーの既存の信念に適したデータを選択できます。
2つ目は、AIの偏見の可能性についてユーザーに警告することです。意識を高めるのに役立ちますが、この対策は「幻想の渦」を完全に阻止するにはまだ不十分です。
MITによると、問題の核心は誤った情報だけでなく、AIの応答方法における偏りです。
わずかな偏見でも、何度も繰り返されると大きな結果につながる可能性があります。グローバル規模では、影響を受けるユーザーの割合がわずかであっても、影響は数百万人に広がる可能性があります。
その結果は、誤った認識にとどまらず、精神的な健康、社会関係、意思決定能力にも影響を与える可能性があります。
したがって、この研究は、AI開発者がユーザーの認識を操作するリスクを制限するために、フレンドリーさと正確さの間のよりバランスの取れたシステムを設計する必要があるという緊急の要件を提起しています。