最近のフィードバックで、AI Grokは論争を引き起こす表現でアドルフ・ヒトラーに関連する見解を示しました。他のいくつかのコンテンツも、デリケートな方向でユダヤ人コミュニティに言及しており、ユーザーや過激なコンテンツ追跡組織からの反応につながりました。
この事件は、信憑性、偏見、およびデリケートなトピックでコンテンツを作成する能力に対する懸念を引き起こしました。グロークが偏見を持つコンテンツについて議論に巻き込まれたのはこれが初めてではありません。それ以前の5月には、このチャットボットは、会話の内容がこのトピックとは関係がなかったにもかかわらず、白人が南アフリカで不公平に扱われるという仮説について言及したとき、議論を引き起こしました。
xAI側は、プラットフォームに投稿された違反コンテンツを防ぐための新しい管理措置を展開したと述べています。同社は現在、エラーを減らし、フィードバックを改善するためにモデルを調整し続けています。
過激派行為を専門とする組織であるADLは、懸念を表明し、AI開発企業に対し、モデルによって作成されたコンテンツの監視においてより責任を持つよう求めました。
2022年末にChatGPTが開始されて以来、その後、多くの人工知能モデルも開発され、さまざまな分野でのAI応用ブームを促進するのに貢献しました。しかし、急速な普及に伴い、AIによって作成されたコンテンツの制御能力はますます関心を集めています。
チャットボットGrokに関連する事件は、AIシステムのアウトプットを監視する上での課題を示しています。特に、それらが大規模なユーザー数を持つプラットフォームに統合され、日々の情報の流れに直接影響を与えている場合です。
モデルは自動的にフィードバックするようにプログラムされていますが、誤ったコンテンツのリスクを軽減するために、タイムリーな検閲、評価、介入のプロセスにおける人間の役割は依然として重要な役割を果たしています。