この動きは、Meta AIと若いユーザーグループとの間の懸念される相互作用に関する多くの報告を受けて行われました。今月初め、ある通信社が内部文書をリークしたところ、チャットボットはかつて年齢に合わないコンテンツを許可されていたことがわかりました。
Metaはその後、このドキュメントは「誤り、ポリシーを反映していない」と断言し、削除されました。最近の研究でも、Meta AIがティーンエイジャーアカウントと会話中に不適切なフィードバックを出したことが示されています。
これに対し、Metaは、InstagramとFacebookで同様の状況が繰り返されないように、「保護柵」を強化したと述べました。
ステファニー・オトウェイ報道官は、「私たちは当初から若いユーザーを保護するメカニズムを構築しており、AIの訓練、これらの問題に関する議論に参加しないこと、代わりに子供たちを専門的なサポート源に導くことなど、追加を続けています。同時に、Metaはユーザーが作成した一部のAIキャラクターへのアクセスも一時的に制限しています」と断言しました。
特筆すべきは、Metaが現在の対策は一時的な措置に過ぎないと説明していることです。同社は、より長期的な解決策の研究を継続しています。
新しい変化は、Metaが青少年にとってより安全なオンライン環境を確保する上で大きなプレッシャーにさらされていることを示しています。人工知能が日常生活に浸透するにつれて、制限と社会的責任を設定することが重要な要素となっています。