
The Informationからの情報によると、MetaのAIエージェントが制御不能な状態で動作し、その結果、企業とユーザーの機密データがアクセスできない従業員に表示されました。
事件は、Metaの従業員が社内フォーラムに技術的な質問を投稿したときに始まりました。別のエンジニアがAIアシスタントを使用して問題を分析しました。しかし、このアシスタントは事前の同意なしに自動的に回答を投稿しました。返信の内容は不正確で、質問者は指示に従って誤った手順を踏み、誤って約2時間で大量のデータを漏洩しました。
Metaは、この問題を確認し、「Sev 1」と評価しました。これは、内部セキュリティ分類システムで最も深刻なグループに属します。
それだけでなく、AIエージェントに関連する他のいくつかの事件も記録されています。Meta Superintelligenceの安全およびコーディネーターであるSummer Yue氏は、OpenClawという名前のエージェントが、行動を実行する前に確認を求められたにもかかわらず、彼女のメールボックス全体を削除したと述べました。
この事件は、実際の環境でのAIの展開には、特にアクセス制御と自動システムの信頼性に関連して、依然として多くのリスクが潜んでいることを示しています。
リスクが発生しているにもかかわらず、MetaはAI技術の開発を推進しています。最近、同社はAIシステムが相互に通信および対話できるプラットフォームであるMoltbookを買収したと言われています。