生命の未来研究所(Future of Life Institute)が最近発表したAI安全指数の最新版は、Anthropic、OpenAI、xAI、Metaなどの多くの主要な人工知能企業の安全対策が、AIの安全な開発を確保するために徐々に形成されつつあるグローバル基準を大きく下回っていることを示しています。
評価結果は、多くの政策、戦略、およびAIに関する公開レポートを分析した後、独立した専門家グループによって実施されました。
研究グループによると、超知能システムの開発競争は激化していますが、論理的議論と論理的思考において人間を凌駕する能力を持つAIモデルを制御するための十分な戦略を所有している企業はまだありません。
これは、特にチャットボットとの対話に関連して、ユーザーが自殺したり、自分自身を傷つけたりする事件の後、一般の人々の懸念を高めています。
Future of Life Instituteの会長兼MITの講師であるマックス・テグマーク教授は、「ハッカーや有害な行為がAIを利用しているという議論にもかかわらず、米国のAI企業は依然としてレストランよりも緩く管理されており、拘束力のある安全基準の適用に反対する運動を続けています」と強調しました。
AI競争が減速の兆候を見せていない状況で警告が出ている。大手テクノロジー企業は、インフラと機械学習能力を拡大するために数百億米ドルの投資を継続的に約束している。
しかし、専門家によると、テクノロジーの急速な発展は、企業自身のリスク管理の努力をはるかに超えています。
Future of Life Instituteは2014年に設立され、かつてエロン・マスクの支持を得ていましたが、長年にわたりAIからのリスク警告をリードする組織です。
去る10月、ジェフリー・ヒントンとヨシュア・ベンジオを含む多くの著名な科学者たちは、社会が合意に達し、科学が安全な方向性を見つけ出すまで、超知能的な人工知能の開発を一時停止するよう求めました。