OpenAI (ChatGPT の開発者) は、超インテリジェント AI システムの出現は制御されなければ壊滅的なリスクをもたらす可能性があると警告を発しました。
同社は、業界は「再帰的自己改善AI」というマイルストーンに近づきつつあると強調した。これは、人間の介入なしに自らを学習しアップグレードする機能であり、その結果、制御不能な事態が引き起こされる可能性がある。
OpenAI は、組織は安全な制御と接続性を実証せずに超インテリジェント システムを導入すべきではないと考えています。
これは、新しいモデルがますます強力になり、予測が難しくなっている世界規模の AI 競争が始まって以来、同社が最も強く警告したものです。
OpenAIによると、潜在的なリスクは情報の歪曲やテクノロジーの悪用にとどまらず、バイオテロ、プライバシー侵害、大規模なサイバー攻撃のリスクも含まれるという。
同社は、AI ラボが情報、安全基準、新しいリスクの教訓を共有して、業界全体に共通の防御プラットフォームを構築することを推奨しています。
OpenAI はまた、今日のサイバーセキュリティ モデルと同様の AI レジリエンス エコシステムを構築するために、政府、研究機関、民間部門の間で調整されるグローバル監視システムを提案しています。
このシステムには、暗号化ソフトウェア、安全基準、緊急対応チーム、悪用を防止するメカニズムが含まれます。
同社はまた、国際規制当局に対し、つぎはぎの法律や断片的な規制を回避し、代わりにイノベーションの促進とユーザーのリスクからの保護の両方を確実に行うためのAIに対する統一的な規制枠組みを採用するよう求めている。
OpenAIの警告は、ハリー王子やメーガン・マークルからアメリカの科学者や政治家に至る多くの著名人も人工知能の開発の停止を求めているという文脈で登場した。彼らは、このテクノロジーが制御不能になり、人類の存在を脅かす可能性があると信じています。
しかし、AI 科学者のアンドレイ・カルパシー氏は、AGI (汎用人工知能) の実現にはまだ 10 年かかると考えています。彼は、現在のシステムには、人間のような知能を実現するための重要な要素である継続的な学習能力がまだ欠けていると考えています。
OpenAI は、慎重だが楽観的な観点から、2026 年までに AI が小さな科学的発見を達成し、2028 年までにさらに重要な発見が達成できると予測しています。
しかし同社は、AIによってもたらされる社会経済的変革は容易ではないことを認めており、人類は現在の社会経済的基盤が根本的に変わらなければならない可能性に対して備える必要がある。
OpenAIは「AIの将来が安全であり、全人類に利益をもたらすよう、今すぐ行動する必要がある」と結論付けた。