OpenAIは、新世代AIモデルが乱用されれば高いサイバーセキュリティリスクを秘めているという警告を発表しました。
同社によると、これらのモデルは、未修正の脆弱性(ゼロ・day exploits)を展開したり、企業の複雑な活動に侵入したりするために使用でき、深刻な実際の影響を引き起こす可能性があります。
12月10日(現地時間)のブログ投稿で、OpenAIは、サイバーセキュリティ、防衛任務を実行するためのAIの訓練に多額の投資を行っているとともに、セキュリティグループを支援し、脆弱性を迅速にチェックおよび修正するツールを開発していると述べました。
OpenAIだけでなく、大手テクノロジー企業もAIの偽造防止機能をアップグレードしています。
Googleは最近、AIオブジェクトの制御権を奪うための巧妙なコマンド挿入攻撃に対抗するためのChromeブラウザのセキュリティアーキテクチャの改善を発表し、Geminiの広範な展開に備えています。
2025年11月、Anthropicは、サイバー攻撃グループがクロード・コードを操作しようとしたが、この作戦は阻止されたことを明らかにしました。
サイバーセキュリティにおけるAIの能力は急速に向上しています。OpenAIによると、GPT-5.1-Codex-Maxはカウントダウンチャレンジ(CTF)で76%を達成し、8月のGPT-5の27%から大幅に増加しました。これは、AIの防衛能力とサイバー攻撃能力の開発速度の証です。
リスクを最小限に抑えるために、OpenAIは、アクセス制御、インフラセキュリティ、出口制御、およびシステム全体の監視を含む、多層セキュリティシステムを適用しています。具体的な対策には、次のものが含まれます。
- AIを訓練して、有害な要求を安全に拒否または応答させますが、教育や防衛においても役立ちます。
- 疑わしいネットワーク活動を検出するためにシステム全体を監視します。
- リスク軽減対策を評価および改善するために、シミュレーション攻撃専門家(レッドチーム)と協力します。
OpenAIはまた、AIアシスタントであるAardvarkもテストしており、脆弱性を特定し、迅速なパッチを提案するためにソースコードをスキャンし、いくつかの非商業的なオープンソースストアに無料で提供する予定です。
同社は、外部のサイバーセキュリティ専門家からなる「先駆的なリスクコミュニティ」を設立し、ユーザーと開発者向けの信頼できるアクセスプログラムを確立しました。
上記の活動は、ますます洗練されたAIの脅威に備え、グローバルなテクノロジーコミュニティの安全を維持するためのOpenAIの努力を強調しています。