OpenAIは、人工知能をサポートするウェブブラウザにおける「共有」されたセキュリティ脆弱性について、注目すべき警告を発しました。この脆弱性は決して完全に修正されない可能性があると述べています。
ChatGPTの開発者によると、プロンプト注入と呼ばれるマルウェア攻撃は、現代のAIシステムにとって持続可能な脅威になりつつあります。
ChatGPT、Atlas、Perplexity CometなどのAIブラウザは、ユーザーがインターネット上の情報を検索し、インタラクトする方法を徐々に変えつつあります。
リンクリストのみを表示する代わりに、これらのツールはユーザーの代わりに読み、まとめ、タスクを実行できます。
しかし、まさにその「状況を把握する」能力が、それらをサイバー犯罪者の魅力的な標的にしています。
マルウェアを挿入する攻撃は、悪意のある者が有害なリンクを有効に見えるコンテンツに偽装し、GPT、Gemini、Llamaなどの主要な言語モデルを欺く形式です。
罠に陥ると、AIは誤って機密データを漏洩したり、ユーザーの要求を無視したり、誤った情報を拡散したりする可能性があります。
たとえば、巧妙に設計されたメールは、AIオブジェクトが税務文書や内部情報を攻撃者に転送する可能性があります。
OpenAIは、脆弱性を継続的に修正し、防御システムを改善しているにもかかわらず、プロンプト注入は完全に排除するのが非常に困難なタイプの攻撃であることを認めています。
ブログの投稿で、同社は、この攻撃形態をウェブサイト上の詐欺と従来のソーシャル技術と比較しました。これらは数十年間存在していますが、完全に消滅したことは一度もありません。
OpenAIによると、最も現実的なアプローチは、「決定的な解決策」を期待するのではなく、保護層を絶えずアップグレードすることです。
ブラウザーメーカーBraveのレポートも、問題の核心は、オブジェクトベースのAIブラウザーの本質にあることを指摘しています。
これらのモデルは、ユーザーに回答するために抽出する必要があるコンテンツの種類、ユーザーが従わなければならない指示の種類を区別することが困難です。この領域は、有害な指示がAIの行動を制御するために侵入し、支配する条件を作り出します。
対処するために、OpenAIは、危険なプロンプト注入シナリオを積極的に検出するために、大規模な言語モデルに基づいた自動攻撃ツールを構築したと述べています。
このツールは、攻撃者の役割を演じるように訓練されており、それによってエンジニアは現実世界で利用される前に弱点を特定して修正するのに役立ちます。
OpenAIだけでなく、英国国家サイバーセキュリティセンター(NCSC)も同様の見解を示しており、新世代のAIアプリケーションを標的としたマルウェア挿入攻撃は決して完全に減少しない可能性があると述べています。
これは、特にAIがオンラインサービスや企業システムにますます深く統合されているため、データ保護に関する大きな課題を提起しています。
現在、OpenAIは、新しい自動攻撃ツールが、高速コード挿入攻撃に対抗するのに十分な能力があるかどうかを詳細に発表していません。
しかし、同社は、このブラウザが正式にリリースされていなくても、ChatGPT Atlasのセキュリティを強化するために、多くのサードパーティパートナーと協力していると述べています。
OpenAIの警告は、AIブラウザーの時代は、多くの可能性を秘めていますが、軽視できないサイバーセキュリティリスクも伴うことを思い出させるものです。