OpenAIは、ChatGPT向けの2つの新しいセキュリティ対策を発表しました。これには、ロックダウンモードと高リスク警告システムが含まれており、データ保護を強化し、ユーザーが仕事で人工知能を使用する際により適切に制御できるようにすることを目的としています。
高リスク環境向けロックモード
OpenAIによると、これら2つの機能は並行して動作し、セキュリティリスクに関するより明確な情報を提供すると同時に、サイバー攻撃のリスクが高い組織や個人に、より厳格なシステム制御レイヤーを追加します。
ロックダウンモードは、高度なセキュリティ機能であり、オプションであり、現在では、企業のリーダー、セキュリティ専門家、または大規模な組織など、セキュリティ要件の高い少数のユーザーグループのみを対象としています。
アクティブ化すると、このモードはChatGPTが外部システムと対話する能力を厳しく制限し、悪意のあるコマンドを介して悪用される可能性のある一部のツールを無効にします。
たとえば、ロックモードでウェブを閲覧する場合、システムはOpenAIのセキュリティ環境の外にネットワークリクエストを直接送信する代わりに、キャッシュに保存されたコンテンツのみにアクセスします。
機能が十分に強力なデータ保護レベルを保証できない場合、その機能は完全にオフになる可能性があります。
ワークスペース管理者は、システム設定で専用の役割を作成することにより、ロックモードをオンにすることができます。
アクティブ化されると、このモードは既存のセキュリティ構成の上に追加の制限を適用し、管理者が使用が許可されているアプリケーションまたはアクションを柔軟に選択できるようにします。
さらに、コンプライアンスデポジトリツールも、アプリケーションの使用状況、共有データ、および接続システムを監視するために提供されており、企業が管理および監査の要件を満たすのに役立ちます。
高リスク機能に対する明確な警告
2番目のアップデートは、情報の透明性に焦点を当てています。インターネットまたは外部システムにアクセスできるAI機能の一部は、より高いセキュリティリスクを秘めている可能性があります。
ユーザーがよりよく理解できるように、OpenAIはChatGPT、ChatGPT Atlas、Codexに属する機能に一貫して「高リスク」警告ラベルを付けます。
これらの警告は、機能をオンにするとどのような影響を受けるか、起こりうるリスク、および使用すべき時期を具体的に説明しています。
たとえば、プログラミングツールを介してネットワークアクセスを許可すると、セキュリティ脆弱性のリスクが高まる可能性があり、システムはそれを明確にします。
OpenAIは、セキュリティ対策は新たな脅威に応じて引き続き開発されると述べています。
リスクが軽減されたり、保護技術が改善されたりすると、「高リスク」ラベルが一部の機能から削除される可能性があります。
ロックモードと新しい警告システムの追加は、OpenAIの目標がユーザーをより適切に保護することであり、AIが職場環境とビジネス活動にますます深く統合されるにつれて、より明確な選択肢を提供することを示しています。