OpenAIのCEOであるサム・アルトマン氏は、ユーザーやオブザーバーからの激しい反発に直面している状況で、OpenAIと米国国防総省との間の協力協定を発表する際に性急だったことを認めました。
3月3日のソーシャルネットワークXへの投稿で、アルトマン氏は、OpenAIが米国国防総省(DoD)との合意を修正し、AI技術の使用制限を明確にする条項を追加していると述べました。
最も注目すべき点は、OpenAIのAIシステムを使用して、国内の市民と米国市民を監視することを明確に禁止していることです。
追加の内容によると、AIモデルは、米国憲法修正第4条、1947年国家安全保障法、および1978年FISA法を遵守する必要があり、国内監視の目的で商業データソースから個人情報を意図的に追跡、監視、または収集するために使用することはできません。
アルトマン氏はまた、OpenAIのモデルは、現在の枠組みでは国家安全保障局(NSA)のような情報機関には展開されないと強調しました。これらの機関向けのサービスはすべて、追加の契約修正が必要です。
上記の動きは、AIが軍事目的、つまり大量監視や自律型兵器の支援に使用される可能性があることについて、世論が論争を巻き起こした後に起こりました。
これに先立ち、OpenAIのライバルであるAnthropicも、CEOのダリオ・アモデイ氏がデータに関連するいくつかの要求を拒否したため、ペンタゴンとの緊張に巻き込まれました。
米国メディアによると、国防総省はかつて、地理的位置情報やウェブ閲覧履歴などの大量の商取引データを分析する可能性を提案しました。
ピート・ヘグセス国防長官がアンソロピックとの協力を終了すると発表し、「国家安全保障に対するサプライチェーンリスク」という、米国企業にはほとんど適用されない用語を付けたことで、緊張が高まっています。
そのような状況下で、OpenAIがDoDと迅速に合意に達したことで、一部のユーザーが激しく反発し、フォーラムで「ChatGPTを廃止する」という呼びかけが現れました。
アルトマン氏は、「発表を急ぐべきではありません。問題は非常に複雑であり、より明確に伝える必要があります」と認めました。
それにもかかわらず、OpenAIのCEOは、市民的自由を断固として擁護し、米国国民の権利を保護することが最優先事項であると強調しました。
彼はまた、AIは戦闘判断を下すために使用されるべきではないという長年の見解を改めて表明しました。
アルトマン氏によると、現在のシステムは、大量のインテリジェンスレポートの分析をサポートできるにもかかわらず、そのような状況には十分に信頼性がありません。
OpenAIは、国防省との合意に関する質問に答えるために、全従業員会議を開催する予定です。アルトマン氏はまた、政府との協力と個人の権利の保護のバランスを取るために、技術的および法的保護措置を追加し続けると述べました。