米国防総省は、軍事および国家安全保障活動への人工知能(AI)の統合を促進するために、Google、xAI、Anthropic、OpenAIを含む4つの主要テクノロジー企業の選定を発表しました。
各企業は、重要な任務に役立つAIシステムとオブジェクトを開発するために、最大2億米ドルの価値のある契約を受け取ります。
国防省のデジタル技術・人工知能局のディレクターであるダグ・マティ氏は、軍は民間部門が開発した技術を直接活用することにより、高度なAIの応用を加速すると述べました。
これらの技術は、戦闘、分析、情報、後方支援、運用管理などの重要な分野に役立つために、既存のシステムに統合されます。
現在、米軍はデータ検索や技術支援などの単純な業務に生み出されたAIの使用を開始しています。しかし、AIオブジェクトは、人間が直接制御する必要なく、状況を分析し、意思決定と行動を起こすことができるため、より高く評価されています。
米国防総省は現在、今回のプログラムで支援される任務の具体的な詳細を明らかにしていませんが、以前、米国防総省は情報分析、作戦調整、輸送、データ収集にAIを適用したいという願望を強調しました。
4つの大手テクノロジー企業との協力は、米国がグローバルな国防技術競争が激化する中で、人工知能技術による軍隊の近代化の取り組みを推進していることを示しています。
これは、AI時代における米国の技術と戦闘能力の優位性を維持するための戦略的ステップと見なされています。
しかし、戦闘能力の向上が期待されているにもかかわらず、軍隊におけるAIの展開は、倫理と安全保障に関する多くの懸念も提起しています。
人権監視団の報告書は、AIが戦場で自己決定を下すことを許可することは、この技術が訓練中によく起こる偏見によって支配されやすいため、深刻な結果をもたらす可能性があると警告しています。
それだけにとどまらず、AIが戦場のような制御不能な環境で活動すると、誤ったデータはさらに強化される可能性があります。これは倫理的な境界線を曖昧にし、生かされる権利を直接脅かします。
Xaiの名前を作成した人は、人種差別主義者やユダヤ人の差別声明を作成する際に議論の余地があり、そのようなシステムが決定的な状況で実装された場合に実際のリスクを示すことがありました。