リリースからわずか数日後、OpenAIの人工知能によるビデオ作成アプリケーションSoraは、ユーザーが選挙詐欺、ストリート犯罪から前例のないデモまで、一連の偽造されたが非常にリアルなビデオを作成するために使用したことで、激しい論争を引き起こしました。
GoogleのVeo 3や他のAIビデオ再生ツールと同様に、Soraはコマンドラインだけでアイデアを動的な画像に変換できると評価されています。
ユーザーは自分の写真や声をアップロードし、AIに完全に想像上の背景に組み込むことができます。
このツールは、有名人、ブランドロゴ、または亡くなった歴史的人物のイメージを再現することさえできます。
サイバーセキュリティ専門家と学者は、ソラの能力が前例のない規模で誤った情報の拡散のリスクを加速させていると警告しています。
「私は経済と社会制度の両方を懸念しています」と、ハニー・ファリド教授(カリフォルニア大学、バークレー校)は強調しました。
ファリド氏によると、高感度のビデオは、すべてが偽造される可能性があるため、大衆の視覚への信頼を失う可能性があります。
OpenAIによると、Soraは、暴力、政治、または有名人のイメージ拒否などのコンテンツ保護対策を講じた厳格な安全テストプロセスの後にリリースされました。
アプリケーションは、AIが作成したビデオを特定するために、動的な画像も取り付けています。
しかし、専門家は、これらの対策は容易に見過ごされ、ユーザーは依然として匿名アカウントを登録したり、故人や非現実的な人物に関する誤ったビデオを作成したりする可能性があると述べています。
ニューヨーク・タイムズのテストによると、ソラは依然として、店舗強盗、爆弾、さらにはOpenAIのCEOであるサム・アルトマンが盗んでいる偽画像など、デリケートな要素を含むビデオを作成できます。すべてAIで演出されています。
そのようなビデオは、ソーシャルネットワーク上で拡散すると、世論を操作し、陰謀説を爆発させる可能性があります。
クリスティアン・ハモンド教授(ノースウェスタン大学)はこれを「嘘つきの効果」と呼び、偽のビデオが蔓延すると、視聴者は真実の証拠さえも疑うだろう。
CivAIの創設者であるルーカス・ハンセンは、「真実の最後の砦はビデオが崩壊している」と述べています。
OpenAIはSoraを周到かつ責任ある方法で展開することを約束していますが、多くの研究者は、超現実的なAIビデオの新しい時代は、社会に信念と信頼の概念を再構築することを強制すると考えています。
「わずか1年前には、私は本物の写真と偽物の写真を肉眼で区別することができました。しかし、今では専門家でさえも確信が持てません」とファリド教授は言いました。