
2025年10月初旬に発売されたSora 2を使用すると、ユーザーはテキストで短いビデオクリップを作成したり、他人の製品を組み合わせて編集したりできます。アプリケーションは現在iOSのみで動作し、招待された場合にのみ使用できますが、GoogleのGeminiとChatGPTの両方を迅速に上回り、米国のAppleの無料アプリランキングをリードしています。
OpenAIによると、Sora 2は、高感度の新世代のビデオおよびオーディオ作成モデルを使用しており、ほぼリアルなシーンの作成とオーディオ同期が可能です。しかし、リリースからわずか数日後、ソーシャルネットワークX(以前はTwitter)には、法律違反行為を行っているCEOの偽クリップを含む、多くの物議を醸す動画が登場しました。
これらのコンテンツは、AIビデオが大規模なディープファクトを作成するツールとなり、個人、企業、情報セキュリティに影響を与える可能性があるという懸念を引き起こしています。専門家によると、明確な検閲メカニズムとラベル付けがなければ、創造性と真実歪曲の境界線はますます曖昧になります。
その反応に先立ち、OpenAIは、ユーザーがプラットフォーム上で画像の使用方法を決定できる安全な制御クラスを確立したと断言しました。「私たちはフィードバックに耳を傾け、日々改善に努めています」と、Soraプロジェクトの責任者であるビル・ペイブラス氏はXネットワークに書きました。
しかし、国際的な弁護士は、OpenAIは、TikTokやMetaがかつて遭遇したと同様の法的課題に依然として直面すると考えています。AIが作成したコンテンツの真の所有者は誰なのか?ユーザーは違法に使用されたときに動画を削除する権利があるのか?
論争にもかかわらず、Sora 2はデジタルメディアの新たな段階を切り開きました。そこでは、ビデオはアイデアから即座に作成できます。しかし、その可能性自体が、社会が真実と偽の世界、つまりコマンドラインからわずか1行の距離しかない世界に立ち向かう準備ができているかどうかというより大きな疑問を提起しています。