OpenAIの最新の人工知能(AI)によるビデオ作成ツールであるSoraの誕生は、人々の直感的な真実に対する認識を完全に変えています。
言語分野におけるChatGPTと同様に、Soraは動的なイメージの新しい時代を切り開き、真実と偽の境界線がますます曖昧になっています。
Soraアプリは現在iPhoneで無料で利用できます。ユーザーは、「牛の肋骨を盗まれた犬を記録した旅のカメラ映像」のような短い説明を入力するだけで、リアルなビデオを作成できます。
Soraが作成したビデオは信じられないほど鮮やかで、視聴者はどこが本物か、どこがAIの製品かを区別できません。発売からわずか数日で、SoraはApp Storeで最もダウンロードされたアプリケーションになりました。
しかし、その興奮の裏には深刻な懸念があります。TikTokやRedditで共有されている一連のユーモラスなエンターテイメントビデオに加えて、多くの人々がSoraを利用して誤った情報を拡散し、犯罪シーン、捏造されたテレビニュース、または他人を中傷するビデオなどの偽の証拠を作成しました。
専門家は、この技術は、かつてデジタル時代の確実性の基準と見なされていた視覚画像への信頼の終わりを告げる可能性があると警告しています。
カリフォルニア大学、バークレー校のレン・ン教授は、「人間の脳は、自分が見ているものを信じるようにプログラムされています。しかし、今日から、私たちは立ち止まって、そのビデオが実際に起こったかどうか自問自答せざるを得ません」と述べています。
Soraは、信憑性について論争を引き起こすだけでなく、多くのビデオがキャラクター、映画、テレビ番組の著作権を侵害する可能性があるため、ハリウッドを懸念させています。
OpenAIのCEOであるサム・アルトマン氏は、同社がフィードバックを収集しており、著作権所有者が画像の使用方法、およびこのプラットフォームからの収益源を管理できるようにする予定であると述べました。
ユーザー側は、OpenAIがポルノビデオ、テロ宣伝から健康に関する誤った情報まで、有害コンテンツを制限する措置を講じたと断言しました。
それでも、わずか数時間のテスト後、人々は交通事故や捏造されたスピーチなど、巧妙な偽クリップを作成することができました。
Soraのビデオには認識のぼやけた画像が含まれていますが、ユーザーは共有する前に簡単に削除できます。
専門家によると、AI技術はタイムリーな制御策を講じるために急速に発展しています。カリフォルニア大学のコンピュータサイエンス教授であるハニー・ファリド氏は、「AIがますます完成しているため、偽の動画を区別するためのヒントはすぐに役に立ちなくなるでしょう」と述べています。
Soraは、現代の人工知能の力とリスクの明確な証拠です。すべての写真やビデオが数行の説明だけで作成できる時代では、私たちが見ているものはもはや「実際に起こった」とは限りません。