Deepfakeはそういうものです。この技術は、人工知能を使って、人の顔、声、ジェスチャーを他人に「押し付け」、ありえないものをありふれたもののように見せかけ、自分の目さえ疑わざるを得なくなるほどです。
明るい面では、ディープラークは知的だがいたずらっ子のような子供のようなものです。それは映画が歴史的人物を蘇らせ、若い俳優が自分の古いバージョンと「対話」できるようにしたり、白黒写真よりも生き生きとした方法で亡くなった人々のイメージを保存するのに役立ちます。教育において、ディープラークは、有名な科学者が彼らの発明を直接説明する「出会い」があるときに、魅力的な講義を作成することができます...
Deepfakeは非常に人道的なものをもたらします。誰かを欺くためではなく、亡くなった人の声を再生するためにこのテクノロジーを使用する家族もいます。彼らの記憶を和らげるためです。話す能力を失った患者の中には、自分自身に近い声を「返す」ことができる人もいます。そのような瞬間に、deepfakeはもはや偽物ではなく、記憶と現在を結びつける脆弱な橋です。
しかし、ディープフェイクの暗い側面は、それが信頼、つまりソーシャルネットワーク時代にはすでに脆弱なものを直接攻撃することにあります。ビデオが、誰かがかつて言わなかったことを言ったり、かつてやらなかったことをしたりすると、名誉、評判、さらには個人の安全が数回クリックするだけで崩壊する可能性があると私たちに信じさせる可能性があるとき。
Deepfakeは、中傷、恐喝、世論の操作に使用されてきました。それは偽ニュースを「生きた証拠」に変え、真実と虚偽の区別を困難にします。昔は、「百聞は一見に如かず」と言いました。今でも、見たら...まだ真実かどうかはわかりません。
おそらく、他のすべてのテクノロジーと同様に、ディープフェイクは本質的に悪いも良いものではなく、問題は私たちがそれをどのように使用するか、どこに制限を置くかです。
適切なタイミングで懐疑的に考え、情報を検証し、真実を尊重することを知っていることは、ディープフェイク時代に必要な「抗体」となる可能性があります。テクノロジーに関しては、「トレンド」だけを追いかけるのではなく、責任も伴う必要があります。
友人が絶え間なく考えていると、妻は悲鳴を上げました。「ああ、ああ、女優Qが麻薬密売と慈善寄付金の横領で逮捕されたなんて。ああ、私のアイドルは今、そんなに堕落したのか?」
あなたは反射的に驚き、冷静に立ち止まりました。「もしかしたら、ディープラークに騙されたのかもしれません。知り合いに「確認」させてください!」
この混沌とした現実世界では、時にはその安易さが自分自身の信念を守るための最良の方法です。