大手テクノロジープラットフォームを監視する組織であるTech Transparency Project(TTP)の新しいレポートによると、研究者たちはGoogle Playストアで55のディープラーク「ヌードフォト」アプリケーションとApple App Storeで47のアプリケーションを発見しました。
これらのアプリケーションを使用すると、ユーザーは人工知能技術を使用してデジタル服を削除したり、裸の体に本物の顔を合成したりできます。
世論を特に懸念させているのは、上記のアプリケーションは、ソーシャルネットワークで公に共有されることが多い個人写真を使用するだけで簡単にダウンロードできるということです。
TTPによると、「nudify」や「undress」などのキーワードで検索すると、世界で最も人気のあるアプリストアの両方に多数のアプリが依然として表示されます。
テストの過程で、研究チームは、元の写真にまったくデリケートな要素がないにもかかわらず、多くのアプリケーションが非常にリアルな性的またはヌード画像を作成する能力があることを発見しました。
これは画像のディープフェイク形式であり、プライバシーと個人の名誉を侵害するとして激しい論争を引き起こしている技術です。
特筆すべきは、これらのアプリケーションの総ダウンロード数が7億回を超え、1億1700万米ドル以上の収益をもたらしたことです。
流通の仲介役を担うアップルとグーグルも、アプリケーションでの取引から利益の一部を得ています。
この数字は、2つのテクノロジー大手のコンテンツ検閲責任に関する疑問をさらに厳しくしています。
調査はまた、多くのアプリケーションが青少年、さらには子供に適したランキングに分類されているという憂慮すべき事実を指摘しました。
たとえば、ドリームフェイスアプリは、Google Playで13歳以上、Apple App Storeで9歳以上のユーザー向けであると評価されていますが、AIを使用して感度の高い画像を作成する機能があります。
世論の圧力に直面して、Appleは報告書が発表された後、24のアプリケーションを削除したと発表しましたが、この数はTTPが特定した47のアプリケーションよりもはるかに低いです。
一方、グーグルは、ポリシーに違反する一部のアプリケーションを一時停止したことを確認しましたが、削除された具体的な数を明らかにすることを拒否しました。
TTPの報告書は、xAIのAIツールGrokも、子供に関連するコンテンツを含む、同意のない大量のデリケートな画像を作成していることが判明した状況で発表されました。
これは、テクノロジープラットフォームがAIが生み出すリスクを効果的に制御できていないことに対する懸念をさらに高めています。
専門家によると、AIによる「ヌード」アプリケーションは、メンタルヘルスに深刻な害を及ぼすだけでなく、ディープラークポルノの犠牲者になることが多い女性や少女に対する暴力と差別の増加にも寄与しています。
この現状に先立ち、英国を含む多くの国が、デジタル衣料品を削除するAIツールを完全に禁止することを検討しており、それらの作成と配布を違法行為と見なしています。