2022年、Appleは、このシステムがユーザーを監視するために悪用される可能性があるという告発を受けて、児童性的虐待文書(CSAM)の発見計画を放棄しました。
代わりに、Appleは、子供に送信されるヌード写真のぼやきを軽減する「An toan Giao tiep」と呼ばれる機能セットに切り替えました。ただし、これらの対策は、CSAMの乱用と報告を完全に阻止するには不十分です。
ガーディアン紙によると、英国児童犯罪防止協会(NSPCC)は、アップルがiCloud、FaceTime、iMessageなどのサービスで多くのCSAM問題を過小評価していると報じました。
すべての米国のテクノロジー企業は、発見されたCSAM症例を国家失踪・搾取児童センター(NCMEC)に報告するように求められ、2023年にはアップルは267件の報告を行いました。
しかし、NSPCCは、英国とウェールズだけで、アップルが2022年4月から2023年3月までの期間に337件の違反に関与していることを発見しました。
NSPCCの児童安全に関するオンラインポリシー責任者であるリチャード・コラード氏は、懸念を表明しました。「アップルのサービスで発生している児童性的虐待の画像犯罪の件数と、アップルが政府に送信する児童性的虐待コンテンツに関する世界的な報告件数との間には、セキュリティと開発の準備に投資すべきすべてのテクノロジー企業と比較して、懸念される違いがあります。アップルは明らかに、同業他社よりも児童性的虐待問題の解決に遅れをとっています。
Appleと比較して、他のテクノロジー企業はCSAMの症例数を大幅に多く報告しています。Googleは2023年に1 470.958件以上の症例を報告しました。同時期に、MetaはFacebookで17 832 822件、Instagramで11 447 075件の症例を報告しました。特筆すべきは、MetaのWhatsAppもAppleのiMessageと同様に暗号化されており、2023年に約1 389.618件のCSAMの疑いのある症例を報告しました。
この格差は、Appleが自社のプラットフォーム上で子供たちを保護するというコミットメントについて多くの疑問を投げかけています。一部の児童虐待の専門家は、Appleがこの問題に効果的に対処できていないこと、および報告書の透明性の欠如が状況を悪化させる可能性があると懸念しています。
一方、AppleはThe Guardianに、ユーザーの全体的なプライバシーに関する以前の声明にのみ言及しており、他の企業よりもはるかに少ない報告書数について明確に説明していません。
言及されているもう1つの要因は、AIによって作成されたCSAM画像に対する懸念です。テクノロジーがますます強力に発展するにつれて、人工知能から真実の画像を作成する可能性も高まっています。しかし、アップルインテリジェンスは、発売予定であるため、これらの真実の画像を作成せず、コミュニティからの懸念を軽減します。
一般の人々と児童保護団体からのプレッシャーが高まっている状況において、アップルは自社のサービスにおける児童性的虐待の問題に対処するために、より具体的で透明性の高い対策を講じる必要があります。
透明性と完全な報告の欠如は、同社だけでなく、世界中の何百万人ものAppleサービスを利用する子供たちにとっても深刻な結果をもたらす可能性があります。効果的な保護および監視対策への投資は、若いユーザーの安全を確保し、テクノロジー業界におけるAppleの信頼と責任を維持するために必要なステップとなります。