カリフォルニア州(米国)の連邦裁判所の記録によると、Metaのユーザー調査では、Instagramを使用している13歳から15歳のティーンエイジャーの19%が、このプラットフォームで見たくないヌード写真やポルノコンテンツを見たことがあると認めています。
この文書は、メタに対する訴訟の一部として公開されており、インスタグラムの責任者であるアダム・モセリ氏の2025年3月の証言からの抜粋が含まれています。
それによると、データは、掲載されたコンテンツの直接的なレビューではなく、プラットフォーム上の実際の体験を評価することを目的とした2021年のユーザー調査から得られました。
デリケートなコンテンツの問題だけでなく、供述によると、13歳から15歳の年齢層のユーザーの約8%が、同じ調査でInstagramで自傷行為または自傷行為の脅迫に関連する投稿を見たことがあると述べています。
訴訟で公開された別の内部文書は、Metaの研究者が、同社が青少年ユーザーグループに強く焦点を当てるべきであると勧告したことを示しています。なぜなら、彼らは家族の「触媒」と見なされており、親や幼い子供がアプリを使用することに影響を与えるからです。
2021年1月20日付の覚書は、新規ユーザーの獲得と維持は、この年齢層の影響力に大きく依存していることを強調しています。
現在、Metaは、ソーシャルネットワークが若者のメンタルヘルスに与える影響について、世界中の政策立案者や規制当局から多くの批判に直面しています。
米国では、連邦および州レベルで数千件の訴訟が起こり、同社が中毒性のある製品を設計し、青少年の心理的危機を悪化させていると非難しています。
Metaの広報担当者であるアンディ・ストーン氏は、機密コンテンツへの曝露に関するデータは、ユーザーエクスペリエンス調査の結果のみを反映しており、プラットフォーム上のコンテンツの全体的な出現レベルの評価ではないと述べました。
同社は、青少年に焦点を当てた戦略に関連する内部覚書について、これ以上コメントしていません。
2025年末、Metaは、教育的または医療的な場合を除き、人工知能で作成された場合でも、ヌードコンテンツまたは明らかな性的行為を含む画像やビデオを削除することにより、若いユーザーの保護措置を強化すると発表しました。
供述の中で、モセリ氏はまた、機密コンテンツの大部分はユーザー間のプライベートメッセージを介して共有されており、同社はコンテンツの管理と個人のプライバシーの保護の間でバランスを取らざるを得なかったと述べました。