生み出す人工知能(AI)モデルの爆発的な普及は、プライバシーとデータ所有権に関するますます大きな懸念を引き起こしています。
テクノロジー企業がAIトレーニング目的でユーザーデータを収集および使用するためにサービス規約をひそかに更新する一方で、個人ユーザーは自分のデータを保護するための情報やツールが不足しています。
最近、ファイル共有サービスWeTransferは、ユーザーがアップロードしたファイルを「機械学習モデルを改善する」ことを許可する条項を追加することで、反発に遭いました。
激しい反発を受けて、同社はこの条項を撤回せざるを得ませんでした。しかし、この事件は、AIに使用される個人データの抽出に関する国民の認識が高まっていることを示しています。
ツイート、ブログ記事からインスタグラムの写真まで、インターネット上で公開されているものはすべて、AIモデルの「ヒント」になる可能性があります。
一部のアーティストやクリエイターは、作品の著作権を保護するために訴訟を起こしていますが、通常のユーザーは、収集されるデータを制限するためにいくつかの小さな手順を実行できます。
Adobe:個人ユーザーは、プライバシーページにアクセスし、「製品を改善するためのコンテンツ分析」セクションを見つけてオフにすることができます。
Google Gemini:Geminiインターフェースで、[アクティベーション] > [ドロップダウンメニュー] > [アプリケーションのアクティベーションをオフにする] に移動します。
Grok(X.com):設定>プライバシーとセキュリティ>Grokに移動し、データ共有のチェックを外します。
LinkedIn:プロフィールにアクセス > 設定 > データプライバシー > AIトレーニングデータを使用できるオプションをオフにします。
ChatGPT&DALL·E(OpenAI):設定 > データ管理 > 「すべての人にモデルを改善する」を選択します。DALL-Eトレーニングデータセットから画像を削除したい場合は、フォームをOpenAIに送信する必要があります。
それにもかかわらず、拒否は以前に使用されたデータがないことを保証しません。多くの企業は、法的なトラブルを避けるために、トレーニングデータリストを秘密にしています。
Metaのような一部のプラットフォームは、個人データ保護法がより厳格なEUに住んでいる場合を除き、18歳以上のユーザーから公開データを収集します。
AIが絶え間なく進化している状況において、ユーザーは冷静になり、自分の個人情報を管理するためにセキュリティオプションを積極的に理解する必要があります。