何百万人もの人々が心理的なアドバイス、感情の共有、または精神的な解放を求めるためにChatGPTに頼っている一方で、最近、OpenAIのCEOであるサム・アルトマン氏は、注目すべき警告を発しました。ChatGPTとの会話は、多くの人が誤解しているほど法的セキュリティを備えています。
Theo Vonが司会するポッドキャスト「This Past Weekend」の最近のエピソードで、アルトマン氏は、ユーザーとAIチャットボット間の会話におけるプライバシーを保護するのに十分な明確な法的枠組みはまだないと認めました。
「もしあなたが医師、弁護士、セラピストと話しているなら、その関係は法律で保護されています。しかし、ChatGPTではそうではありません」と彼は言いました。
AIがますます一般的な「仲間」になりつつあるため、特に若者にとって問題は深刻になっています。人間関係の矛盾を解決することから深刻な心理的問題まで、ユーザーは法的に十分に保護されていないプラットフォームに意図せずに信頼を置いているのです。
「法的な紛争が発生した場合、ユーザー情報の提供を要求される可能性があり、私はそれがひどいと思います」とアルトマン氏は強調しました。
WhatsAppやSignalのようなバックエンド暗号化されたアプリケーションとは異なり、ChatGPTとのチャットデータはOpenAIによって保存、アクセス、および使用され、モデルを訓練したり、違反行為を検閲したりできます。
会社が30日以内に無料の会話を削除することを約束しているにもかかわらず、特に治安や法的紛争に関連するケースでは、法的理由で保留される可能性があります。
この現実は、AIをセラピーや感情カウンセリングのツールとして使用する際のプライバシーと倫理性について真剣に疑問を投げかけています。
テクノロジーと個人生活の境界線がますます曖昧になるにつれて、ユーザーはチャットボットがどれほどあなたに耳を傾けようとも、機密情報を共有する前に慎重に検討する必要があります。