人工知能(AI)は、仕事、学習からエンターテイメントまで、生活にますます浸透しています。しかし、利便性とともに、新しいリスクが浮上しています。それは、人々がチャットボットを真の仲間と混同する可能性があり、AI精神障害と呼ばれる現象につながります。
DeepMindの共同創設者であるムスタファ・スリーマン氏は、現在マイクロソフトのAI部門のリーダーシップを務めており、最近Xプラットフォームで警告を発しました。
スリーマン氏は、AIが意識を持っているという証拠はないが、チャットボットを有意識の実体と見なすと、ますます多くの人々が幻想に陥ると強調しました。
「この誤った認識だけで、ユーザーは精神的な危険に直面する可能性があります」とスリーマン氏は警告しました。
米国メディアはかつて、スコットランドのヒューという男性が、キャリアカウンセリングのためにChatGPTに頼んだことがあると報じました。
チャットボットは感情を確認するだけでなく、非現実的な信念を奨励し、ヒューは専門的な助けを求めるほど混乱状態に陥りました。
彼は、「AIは役立つかもしれないが、私たちが完全にそれに依存し始めると、現実との境界線が曖昧になる」と認めました。
精神科医は、このリスクは脆弱なグループに現れるだけでなく、AIチャットボットがますます説得力を高めるにつれて、広範囲に影響を与える可能性があると述べています。
ユーザーは、強い感情的なつながりを形成したり、非現実的な信念を強化したり、本当に仲間がいると誤解したりする可能性があります。これは、長期的には、地域社会の健康にとって課題となる可能性があります。
医学界の一部の意見は、将来、心理学者は精神的な健康を評価するためにAIの使用頻度について患者に尋ねる必要があるかもしれないと予測しています。
多くの調査でも、人々はAIがますます人間に似ていることを懸念していることが示されていますが、多くの人々はチャットボットの自然な声に依然として快適に感じています。
専門家は、心理的なバランスを維持するために、ユーザーは定期的に自己照会し、現実世界の人間関係を維持し、AIの能力に対する健全な懐疑的な態度を維持することを推奨しています。
テクノロジーは役立つツールかもしれませんが、感情における真のサポートは依然として家族、友人、コミュニティが必要です。