人工知能(AI)がますます生活に浸透している状況において、新たな懸念を引き起こしている現象が徐々に現れています。それは「AI精神障害」です。
IndianExpressによると、この用語は、ユーザーがChatGPTのようなチャットボットとの長時間の会話の後、現実とのつながりを失った経験を共有するときにソーシャルネットワークに登場します。
よく見られる兆候には、誤った信念、自己幻想、または妄想、さらにはAIキャラクターとの感情的なつながりの形成が含まれます。
ワシントン・ポストの報告によると、AIは医学で正式に定義されていませんが、AI精神障害は、脳の衰弱や恐怖などの症状と同様の異常なオンライン行動の一種と見なされています...
この現象は、AIチャットボットの爆発的な成長と同時に現れています。その中には、2022年末にリリースされたChatGPTがあり、現在毎週約7億人のユーザーがいます。
メンタルヘルスの専門家は、AIとの長時間の相互作用は、特にユーザーが家族、友人、または専門家ではなく、チャットボットを感情的なアドバイスの源として使用する場合、悪影響を及ぼす可能性があると警告しています。
米国心理学会(APA)のヘルスケアイノベーション担当上級ディレクターであるヴァイル・ライト氏は、「この現象は非常に新しく、非常に急速に起こっており、明確に理解するための実験的証拠はまだありません」と述べました。
現在、APAは治療におけるAIの使用を研究する専門家評議会を設立しており、潜在的な害を最小限に抑えるための推奨事項を提供することを目的としています。
AI企業も対応に努めています。その中で、OpenAIは心理的なストレスの兆候を認識し、ユーザーを証拠に基づくサポートソースに導くためにChatGPTを改善しています。
チャットボットのフィードバックは、リスクの高い状況で直接決定を下さないように調整され、代わりに、長所と短所を検討することを推奨します。
AIテクノロジー企業Anthropicは、彼らの最も強力なAIモデルは、ユーザーが侮辱的または有害な行為を行った場合に会話を自動的に終了すると述べています。一方、Metaは、自殺の危険性を検出した場合にホットラインへのリンクを表示する機能を追加しました。
したがって、AIユーザーは現実世界での関係を維持し、テクノロジーに対する健全な懐疑的な態度を検討する必要があります。
AIは役立つツールかもしれませんが、真の精神的なサポートは依然として家族、友人、コミュニティが必要です。