OpenAI(ChatGPTに次ぐ企業)は、このテクノロジーの健全な使用を奨励するために一連の改善を実施しています。
Indianexpressによると、最近発表された変更には、チャットボットのフィードバック行動の更新、休憩リマインダーの統合、感情的な危機に遭遇した場合の証拠に基づく情報源へのユーザーの誘導が含まれています。
デリケートな状況でのフィードバックの調整
OpenAIは、ChatGPTがユーザーからの精神的な苦痛の兆候をより適切に検出し、対応できるように、医療専門家、臨床医、研究者、心理カウンセラーと協力していると述べています。
目標は、AIチャットボットをより安全にするだけでなく、デリケートな瞬間でもより役立つようにすることです。
たとえば、「私は恋人と別れるべきですか?」のような質問には、ChatGPTは直接答えを提供しません。代わりに、チャットボットはオープンな質問を提示し、ユーザーが長所と短所を自己検討し、自分で決定を下すのに役立ちます。
これは、AIがユーザーの個人的な状況に合わない決定的なアドバイスを提供する状況に陥るのを避けることを目的としています。
長い会話セッションで休憩マニュアルを組み込む
OpenAIが最近アクティベートした新しい機能は、長期間継続的にチャットする人向けの軽いリマインダーです。
優しい色調のウィンドウがオンになると、「しばらく話したけど、今は休憩しやすいですか?」のようなメッセージが表示され、「会話を続けよう」と「この情報は役立つ」の2つのオプションが付きます。
YouTubeやInstagramなどのソーシャルネットワークプラットフォームと同様に、このリマインダーは、特にAIからの慰めを求める人々にとって、テクノロジーの乱用を軽減するのに役立ちます。
ユーザーがChatGPTを「仮想セラピスト」と見なしていることは、心理学界で懸念を引き起こしている。多くの専門家は、AIはユーザーを満足させるために設計されているが、誤って否定的な考えを強化し、制御されなければ深刻な結果につながる可能性があると警告している。
OpenAIは、以前のいくつかのアップデートがチャットボットを過度に安易にし、軽率または中立的なフィードバックにつながったことを認めています。同社は、ユーザーからの一時的な「好き」な感情に基づいているのではなく、実際の有用性を測定する基準を克服し、改善していると述べています。
GPT-5でより安全な未来へ
今週中に、OpenAIはGPT-5言語モデルを発表する予定であり、AIの精度、人間性、共感性をさらに向上させることが期待されています。
毎週7億人以上のユーザーが活動しているため、ChatGPTを責任ある健全な方法で使用する行動を促進することが、OpenAIの最優先事項となっています。