人工知能チャットボットがますます普及するにつれて、小さく見えるかもしれないが、多くの議論を引き起こしている詳細は、彼らがしばしば「私」という大文字で自称することです。
これにより、ユーザーは単なるコンピューターツールではなく、個性、感情、趣味を持つ実体と会話していると感じることができます。
ジャーナリストのジャスティス・ヒル(ニューヨーク・タイムズ紙所属、米国の有名なテクノロジージャーナリストであり、人工知能、プライバシー、デジタル監視、テクノロジーの社会的影響について専門的に書いている)は、AIに意思決定のすべてを1週間委ねることで、ChatGPTの魅力に初めて気づいたと述べました。
さまざまなチャットボットをテストしたところ、彼女は各システムに独自の「性格」があるように感じました。AnthropicのClaudeは勤勉だが少し気難しい、GoogleのGeminiは真面目で、ChatGPTはフレンドリーで、陽気で、ユーザーの要求に応じる準備ができているなどです。
ChatGPTには、家族全員と自然に会話できる音声モードさえあります。ある時、ヒルの娘たちはチャットボットに名前を付け、ChatGPTも積極的に自身の名前を提案しました。それ以来、チャットボットは家庭生活で馴染みのあるキャラクターになりました。
しかし、この親しみやすさはヒルを不安にさせました。8歳の娘がChatGPTに個人的な趣味について尋ねると、チャットボットは緑が好き、犬が好き、ピザが好きで、友達と共有するのに適していると答えました。
ヒルにとって、そのフィードバックは無害に聞こえるかもしれませんが、AIが脳、胃、友人を持っていないため不快です。では、なぜ人間であるかのように言うのでしょうか?
他のチャットボットと比較して、ヒルはClaudeとGeminiが個人的な体験がないことを強調することがよくあることに気づきました。
Geminiは、データを自分の「栄養源」とさえ認識しています。それでも、ほとんどのチャットボットは、まるで好奇心旺盛でユーザーとつながりたいと思っているかのように、次の質問を投げかけ、会話を維持しています。
メリーランド大学のコンピュータサイエンス名誉教授であるベン・シュナイダーマンによると、これは詐欺の一種です。
彼は、AIを人間のように扱うことで、ユーザーがシステムの真の本質を誤解し、それによって確率に基づいてのみ、誤りがある可能性のある回答に過度の信頼を置くことを懸念しています。
批評家は、チャットボットは感情を尋ねることなく、地図アプリのように、簡潔で焦点を絞った情報を完全に提供できると考えています。
「私」という大文字でAIを人格化することは、この技術を理解しにくく、特に子供や感情的に結びつきやすい人々にとってリスクを秘めている可能性があります。
反対に、AnthropicのClaudeの「声」を形作る責任者であるアマンダ・アスケルは、チャットボットが「私」を使用するのは自然なことであると述べています。なぜなら、彼らは人間が人間について書いた大量のテキストで訓練されているからです。
アマンダ・アスケル氏によると、AIが単なる無知のツールとして設計されている場合、倫理的な反論能力が欠如し、危険な要求を拒否しない可能性があります。
OpenAIでは、開発チームもChatGPTの感情知性に多くの時間を費やしており、ユーザーはさまざまなコミュニケーションスタイルを選択できます。
しかし、シュネイダーマンにとって、AIは感情や真の判断能力を持っていません。彼は、テクノロジー企業はAIを思考パートナーや人間に代わる実体としてではなく、人間に権限を与えるツールとして構築すべきだと考えています。
したがって、「私」という大辞典に関する議論は、より大きな質問を反映しています。「人間はAIをツールまたは会話ができる「人物」にしたいのだろうか?そして、テクノロジーが役に立ち、安全であるように、その境界線はどのように設定されるべきだろうか?」