これまでの人工知能競争の大部分は、モデルを推論においてますます賢くする方法に焦点を当てていましたが、OpenAIのCEOであるサム・アルトマン氏は別の視点を示しました。彼によると、将来のAIの真の転換点を生み出す要因は、論理ではなく記憶です。
最近のテクノロジージャーナリストのアレックス・カントロウィッツとのポッドキャストで、サム・アルトマンは、AI企業は大きな言語モデルの推論能力に焦点を当てすぎている可能性があると述べました。
サム・アルトマン氏は、次の大きな進歩は、AIシステムが、ユーザー、好み、および長期間のすべてのインタラクションを記憶する能力という、ほぼ無限のメモリのようなものを手に入れることになると述べています。
アルトマン氏は、ChatGPTは近年、精度から自然な対話能力まで、目覚ましい進歩を遂げてきたと認めました。
しかし、彼はまた、メモリ機能こそが真の違いを生み出す要素であると強調しました。
メモリにより、AIはもはや単一の質問に応答するツールではなく、ユーザーを深く理解し、時間の経過とともに持続可能なシステムになる可能性があります。
現在、ChatGPTのメモリ機能により、チャットボットはユーザーが会話中に共有する情報を保存でき、おなじみの詳細を繰り返す必要がなくなります。
アルトマン氏によると、これはほんの始まりに過ぎません。将来的には、AI記憶は、大きな趣味から小さな習慣まで、「あなたの人生全体のすべての詳細を記憶する」レベルまで発展する可能性があります。
人間と比較して、アルトマンは、最高のパーソナルアシスタントでさえ、他の人がかつて言ったことをすべて思い出すことができないと述べています。
対照的に、AIは生物学的に制限されていないため、理論的には無限のメモリを持つことができます。これは、AIシステムがますます深くパーソナライズされ、人間との長期的な共感を生み出す可能性さえあるという見通しを開きます。
しかし、そのような広範な記憶力は、プライバシーとデータセキュリティに関する深刻な懸念を引き起こしています。AIシステムが大量の機密情報を保持することは、管理、セキュリティ、および使用制限について疑問を投げかけています。
それにもかかわらず、アルトマン氏は、適切に管理されれば、人間はAIを受け入れ、信頼できる関係を築くことができると信じています。
そのような状況下で、OpenAIもますます大きな競争圧力にさらされています。Googleは最近、期待を上回ると評価されているGemini 3で注目を集めています。
この状況に先立ち、先月初め、サム・アルトマンはレッド警報を発表しました。これは、同社がコードネームGarlicという新しい大規模な言語モデルにリソースを集中させていることを示しています。
これらの動きは、OpenAIがパフォーマンスだけでなく、AIの未来を再構築する方法を模索していることを示しています。そこでは、アルトマンは、推論だけでなく、全体的な人工知能(AGI)への旅の基盤となるでしょう。