人工知能AIも人間と同じように短期記憶を持つようになると

Cát Tiên (THEO INDIANEXPRESS) |

AI チャットボットの「メモリの損失」現象は、モデルがトークンの制限を超え、会話内の古い情報を強制的に削除することにより、コンテキスト ウィンドウから発生します。

ChatGPT、Gemini、Claude などの AI チャットボットは、デジタル ライフで人気のツールになりつつあります。ただし、ユーザーは奇妙な現象に気づくことがよくあります。一定期間チャットを続けると、これらのモデルは「記憶を失って」いるように見え、今言ったことを忘れたり、繰り返したり、間違った答えをし始めたりします。

技術専門家によると、この問題はコンテキスト ウィンドウと呼ばれる主要な技術概念に起因するとのことです。

YouTuber であり AI 研究者の Matt Pocock 氏は最近、自身のビデオの中で、コンテキスト ウィンドウは大規模言語モデル (LLM) の動作における最も重要だが誤解されやすい制限であると共有しました。簡単に言えば、人工知能の「短期記憶」です。

コンテキストウィンドウとは何ですか?

ユーザーが質問と回答モデルを送信するたびに、テキスト全体がトークンと呼ばれる小さな単位に分割されます。各トークンは、複数の文字または単語の一部を表すことができます。会話内のすべてのトークンは、モデルがいつでも確認できるコンテキストを構成します。

モデルのコンテキスト ウィンドウが 200,000 トークンの場合、記憶できる情報は限られています。この制限を超えると、古い事実が徐々に削除され、AI が会話の最初の部分を忘れてしまいます。

たとえば、Claude 4.5 は最大 200,000 個のトークンを記憶できますが、Gemini 2.5 Pro は最大 200 万個のトークンを処理できます。対照的に、LLaMA や Mistral のような小規模モデルは数千に制限されています。

なぜAIは無限のメモリを持つことができないのでしょうか?

コンテキスト ウィンドウの容量を増やすことは、常に可能なわけではありません。追加のトークンごとに計算リソースとメモリが消費され、運用コストが上昇します。

さらに、コンテキストが大きすぎると、干し草の山から針を見つけるように、モデルが適切な詳細を見つけることが困難になります。

さらに重要なのは、各モデルは固定されたアーキテクチャ上の制約に従って設計されているため、パフォーマンスを犠牲にすることなく単純にメモリを無制限に拡張することは不可能です。

途中で忘れる:AIが物語の中盤を忘れたとき

ポーコックは、文脈制限に典型的な現象を「中間点忘却」と呼んでいます。これは、大まかに「途中で道に迷う」と訳されます。

AI は通常、会話の始まり (指示) と終わり (最新のメッセージ) に重点を置き、会話の途中にはあまり注目しません。

このメカニズムは、LLM モデルがトークンに注意を割り当てる方法に由来しています。人間と同じように、彼らは最近起こったことを優先します。その結果、真ん中にある情報は重要ではありますが、簡単に忘れられてしまいます。

これはプログラマーにとって特に困難です。開発者が AI に数百行前のコードのバグを修正するよう依頼した場合、モデルはその部分が注意を逸れてしまったため、正しく覚えていない可能性があります。

プログラム可能な AI ツールによる影響

Claude Code や GitHub Copilot などのツールもコンテキスト ウィンドウ内で動作します。プロジェクトやセッションが長すぎると、コマンドを忘れたり、誤って応答したり、応答を停止したりする可能性が高くなります。

したがって、プロのユーザーは、AI が集中力を維持できるようにセッションを分割、要約、またはリセットする必要があることがよくあります。

ChatGPT や Gemini などのチャットボットが「忘れられる」という事実は、システム エラーではなく、現在のテクノロジーの自然な限界です。

テクノロジー企業がコンテキスト ウィンドウの拡大とメモリ機能の最適化を続けると、将来的には AI モデルがより長く記憶し、より深く理解し、真の人工知能に近づく可能性があります。

Cát Tiên (THEO INDIANEXPRESS)
関連ニュース

ジャンクデータにより AI の信頼性が低下し、危険な誤解を招く応答が容易に作成される

|

コーネル大学の研究は、ChatGPTのようなAIモデルもオンラインのジャンクコンテンツに長期間さらされると人間と同様に「脳の変性」を起こす可能性があると警告している。

インド、ディープフェイクの増加を防ぐためにAI規制を強化

|

インドは、誤った情報やディープフェイク動画の増加を防ぐことを目的に、人工知能(AI)を規制するための包括的な新たな規制を提案した。

AI機能は1日あたり80億件以上のアクセスがあり、無料で公開されています

|

Snapchat は、ユーザーが任意のプロンプトに従って画像を作成できるプラットフォーム初の AI レンズである Imagine Lens を無料で公式に提供しています。

ベトナム・カンボジア友好交流フェスティバルの準備で賑わいを見せる

|

タイニン – 第 2 回ベトナム・カンボジア国境防衛友好交換プログラムの準備が整いました。

細菌の遺伝子配列決定により、ホーチミン市のパン中毒の原因が明らかになった

|

ホーチミン市 - ホーチミン市保健局とOUCRUは、パン中毒の原因を解明するために微生物培養検査と細菌の遺伝子配列決定を継続的に実施している。

ファム・クアン・ゴック氏がフンイエン省人民委員会委員長に選出

|

フン・イェン - 11月12日、2021年から2026年までの第17期省人民評議会は第33回会議を開催し、多くの重要な問題を検討し決定した。

韓国映画ではこれまで見たことのない形でベトナムが登場する

|

ベトナムで撮影された韓国映画「君がスタンバイしたように」のエンディングシーンは多くの観客を驚かせ、喜ばせた。

ジャンクデータにより AI の信頼性が低下し、危険な誤解を招く応答が容易に作成される

Cát Tiên (THEO INDIANEXPRESS) |

コーネル大学の研究は、ChatGPTのようなAIモデルもオンラインのジャンクコンテンツに長期間さらされると人間と同様に「脳の変性」を起こす可能性があると警告している。

インド、ディープフェイクの増加を防ぐためにAI規制を強化

NGUYỄN ĐĂNG |

インドは、誤った情報やディープフェイク動画の増加を防ぐことを目的に、人工知能(AI)を規制するための包括的な新たな規制を提案した。

AI機能は1日あたり80億件以上のアクセスがあり、無料で公開されています

HẠO THIÊN |

Snapchat は、ユーザーが任意のプロンプトに従って画像を作成できるプラットフォーム初の AI レンズである Imagine Lens を無料で公式に提供しています。