人工知能と人間の自然な学習能力との間のギャップを縮める取り組みとして、Google は HOPE (Hierarchively Optimized Progressive Encoder) と呼ばれる新しい AI モデルを発表しました。
これは、時間の経過とともに学習、適応、改善できる AI の一種である汎用人工知能 (AGI) への取り組みにおける大きな前進と考えられています。
11月8日(現地時間)にGoogleのブログで発表されたように、HOPEはGoogleの研究チームが考案した新しいアプローチであるNested Learningの概念に基づいて構築されている。
従来の線形トレーニングとは異なり、この学習方法は AI モデルをマルチレベルの学習問題のシステムとして捉え、同時にリンクおよび最適化することで、AI が長いコンテキストを処理し、古い知識を忘れることなく継続的に学習できるようにします。
研究者らは、この方法により、現在の大規模言語モデル (LLM) の固有の弱点である壊滅的忘却 (CF) を克服できると述べています。
LLM は詩を書いたり、コードを作成したり、自然に会話したりできますが、人間の脳が毎日行っているスキルである経験から学ぶことはできません。
Google によると、モデルとトレーニング アルゴリズムが同じ構造の両面とみなされる場合、入れ子学習は AI 設計のまったく新しい次元を切り開きます。
ネストされた学習レベルを組み合わせることで、HOPE は以前の経験に基づいて動作を記憶、修正、最適化できますが、これは現在のモデルではほぼ不可能です。
Google DeepMind で働いていた有名な研究者 Andrej Karpathy 氏は、本当に継続学習が可能なシステムはないため、AGI は人類にはまだ遠いとコメントしました。しかし、HOPE の立ち上げは、そのギャップを埋める最初のシグナルとなる可能性があります。
NeurIPS 2025 カンファレンスで発表された科学論文の中で、Google 研究チームは、HOPE は計算の複雑さが低いだけでなく、さまざまな言語および推論タスクでテストした場合、最先端のモデルよりも高い精度を達成すると主張しています。
入れ子学習の原則を適用することで、エンジニアは AI が体系的に学習し、新しいデータに柔軟に対応できるようにする深層学習コンポーネントを設計できます。
Googleは、「このアプローチは、現在のLLMモデルと人間の脳の驚異的な学習能力との間のギャップを埋めるための基礎であると信じている」と強調した。
HOPEが成功すれば、機械が思考をシミュレートするだけでなく、自己学習し、自己改善し、人間と同じくらい長く記憶できるようになる、人工知能業界の転換点となる可能性がある。