人工知能(AI)研究における重要な進歩が発表されました。AI Sapient社(シンガポール)の科学者が、人間の脳がどのように情報を処理するかからインスピレーションを得て、階層理論モデル(HRM)を紹介しました。
試験結果は、HRMがChatGPTを含む、今日の多くの大規模言語モデル(LLM)よりも優れていることを示しています。
数十億から数兆のパラメータに基づいた一般的なLMとは異なり、HRMはわずか2700万のパラメータと1 000のトレーニングモデルしか使用しませんが、それでも目覚ましい効果を達成しています。
研究グループによると、HRMは、低速、抽象的な計画処理を処理するハイレベルモジュールと、詳細、迅速な処理を行う低レベルモジュールを備えた、脳の階層化およびマルチタイムメカニズムをシミュレートしています。
そのおかげで、HRMは、現代LLMによく適用されている思考連鎖法(CoT)のような多くの複雑なステップを経る代わりに、単に1回の進捗で順番に推論できます。
ARC-AGI標準テストでは、包括的な人工知能(AGI)への近道の尺度であるHRMが印象的な結果を達成しました。
ARC-AGI-1では、モデルは40.3%を達成し、OpenAI 03-mini-high(34.5%)、Claude 3.7(21.2%)、DeepSeek R1(15.8%)を上回りました。ARC-AGI-2では、HRMは5%を達成しましたが、他の多くのモデルはほとんど達成できませんでした。
特筆すべきは、HRMはスズドゥークを解き、LLMがしばしば失敗する問題である迷宮の道を見つけることができたことです。
HRMのもう1つの特別な点は、粗い回答から始めるときに「繰り返し調整」する能力であり、その後、短い思考、最適な結果が出たときに継続的にテストすることにより徐々に改善されます。このアプローチは、論理的で構造化された問題を処理するモデルをより効果的にします。
しかし、専門家は、研究はarXivデータベースでのみ公開されており、承認されていないと指摘しています。
ARC-AGI評価グループは、HRMがオープンソースになった後、多くの結果を確認しましたが、改善は完全に階層構造によるものではなく、訓練における微調整プロセスに関連している可能性があります。
さらなる検証が必要ですが、HRMは、コンパクトでデータ節約のAIモデルの開発の見通しを開きますが、強力な推論能力を備えており、全体的な人工知能時代への近づきです。