フランスと米国の両方の国籍を持つコンピューター科学者であるヤン・ルクンは、「人工知能の父」の一人と見なされています。彼は、大規模言語モデル(LLM)が真の知能能力について過大評価されているという率直な見解を示しました。
Pioneer Worksの科学ディレクターであるJanna Levinが最近開催した交流会で、DeepMind(グーグル)の研究グループのリーダーであるアダム・ブラウン氏が参加して、LeCunはLLMは言語から意味を抽出して再現できるが、それはほんのわずかなレベルにとどまる可能性があると述べました。
彼によると、人間とは異なり、これらのモデルの知性は、現実世界の物理的経験や常態に基づいていない。
LeCunは、LLMは約30兆語で訓練されており、ほぼすべての文書がインターネット上で公開されていると指摘しています。
この量のデータを完全に読むには、人間は50万年以上かかるだろう。しかし、彼は、4歳の子供も、人生の初期に同等の量の情報、画像、および現実的な経験を受け入れており、さらにははるかに豊富で複雑であると強調した。
LeCunによると、それは世界との生活と交流が、テキストだけを読むよりもはるかに深い知識をもたらすことを示しています。
AIと自動化が広く応用されている状況において、LeCunは、LLMの優れた言語操作能力によって世界が騙されていると警告しています。
彼は、1950年代から、マルビン・ミネッシー、ネウェル、サイモンからフランク・ローゼンブラットまで、多くの世代のAI科学者が、わずか10年で機械は人間に匹敵する知性を達成すると信じていたことを思い出させました。
「彼らは皆間違っています。現在のLLM世代もそうです」とLeCunは述べ、自身のキャリアの中で3つの同様の誇張のサイクルを目撃したと述べました。
この見解は、LLMが包括的な人工知能(AGI)への最短ルートと見なされているシリコンバレーの一般的な傾向とは対照的です。
ルクン氏は、データ規模と計算力の継続的な拡大は、70年以上にわたって存在してきた期待と失望の渦を繰り返しているに過ぎないと述べました。
LLMの限界を説明するために、LeCunは非常に日常的な例を挙げました。「食卓を囲み、皿を食器洗い機に入れる。」弁護士の試験を突破したり、複雑な問題を解いたりしても、LLMは10歳の子供や動物でさえできる直感的な物理学を把握することはできないと彼は強調しました。「猫のように物理世界をうまく理解できるロボットはまだありません。」
技術的には、LeCunはLLMはトークン、つまり一連の次の単語を予測することによって機能すると説明しています。このアプローチは言語に適していますが、継続的で多角的で無数の可能性を含む現実世界に適用すると失敗します。「私は20年間試しましたが、効果がありませんでした」と彼は認めました。
LLMに懐疑的であるにもかかわらず、LeCunはAI全般について悲観的ではありません。彼は、「世界モデル」やJEPAアーキテクチャのような新しいアプローチを支持しています。これにより、AIは現実の抽象的な表現を学習し、行動の結果を推論することができます。
彼が現在最も懸念しているのは、LMがリソース、人材、資金を枯渇させており、他の研究方向が無視されていることです。
LeCunによると、AIは人間の知性をサポートおよび拡張するツールとして開発する必要があり、華やかなチャットボットに頼るのではなく、自動緊急ブレーキや医療画像分析など、人間の命を救ってきた実践的なアプリケーションに焦点を当てる必要があります。