スイスのダボスで開催された世界経済フォーラムで講演した、人工知能の父の一人であり、Metaの元AI科学ディレクターであるヤン・レクン教授は、ChatGPTのような大規模言語モデル(LLM)を含む現在のAIシステムには、依然として基本的な制限があると強調しました。
彼によると、モデルの規模を拡大し続け、データ、パラメータ、計算能力を増強しても、人間と同等の知性を達成するには不十分です。
「これらのシステムをより大きくしたり、より微調整したりするだけで、人間や超知能のような知性を達成することはできません。AI業界は規模を拡大するだけでなく、モデルチェンジが必要です」とLeCun教授は述べています。
彼の最大の懸念事項の1つは、人間に代わって自動的に計画を立て、行動を実行できるAIアシスタントであるアクターシステムの開発傾向です。
ルカン氏は、これらのシステムは、行動の結果を予測する能力が不足しているLLMプラットフォーム上に構築されており、実際の環境で安全かつインテリジェントに動作することが困難になっていると述べました。
「次に何が起こるかを予測できない場合、システムはどのように行動の連鎖を計画できるのでしょうか?」とルカン氏は問いかけました。
LeCunによると、インテリジェントな行動には、AIが世界をモデル化し、物理法則、原因と結果、および実際の環境の複雑な変動を理解する能力が必要です。
自身の見解を説明するために、Yann LeCunは人間の学習能力を人工知能と比較しました。10歳の子供は、長期的な訓練なしに新しいタスクにすぐに慣れて完了できますが、17歳の少年はわずか数時間で運転を習得できます。
一方、自動運転車システムは数百万時間のデータトレーニングを受けていますが、人間はレベル5の自動運転技術、つまり人間の介入なしに完全に走行できる車にはまだ到達していません。
LeCunによると、これは、現在のAIの基盤とアーキテクチャが、人間のような柔軟で包括的な知性を再構築するにはまだ不十分であることを示しています。
彼はまた、言語モデルは、データが主にテキストである「単純化された宇宙」で機能していることを指摘しました。一方、現実世界ははるかに複雑で、データは多次元的で、連続的で、ノイズが多いです。
「テキストの次の単語を予測することは、物質世界を理解し、相互作用することほど難しくありません」とルクンは言います。
技術的な課題に加えて、彼はAIの権力を少数の大手テクノロジー企業に集中させる危険性についても深刻な懸念を表明しました。
LeCunによると、AIが米国または中国のいくつかの企業によって制御されている場合、文化や価値観から社会が受け取るすべての情報の流れを支配する可能性があります。
「私たちは、社会がジャーナリズムにおける多様性を必要とするのと同じように、多様なAIエコシステムが必要です」と彼は述べ、テクノロジーの独占リスクを軽減するためにオープンソースの推進を呼びかけました。
ヤン・レクンは、ロボットが人類を支配するという見通しを懸念していませんが、現在のAI開発の方向性は、広範囲にわたる社会的影響につながる可能性があると警告しています。
彼の見解は、テクノロジー業界に大きな疑問を投げかけています。AIの未来は、現在のモデルの拡大に基づいているのか、それとも全く新しい建築革命が必要なのか?