近年、グーグル、メタ、マイクロソフト、OpenAI、パープレクシティなどのテクノロジー大手は、データセンターの構築と拡大に数十億米ドルを積極的に投資してきました。
アナリストの予測によると、このインフラへの総支出は、10年末までに1兆米ドルのマイルストーンに近づく可能性があります。しかし、業界の誰もがデータセンターが永遠に人工知能の「生命線」になると信じているわけではありません。
PerplexityのCEOであるアラビンド・スリニヴァスは、データセンターに対する最大の脅威は、人工知能がユーザーのデバイスに直接統合および運用される能力であるという注目すべき見解を示しました。その時、AIはもはや巨大な集中施設ですべてのデータを処理する必要はありません。
現在、ChatGPT、Gemini、Perplexityなどの一般的なAIチャットボットのほとんどは、ユーザーの要求を処理するためにデータセンターに配置されたサーバーシステムに依存しています。
これらの施設は非常に多くの電力を消費し、高いメンテナンスコストを必要とし、冷却のための水に大きく依存しています。これも、AIインフラストラクチャの持続可能性がますます疑問視されている理由です。
スリニバス氏によると、AIモデルがデバイス上で局所的に実行できる場合、データセンターの役割は大幅に低下するでしょう。
個人用コンピューターまたは電話ですぐに処理することは、電力コストと運用コストを削減するだけでなく、プライバシーに関する明確な利点ももたらします。
ユーザーデータはリモートサーバーに送信する必要がなくなり、漏洩や不正利用のリスクが軽減されます。
パープレクシティのCEOによると、デバイス上で実行されるAIのもう1つの利点は、パーソナライゼーションの能力です。モデルが「マシンに直接配置されている」場合、AIは複雑なクラウドインフラストラクチャに依存することなく、各ユーザーの習慣や好みに簡単に適応できます。
それにもかかわらず、スリニバスは、現在の最大の障壁はAIモデルの規模と資源消費量であることも認めています。
現在のモデルの大部分は、スマートフォンやラップトップで効果的に動作するには依然として重すぎます。
しかし、彼は、チップ技術、特にアップルやクアルコムのような企業からの急速な進歩が、すぐに状況を変える可能性があると信じています。
さらに、PerplexityのCEOは、「錯覚」の問題にも言及しました。これは、AIが誤った情報を生成する現象ですが、説得力があるように聞こえます。
彼は、現在のシステムが依然としてこのエラーに遭遇していることを認めましたが、今後5年以内に幻覚現象が完全に克服される可能性があると予測しています。
スリニバスの見解は、AI業界にとって別の見通しを示しています。巨大なデータセンターへの依存から、人工知能は徐々に個人デバイスに移行する可能性があります。
これが実現すれば、将来のAI競争はインフラ規模だけでなく、ユーザーのポケットにあるコンパクトチップの強さにも当てはまる可能性があります。