Google Cloudは、クラウドプラットフォームでのパフォーマンスとコストを最適化するためのハードウェア独自開発戦略における次のステップを示す、最新世代の人工知能(AI)チップを発表しました。
特筆すべきは、この第8世代チップラインが、AIの2つのコアニーズであるトレーニングと推論に対応するために、2つの別々のバリエーションに分離されていることです。
Googleは、モデルトレーニング用のTPU 8tを発表しました。これは、AIシステムにデータを理解させるために非常に大きな計算能力を必要とする段階です。
一方、TPU 8iは推論に最適化されています。つまり、学習されたモデルプロセスは、質問に答えたり、ユーザーのリクエストをリアルタイムで処理したりするために使用されます。
Googleによると、新しいTPUはパフォーマンスにおいて大きな飛躍をもたらします。前世代と比較して、モデルのトレーニング速度は最大3倍速くなる可能性があります。
特筆すべきは、このシステムが同じクラスターで100万台以上のPUを接続する能力も備えており、複雑なAIアプリケーションに非常に大きな計算規模をもたらしていることです。
パフォーマンスに加えて、コストとエネルギーの要素も強調されています。Googleが独自に設計したTPUチップは、省エネ能力で有名であり、企業が大規模にAIを展開する際に運用コストを大幅に削減するのに役立ちます。
これは、AIの需要がますます高まり、インフラと電力への圧力が高まっている状況において、重要な利点です。
それにもかかわらず、次世代TPUの発売は、グーグルがNvidia(世界のAIチップ市場を支配している大企業)に背を向けることを意味するものではありません。
実際、Googleは、TPUはクラウドインフラストラクチャでNvidiaのGPUを使用するシステムに取って代わらず、補完的な役割を果たすと主張しています。
同社は、Vera Rubinアーキテクチャを含むNvidiaの最新チップを近い将来にサービスに統合するとさえ述べています。
この傾向はグーグルだけのものではありません。マイクロソフトやアマゾンなどの大手クラウドプロバイダーも、第三者への依存を減らし、コストを最適化するために、社内AIチップを開発しています。
しかし、短期的には、Nvidiaは依然としてほぼかけがえのない地位を維持しています。
アナリストのパトリック・ムーアヘッドは、2016年からグーグルのTPUがNvidiaに不利になる可能性があると予測していました。しかし、現在の現実は、NvidiaがAIの爆発的な普及のおかげで、時価総額が約5兆米ドルに達する企業に成長したことで、その逆を示しています。
さらに、Google Cloudのようなクラウドプラットフォームの開発は、Nvidiaに引き続き利益をもたらす可能性があります。AIの需要が増加すると、企業はNvidiaのGPUやGoogleのTPUを含む、より多くの計算リソースを必要とするようになります。
それにとどまらず、この2つの巨大企業は協力を拡大しています。Googleは、Open Compute Projectの後援の下でGoogleが開発し、ソースコードを公開したソフトウェアネットワークソリューションであるFalconテクノロジーを通じて、クラウドプラットフォーム上のGPUシステムのネットワークパフォーマンスを最適化するためにNvidiaと協力していると述べています。
チップの自己開発と戦略的提携の組み合わせは、グーグルが独立した能力を構築し、既存のエコシステムを活用するというバランスの取れた方向性を追求していることを示しています。