マイクロソフトは、マイアチップシリーズの第2世代であるAIマイア200チップを正式に発表しました。マイアは同社が2023年に初めて発表しました。
このチップは、今週中にアイオワ州(米国)のマイクロソフトデータセンターで稼働を開始し、その後、近い将来、アリゾナ州の別の施設でさらに展開される予定です。
この動きは、Nvidiaの最大の顧客であるマイクロソフト、Google(アルファベット)、Amazon Web Servicesなどのクラウドコンピューティング大手が、市場を支配するサプライヤーへの依存を減らすために、AIチップの自己開発戦略を推進している状況下で起こっています。
以前はハードウェアにのみ焦点を当てていた多くの世代の独自設計チップとは異なり、マイクロソフトは今回、Nvidiaの最大の競争優位性と見なされているコンポーネントであるソフトウェア要素を強調しました。
Maia 200とともに、マイクロソフトはTritonを含むプログラミングツールパッケージを提供しています。これは、ChatGPTの開発者であるOpenAIによって大きく貢献されたオープンソースソフトウェアです。
Tritonは、NvidiaがAIチップ分野でほぼ独占的な地位を築くのに役立ったソフトウェアプラットフォームであるCudaと同様の役割を担うように設計されています。
ウォール街のアナリストによると、Nvidiaの最大の利点はハードウェアだけでなく、競合他社との競争を困難にする障壁であるCudaソフトウェアエコシステムにあります。
マイクロソフトがソフトウェアに真剣に投資していることは、同社がこの中核的な強みを直接狙っていることを示しています。
製造技術に関しては、Maia 200は台湾半導体製造会社(TSMC)によって3ナノメートルのプロセスで製造されており、Nvidiaが今月初めに発表したハイエンドAIチップシリーズVera Rubinと同様です。
マイクロソフトのチップは、旧世代であり、Nvidiaの今後の製品よりも速度が遅いにもかかわらず、高速帯域幅(HBM)メモリも使用しています。
ただし、Maia 200には大量のSRAMが統合されており、これは非常に高速なアクセス速度を持つメモリの一種です。
この設計は、チャットボットとAIシステムが同時に多数のユーザーに対応するのに適しており、クエリ処理の遅延を軽減するのに役立つと評価されています。これは、Nvidiaの多くの新興競合他社が追求している方向性です。
計算能力を提供するためにOpenAIと100億米ドルの契約を締結したばかりのCerebras Systemsも、同様のメモリ技術に大きく依存しています。
別のAIスタートアップであるGroqは、Nvidiaから最大200億米ドルの価値があるとされる取引で技術ライセンスさえ取得しました。
マイクロソフトがチップを開発し、ソフトウェアエコシステムを構築していることは、AI競争が新たな段階に入っており、テクノロジー大手がNvidiaへの完全な依存を受け入れなくなったことを示しています。