
当初の段階のようにマイクロソフトに依存する代わりに、OpenAIは現在、Google Cloud、CoreWeave、Oracleなどの多くのクラウドサービスプロバイダーを同時に使用しています。この多様化は、GPUリソースの「ボトルネック」に対処し、依存リスクを軽減するための戦略的なステップとして、アナリストによって評価されています。
Googleは、クラウドコンピューティング分野でアマゾンやマイクロソフトよりも市場シェアが劣っています。しかし、ChatGPTのインフラストラクチャと、米国、日本、ヨーロッパなどの多くの地域でOpenAIのAPIを運用するパートナーになったことで、今日に至るまで足跡を残していると考えられています。
特筆すべきは、両社がAI競争に共に参加し、独自のモデル(GoogleのGeminiとOpenAIのGPT)を開発しているにもかかわらず、インフラストラクチャへの協力を依然として用意していることです。これは、テクノロジー業界における「パートナーシップ」(coopetition)の傾向を明確に反映しています。
このインフラストラクチャの拡張は、CEOのサム・アルトマンが大規模AIモデルを維持するためのGPUソースを見つけるのが困難であることを公に認めた状況下で行われました。「もし10万GBのGPUを持っている人がいれば、私たちに電話してください」と彼は4月にソーシャルネットワークXに書き込みました。
これに先立ち、OpenAIはCoreWeaveと約120億米ドル相当の5年間の契約を締結し、クラウドプラットフォーム上で計算リソースを共有するために、MicrosoftとOracleとの3者連携協力計画を発表しました。
マイクロソフトは依然としてOpenAIのプログラミングインターフェースとの長期的かつ独占的な戦略的パートナーとしての役割を果たしていますが、インフラストラクチャの拡大は、同社がグローバルな成長段階に入っており、柔軟性と最高レベルのリソース最適能力が求められていることを示しています。