したがって、これらのAIチップは、これまで大規模なデータセンターではなく、無線接続やモバイルデバイス用の半導体に注力してきたクアルコムにとって変革となる。
クアルコムは、2026年に発売予定のAI200チップと2027年に発売予定のAI250チップの両方を液冷サーバーシステムに統合できると述べた。
クアルコムは現在、グラフィックス プロセッシング ユニット (GPU) を提供する 2 社である Nvidia および AMD と競合していることが知られています。クアルコムのデータセンターチップは、ヘキサゴンニューラルプロセッシングユニット(NPU)と呼ばれる、クアルコムのスマートフォンチップのAI部分上に構築されています。
クアルコムのデータセンター世界への参入は、最も急速に成長しているテクノロジー市場、つまり新しい AI に焦点を当てたサーバー クラスター用の機器における新たな競争を意味します。推定によると、2030 年までに設備投資のうち 6 兆 7,000 億ドル近くがデータセンターに費やされ、そのほとんどが AI チップをベースとしたシステムに費やされると見込まれています。
Nvidia は現在業界を支配しており、GPU は現在までに 90% 以上の市場シェアを保持しており、売上高により同社の時価総額は 4 兆 5,000 億ドルを超えています。 Nvidia のチップは、ChatGPT で使用される大規模な言語モデルである OpenAI の GPT をトレーニングするために使用されました。
しかし、OpenAIのような企業は代替手段を模索しており、2025年10月初旬にはOpenAIも第2位のGPUメーカーであるAMDからチップを購入し、この事業の株式を購入する可能性がある計画を発表した。 Google、Amazon、Microsoft などの他の企業も、クラウド サービス用に独自の AI アクセラレータを開発しています。
NvidiaやAMDなど他のAIチップ企業も、クアルコムのデータセンター部品の一部の顧客になる可能性がある。
2025年5月、クアルコムはサウジアラビアのヒューメインとの提携を発表し、同地域のデータセンターにAI推論チップを提供した。