
NvidiaのGPUはAIの作業量の主要プラットフォームであるため、非常に多くの電力を消費し、より効率的な冷却システムを必要とします。Amazonは、現在および将来のデータセンターに統合できる新しいソリューションであるインロードヒート交換機(In-Row Heat Exchanger - IRHX)を設計したと述べています。
「現在の液体冷却ソリューションは、面積を占有しすぎ、多くの水を使用しており、当社の規模には適していません」と、AWSのコンピューティングおよび機械学習部門の副社長であるデイブ・ブラウン氏は述べています。
以前は、真空冷却システムは古いNvidia GPUに十分でした。しかし、Nvidia GB200、NVL72などの新世代は、72 GPUを1つのホイールに統合するため、Amazonはインフラストラクチャをアップグレードせざるを得ませんでした。
AWSは、NvidiaのBlackwellデザインを使用した新しいP6eサーバーシリーズを発表しました。これは、大規模なAIモデルのトレーニングと運用に役立つ巨大なコンピューティングパワーを提供します。Amazon以前は、GB200 NVL72ベースのシステムはMicrosoftとCoreWeaveを通じて提供されていました。
世界最大のクラウドプロバイダーであるアマゾンは、サードパーティへの依存を減らし、利益を増やすために、AIチップ、サーバー、ネットワークルーターなどのハードウェアを長年独自に開発してきました。AWSは現在、アマゾンの純利益に大きく貢献しており、2025年第1四半期には2014年以来最高の利益率です。
CNBCによると、マイクロソフト(AWSの最大のライバル)も独自のAIハードウェアを開発しています。2024年には、マイクロソフトも同社が設計したマイアチップ用のSidekicks冷却システムを発表しました。