アマゾンは、企業または政府機関のデータセンター内でAIを展開するモデルである「AI Factories」(AI工場)製品を発表し、新しい世代のAIインフラストラクチャ競争に正式に参入しました。
これは、人工知能を応用する際に多くの大企業や政府が最優先事項としているデータの主権に関するますます大きなニーズに対応するための戦略的なステップと見なされています。
Amazonの説明によると、モデルは、顧客がエネルギーとデータセンターを提供している場合、非常にシンプルであり、AmazonはAIシステムの統合、ソフトウェア、ハードウェアの展開、管理、および顧客が必要な場合の他のクラウドサービスへの接続を担当します。
そのおかげで、すべての機密データが企業の基盤に保存され、第三者のインフラへの漏洩または依存のリスクを最小限に抑えることができます。
注目すべき点は、「AI Factory」という名前がまったく馴染みのないことです。これは、Blackwell GPUから高速ネットワーク技術まで、Nvidiaが同社の包括的なAIハードウェアシステムに使用している概念です。
AWS AI Factoryシステムは、実際にはAmazonとNvidiaの協力製品であり、専用GPUのパワーとAWSのインフラストラクチャ能力を組み合わせています。
このモデルを展開する顧客は、Nvidiaの最新のBlackwell GPUまたはAmazonが独自に開発した新世代AIチップであるTrainium3を選択できます。
それに伴い、AWSのストレージシステム、ネットワーク、セキュリティ、内部データベースもサポートされており、Amazon Bedrock(AIモデルの選択)やAWS SageMaker(モデルの構築とトレーニング)などのプラットフォームも完全にサポートされています。
アマゾンだけでなく、マイクロソフトもグローバルデータセンターシステムにNvidiaの「AI工場」を設置しています。
先月10月、同社はOpenAIの作業量に対応するAI Factoryモデルを導入しました。ただし、AWSとは異なり、マイクロソフトは当時、これらのAIスーパーマシンを企業独自のデータセンターに持ち込む可能性については言及していませんでした。
彼らは主に、ウィスコンシンとジョージアに「AIスーパーファクトリー」を建設する戦略を強調しています。
それに伴い、マイクロソフトはデータ所有権をサポートするインフラストラクチャサービスも開発しています。これには、マイクロソフトが管理するハードウェアモデルを含むAzure Localが含まれますが、顧客施設に直接設置されています。これは、同社が各国のデータに関する厳しい要求にアプローチするために一歩後退していることを示しています。
興味深い逆説が起こっているのは、クラウドのおかげで推進されているテクノロジーであるAIが、企業が独自のデータセンターを独自に構築した2009年頃と同じように、テクノロジー大手を現地展開モデルに戻していることです。
しかし、大きな違いは、現在のAI工場は通常の機械室ではなく、高価なスーパーコンピュータークラスターであり、一流のハードウェアと高度な管理サービスとの組み合わせが必要であることです。
アマゾンは、これを世界的なAIインフラストラクチャ競争における地位を強化するための重要な要素と見なしています。特に、顧客はデータにますます慎重になっているためです。AWS、Nvidia、Microsoft間の競争は、これまで以上に激化しています。