SupermicroとAMDは、AIの推論とトレーニングを進化させる新たなAIソリューションを発表した。
このAIソリューションは、AMDの最新アクセラレータ「AMD Instinct MI350シリーズ」と「AMD ROCm ソフトウェア」をベースに、Supermicroの「H14 GPUシステム」を組み合わせて最適化されたAIソリューションだ。
「AMD Instinct MI350シリーズ」は、第4世代AMD CDNAアーキテクチャを搭載し、AIの推論速度を向上させる。また、電力効率も優れているため、データセンタの運用コスト削減にも貢献する。
一方「H14 GPUシステム」は、第5世代AMD EPYCプロセッサを搭載しており、ソケットあたり最大192個の「Zen 5c」コア、DDR5メモリー、PCIe 5.0、CXL 1.1ペリフェラルのサポートなどを有している。
今回、Supermicro GPUサーバが最新のAMD EPYC CPUとAMD Instinctアクセラレータの両方を搭載し一体化することで、AI向けソリューションのプラットフォームとなり、Supermicroデータセンタ・ビルディング・ブロック・ソリューション(以下、DCBBS)との組み合わせで、コンサルティングからオンサイト展開までをサポートする。
これにより、AIが大量のデータをより速く、より効率的に学習し、複雑なタスクを瞬時に処理するのを支援する。また、AIモデルに大量のデータを学習させる「トレーニング」も高速に実行できるようになる。
具体的には、最大8基のGPUを搭載した1台のサーバに、合計2.304TBのHBM3eメモリーを搭載可能だ。
さらに、「H14 GPUシステム」が「Direct Liquid Cooling(DLC)」アーキテクチャを採用した液冷システムと、従来の空冷システムの双方を提供することで、多様な環境に対応する。
Supermicroのチャールズ・リアンCEOは、「新しいAMD Instinct MI350シリーズ アクセラレータがGPUサーバのラインナップに加わったことで、業界をリードする当社のAIソリューションがより強化、拡張され、顧客は次世代のデータセンタの設計・構築の際に、より多くの選択肢と優れたパフォーマンスを提供できるようになる。」と述べている。
また、AMDのCEO兼会長であるリサ・スー博士は、「当社の新しいAMD Instinct MI350シリーズは、OEMインフラストラクチャの互換性を考慮して業界標準のフォームファクタを維持しながら、競合他社と比較して1ドルあたりのトークン量を最大40%増やすことができる。
このアクセラレータをSupermicroのプラットフォームと組み合わせることで、同社の顧客はAMDテクノロジーで完全に統合された空冷または液冷システムをラックレベルで展開でき、あらゆる規模で堅牢なAIソリューションを展開するために必要な柔軟性と効率性を得ることができる。」とコメントしている。
無料メルマガ会員に登録しませんか?
IoTに関する様々な情報を取材し、皆様にお届けいたします。