多くのデータセンターでは、外部通信ネットワーク用にデータを高速で伝送する光ファイバー技術を使用しているが、データセンターのラック間の通信は一般的に、ほぼ銅の電気配線によって行われている。
電気配線は、GPUアクセラレータに接続されるものの、GPUアクセラレータは半分以上の時間においてアイドル状態であり、大規模な分散学習プロセス時には他のデバイスからの信号を待つため、膨大な費用とエネルギーを消費する。
こうした中、IBMは、光パッケージング技術であるCo-Packaged Optics(以下、CPO)のための新しいプロセスを生み出し、データセンター内の既存の近距離電気配線を補完する光技術の導入を可能にした。
今回、IBMの研究者は、光通信の速度と容量をデータセンター内に持ち込む方法を実証した。技術論文では、高速光通信を可能にする新しいCPOプロトタイプ・モジュールが紹介されている。この技術は、データセンター内の通信の帯域幅を拡大し、GPUのアイドリング・タイムを最小化しながら、AIの処理能力を向上させる可能性がある。
これにより、データセンター内のケーブルの長さは1mから数百メートルに延伸する一方、中距離通信に使われる電気配線と比較して消費電力は1/5以下になる。
また、開発者は、従来の電気配線と比較して最大5倍高速に大規模言語モデル(以下、LLM)を学習できるほか、1つのAIモデルの学習ごとに、米国の5,000世帯の年間消費電力に相当する電力を節電することができるとのことだ。
IBMシニア・バイス・プレジデントでIBM Researchディレクターのダリオ・ギル氏は、「生成AIはより多くの電力と処理能力を要求するため、データセンターは進化する必要があ理、CPOは将来のデータセンターの在り方を提示するものだ。データセンターの外部通信には光ファイバーが使用されていたが、このブレークスルーにより、今後はチップ間でも同様の通信が可能になる。」と述べている。
無料メルマガ会員に登録しませんか?
IoTに関する様々な情報を取材し、皆様にお届けいたします。