サイトアイコン IoTNEWS

HPE、大規模言語モデル用のAIクラウドを発表

HPE、大規模言語モデル用のAIクラウドを発表

ヒューレット・パッカード エンタープライズ(以下、HPE)は、HPE GreenLake for Large Language Models(LLMs)により、AIクラウド市場に参入することを発表した。

HPE GreenLake for LLMsは、HPEが今後提供を予定している業界や分野に特化したAIアプリケーションの第一弾で、将来的には、気候モデリング、医療・ライフサイエンス、金融サービス、製造業、運輸業のAIアプリケーションを提供する予定だ。

HPE GreenLake for LLMsは、ドイツのAIスタートアップ企業Aleph Alphaとのパートナーシップにより提供され、テキストや画像の処理・解析を必要とするユースケースを支援する。

具体的には、Aleph Alphaが提供する事前トレーニング済み大規模言語モデルであるLuminousへのアクセスが含まれており、英語、フランス語、ドイツ語、イタリア語、スペイン語などの多言語で提供される。

汎用のクラウドオファリングでは、複数のワークロードを並行して実行するが、HPE GreenLake for LLMsは、単一の大規模なAIトレーニングやシミュレーションワークロードをフルのコンピューティング能力で実行するよう、独自に設計したAIネイティブアーキテクチャで動作する。

これにより、AIおよびHPCのジョブが数百または数千のCPUやGPU上で同時に実行される。

また、HPE GreenLake for LLMsは、HPE Cray XDスーパーコンピュータで実行され、オンデマンドで利用することができる。

さらに、HPE GreenLake for LLMsは、99.5%再生可能エネルギーで電力を賄うQScaleのケベック・コロケーションで最初にホストされるスーパーコンピュータで実行される。

これにより、スーパーコンピューティングの規模と容量をほぼ100%の再生可能エネルギーで提供する。

なお、このサービスは、コードの開発、移植、デバッグ、チューニングのためのツール一式が揃っているHPE Cray Programming Environmentを活用している。

現在、HPE GreenLake for LLMsの注文を受け付けており、2023年末までに北米での利用、来年早々に欧州での利用が可能になる見込みだ。

モバイルバージョンを終了