現代の企業がAIの導入を進める中で、AIワークロードを支えるインフラストラクチャの管理は大きな課題となっている。
特に、AIのトレーニングや推論に不可欠なGPUは高価であり、その利用効率の悪さがコスト増の主要因だと考えられる。
また、複数のチームやプロジェクトが並行してAI開発を行う際、リソースの管理やセキュリティ確保の複雑さも増大するのが課題だ。
こうした中、AveshaとSUSEは、企業のAI導入を加速させるための共同AIインフラストラクチャブループリントを発表した。
このコラボレーションは、「Avesha Elastic GPU Service」(以下、EGS)と「SUSE AI」を組み合わせることで、GPUオーケストレーションとセルフサービスAIを統合する。
具体的には、まず、「Avesha EGS」の技術により、クラスターやクラウド環境を横断してGPUリソースをリアルタイムで割り当てたり、再割り当てをしたりすることで、未使用のGPUをなくす。
さらに、データサイエンティストやMLエンジニアが、「SUSE AI」が提供する統合されたセルフサービスポータルを活用することで、専門的な知識がなくてもGPUワークロードを立ち上げられるようになる。
セキュリティ面では、「SUSE Security」ランタイム保護とワークロードガバナンス機能により、プロジェクトやチームごとの分離と厳格なセキュリティを確保し、ゼロトラスト環境を実現する。
加えて、使用状況、コスト、パフォーマンスを一元的に可視化する包括的な可観測性(オブザーバビリティ)により、AIインフラの健全性と効率性の把握を支援する。
無料メルマガ会員に登録しませんか?
膨大な記事を効率よくチェック!
IoTに関する様々な情報を取材し、皆様にお届けいたします。