TED、AIパイプライン高速化により言語処理や画像処理が短時間で可能な「TED AIインフラパッケージ」を販売開始

言語処理や画像処理の分野において、AIを使ったさまざまなサービスの利用が進んでいる。高精度なAIモデルを学習により作成し、学習済みAIモデルにて未知のデータを推論させることがAIサービスの運用となる。運用で新たに入手したデータは再学習に利用され、予測精度を高めていく。これは一般的なITサービスの開発/運用とは異なり、学習を繰り返すという一連の作業を運用していかなければならない。この一連の流れをAIパイプラインという。

このAIパイプラインの効率化と処理速度を上げるには、高速なアクセラレータに加え、AIモデルの学習環境と推論(運用)環境を相互に接続できるよう、ネットワーク構成、データ共有構成など、AIパイプライン処理に特化したシステム構築が必要である。

東京エレクトロン デバイス株式会社社(以下、TED) は、より高精度にデータ学習したAIモデルの作成と持続可能なAIサービスを可能にするAIアクセラレータ・ストレージ・ネットワークの製品を一つにまとめたAIインフラパッケージ製品「TED AIインフラパッケージ(TAIP)」の販売を開始した。

同パッケージは、学習環境と推論環境を相互に接続する機能と高速なアクセラレータにより、AIパイプライン処理を短時間で可能にする。

パッケージ化された構成はTEDで検証し、実際のAIモデルを使って動作を検証済みのため、システム管理者は言語処理や画像処理の分野におけるAIを使ったさまざまなサービスを実行するための最適化されたAIインフラとしてすぐに利用できる。また、利用中のネットワーク・ストレージ環境とTAIPとの相互接続、ベンダーロックしない柔軟なシステム構成も利用可能だ。TED、AIパイプライン高速化により言語処理や画像処理が短時間で可能な「TED AIインフラパッケージ」を販売開始