NVIDIAは本日、主要なAIプラットフォームが、新しいデスクトップGPU「GeForce RTX SUPER」と、各主要メーカのAIノートPCなどによる、「NVIDIA RTX」のアクセラレーテッドAIソフトウェアとツールを開発者と消費者の両方向けに発表した。
これらのツールには、Text-to-Image(テキストから画像)のワークフローで活用されるStable Diffusion XL モデルのNVIDIA TensorRTアクセラレーション、生成AIテクスチャツールを備えた「NVIDIA RTX Remix」、NVIDIA ACEマイクロサービス、およびフレーム生成を備えたDLSS 3を活用したゲームが含まれている。
TensorRTアクセラレーションは、Stable Diffusion XL(以下、SDXL)Turboおよび潜在一貫性モデル(以下、LCM)のためのアクセラレーションに対応する。
これら2つは、最も一般的なStable Diffusionアクセラレーション手法だ。TensorRTは、従来の最速の実装と比較して、両方のパフォーマンスを最大60%向上させる。
また、SDXL、SDXL Turbo、LoRAのアクセラレーション、改善されたLoRAサポートを含む、Stable Diffusion WebUI TensorRTの拡張機能の更新バージョンも利用可能になった。
NVIDIA RTX Remixは、クラシック ゲームのRTX リマスターを作成するためのプラットフォームだ。今月後半にベータ版がリリースされ、クラシックゲームの基本テクスチャを4K解像度の物理ベースのレンダリングマテリアルに変換できる生成AIツールが提供される。
NVIDIA DLSS 3は、「Horizon Forbidden West」「Pax Dei」「ドラゴンズドグマ 2」など、発表された14の新しいRTXゲームのうちの12タイトルに搭載される。
さらに、大規模言語モデル(LLM)の推論パフォーマンスを高速化し、最適化するオープンソースライブラリである「NVIDIA TensorRT-LLM」(以下、TRT-LLM)は、PC向けに事前に最適化されたモデルをさらにサポートするようになった。
また、「TRT-LLM」によって加速される、同じく今月リリースされるNVIDIAテクノロジデモである「Chat with RTX」を使用すると、AIエンスージアストが、メモやドキュメント、その他のコンテンツとやり取りできるようになる。
「Chat with RTX」を使用すると、AIエンスージアストは、RAG(Retrieval-Augmented Generation)として知られる一般的なテクノロジを使用して、PC LLM を自分のデータに接続することが可能だ。
「TRT-LLM」によって高速化されたこのデモにより、ユーザはメモ、ドキュメント、その他のコンテンツとやり取りできるようになる。また、オープンソースのリファレンスプロジェクトとしても利用できるため、開発者は同じ機能を独自のアプリケーションに実装可能だ。
なお、本日CESにて発表された新しいGeForce RTX 40 SUPER シリーズ グラフィックス カードには、「GeForce RTX 4080 SUPER」「4070 Ti SUPER」「4070 SUPER」が含まれている。
「GeForce RTX 4080 SUPER」は、「GeForce RTX 3080 Ti GPU」よりもAIビデオを1.5倍、画像を1.7倍速く生成する。SUPER GPUのTensorコアは、1秒あたり最大836兆回の演算を実行することが可能だ。
Acer、ASUS、Dell、HP、Lenovo、MSI、Razer、Samsungなどの主要メーカは、RTX AIノートPCの新しいシリーズをリリースし、生成AI機能のフルセットをすぐにユーザへ提供する態勢を整えているとしている。
このシステムは、ニューラルプロセッシングユニットを使用した場合と比較して、20倍から60倍のパフォーマンス向上を実現し、今月出荷が開始される予定だという。
RTX GPUを搭載したモバイル ワークステーションは、簡素化された安全な生成AIおよびデータサイエンス開発のためのTensorRTやNVIDIA RAPIDSなどのNVIDIA AI Enterpriseソフトウェアを実行できる。
全てのNVIDIA A800 40GB Active GPUには、NVIDIA AI Enterpriseの3年間ライセンスが含まれており、AIとデータサイエンス向けのワークステーション開発プラットフォームを提供する。
また、NVIDIAは最近、開発者がPCクラスのパフォーマンスとメモリフットプリントを使用して、事前トレーニング済みの生成AIモデルとLLMを作成し、テストやカスタマイズできるようにするために統合されたツールキットである「NVIDIA AI Workbench」を発表した。
今月後半にベータ版がリリースされる「AI Workbench」は、Hugging Face、GitHub、NVIDIA NGCなどの一般的なリポジトリへの合理的なアクセスを提供するとともに、開発者がプロジェクトを再現し、共同作業や移行できるようにするユーザインターフェイスを提供する。
プロジェクトは、データセンタ、パブリック クラウド、NVIDIA DGX Cloudなど、事実上どこにでも拡張でき、その後、推論やカスタマイズのために、PCまたはワークステーション上のローカルRTXシステムに戻すことが可能だ。
さらにNVIDIAは、HPと協力して、RTXで高速化されたAIモデルとソフトウェア開発キットを含むNVIDIA AI Foundationモデルと、エンドポイントを、データ サイエンスの一元化プラットフォームであるHP AI Studioに統合することで、AIモデル開発を簡素化している。これにより、ユーザはPCやクラウド全体で最適化されたモデルを簡単に検索、インポート、展開できるようになる。
PCユースケース向けのAIモデルを構築した後、開発者はNVIDIA TensorRTを使用してモデルを最適化し、RTX GPUのTensor コアを最大限に活用できる。
また、NVIDIAは最近、LLMを高速化するためのオープンソース ライブラリであるTensorRT-LLM for Windows にて、TensorRTをテキストベースのアプリケーションに拡張した。
これにより、TensorRT-LLMの最新アップデートが利用可能になり、Phi-2が他の推論バックエンドと比較して最大5倍高速に動作し、PC用に最適化済みのモデルのリストに追加された。
NVIDIAの創業者兼CEOであるジェンスン フアン氏は、「生成AIは、コンピューティングの歴史の中で最も重要なプラットフォームの移行であり、ゲーミングを含むあらゆる業界を変革するだろう。1億台を超えるRTX AI PCとワークステーションを有する NVIDIAは、開発者やゲーマーが生成AIを楽しむための大規模なインストールベースだ。」と述べている。
無料メルマガ会員に登録しませんか?

IoTに関する様々な情報を取材し、皆様にお届けいたします。