大規模言語モデルのような生成AIの基盤モデルは、汎用的なタスクをこなす一方で、特定の業務やドメインに最適化するためには、個別のデータセットを用いた「チューニング」が必要となるため、各企業・組織に特化した「特化モデル」が構築されている。
しかし、「特化モデル」は、元となる基盤モデルが知識の更新や構造変更によって頻繁にアップデートされるたびに再学習する必要があった。
再学習には、推論時をはるかに上回る計算リソースと、ハイパーパラメータ調整などの人的コストが膨大にかかるという課題があった。
こうした中、NTT株式会社は、生成AIのカスタマイズコストを低減する「ポータブルチューニング」技術を発表した。
「ポータブルチューニング」技術は、特化型AIの基盤モデル変更に伴う再学習を不要にする新たな学習の仕組みだ。
最大の特長は、基盤モデルの出力を調整する「報酬モデル」を独立した形で学習・再利用する点にある。
この報酬モデルは、基盤モデルのモデル構造には依存せず、出力形式にのみ依存するため、転移元と転移先で基盤モデルの構造が異なっていても、学習結果を「ポータブル(持ち運び可能)」に再利用することができる。
これにより、別の基盤モデルにも学習内容を引き継げるようになり、異なる基盤モデルにおいても追加学習を行うことなく高い特化性能を実現する。
従来のチューニングが基盤モデルのパラメータを直接最適化するのに対し、「ポータブルチューニング」では、タスクごとの「好ましさ」を評価する報酬モデルを別個に学習する。
そのため、基盤モデルが更新されても、特化モデルの再学習が不要となり、計算資源や人的コストを削減することが可能だ。

また、最新の高性能な基盤モデルがリリースされた場合においても、既存の特化学習の効果をすぐに引き継げるため、迅速かつ柔軟にAIモデルを切り替えることが可能になる。
さらに、異なるアーキテクチャを持つ基盤モデル間でも学習内容の転移が可能なため、AI活用の選択肢を広げる。
この技術により、各企業や組織での特化モデルの再学習コスト削減だけでなく、再学習を行った場合に期待される効果を同技術で事前にシミュレーションするといった応用も期待されている。
製造業における具体的な応用可能性としては、外観検査AIを導入した製造ラインが、設備更新によりカメラや照明などの環境が変化しても、それまでの膨大な不良品画像を学習させた「不良品判別の報酬モデル」をそのまま利用できるといったことや、異なるメーカや世代の設備にAIを適用する際も、この報酬モデルを再利用することで、AI導入のコストと時間を削減する、といったことが期待できる。
なお、今回の成果は、2025年7月13日から2025年7月19日まで、カナダ・バンクーバーで開催される機械学習分野における国際会議「International Conference on Machine Learning(ICML)2025」において発表されるとのことだ。