国立大学法人東京工業大学(以下、東京工業大学)、国立大学法人東北大学(以下、東北大学)、富士通株式会社、国立研究開発法人理化学研究所(以下、理化学研究所)は、スーパーコンピュータ「富岳」を活用した大規模言語モデル(Large Language Model, LLM)の、分散並列学習手法の研究開発を、2023年5月から実施することを発表した。
大規模言語モデルは、OpenAIが開発したChatGPTをはじめとする、生成AIの中核として使用されている深層学習のAIモデルだ。
今回開発する大規模言語モデル分散並列学習手法は、スーパーコンピュータ「富岳」の超大規模な並列計算環境において、大規模言語モデル学習を効率良く実行する技術だ。
今後4者は、今回の研究成果を、ソフトウェア開発プラットフォーム「GitHub」や、AIデータセット公開プラットフォーム「Hugging Face」を通じて2024年度に公開する予定だ。
これにより、アカデミアや企業が幅広く使える大規模言語モデルの構築環境を整え、学術および産業の両面で「富岳」の活用価値を高めることを目指す。
さらに、ものづくりをはじめとする産業分野などへの応用を想定したマルチモーダル化へ向けたデータ生成手法および学習手法の開発を行う国立大学法人東海国立大学機構 名古屋大学や、大規模言語モデル構築のためのデータおよび技術提供を行う株式会社サイバーエージェントとの連携も今後検討していくとしている。
無料メルマガ会員に登録しませんか?
膨大な記事を効率よくチェック!
IoTに関する様々な情報を取材し、皆様にお届けいたします。