Googleは、同社が東京で開催した「Gemma Developer Day」にて、日本語版の大規模言語モデル(以下、LLM)「Gemma 2 2B」を公開した。
「Gemma 2 2B」は、軽量でテキストからテキストを生成する、デコーダのみのLLM「Gemma」の最新版だ。なお「Gemma」は、同社の生成AI「Gemini」モデルと同じリサーチとテクノロジーによって開発されている。
「Gemma 2 2B」の同社の評価では、 GPT-3.5を上回るパフォーマンスを発揮し、モバイル端末での処理能力や日英両言語における高い品質を維持しているとしている。この結果は、モデルのサイズを考慮すると、Gemmaモデルが英語以外の言語でも高い性能を発揮できる可能性を示しているのだという。
また、このモデルと併せて、トレーニングガイドも公開し、開発者がGemmaを多言語に適応させるための実践的な例として支援する。
今後は、東京科学大学 情報理工学院 情報工学系の岡崎直観教授らの研究チームと協力し、日本におけるオープンモデルの開発支援、および新しい技術開拓への取り組みも進めていく計画だ。
無料メルマガ会員に登録しませんか?
膨大な記事を効率よくチェック!
IoTに関する様々な情報を取材し、皆様にお届けいたします。