昨今、生成AIの発展が急速に進む一方で、そのハルシネーションと呼ばれる現象、つまり事実に基づかない情報を生成する問題が指摘されている。特に医療や金融など、情報の正確性が求められる業務では、生成AIによる文章を人手で確認する必要があり、効率化と信頼性の両立が要求されている。
そこで、日本電気株式会社(以下、NEC)は、生成AIの信頼性を向上させる、ハルシネーション対策に関連する機能を開発し、10月末から順次提供を開始する。
この機能は、NECの生成AI「cotomi」に加え、「Microsoft Azure OpenAI Service」にも適用可能なものだ。
開発された新機能は、生成AIが生成した文章とその元になる文章を比較し、違いがあればそれを提示する。単語の比較だけでなく、文章全体の意味を比較して判断することで、情報の抜け漏れや重複、意味の変更などを検出する。
この機能を文章の要約に使用することで、ハルシネーションの有無を判断しやすくなり、確認作業の負担を軽減するとともに、要約の精度を向上させることが期待されている。
また、RAGに代表される情報検索用途においても、LLMに質問し得られた文章に対して、その根拠となる元の文章を提示することも可能であり、LLMが生成した文章の正確性を効率的に確認することも可能となる。
NECは今後、人物名や地名などの固有表現の一致度をスコア化する機能や文章の一貫性を検証する機能などを追加し、ハルシネーション対策を強化する計画だ。また、一部の機能はオンプレミス環境にも適用できるようにする予定だ。
無料メルマガ会員に登録しませんか?
膨大な記事を効率よくチェック!
IoTに関する様々な情報を取材し、皆様にお届けいたします。