NEC、生成AIのハルシネーション対策機能を10月末より順次提供へ

AI要約

日本電気株式会社(以下、NEC)はAIの信頼性向上のため、ハルシネーション対策機能を提供開始することを発表。

提供される機能は、NECのテキスト分析技術を基に開発され、LLMが生成した文章とベース文章を比較して矛盾箇所を提示するもの。

今後は固有表現一致度や文章一貫性検証などの機能を追加し、ハルシネーション対策を強化する予定。

NEC、生成AIのハルシネーション対策機能を10月末より順次提供へ

 日本電気株式会社(以下、NEC)は18日、LLM(大規模言語モデル)の信頼性を向上するため、AIが事実に基づかない情報を生成するハルシネーションへの対策機能を、10月末より順次提供開始すると発表した。NECの生成AI「cotomi」に加えて、広く利用されているMicrosoft Azure OpenAI Serviceにも適用できるとのこと。

 今回提供が開始される機能は、NECのテキスト分析技術およびLLMに関するノウハウを基に開発されたもので、LLMが文章生成のベースとした文章と生成した文章を比較して、齟齬があった場合に矛盾箇所を提示してくれるという。

 具体的には、単純な単語の比較だけではなく、文章の意味を比較して判断でき、情報の抜け漏れ、重複、基の文章と意味が変わった箇所などを提示可能。この機能をLLMによる文章の要約に用いると、要約前後の文章を比較し、ハルシネーション有無の判定が容易になることから、人的な確認作業の負担が軽減され、要約精度のさらなる向上が期待できるとした。

 また、RAGに代表される情報検索用途においても、LLMに質問し得られた文章に対して、その根拠となる文章を提示することも可能で、LLMが生成した文章の正確性確認を、効率的に行えるようになるとしている。

 なおNECは今後、LLMの信頼性向上に向けた取り組みとして、人物名や地名といった固有表現の一致度合いをスコア化する機能や、文章に含まれる一貫性を検証する機能などを追加し、ハルシネーション対策機能をさらに強化する予定。さらに、一部の機能はオンプレミス環境に対しても適用範囲を広げる予定である。