生成AIの回答における"もっともらしい嘘"を抑制する

対話型生成AIの発表が、産業界における爆弾低気圧となった。2022年冬以降、企業内の生成AI活用の模索が加速している。各企業の固有データに対して高品質なLLM(大規模言語モデル)

RAG(検索拡張生成)領域に特化した強みを持ち、独自エージェントのオーダーメイド開発による支援を行うことで、様々な企業の新しい取り組みを支援してきた。かたや昨年10月に設置されたその研究開発センターは、AIと共生する人間中心の社会を実現するための多様な専門研究に取り組む。

LLM活用において高品質なRAG構築を行うことは、ハルシネーション(幻覚)の抑制において有効であることが報告されていて、より実用的な事例創出が期待されているという。東北大学言語AI研究センターカサナレは、生成AIの課題である「ハルシネーションの抑制」に向けて共同研究を開始した。同研究は、データ駆動型アプローチ(RAG)、評価基準の開発(品質管理技術)、LLMの推論能力強化(ファインチューニング)の方向性で進められる。

専門データセットを用いた研究プロジェクトを共に進め、LLMの精度アップとハルシネーション問題の抑えとどめを目指す。両者は、今般の取り組みにより、企業固有のデータを活用したRAG技術の一貫性と精度の向上を達成し、一層実用的な生成AIの活用環境を提供する。

創業当初からRAG等の様々な「企業内データの高品質化のためのアプローチ」検証を重ねることで、LLM活用時に直面する「データを入れているはずなのに、正しく返ってこない」問題の解決に取り組んできたという。同社は、上記共同研究の成果を通じて「ハルシネーションの抑制」によるLLMの品質向上を実現し、各企業の生成AI活用におけるデジタルトランスフォーメーション(DX)推進と日本社会全体の発展に寄与していく構えだ。