どのようなLLMであってもAIモデルを管理・監視・統制する

大規模言語モデル(LLM)や基盤モデルを活用した生成AIは企業に多くのユースケースを提供する。一方でそれは、インターネットの隅々から掻き集めた公正性や正確性を検証できない学習データにより、最終的には説明できない出力につながるなど、新たなリスクや複雑性をもたらす。

企業の取締役会や最高経営責任者(CEO)は、より強力なAIモデルから成果を得ようとしているが、透明性の欠如やモデルを統制できないことによるリスクが足かせになっていると米国本社SVPのカリーム・ユセフ博士がいう。日本IBMは1日、企業がAIモデルに光を当て、その入力・出力データにまつわる謎を解消できるよう、AIとデータのプラットフォームを構成するソフトウェア製品の1つ「watsonx.governance」を提供開始した。

同製品は、企業がリスクを管理し、透明性を確保し、AIに関する将来の規制への遵守を見込むために必要なツールキットを提供する。AIを活用したイノベーションを目指し、テクノロジー事業者やオープンソース・コミュニティーが提供するLLMを組み合わせて導入している企業では、これを使用することで、そのLLMの選択先を問わずにモデルを管理、監視、統制することが可能になる。

watsonx.governanceは、AIとデータのプラットフォーム「IBM watsonx」を構成するソフトウェア3製品の1つであり、watsonx Code Assistantなどとともに、企業がAIの影響を拡大・加速できるように設計されている。watsonxには、AI開発者向けの次世代エンタープライズ・スタジオであるwatsonx.aiと、オープンでハイブリッド、ガバナンスに対応したデータ・ストアのwatsonx.dataが含まれるという。

同社は最近、自社開発したAI基盤モデル向けに、知的財産権保護を発表している('23年10月発表記事)。