AI inside、企業独自のファインチューニング可能なLLM構築運用サービスを開始

AI要約

AI insideは8月20日、PolySphere-2をベースに企業が独自に学習、ファインチューニングして独自の生成AIを活用できるサービスを提供することを発表。

PolySphere-2は473億パラメーターを持ち、非常に少ないハルシネーションの生成と高い非構造化データの構造化精度を特徴とする。

同サービスではAI inside Cube Proを提供し、特に情報セキュリティを考慮した専門性の高い生成AIを活用できる。

 AI insideは8月20日、同社が開発する大規模言語モデル(LLM)「PolySphere-2」をベースに企業が独自に学習、ファインチューニングして独自の生成AIを活用できる環境を構築・運用する新サービス「カスタマイズSLM(Small Language Model:小規模言語モデル)」を提供すると発表した。

 ベースとなるPolySphere-2は、同社の研究開発チーム「XResearch」が構築した日本語のドキュメントを処理することに特化した473億パラメーターを持つ。同社独自の測定では、ほかの著名なLLMに比べてハルシネーション(誤情報)の生成が非常に少ない一方、非構造化データの構造化の精度が高いという。

 同サービスでは、同社が開発したエッジコンピューター「AI inside Cube Pro」をオ

ンプレミス環境向けにサブスクリプションとして提供する。PolySphere-2に企業保有の特定のドメイン知識や専門用語を含むデータセットで学習、ファインチューニングを行うことで、特に自治体や金融、医療、製造など情報セキュリティの観点からデータを社外に展開できない組織では、機密性やプライバシーに配慮した専門性の高い生成AIを活用できる。

 また、稼働基盤となるAI inside Cube Proは、複雑な設定不要ですぐに利用を開始でき、リソースの増減を柔軟に行えるほか、少ない電力消費でLLMの学習、ファインチューニングを実行できるとしている。

 価格などは個別見積もりとなっている。