マイクロソフトが生成AIリスクの取り組みに本腰 AzureAIでリスク軽減を目指す

AI要約

マイクロソフトは、安全で信頼できるAIの運用に取り組み、新しいAIサービスを発表している。

生成AIの利用リスクにはハルシネーションやプロンプトインジェクションが存在し、その対策が必要とされている。

マイクロソフトの新ツール「Prompt Shields」は、プロンプトインジェクションに対応し、安全なAI開発を支援する。

マイクロソフトが生成AIリスクの取り組みに本腰 AzureAIでリスク軽減を目指す

生成AIの需要が高まる一方で、その使用に伴うリスクに懸念を抱く企業も増加しており、安全で信頼できるAIの運用を模索する動きが活発化している。

生成AI分野で取り組みを活発に行っているマイクロソフトは、こうした課題に対応するため、クラウドサービス「Microsoft Azure(アジュール)」に、さまざまなツールとサービスからなる新しいAIサービスを発表した。

マイクロソフトは、OpenAIだけでなく、MistralやInflection AIなど、他のAIモデルも取り入れており、安全性と信頼性に重点を置いたAIの開発をアピールしている。今回のサービスは、現在プレビュー中であり、完全に利用できるようになるまでのスケジュールはまだ発表されていないものの、今後、あらゆるビジネス分野における活用が注目されている。

生成AIの利用に伴うリスクにはさまざまなものがある。

虚偽の情報を生成する「ハルシネーション」に加え、深刻なセキュリティ問題である「プロンプトインジェクション」も存在する。

ハルシネーションは、架空の製品や人物を生成したり、事実と異なる情報を拡散したりするなど、様々な問題を引き起こす可能性がある。一方、プロンプトインジェクションは、特殊なプロンプトを生成AIに入力し、それが実行されることで開発者にとって想定外の結果を引き起こすという攻撃である。

これには「ジェイルブレイク(脱獄)」と呼ばれる大規模言語モデルと直接対話する方法と、悪意のあるウェブページのようなサードパーティのデータソースを使用する間接的なやり方の2種類の方法が用いられる。結果として、機密情報の盗難やシステムの破壊などの被害が発生する可能性がある。

今回マイクロソフトが発表したツールのひとつ、「Prompt Shields」は、この「プロンプトインジェクション」に対応したものだ。

「Prompt Shields」は、悪意のあるプロンプトや第三者データを自動的に分析・ブロックし、プロンプトインジェクションから守るツールで、高度な機械学習アルゴリズムと自然言語処理を使用して、プロンプトとサードパーティのデータに悪意がないかを自動的に分析し、必要に応じて攻撃をブロックする。

この機能は、マイクロソフトが提供する3つのAIサービス、 Azure OpenAI Service、Azure AI Content Safety、Azure AI Studioと統合する形で提供される。