政府機関、AI安全利活用推進へ 偽情報拡散防止、8月に評価公表

AI要約

政府の研究機関がAIの安全性評価に関するポイントを8月に公表することが明らかになった。偽情報の拡散などを防ぐため、悪用する側の視点からAIの欠陥や不適切なデータ出力の有無を調査する手法も公開される。

政府が設立したAIセーフティ・インスティテュートが、企業や技術者がイノベーションに集中できる環境を作ることを目指している。AIの安全性確保が焦点となり、偽情報拡散や差別助長などのリスクへの対策が求められている。

安全性の評価ポイントには、偽情報の防止や学習用データへの攻撃への対策が盛り込まれる。日本のものづくり現場でのAIリスクを洗い出し、国際的な役割分担を推進することが目指されている。

 政府の研究機関がAIの普及に伴う偽情報の拡散などを防ぐため、AIの安全性評価に関するポイントを8月にも公表することが26日分かった。悪用する側の視点からAIの欠陥や不適切なデータ出力の有無を調査する手法の手順書も公開する。どのようなAIが安全なのかを示すことで、事業者が安心して利活用を進めることができるようにする狙いがある。

 政府が2月に新設した研究機関「AIセーフティ・インスティテュート」の村上明子所長(50)が26日までに共同通信のインタビューに応じ「企業や技術者がイノベーションに集中できるようにする」と述べた。AIを巡っては偽情報拡散や差別助長などのリスクが懸念され、安全性をどう確保するかが焦点となっている。

 今回公表する安全性の評価のポイントは、政府のAI関連ガイドラインなどが基となる。偽情報の防止や、学習用データに誤った情報を意図的に盛り込む攻撃などへの対策を盛り込む。村上氏は「日本が強みを持つものづくり現場でのAIのリスクを洗い出すなど、国際的な役割分担を進めたい」と語った。