GPT-4が検出する新たな脆弱性--サイバー攻撃への悪用を懸念する研究

AI要約

イリノイ大学アーバナ・シャンペーン校の研究者らは、OpenAIのGPT-4を悪用してソフトウェアのセキュリティ脆弱性を攻撃できる可能性を指摘。

特に1日脆弱性のリスクが強調され、NISTによる統計では87%の1日脆弱性が悪用されているという報告がある。

今後、生成AIがサイバー攻撃に関与する事例が増える可能性がある。

 米イリノイ大学アーバナ・シャンペーン校の研究者らは、OpenAI の大規模言語モデル(LLM)である「GPT-4」を悪用することで、人間が介入することなくソフトウェアのセキュリティの脆弱(ぜいじゃく)性を攻撃し、悪用できるとの研究結果を2024年4月に公表した。

 ここで指摘されているのが、「1日脆弱性」が狙われるリスクである。1日脆弱性とは、既に公開されているものの、まだ修正されていない脆弱性を指し、これが悪用される可能性があるという。実際に、米国立標準技術研究所(NIST)は、1日脆弱性の87%を悪用できたとしている。研究結果によると、GPT-4 には1 日限りの脆弱性を自律的に検出し、悪用する能力が備わってしまっているようだ。

 生成AIがサイバー攻撃に加担する事例は、今後さらに増加すると考えられる。関連する記事を集めた。

 下記ボタンからPDFをダウンロードいただけます。