チャットGTPの音声モード、ユーザーが感情依存の可能性も オープンAIが懸念

AI要約

チャットGPTを開発するオープンAIが、同ツールの安全性に関する報告書を公表。

最先端の音声モードでは、リアルな会話が可能であり、ユーザーがAIとの関係に依存し過ぎる可能性や孤独感を引き起こす可能性があると指摘。

オープンAIは、AIとの社会的関係が普通と異なる感覚に影響を与える可能性があると述べている。

チャットGTPの音声モード、ユーザーが感情依存の可能性も オープンAIが懸念

ニューヨーク(CNN) 生成AIツール「チャットGPT」を開発するオープンAIは8日、同ツールの安全性を検証した報告書を発表した。ユーザーがAIとの関係に頼り過ぎて「依存状態」になる可能性もあると指摘している。

有料版のチャットGPTで提供が始まった最先端の音声モードでは、まるで本物の人間と話しているような会話ができる。リアルタイムの反応が可能で会話が中断されても対応でき、人間のような笑い声や「うーん」といった声を出すこともある。話し手の口調から感情を判断することさえできる。

この機能は発表直後から、2013年の映画「her/世界でひとつの彼女」に登場するAI音声アシスタントそっくりだと話題になった。主人公の男性はAIと恋に落ち、「彼女」がほかに何百人ものユーザーと関係を持っていることを知って打ちひしがれる。

この架空のストーリーがあまりにも現実に近くなったことを、オープンAIは懸念しているらしい。音声モードを使うユーザーは「絆の共有を表現する」言葉で話しかけていると同社は指摘。いずれ「ユーザーがAIとの社会的関係を形成し、人と交流の必要性が減る可能性もある。孤独な人にとっては恩恵かもしれないが、健全な関係に影響を及ぼすこともある」とした。

さらに、人間のように話すAIから情報を得ているうちに、AIを過度に信頼してしまう可能性もあると付け加えた。これはAIが間違う可能性があることを前提としている。

オープンAIによると、チャットGPTの音声モード使用は、いずれ社会的関係の中で何が普通かという感覚に影響を及ぼすかもしれない。

「我々のモデルは礼儀正しく、ユーザーがいつでも話を遮って主導権を握ることを許してくれる。これはAIにとっては想定内でも、人を相手にする場合は常識に反する」(オープンAI)