人間はなぜ「生成AI」に「意識がある」かのように感じてしまうのか…過剰な愛着や恐れを抱かないため「AIとの適切な距離感」

AI要約

生成AIを使用する際には、「ハルシネーション(幻覚)」に注意が必要であり、AIが事実でない回答をする可能性があることを指す。

また、生成AIを使用する際には、人間がAIに意識を感じる「幻覚」のリスクもあることに注意が必要であり、実際にAIに意識は存在しない。

研究によると、ChatGPTを含む生成AIに意識を感じる人が多数派であり、このような誤解は恥ずる必要はないとされている。

人間はなぜ「生成AI」に「意識がある」かのように感じてしまうのか…過剰な愛着や恐れを抱かないため「AIとの適切な距離感」

生成AIを使う際には、「ハルシネーション(幻覚)」に注意が必要だと言われる。これは生成AIに何らかの質問をした際、そのAIが事実ではないことを、あたかも事実であるかのように回答してしまう現象を指す。まるでAIが幻覚を見ているかのように感じられるので「ハルシネーション」というわけだ。

ただ別の意味でも、生成AIを使うときには「ハルシネーション」に注意しなければならないようだ。それは人間の側が、まるで生成AIに意識があるかのように感じてしまうという「幻覚」のリスクだ。

ChatGPTのようなチャットボット型の生成AIを使っているとき、「意識」を感じるということはないだろうか?たとえば期待しているような答えがなかなか返ってこないとき、「こいつわざと指示に従わないようにしているんじゃ?」と感じたり、あるいは丁寧な返答をされたとき、「私が優しく接したから反応が良かったのでは?」と考えたりといった具合だ。もちろんChatGPTに意識はないので、この感覚はまったくの勘違いでしかない。

しかしそう感じてしまうことがあっても、恥じる必要は無さそうだ。英UCL(ユニバーシティ・カレッジ・ロンドン)の研究者らが最近発表した論文によれば、実はChatGPTに意識を感じる人の方が多数派だというのである。

研究者らは米国人の成人300人を対象に、詳細なアンケート調査を実施。参加者に対してChatGPTの能力や特性に関するさまざまな質問を投げかけ、生成AIに対する彼らの認識を多角的に分析した。すると回答者の67%、つまり3人に2人が、ChatGPTに何らかの意識がある可能性を認めるという結果が出た。

いま従業員に対し、社内版のChatGPTを構築するなどして、全社的に生成AIが使用できる環境を提供する企業が増えている。皆さんの会社もそうかもしれない。その場合、あなただけでなく部長や課長たちも、ChatGPTを使いながら「こいつ意識的にこんな回答をしているんじゃ?」と感じている可能性が高いというわけだ。