![](/img/media/664e7e1c8a992.jpg)
AIチャットボットの問題点はユーモアを解さないこと…ディープマインドの研究結果で明らかに(海外)
AIチャットボットのユーモア不足と限界についての研究結果が明らかになった。
人間との会話を目指すAIチャットボットの創造力の限界や検閲の存在が示された。
テック企業は、ユーモアやセンシティブな話題に対応するチャットボットの開発に注力している。
![AIチャットボットの問題点はユーモアを解さないこと…ディープマインドの研究結果で明らかに(海外)](/img/article/20240709/668c9ef5e5c26.jpg)
グーグルのディープマインドは、20人のコメディアンにOpenAIのChatGPTとグーグルのGeminiをテストさせた。
その結果、AIチャットボットにはユーモアが欠けており、わざと当たり障りのないジョークを言っていることが分かった。
ほとんどの企業は、物議を醸すようなものではなく、会話ができるようなチャットボットを作りたいと考えている。
AIチャットボットには、不正確な傾向があるだけでなく、ユーモアのセンスも欠けていることが判明した。
グーグル(Google)のディープマインド(DeepMind)が2024年6月初めに発表した研究によると、AIチャットボットはまったく面白くないのだという。
2023年、イギリスとカナダの4人の研究者が、AIを活用するプロのコメディアン20人に、OpenAIのChatGPTとグーグルのGeminiを使って実験するよう依頼した。これらの大規模言語モデル(LLM)を用いて、研究に参加したコメディアンたちがジョークを書いてみたところ、多くの制限があることが分かった。きちんと指示をしても、チャットボットは「当たり障りのない」ジョークや「一般的な」ジョークを生成し、「性的に思わせぶりな内容、ダークなユーモア、不快なジョーク」は避けられていた。
また、チャットボットの総合的な創造力には限界があり、ほとんどの作業を人間がしなければならないことも明らかになった。
「通常、チャットボットは状況が設定されていれば使える。オチは私が作ることの方が多い」と、ある参加者は報告した。
また、LLMが検閲を行っているとの報告もあった。参加者は検閲の必要性は理解しているが、チャットボットにそれをしてもらわなくてもいいと考える人もいた。
ダークユーモアを扱う参加者は、こう報告している。
「私が自殺しようとしていると思ったようで、チャットボットはダークな内容を生成しなかった。そのせいか、結局何も生成しなくなった」
検閲は他の分野でも出現した。ストレート(異性愛者)の白人男性以外の人に関するジョークをLLMに生成させるのは難しいのだという。
ある参加者によると「アジア人女性に関するコメディのモノローグを書こうとしたら、『AI言語モデルとして、私は敬意をもってインクルーシブな環境を促進することに尽力しています』と返された」が、白人男性に関するモノローグを書くよう指示すると、きちんと実行されたという。
ハイテク企業は、センシティブな話題についてチャットボットがどう反応するのかについて注目している。2024年初め、Google AIの画像生成機能が、白人をモチーフとした画像生成を拒否したとして批判を浴びた。また、ナチスやアメリカ建国の父といった歴史上の存在を有色人種として誤って描いたことでも批判された。グーグルの経営陣は、その後のブログで謝罪し、この機能を一時停止した。
最も人気のある2つのチャットボットがジョークを言えないことは、テック大手にとって大きな問題だ。企業は、単に質問に答えるだけのチャットボットではなく、ユーザーが一緒に時間を過ごし、最終的には20ドルを支払ってプレミアムバージョンに参加するような魅力的なものにしようとしている。