「ChatGPT」、より自然に会話する「高度な音声モード」をPlusユーザーに順次提供

AI要約

OpenAIは、ChatGPTの高度な音声モードのアルファ版をChatGPT Plus加入者に提供開始した。

高度な音声モードでは、より自然なリアルタイムの会話が可能で、感情を検知して反応し、ユーザーが遮っても対応できる。

今後数週間のうちに、さらに多くの加入者にアクセスを拡大し、秋にはすべてのChatGPT Plus加入者に高度な音声モードを提供する予定。

 OpenAIは米国時間7月30日、「ChatGPT」の高度な音声モード(advanced Voice Mode)のアルファ版を、少数の「ChatGPT Plus」加入者に提供開始したと発表した。

 同社は5月のイベントで「GPT-4o」モデルとともに、高度な音声モードを発表していた。

 OpenAIによると、高度な音声モードでは、より自然なリアルタイムの会話ができる。また、感情を検知して反応し、ユーザーが遮っても対応できるという。

 同社の広報担当者はコメントの依頼に応じなかった。

 アルファテストの対象者は、ChatGPTアプリ内で通知を受け取るほか、利用方法についての説明が記載された電子メールも受け取る。広報担当者は以前の電子メールの中で、この早期テストの目的は、より広範な展開に先立ち、使用状況をモニタリングし、モデルの機能と安全性を向上させることだとしていた。

 OpenAIは今後数週間のうちに、さらに多くの加入者にアクセスを拡大し、秋にはすべてのChatGPT Plus加入者に高度な音声モードを提供する予定だ。

 高度な音声モードには、OpenAIが2023年に声優と共同開発した4つのプリセット音声、Breeze、Cove、Ember、Juniperが含まれる。当初は5つ目の音声としてSkyもあったが、2013年の映画「her/世界でひとつの彼女」で仮想アシスタントのサマンサの声を演じたScarlett Johanssonさんが、自分の声に似ていると抗議したことを受け、延期された。

 最高経営責任者(CEO)のSam Altman氏は、Johanssonさんに謝罪する声明を発表し、声を似せる意図はなかったと述べた。

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。