OpenAI は、約 7 か月前にデモを行った ChatGPT のリアルタイム ビデオ機能をついにリリースしました。
木曜日のライブ配信で、同社はChatGPTの人間のような会話機能「Advanced Voice Mode」のビジョンを実現すると発表しました。ChatGPT Plus、Team、またはProに加入しているユーザーは、ChatGPTアプリを使用してスマートフォンを物体に向けると、ChatGPTがほぼリアルタイムで応答します。
高度な音声モードとビジョン機能により、画面共有を介してデバイスの画面に表示されている内容も理解できます。例えば、様々な設定メニューの説明や、数学の問題の解答例などを提供できます。
視覚機能付きの高度な音声モードにアクセスするには、ChatGPTチャットバーの横にある音声アイコンをタップし、左下のビデオアイコンをタップしてビデオ通話を開始します。画面共有するには、3点メニューをタップして「画面を共有」を選択します。
OpenAIによると、視覚機能を備えた高度な音声モードの展開は木曜日に開始され、来週中に完了する予定です。ただし、すべてのユーザーがアクセスできるわけではありません。OpenAIによると、ChatGPT EnterpriseおよびEduの加入者は1月までこの機能を利用できません。また、EU、スイス、アイスランド、ノルウェー、リヒテンシュタインのChatGPTユーザーについては、まだ具体的なスケジュールは決まっていません。
CBSニュースの「60 Minutes」で最近行われたデモで、OpenAIのグレッグ・ブロックマン社長は、視力検査でアンダーソン・クーパーに解剖学のスキルを問うアドバンスド音声モードを使用させました。クーパーが黒板に体の部位を描くと、ChatGPTは彼が描いているものを「理解」することができました。

「位置はまさにその通りです」とChatGPTは言った。「脳はまさに頭の中にあります。形に関しても、良いスタートです。脳は楕円形に近いです。」
テッククランチイベント
サンフランシスコ | 2025年10月27日~29日
しかし、同じデモでは、視覚を備えた高度な音声モードで幾何学の問題を間違えており、幻覚を起こしやすいことが示唆されています。
視覚機能を備えた高度な音声モードは、これまで何度も延期されてきました。これは、OpenAIがこの機能が実稼働準備完了よりはるかに前に発表したことが一因と報じられています。4月、OpenAIは高度な音声モードを「数週間以内」にユーザーに展開すると約束しました。しかし、数か月後、同社はさらに時間が必要だと述べました。
秋口にChatGPTの一部ユーザー向けにAdvanced Voice Modeがようやく提供開始された際には、視覚分析機能が欠けていました。木曜日のリリースに先立ち、OpenAIは音声のみのAdvanced Voice Mode体験をEUの他のプラットフォームやユーザーに提供することに注力してきました。
GoogleやMetaといったライバル企業も、それぞれのチャットボット製品で同様の機能を開発中です。今週、Googleはリアルタイム動画分析会話型AI機能「Project Astra」をAndroid端末の「信頼できるテスター」グループに公開しました。
OpenAIは木曜日、視覚機能を備えたアドバンスドボイスモードに加え、クリスマスシーズンを盛り上げる「サンタモード」をリリースしました。このモードでは、サンタの声がChatGPTのプリセット音声として追加されます。ユーザーはChatGPTアプリのプロンプトバーの横にある雪の結晶アイコンをタップまたはクリックすることで、このモードを見つけることができます。

2024年12月5日~12月18日
ストーリーラインから:ライブアップデート:OpenAI ChatGPTの12日間の発表と公開
OpenAIの年末イベントが開催されます。同社は「12 Days of OpenAI」と題した、毎日開催されるイベントシリーズを開催します。
カイル・ウィガーズは2025年6月までTechCrunchのAIエディターを務めていました。VentureBeatやDigital Trendsに加え、Android Police、Android Authority、Droid-Life、XDA-Developersといった様々なガジェットブログにも記事を寄稿しています。音楽療法士のパートナーとマンハッタンに在住。
バイオを見る