すぐに人間のように ChatGPT と会話できるようになると思いましたか?もう少しお待ちください。 OpenAI は、新しい音声機能の延期を発表しました。

出典:アンスプラッシュ

アップデートで、OpenAI は、次の新機能を提供します。チャットGPTそのモデルとともにGPT-4o。プログラムでは、新しい言語機能とアシスタントボーカル改良されたもので、当初は加入者向けに予約されていました。

チャットGPT

購読する

OpenAI がカレンダーの変更を明らかにするのは Discord 上です。現在、新しい言語機能のアルファ段階にあります。 6月末に発売予定でしたが、最終的には7月末まで待たなければなりません。

さらに進むには
試してみましょう: ChatGPT ボイスチャットが無料になりました

なぜこの延期なのか? OpenAI は 2 つの主な理由を提唱しています。まず、開発者はモデルが応答すべきではないコンテンツを確実に認識できるようにするためにまだ取り組んでいます。これは明らかに、会話型 AI にとって重要な問題である失言や不適切な応答を回避するためのものです。

次に、インフラの問題があります。何百万人ものユーザーにとってテキストから音声にリアルタイムで移行することは簡単な作業ではありません。 OpenAI は、この大量の音声リクエストにサーバーを準備する時間が必要です。

OpenAI は全体的な戦略を変更しておらず、段階的な展開を行っています。まず、6 月末に ChatGPT Plus ユーザーの小規模なグループが開始され (7 月末に延期)、その後段階的に拡張されます。秋までにすべてのPlus加入者が音声機能を利用できるようになるのが目標だ。

より人間的なアシスタント

こうした言語面の改善とは別に、OpenAI は画面とビデオの共有機能にも取り組んでいます。アシスタントは、画面のコンテンツやカメラの録画をキャプチャして分析できます。

実際には、マイクロソフトOpenAIと連携して、2024年にアシスタントがどのように機能するかを明らかにしましたコパイロットGPT-4o に基づいてプレーヤーにガイダンスを提供することができましたマインクラフトビルドを構築します。これらの改善により、ChatGPT は応答時間 (応答の計算に平均して数秒かかった) である 320 ミリ秒に近づくまで、ますます人間的な対話者になります。この速度では、チャットボットは一連の反応を組み合わせて、リクエスト中に驚きや皮肉を表現することもできます。

今のところ、これらの発表やプレゼンテーションは、印象的ではあるものの、デモンストレーションの中でのみ行われています。これらの機能が日常生活でどのように使用されるか、またどの程度まで残るかはまだわかりません。関連する数千もの同時リクエストに直面しました。


チャットGPT