Google I/Oカンファレンス中に、マウンテンビュー社は、ライブキャプションと呼ばれる聴覚障害者向けの新機能がAndroidに登場すると発表した。スマートフォンでビデオやポッドキャストを聞いて文字に起こすことができるようになります。
今週火曜日から始まる Google I/O カンファレンスで、Google は Android に導入される新機能、ライブ キャプションとライブ リレーを発表しました。聴覚障害者向けのこれら 2 つの機能は、音声を自動的に文字に変換することを目的としています。
つまり、ライブ キャプションは、音量キーの 1 つが押されたときに音量バーから直接アクティブ化できる新機能です。この機能を有効にすると、ビデオやポッドキャストから発生する可能性のあるすべての音声をライブ翻訳できるようになります。これまで Google はこの機能を YouTube で使用していましたが、システムに直接統合されているため、現在はすべてのソースに拡張しています。インターネット接続がなくても機能します。
Cookie やその他のトラッカーを受け入れていないため、このコンテンツはブロックされています。このコンテンツはTwitterより提供されております。
これを表示するには、Twitter によるお客様のデータの使用を受け入れる必要があります。この使用は、ソーシャル メディアでコンテンツを表示および共有できるようにすること、Humanoid およびその製品の開発と改善を促進することを目的として使用される可能性があります。パートナー、あなたのプロフィールとアクティビティに基づいてパーソナライズされた広告を表示し、パーソナライズされた広告プロファイルを定義し、このサイト上の広告とコンテンツのパフォーマンスを測定し、このサイトの視聴者を測定します(もっと詳しく知る)
「すべてを受け入れる」をクリックすると、Humanoid およびそのパートナー。
同意はいつでも撤回できます。詳細については、ぜひお読みください。クッキーポリシー。
電話でチャットできるライブリレー
さらに、Live Relay を使用すると、同じタイプの音声認識を音声通話に使用できます。具体的には、聴覚障害者が電話で話しかけてきた相手に、文字で返答することでチャットができる機能です。一方、対話者は、その人が書いたことを Google アシスタントが音声で書き写すのを聞くことになります。
Google は、秋に Android 10 Q がリリースされるときにこれらの機能が利用可能になると発表しました。