Google I/O では、これらは行われません。イベントを記念した新しい Pixel 3a。そうですね、500 ユーロ未満で高性能のカメラ付き携帯電話が手に入るのは素晴らしいことです。しかし、Google がアシスタントに関して発表した内容を見てください。これは、Google アシスタントの将来に向けた基本的なステップです。
Google が音声アシスタントに対して始めた革命を簡単に説明するのは難しいですが、Google アシスタントは縮小したと言えます。 Google アシスタントが動作するために使用されるモデルでは、クラウドに保存される 100 GB のデータが必要でした。 Google が Google I/O 2019 で発表したのは、Google アシスタントは Google Cloud に接続せずにローカルで動作し、必要な容量は 30 MB のみであるということでした。
新しい Google アシスタントの使用方法はほぼ同じですが、ローカルで実行できるため、すべてが大幅に高速化されます。Google I/O のデモでそれを見ました、はるかにスムーズなインタラクションで、驚くべき新しいステップが可能になり、期待できる副作用があります。Google は私たちのプライバシーを (少なくとももう少しは) 大事にしています。
おそらく、CES 2019 を特徴づけたエピソードを覚えているでしょう。Google は、「」と書かれた巨大な看板を立てました。ねぇグーグル» などアップルはライバルをからかった、(反対側には)次のように書かれた巨大なポスターがありました。iPhone で起こったことは iPhone に残ります»。
https://www.youtube.com/watch?v=A_6uV9A12ok
これは、ティム・クックからの手紙を伴う、世界中で放送される大規模なコミュニケーション・キャンペーンの開始でした。タイム誌に掲載されました。
2019 年は、あなた、私、そして私たちのプライバシーの権利を守るときです。消費者は、制御不可能に見えるデータ侵害や私たち自身のデジタル生活を制御する能力は言うまでもなく、企業が無責任に膨大なユーザープロファイルを蓄積するもう一年を容認する必要はありません。
この問題は解決できます。大きすぎず、難しすぎず、遅すぎません。イノベーション、画期的なアイデア、優れた機能は、ユーザーのプライバシーの保護と連携して行うことができますし、そうすべきです。テクノロジーの可能性を実現できるかどうかはテクノロジーにかかっています。
GoogleのCEOであるサンダー・ピチャイ氏は、社説を掲載するまでに至った。ニューヨークタイムズでその中で彼は、Apple には言及せずに次のように述べています。
はい、私たちはすべての人にとって製品をより便利にするためにデータを使用します。しかし、私たちはあなたの情報も保護します。
Apple のプライバシーに対する姿勢が重要なのはなぜですか? Google、Amazon、Facebook、その他の同様の企業は、そのビジネス モデルにより、私たちの行動や人間関係など、私たちに関するデータを構築し、保存しています。このデータは、何百万ものプロファイルをセグメント化、ターゲット化し、リーチするために使用されます。
このニュースが Apple の方向に進んでいることは事実ですが、特にAmazon Alexaに関連する暴露の後は。 Amazonの従業員は、同社の音声アシスタントであるAlexaとの会話を何時間も聞いていることがわかりました。抽出物は匿名であり、会社にとって非常に役立ちます。
そこで Google が発表したのは、Google アシスタントが変わるということです。データは外部サーバーに保存、分析、並べ替えられなくなります。データのほとんどはデバイス上に残りますが、Google はそれが私たちにとって良いことであると言っています。
実際、このローカル処理により、自然言語認識の遅延が大幅に短縮され (サードパーティのサーバーにデータを送信する必要がなくなり)、Siri や Alexa と比較して、コンテキストによる検索でアシスタントが再び目立つようになります。
Cookie やその他のトラッカーを受け入れていないため、このコンテンツはブロックされています。このコンテンツは YouTube によって提供されています。
これを表示するには、YouTube によるお客様のデータの使用を受け入れる必要があります。この使用は、コンテンツの表示とソーシャル メディアでの共有を可能にし、Humanoid とその製品の開発と改善を促進する目的で使用される可能性があります。パートナー、あなたのプロフィールとアクティビティに基づいてパーソナライズされた広告を表示し、パーソナライズされた広告プロファイルを定義し、このサイト上の広告とコンテンツのパフォーマンスを測定し、このサイトの視聴者を測定します(もっと詳しく知る)
「すべてを受け入れる」をクリックすると、Humanoid およびそのパートナー。
同意はいつでも撤回できます。詳細については、ぜひお読みください。クッキーポリシー。
ビデオの例 (上) は Google の進歩を示しています。女性がアシスタントと対話し、次のように尋ねているのが見えます。イエローストーンの写真を見せて» それでは、それ以上何も言わずに、「動物を飼っている人" その後 "ジャスティンに送ってください」。 Google が私たちに説明しているのは、スマートフォン (またはヘッドフォン) に向かって自然かつ継続的な言語で話すと、触覚操作よりもはるかに速く操作できるということです。
Google はまた、ディープ ニューラル ネットワーク (DNN)、リカレント ニューラル ネットワーク (RNN)、ネットワーク短期および長期メモリ (LSTM)、または畳み込みニューラル ネットワーク (CNN) に基づいた多数のテクノロジーのおかげで、情報処理レイテンシーを改善する AI の数多くの進歩を発表しました。 )。
機械学習に基づいたこの新しいモデルは、Google アシスタントの効率を向上させることを目的としています。音声認識モデルに使用されるいわゆる検索グラフは約 2 GB を占めていましたが、Google はこのサイズを 450 MB に削減することに成功し、このモデルの重さはわずか 80 MB になり、スマートフォンに保存できるほどコンパクトになりました。 Android Go を搭載したモバイルで。
スマートフォンはもちろん、Android Goを搭載した携帯電話にも収納できるコンパクトさです。
しかし、Google アシスタントの機能におけるこの変更の根本的な影響は、サービスを使用する際に私たちがプライバシーを認識することになります。
これまでのところ、アシスタントが応答できるように情報を処理するのは Google のサーバーです。年末までにローカルで動作するようになり、アクティブなデータ接続を必要とせずにこのアシスタントの多くの機能を使用できるようになります。
そう、Apple は Siri アシスタントのローカル処理を先駆けて開発したのです。しかし、世界中の情報の整理に専念する企業である Google によるこの新しいアプローチは、音声アシスタントの将来に向けた基本的な一歩です。