Soli のプロダクト マネージャーである Brandon Barbello に会い、Pixel 4 の新しいレーダー検出システムである Motion Sense について詳しく説明しました。これは、より複雑な未来のための単なる構成要素です。
10月に発売されたGoogle Pixel 4最新のスマートフォンであり、Soli として知られるレーダーセンサーを搭載した最初のスマートフォンです。理論的には、これにより、非常に細かい動きを認識する新しいインタラクションを生み出すために、それらを空間内に完璧に配置します。実際には、画面の前に手をかざし、壁紙上のポケモンに挨拶することで曲を切り替えることができます。
Google はパリで、Soli のプロダクト マネージャーである Brandon Barbello とのラウンド テーブルを開催し、マウンテン ビューで長年温められてきたこのプロジェクトについて詳しく話してもらいました。
起源
Soli は厳密に言えば Google で誕生したのではなく、2014 年に Motorola で誕生しました。当時、検索の大部分が Google インキュベーターである ATAP に統合されていました (直前に)。レノボによるモトローラの買収)。それ以来、プロジェクトは Google の研究開発部門に統合され、数年からいつか完成するまでの時間をかけて成熟しました。」Pixel、ホーム オートメーション デバイスなどで」。 Soli の将来に関する Google の野心に関する最初の手がかり。
2015年に一般公開されました, Soliがついにスマートフォンに収まるほど小型化され、その恩恵を真っ先に受けるのはピクセル4。しかし、これは最初のステップにすぎず、ブランドン・バーベロはソリに対して大きな野心を抱いていると語った。長期的な目標は、テクノロジーとの相互作用を実現することです。」より人間的な」と、ほんの数十年前に入力する必要があったコード行とは大きく異なります。今日、私たちはタッチ インターフェイス、音声、ジェスチャーを通じて、スマートフォン、接続されたスピーカー、または接続された時計と通信しています。
無限の可能性
Pixel 4 での Soli の発売に関する失望は、主に過去のプレゼンテーションに関連しています。 Google の最新スマートフォンとのやり取りがかなり制限されているとしても、Google が発表した最初の使用例は、ミリ単位の精緻な使用法を示しました。最初の具体的な応用例が、スマートフォンのシンプルな前面フォトセンサーを使ってすでに何年も前から可能になっている曲の変更であることを見るのは悲しいことです。
ただし、Pixel 4 に搭載されているレーダー センサーは、絶対的に同じ技術的能力を備えており、スマートフォンの機能をアップグレードするには簡単なソフトウェア アップデートのみが必要です。したがって、Soli にリンクされた新機能が登場するのを Pixel 5 まで待つ必要はありません。
Brandon Barbello が Google の次のプロジェクトを私たちに明らかにしたくなかったとしても (論理的には)、Soli はスマートウォッチなどの小さな画面を備えたデバイスで非常に役立つ可能性があることを私たちに説明することを躊躇しませんでした (Fitbitの買収で実用化)、または接続されたスピーカーの周囲のさまざまな動きを認識する(新しいネスト製品)。ビデオゲーム側でも、通常のコントローラーを置き換えるための研究が行われています(Stadia に将来追加される予定ですか?)。
スマートフォンの話に戻ると、Brandon Barbello 氏は、レーダー波は物質を通過するため、この技術を使用すれば携帯電話のシェル上に仮想ボタンを簡単に作成できるだろうとも説明しています。
迷った第一歩
これらすべての可能性にもかかわらず、最終的には非常に不完全に見えるテクノロジーを Pixel 4 に投入したのはなぜですか?これに対して、Brandon Barbello 氏は、スマートフォンとの統合が、この新しいテクノロジーを誰でも理解できるようにするための最も明白なステップだったと説明しています。なぜなら、スマートフォンはより普及しており、何よりも私たちが離れることがほとんどないデバイスだからです。毎日スマートフォン上で Soli のジェスチャーを発見し始めると、コンピューターやテレビなど、日常生活の他のすべてのデバイス上でもジェスチャー ナビゲーションがより自然になるはずです。
残念なことに、スマートフォンには、私たちが操作するためのタッチ スクリーンがすでに搭載されていますが、ボタンも搭載されています。 Google は単に Soli の機能を複製したかったわけではありません (少なくとも 4 つの異なる方法があると知っていると面白いですね)そしてまもなく 5 時に Google アシスタントを起動しますPixel 4 ホーム画面から)。
この問題とは別に、ユーザーにとって最も直感的なジェスチャーを研究する必要がありました。 「私たちは何万人もの人々から何百万ものジェスチャーを収集しましたブランドン・バーベロ氏はこう説明する。「スワイプ」するように指示すると、さまざまなことが起こります」。たとえば、FrAndroid 編集チームでこの問題に遭遇しました。自然な読書方向は左から右であるのに、手を右から左にスライドさせて音楽を再生する (本のページをめくるなど) のは直感に反すると感じる人もいます。このジレンマは、スクロール方向を選択できるラップトップのタッチパッドにも見られます。
最終的に、 "[Google] が以前に持っていた社内プラットフォームよりもはるかに信頼性が高く、安定した方法で次のものを開発するためのプラットフォームとなり得る商業規模の製品を得るには、このようにテクノロジーを進歩させることが非常に重要でした。」。このようにして、Google はより大規模なヘルプや情報の取得を検討できます。
今後のオープン予定
Google がこのテクノロジーをさらに使いこなしたら、マウンテンビュー会社はさらに多くのユースケースを開発するために他の企業にもこのテクノロジーの使用を許可する必要があります。結局のところ、これが Android の仕組みであり、システムの優れた機能の一部はもともとサードパーティのメーカーや独立系開発者によって設計されたものです。
パイプラインのどこで開発者にアクセスを開放すべきかという疑問が残ります。 Soli が解釈したユーザーのジェスチャーに基づいて作業できるでしょうか?レーダーで捉えた生データ?開発をシンプルかつ非煩雑に保ちながら、開発者に創造的な自由を十分に与えるために、この問題は現時点では未解決のままです。
確かに、Soli は今日では本当に夢ではないかもしれませんが、Pixel 4 は今のところその可能性の表面をなぞっただけです。 Googleがこの問題の真相を究明し、そのテクノロジーを放棄しないことを願っていますたとえばDaydreamでできたように。
愛好家のコミュニティに参加してみませんか?私たちの不和ここは相互扶助とテクノロジーに対する情熱の場所です。