実験プロジェクトを設計する Google の ATAP ブランチは、プロジェクト ソリの進捗状況を展示しました。Google I/O 2016。指や手を使って、触れずにさまざまなデバイスを操作できるようにするプロジェクト。実際、Google はスマートウォッチ上で自社のテクノロジーを具体的かつ説得力のある使用方法で示しました。
プロジェクト ソリを覚えていますか?いいえ ?それほど深刻な話ではなく、編集部でも誰もそれを覚えていませんでした。 Project Soli は、昨年の Google I/O 2015 で初めて発表され、展示されました。このプロジェクトの目標は、手の動き、速度、距離、および指 (またはその他の物体) を認識できるチップを設計することです。手の届く範囲に。 Project Soli はレーダーから発せられる電波に基づいているため、Google が新しいテクノロジーを発明したわけではありません。
昨年、Project Soli の背後にあるチームは、Google I/O 2016 のワークショップで 1 年間の進捗状況を控えめに発表しました。この1年でチームは大きく成長しました。 2015 年に、彼女はプロトタイプのサイズをピザの箱から SD カードまで拡大することに成功しました。 2016 年には、消費電力と遅延時間を大幅に削減し、何よりも電子デバイスへの統合を開始しました。
Cookie やその他のトラッカーを受け入れていないため、このコンテンツはブロックされています。このコンテンツは YouTube によって提供されています。
これを表示するには、YouTube によるお客様のデータの使用を受け入れる必要があります。この使用は、コンテンツの表示とソーシャル メディアでの共有を可能にし、Humanoid とその製品の開発と改善を促進する目的で使用される可能性があります。パートナー、あなたのプロフィールとアクティビティに基づいてパーソナライズされた広告を表示し、パーソナライズされた広告プロファイルを定義し、このサイト上の広告とコンテンツのパフォーマンスを測定し、このサイトの視聴者を測定します(もっと詳しく知る)
「すべてを受け入れる」をクリックすると、Humanoid およびそのパートナー。
同意はいつでも撤回できます。詳細については、ぜひお読みください。クッキーポリシー。
デモは27分あたりから始まります。
そして、それはまさにチームが Google I/O 2016 で披露したものです。上のビデオでわかるように、このチップは LG スマートウォッチと Harman から接続されたスピーカーの両方に統合されていました。最も印象的なデモは間違いなく、コネクテッド ウォッチを使用したデモです。
実行されたジェスチャの使用外画面からは、画面を指で隠すことなく、表示を変更したり、時計のメニューを操作したり、時計を非常に簡単に操作したりすることができます。つまり、Project Soli は数分で、スマートウォッチのナビゲーションを人間工学に基づいて作成できることを示します。
明らかに、この制御モードは現時点では (ほぼ) SF であり、このような制御手段が登場するのはあと数年かかるはずです。しかし、Google がスマートウォッチの人間工学に非常に真剣に取り組んでいることを見ると、Mountain View がウェアラブルを本当に信じていることがわかります。