Apple が提出した新しい特許出願により、視線と視線追跡を使用して Apple Glasses を制御するシステムの噂が再び浮上しています。それでも、Siri を介した音声制御と同様に、タッチ ストリップが使用されます。
拡張現実メガネを効果的に操作するにはどうすればよいですか?これはどのような質問ですかりんごおそらくもう何年も前のログです。一方、Apple Glassesに関する噂もっと作られていますここ数ヶ月に存在した、新しい特許(出願は3月24日にUSPTOに提出) が登場し、本質的に視線、目、まぶたの追跡システムのおかげで制御された眼鏡の仮説を再起動します。
Apple の説明によれば、この革新的な方法は、スマートフォン、ラップトップ、さらにはタブレットなど、カメラを備えたあらゆるデバイスで使用できるとのことですが、特に有効であることが証明されるでしょう。」有利» 拡張現実メガネの場合、と同グループは述べている。
Apple の長い説明によると、現在開発中のシステムは、目の動きやウインクさえも自然に解釈できるように設計される予定だという。環境内の特定の点または表示されたコンテンツを見つめることも、デバイスによって検出されて機能がトリガーされる可能性があります。
Appleはその特許の中で、例えばユーザーが特定の要素の概要をよりよく知りたい場合、ズームするには数秒間見つめるだけで済むと説明している。ただし、Siri を使用して音声によって対話を起動することもできます。
9to5Mac が指摘しているように、Apple Glasses には、タップやスワイプを通じてユーザーからコマンドを受信できる触覚面が装備される可能性もあり、これは当時のスマートフォンや Google Glass ですでに知られていたものと少し似ています。
Apple Glassesがいつ発表されるかはまだ分からない。 YouTuberのジョン・プロッサー氏は、iPhone 12と並んで2020年にプレゼンテーションが行われ、2021年に発売されると言及していた。9to5Mac側は、発売はずっと遅くなり、2023年になると予想している。