Meta Connect 2024 の開催中、マーク ザッカーバーグは、レイバンと提携して製造したコネクテッド グラスの新機能を発表しました。音声コマンド、人工知能、矯正レンズとの互換性の向上: 本当に便利で興味深いデバイスを扱うことができるでしょうか?

でも、それは何でしょうか?コネクテッドグラスの未来は? // 出典: Frandroid のスクリーンショット

Google Glassを覚えていますか?プレゼンテーションから 12 年が経った今でも、マウンテン ビュー社のコネクテッド グラスはその足跡を残しています。しかし確かに業界ではありません。メタとレイバンはこの状況を変えようと決意しています。

実際、マーク・ザッカーバーグは口元に笑みを浮かべながら、次の新機能を紹介したところです。メタバンレイ、両社のコラボレーションの結果です。これらはアイドル状態ではなく、コネクテッド グラスを可能にする新機能をもたらします。持っている必要があります最大数の場合。

音声通話、オーディオ コンテンツのリスニング、ライブまたは遅延ビデオのキャプチャが依然として重要である場合、最も重要ではない新参者が登場しています。それは、次の機能によって強化された人工知能です。ラマ 3.2

などのアプリケーションの音声コントロールに加えて、スポティファイまたは可聴, AI をリアルタイム翻訳者として使用して、外国語話者と対話することができます。文字起こしはデバイスのヘッドフォンでライブで行われ、2 人のユーザーのうち 1 人だけがメガネを接続している場合、Llama は対話者の言語で会話できるよう支援します。

自動翻訳機能は非常に便利であることが約束されています // 出典: Frandroid のスクリーンショット

そして "AIに最適なフォーマット» マーク・ザッカーバーグの目に

しかし、最も印象的な機能は、Ray-Ban Meta のセンサーによる物体認識です。実際、Llama 3.2 は画像を処理することができ、ユーザーは視界にあるものに基づいて質問することができます。

したがって、目論見書を見てメモやアラートを作成したり、AI に駐車スペースを記憶させるように依頼したり、服装に付随するアクセサリーを提案したりすることが可能になります。視覚障害のあるユーザーは、のサービスから直接恩恵を受けることができます。ビー・マイ・アイズ、シーンやオブジェクトについて説明してくれるボランティアと連絡を取ることができます。

私たちの視界にあるものに基づいて AI に質問することが可能になります // 出典: Frandroid スクリーンショット

たとえ複合現実がまだ (完全に) メニューに載っていないとしても、そのような機能の統合により、329 ユーロ以上で提供されるこれらのコネクテッド グラスのコストがさらに正当化されます。特にマーク・ザッカーバーグが矯正レンズとフォトクロミックレンズ(太陽光で自動的に暗くなる)との互換性の向上を発表して以来、私たちの中で最も目が細い人でさえ興味をそそられるのに十分です。

同様に、レイバンとメタはメガネの透明バージョンを発売し、メガネを構成する電子部品を明らかにしています。 Google Glass の(前衛的な?)失敗から 10 年以上が経過した現在、これら 2 社にとって、今後数年で増殖する可能性のあるこれらのオブジェクトの本質を隠すことにもはや問題はありません。