I/O 2024で大々的に発表されたこの人工知能は、Googleによれば「プロジェクト・アストラ」と呼ばれ、世界を理解する必要があり、早ければ2025年にもリリースされる可能性があるという。
人工知能の競争では、誰もが独自の特性を持っています。次のような特定のタスクに焦点を当てる人もいますが、言語翻訳、世界を理解できる、いわゆる「マルチモーダル」知能を作成したいと考えている人もいます。 Google、その研究所を通じてディープマインドでは、この需要に応えられる「プロジェクト・アストラ」に取り組んでいます。
世界を理解する
9to5GoogleGoogleのCEOサンダー・ピチャイがカンファレンス中に次のように発表したと我々に報告している。アストラプロジェクトに起こるかもしれないジェミニライブ, Googleの音声アシスタント、2025年から。
Google は「AI があなたの周囲の世界を見て判断できるエクスペリエンスを開発中」です。
スンダール・ピチャイ
Astra プロジェクトが私たちが知っている AI をどのように変えるのかを理解するには、その使用状況に注目する必要があります。今日、人工知能に質問すると、具体的な答えが得られます。時々鋭いただし、テキスト、画像、さらにはビデオなど、特定のアクションのフィールド内に留まります。
いわゆる「マルチモーダル」AI は、人間が世界と対話する方法を反映するために、さまざまな種類のデータを同時に解釈する能力によって区別されます。
さらに進むには
Googleは間もなくGemini 2.0を発表する可能性がある
目標は、最終的には検索をより自然にし、質問する前にすべてのデータを指定しなくても AI と会話できるようにすることです。双子座に組み込まれている人は、旅行中に街の真ん中にある建物を撮影することを想像して、単純に尋ねることができます。それは何ですか?»。
Cookie やその他のトラッカーを受け入れていないため、このコンテンツはブロックされています。このコンテンツは YouTube によって提供されています。
これを表示するには、YouTube によるお客様のデータの使用を受け入れる必要があります。この使用は、コンテンツの表示とソーシャル メディアでの共有の許可、Humanoid とその製品の開発と改善の促進を目的として使用される可能性があります。パートナー、あなたのプロフィールとアクティビティに基づいてパーソナライズされた広告を表示し、パーソナライズされた広告プロファイルを定義し、このサイト上の広告とコンテンツのパフォーマンスを測定し、このサイトの視聴者を測定します(もっと詳しく知る)
「すべてを受け入れる」をクリックすると、Humanoid およびそのパートナー。
同意はいつでも撤回できます。詳細については、ぜひお読みください。クッキーポリシー。