Google 検索エンジンにおける大規模な開発はまれになってきました。通常、巨人はよりフィットしている。今回、Googleは新しい調査方法を発表した。
その誕生以来、グーグルは、世界中の大多数のインターネット ユーザーにとってデフォルトの検索エンジンとしての地位を確立しています。当初はテキスト形式でしたが、この研究は他の方法で発展しました。Googleアシスタント、または Google レンズを使用した画像で。同社は非常に定期的にアルゴリズムを進化させ、エンジンの応答性をさらに高めることを試みています。
ただし、Google が新しい方法でエンジンの大幅な進化を提供するのはまれです。今回、同社は、新しく非常に有望なマルチモーダルな調査方法をさらに進めています。
画像とテキストによる検索を組み合わせます
そこで Google は、次のような新しい検索方法を発表しました。Android および iOS 上の Google アプリ。 Google レンズは、私たちがすでに知っていた写真に基づいて検索を実行し、アイデアを明確にするためにテキストを追加できるようになりました。 Googleは、インターネット上で同様のモデルを見つけたいと考えているドレスの写真のアイデアを与えます。次に、「緑」の色を追加することで検索が明確になります。
次に、エンジンは 2 つの基準を組み合わせて、撮影されたドレスに似ているが緑色のモデルを検索します。明らかに、ここでの例は比較的単純で、Google が許可する検索の種類を簡単に理解できますが、クエリを理解するタスクの複雑さは想像できます。 Google では他の例を挙げています。「」を追加します。テーブル» リビングルームの写真に移動して、テーブルのモデルを具体的に検索するか、「ケアのアドバイス» オススメの観葉植物の写真付き。
これらのかなり複雑なアイデア関連付けタスクを実行するために、Google は最新の AI アルゴリズムを使用すると発表しました。同社は、ユーザーが使用するコンテキストと自然言語を理解するために特にそれを必要としています。
現時点では、この新しい検索モードは英語と米国に限定されています。 Google もこれがベータ版であることを示しています。