GoogleのAI概要機能はここ数日、その対応が前回よりも常軌を逸しているとして広く嘲笑されているが、専門家らはウェブ巨人ですら克服するのに苦労するであろう根本的な問題を指摘している。
AI の概要は、Google I/O 2024 における最大の発表の 1 つです。これは Gemini を活用した新機能です。大規模言語モデル (LLM)Googleから。したがって、検索エンジンがクエリに対して表示する結果の上には、さまざまなソースに基づいて AI によって書かれた充実した概要も表示されます。記載された目的は、ナビゲーションを簡素化することです。
AIの理不尽な対応
はい、でもそれでいいのです。すでに米国に配備されているオーバービューズは、提供されたアドバイスの愚かさで何よりも際立っていた。人工知能はこう推奨されるチーズをピザの上に保持しやすくするためにピザに接着剤を塗る。そして、これが唯一の異常な例というわけではありません。週末、多くのインターネット ユーザーが共有しましたGoogle が提供する月の答え。 AIは人々に橋から飛び降りたり殺人を犯したりするようアドバイスしたり、足元を見なければ空中浮遊できると主張したり、ソースにガソリンを加えて味を良くすることを提案したりした。
最初はGoogleを笑わせてしまうほどの失言が多かった。しかし、専門家が取材したところによると、ワシントンポスト、これらのエラーは何よりも、マウンテンビューの巨人ですら必ずしも対抗できない人工知能の根本的な問題を浮き彫りにしています。
真実の答えではなく一貫した答えをする
専門家の一人、米国の著名なコンピュータ科学者であるグレイディ・ブーチ氏は次のように説明しています。すべての主要な言語モデルは、そのアーキテクチャの性質上、本質的に、そして取り返しのつかないほど信頼できない語り手です。根本的には、真実の答えではなく、一貫性のあるように見える答えを生成するように設計されています。」。したがって、単に「」であることはできません。修正されました» 古典的なソフトウェアのバグのようなものです。ものを発明するということは、「動作モードの避けられない特性»。
Grady Booch 氏によると、大規模な言語モデルを使用している企業はいつでも「彼の最もあからさまな嘘を隠すために、膨大な量の安価な人員労働力が必要である」。しかし、ハイテク大手が生成型 AI の利用を目指す限り、誤った答えは存在し続けるだろうと同氏は考えている。
修正が難しい傾向
同じくワシントン・ポスト紙のインタビューを受けたプリンストン大学のコンピューターサイエンス教授、アルビンド・ナラヤナン氏は次のように認めています。大規模な言語モデルが誤った情報を生成する傾向は、近い将来に修正される可能性は低い」。その一方で、Google が犯した簡単に回避できるエラーについても指摘しています。 AI 概要では、特に「」について要約する結果を探します。低品質の Web ページ、さらにはタマネギ »。懸垂下降を注ぎ、タマネギパロディメディアです。
«これをより確実に実行するAIはまだ存在していません»、サンタフェ研究所の教授で複雑系の研究者であるメラニー・ミッチェル氏は次のようにまとめています。後者は、強調された懸念が人工知能ツールを開発するすべての企業に関係していることを思い出させます。
したがって、OpenAI の ChatGPT のようなプラットフォームも明らかに影響を受けません。一方で、Google がこの種の問題に最も頻繁に直面していることは明らかです。悪い話題。少し前のことですが、Gemini の画像ジェネレーターは何でもできましたダイバーシティを推進したい。賞賛に値する以上の意図でしたが、実行は非常に不器用でした。
Twitch ショー「SURVOLTÉS」隔週水曜日の午後 5 時から午後 7 時までです。電気自動車や電動自転車、ディベート、インタビュー、分析、ゲームなどについてお話しましょう。