Gemini は、LLM に関する多くの発表を行い、Google I/O 2024 の主役となりました。その中には、大規模言語モデルの超高速バージョンである Gemini 1.5 Flash の登場も含まれます。なぜこの LLM を使用するのか、また何に使用するのか?
これがその日の話題でした。ジェミニの年次カンファレンス中に多くの革新が行われました。グーグル、Google I/O 2024。Gemini が Google フォトに自分自身を招待します、Google検索で、などその最も強力なバージョンが Gemini Advanced に登場します。これらすべての発表に加えて、LLM:ジェミニ1.5フラッシュ。
さらに進むには
Google I/O 2024 は 15 の発表にまとめられています: Gemini 1.5 Pro、Project Astra、AI 概要、Gmail、Andoid 15、Veo など。
Gemini 1.5 フラッシュとは何ですか?
Google は、Gemini 1.5 Flash と呼ばれる Gemini の 10 番目のバージョンを発表しました。これは、より軽量な言語モデルです。ジェミニ 1.5 プロ、«大規模な場合でも高速かつ効率的に設計される»、Google を指定します彼のブログ投稿。このアイデアは、一般の人々が直接使用できる LLM にするというよりも、(Google API 経由で) 特定のアプリケーションに統合されるモデルにすることです。このLLMは実際には「大量かつ高頻度のタスク向けに最適化」と、それを使用したい企業にとってはより利益が得られます。
ただし、兄貴分の Gemini 1.5 Pro と同様にマルチモーダルです。つまり、テキスト、オーディオ、さらには画像に基づくことができます。そしてこれには大量の情報が含まれます。これを行うために、100 万トークンの処理能力があり、1 時間のビデオ、11 時間のオーディオ、30,000 行のコード、または 700,000 ワードを一度に処理できます。
さらに進むには
LLMとは何ですか? ChatGPT、Google Bard などのエンジンはどのように動作しますか?
Gemini 1.5 Flash が 1.5 Pro や 1.0 Ultra よりも劣っているとしても、Google が実施したすべてのテストでは Gemini 1.5 Flash が 1.5 Pro や 1.0 Ultra よりも優れていることが示されています。昨年 12 月に発表された Gemini 1.0 Pro。疑問が生じているのは、Google がそのコミュニケーションの中で、高度な統計を示さずに遅延について 1 秒しか言及していないことです。これは、特化していると主張する LLM にとってかなり奇妙です。
Google は、Gemini 1.5 Flash であることを示してモデルを販売しています。要約、チャット アプリ、画像とビデオのキャプション付け、長い文書や表からのデータ抽出などに優れています。» 応答速度: ほとんどの状況で平均遅延が 1 秒未満であると Google は述べています。
Gemini 1.5 Flash は現在、Google AI Studio と Vertex AI (Google Cloud 上) でのみ、100 万トークンを含むバージョンでパブリック プレビュー テストに利用できます。したがって、Google の考えは、何よりもこの LLM を企業や開発者に販売することです。
隔週木曜日の午後 5 時から 7 時まで開催されるショーにご参加ください。ロックを解除するによって制作されたフランアンドロイドなどヌメラマ!技術ニュース、インタビュー、ヒントと分析…またお会いしましょうTwitchでライブ配信するもしくは再放送でYouTube で!