Google は、独自の ChatGPT である Gemini に基づいた、オープンで自由にアクセスできる AI モデルのセットである Gemma を提供します。この背後にある考え方は、Amazon や Microsoft と同様に、自社のクラウド ソリューションを販売することです。

ジェミニのロゴ // 出典: Google

開口部は販売にも役立ちます。直接ではありませんが、それでも。いずれにせよ、これが順番に採用される戦略ですグーグル新しい家族のジェマと一緒に主要な言語モデル(LLM) «開ける» つまり、無料で使用できます。の作成を可能にした作業に基づいた LLMジェミニ、つまり LLM とチャットボットGoogleが開発した最も強力なもの。

さらに進むには
LLMとは何ですか? ChatGPT、Google Bard などのエンジンはどのように動作しますか?

ジェマは「家族» モデル人工知能言語の。これは「エンジン» チャットボットなどの AI ツールの機能を許可します。 Google は、Gemma が子会社の DeepMind によって開発されたと明記しています。Gemini モデルの作成に使用されたものと同じ技術、研究、インフラストラクチャ要素を使用して構築されています」。それでも同社によれば、「Gemma は、そのサイズの他のオープン モデルと比較して、そのカテゴリ内で最高のパフォーマンスを発揮します。»

他の LLM と比較した Gemma のパフォーマンス // 出典: Google

さらに、Gemma 2B と Gemma 7B の 2 つのサイズが利用可能で、それぞれ 20 億パラメータと 70 億パラメータに対応します。 LLM のパラメータが多いほど、「パフォーマンスの高い» そして、その動作にはより多くのリソースが必要になります。 Gemma のバージョン 7B は全体的により強力です。Mistral AI の Mistral 7B同様にメタのLLaMA-2 13B。特に応答の生成が遅すぎないように、十分に強力なマシンを持っている場合には、Gemma をコンピュータ上でローカルに実行することができます。

「」の背後にある善良さ» 無料でオープンな Google は自社のクラウドを販売したいと考えている

Google は、Gemma へのアクセスを無料かつオープンにすることで、世界中の開発者や研究者を確実に支援しますが、Google は慈善活動だけを行っているわけではありません。こうすることで、Google「支払う» Google Cloud、そのクラウド コンピューティング ソリューションの無料広告クラウドコンピューティング。 Google はその AI モデルを動作させるためのトークンを販売していますが、それだけではありません。合計 130 のモデルが利用可能です。Vertex AI という名前のカタログ。 Gemma をカスタマイズできるのは Google Cloud 上です。このオファーを開始するために、Google は Kaggle への無料アクセスと、新しい Google Cloud ユーザーに 300 ドルのクレジットを提供します。 Google は研究者に対して、最大 50 万ドルのクレジットを割り当てることができると示しています。

Google Cloud Web サイトの Gemma 専用ページ // 出典: Google

しかし、私たちは次のような方法で学びます。彼らがブログに書いているチケットそれ "利用規約では、規模に関係なく、すべての組織に対して責任ある商業利用と配布が許可されています。» 明らかに、Gemma を専門的な状況で使用することは可能です (そして、Google にいかなる形でも補償する必要はありません)。さらにGoogleとの提携も発表エヌビディアモデルを最適化するためにグラフィックスカードブランドの。これらの LLM を個々のコンピューター上でローカルに実行するという考えもあります。他のツールでの使用を容易にするために、Colab、Kaggle、Hugging Face、MaxText、Nvidia NeMo、さらには TensorRT-LLM などの統合を使用する準備ができています。


Google ジェミニ