AIの大きなモデルはリソースのグルメであるべきだと誰が言ったのですか?確かに、Small 3を発売したばかりのMistral AIではなく、単純なMacBookをオンにすることができる240億パラメーターのモデルです。

中国がDeepseekでフロントページを作成したとしても、米国が引き続きトップにいることを覚えているだけではありませんルーシーフランス人から。

フランスの人工知能は、権力の控えめな上昇を続けています。ミストラルAIは、ラップトップを保持しながらセクターの巨人と競争することを約束する言語モデルであるSmall 3を発表しました。

240億のパラメーターを備えたSmall 3は、4o-Mini GPTを含む独自モデルの深刻な代替手段として位置付けられています。しかし、最も感銘を受けたのは、わずか32 GBのRAMを装備したMacBookで操作する能力です。

軽さの賭け

ミストラルの選択は、モデルの層の数を減らす必要があります。特にどの部分からもありません。このアプローチにより、精度を犠牲にすることなく、より速い答えを得ることができます。 MMLUテストで81%以上のスコア(モデルの推論能力を評価するための標準ベンチマーク)で、Small 3は、私たちがより少ないことで多くのことができることを証明しています。

特に興味深いのは、これらのパフォーマンスが強化または合成データに頼らずに得られたことです。 Deepseek R1のような競合他社のアプローチとは対照的であり、トレーニングプロセスの透明性を高める可能性があります。

ミストラルは、いくつかの分野でスモール3の能力を称賛しています。詐欺の検出、法的助言、健康...それにもかかわらず、いくつかの疑問を提起する野心的なアプリケーション。

Gemma-2 27bやQwen-2.5 32bなどのモデルに直面して人間のテストが有望であると思われる場合、結果はLlama-3.3 70bおよびGPT-4o Miniに対してより微妙に微妙になります。

ミストラルは、人間の評価に関するモデルの限界を認識することにより、非常にまれな透明性を示しています。これは、テスターに​​よって異なる場合があります。

Apache 2.0ライセンスの下でのモデルのオープンソースの性質も、特にDeepseekのニュースの後にも強力です。モデルを研究および改善することを可能にするだけでなく、特定のニーズに合わせて適応させることができます。それはその成功に大きく貢献します。

ミストラルは、さまざまなサイズのモデルをより多く見ることが期待できることを示唆しています」今後数週間で強化された推論能力があります»。

それまでの間、あなたはHuggingfaceでSmall 3にアクセスできますICI

HuggingChat

Huggingchat


ecperatingゲストとスリリングな科目!ロック解除ショー2つのライブで1つの水曜日に見つかります、午後5時から7時まで。また、再実行について考えてくださいYouTubeで