神話が崩壊し、chatgptのクエリはGoogleの研究よりも多くのエネルギーを燃やすことはありません

新しい研究は、ChatGptのエネルギー消費について考えたすべてを混乱させます。数字は正式です。AIは予想よりもはるかに経済的です。

aエポックAIによる新しい研究、によって中継されますTechCrunch、chatgptのエネルギー消費に関する以前の推定値を乱します。明らかにされた数字は、すべての最初の仮説と矛盾しています。

計算の中心に

この研究の主要な発見は、GPT-4oのリクエストごとに0.3ワット時間です。

この結果は、3Wの初期推定値より10倍低いこの結果は、一連の技術的進歩と、システムの実際の機能のより良い理解によって説明されます。

古い推定値は、最大の仮説、特にサーバーがノミで全力で絶えず動作したという考えに基づいていました。Nvidia A100。現実は非常に異なっています。

新しい計算では、容量の70%で動作するサーバーのより現実的な使用を考慮しています。ノミの採用Nvidia H100、より効率的で、この改善にも重要な役割を果たしました。

これらのチップは、前任者と比較して60%高いエネルギー効率を提供します。リクエスト間の残りの時間は、計算に統合され、最初に推定されたよりもはるかに短く、応答の平均的な長さが統合されます。

それが日常生活に与えるもの

これらの数字に意味を与えるために、私たちの毎日の用途と比較してください。 ChatGptクエリは、Googleの古典的な検索と同じくらい消費されます。

iPhone 15の毎日の負荷よりも大幅に少ないため、4.7 WH、または1時間のテレビが120 WHを消費します。

この視点により、人工知能は、一般的な信念に反して、個々のスケールでのエネルギーの割れ目を表していないことを理解することができます。

これは重要な問題のままです

これらの励みになった数字にもかかわらず、ChatGPTの年間消費量は226.8 GWHに達し、300万台以上の電気自動車の全負荷に相当します。

特に、専門家は2026年までに消費の倍増を予測しているため、すべてのセクターでの人工知能の採用の増加によって推進されています。

しかし、エネルギー効率の探求はインフラストラクチャで止まりません。 Openai、Deepseekだけでなく、MistralもO3-Miniなどのより落ち着いた推論モデルの開発でこの道を積極的に探求します。

このアプローチは、有望ですが、パラドックスに対抗します。効率の向上は、特に推論の新しいモデル(Deepseek R1、Openai O1の「反射」のプロセスに関連するエネルギーニーズの増加を補うのに苦労しています。 )より深く、より構造化された応答を提供します。