高帯域幅 RAM 市場の主要プレーヤーになろうとしている Micron は、自社の HBM3E チップが 2024 年、さらには 2025 年までにすべて販売される予定であることを示唆しています。この発表は、中期的な GPU の供給に影を落とします。
これまでは高帯域幅 RAM (HBM) 市場のセカンダリープレーヤーでしたが、ミクロンは、新しい HBM3E メモリのおかげで、この分野で画期的な進歩を遂げました。しかし、同グループの最新の声明は、このタイプのチップの供給が中期的に枯渇するリスクがあることを示唆している。特に専用の GPU の生産において潜在的なボトルネックを引き起こす可能性があるため、迷惑な状況です。人工知能、レポートトムのハードウェア。
また、ウェハ(半導体の製造に必要なシリコンウェハ)の需要が非常に高いHBM3Eメモリの完全生産は、多くの民生用デバイスで使用されるDRAMメモリの供給にも直接影響を与える可能性があることも分かりました。 。つまり、新たな部品不足が発生する可能性は排除できない。コロナ後に私たちが知ったものの。
Nvidia とその AI 専用 GPU にとって重要な HBM3E メモリ
«当社の HBM メモリは 2024 年に向けて完売しており、2025 年の供給の大部分はすでに割り当てられています。」と、マイクロンのゼネラルマネージャーであるサンジェイ・メロトラ氏が、今週グループの最新の業績を発表した際に特にそう指摘した。コンテキストとして、Micron の HBM3E メモリ (このタイプの RAM を商業的に活用した世界初の企業) は、特に次の企業で使用されています。Nvidia の新しい H200 GPU、AIとスーパーコンピューターに特化しています。
各 H200 グラフィックス カードの製造に、Nvidia は少なくとも 6 つの HBM3E チップを使用しており、これにより Micron は HBM メモリ分野で大きな市場シェアを獲得できるはずです...その生産能力の限界にすぐに達してしまうリスクはありますが、グループに安心感を与えたい場合。
技術面では、Micron の HBM3E チップは現在 24 GB 8Hi モジュールで、デバイスあたり 9.2 GT/s のデータ転送速度と 1.2 TB/s 以上のメモリ帯域幅を提供します。 H200 GPU ごとにこれらのチップを 6 つ使用することで、Nvidia は合計 141 GB 以上の HBM3E メモリを実現できます。
ただし、マイクロンがこの分野でさらに前進するつもりであることはわかっています。次世代の HBM 「12Hi」メモリ チップは実際に容量が 50% 増加して 36 GB になり、AI がこれまで以上に大規模な言語モデルをトレーニングできるようになります。
上で述べたように、HBM メモリをめぐるこの技術的および産業的競争は、一方で、はるかに大規模に使用される、より伝統的な DRAM モジュールの生産上の問題を引き起こす可能性があります。
«HBM モジュールの製造には特殊な DRAM の製造が含まれるため、HBM チップの増加は、主流アプリケーション向けの DRAM IC を製造するマイクロンの能力に大きな影響を与えるでしょう。»、特に説明しますトムのハードウェア。
マイクロン社もすでに認めている問題。 「HBM の生産増強により、非 HBM 製品の成長が制限される»、確かにサンジェイ・メロトラ氏はこう述べた。 「業界全体で、HBM3E メモリは標準の DDR5 の約 3 倍のウエハを消費しています (…)」。そう書いてあるのですが…それが来年の品不足の可能性を懸念させます。