「データセンター・イン・ア・ボックス」。これは、Nvidia が自社の DGX Station A100 を説明する方法です。これは、非常に設備の整った「データ センター」ですが、デスクトップ PC と同様のケースに収められています。
僧侶には見えない衣装と、シンプルな中央ユニットを思わせる金色の封筒の中には、エヌビディアなんとか対応するデータセンター大量のデータを処理するために必要なものはすべて揃っていますが、それだけではありません。 DGXステーションA100はその名前ですデータセンター超コンパクトで、新しいバージョンの Tesla A100 グラフィックス カードが組み込まれています。今回は、初期モデルに統合されていた 40 GB の代わりに、80 GB 以上の HBM2e ビデオ メモリが搭載されました。
覚えて、A100の最初のバージョンは春に発売されましたNvidia によってプロフェッショナル市場で販売されています。この巨大なカードは、新しい Ampere アーキテクチャを初めて使用しました。現在、Ampere に搭載されているものと同じものです。GeForce RTX 3000大公開。
最大 4 アンペアの GPU に対応する AMD EPYC プロセッサを搭載した Nvidia データセンター
エヌビディア今週明らかになったDGX Station A100 の 2 つのモデル: 私たちが興味を持っているモデルは、最大 4 つの A100 80 GB GPU を搭載できます (帯域幅 2 TB/秒、注)ハードウェアに影響を与える) 合計 320 GB のビデオ メモリ。もう 1 つは、40 GB (今回は帯域幅 1.6 TB/秒) を搭載した最大 4 枚の「クラシック」A100 カードで、合計最大 160 GB の VRAM に対応します。ただし、Nvidia は、A100 80 GB と 40 GB で同じ 400 W の TDP を維持することに成功しています。
Cookie やその他のトラッカーを受け入れていないため、このコンテンツはブロックされています。このコンテンツは YouTube によって提供されています。
これを表示するには、YouTube によるお客様のデータの使用を受け入れる必要があります。この使用は、コンテンツの表示とソーシャル メディアでの共有を可能にし、Humanoid とその製品の開発と改善を促進する目的で使用される可能性があります。パートナー、あなたのプロフィールとアクティビティに基づいてパーソナライズされた広告を表示し、パーソナライズされた広告プロファイルを定義し、このサイト上の広告とコンテンツのパフォーマンスを測定し、このサイトの視聴者を測定します(もっと詳しく知る)
「すべてを受け入れる」をクリックすると、Humanoid とそのパートナー。
同意はいつでも撤回できます。詳細については、ぜひお読みください。クッキーポリシー。
RAM 側では 512 GB の DDR4 を期待する必要がありますが、プロセッサに関しては Nvidia が選択したAMD EPYC 7742。 2.25 ~ 3.4 GHz のクロックで動作する 64 コアと 128 スレッドは、DGX Station A100 の最も完全なモデルに搭載されている 4 つの Tesla A100 をサポートするには多すぎません。
Ubuntu で提供され、2020 年の最後の四半期から利用可能になります。Nvidia トラフィックDGX Station A100 には、残り 2 つの RJ45 10 Gb/s ネットワーク ポート、追加の 1 Gb/s の RJ45 ポート (BMC リモート管理専用)、および 7.68 TB のストレージ (NVMe U.2) があります。ディスプレイ部分は、最終的に 4 GB の専用 GPU メモリを搭載した 4 つの Mini DisplayPort 出力に基づいています。現時点では、Nvidia はその価格を明らかにしていません。ボックス内のデータセンター。