NVIDIAについて

NVIDIA は1999 年にGPU を発明して以来、ビジュアル コンピューティング分野を牽引しています。
2006 年に誕生したCUDA プログラミング モデルおよび Tesla GPU プラットフォームにより、GPU がビジュアル コンピューティング分野だけでなく並列計算能力を利用した汎用コンピューティングに適用することが可能になりました。
CUDAのツールとライブラリは3000万回以上ダウンロードされ、約300万人の開発者によって使用されています。CUDAプラットフォームは、より強力なCUDA対応GPU、新しく多様なGPUアクセラレーションライブラリ、ワークステーション、サーバー、およびアプリケーションのセットにより、継続的に改善、最適化、および拡張されています。
NVIDIA CUDA 汎用プログラマブル GPU と多数の GPU アクセラレーション SDK、API、およびアルゴリズムの組み合わせにより複数のドメインにわたって驚異的なアプリケーションの高速化を実現します。 NVIDIA GPUは世界中のクラウド データ センターで使用されており、AI、HPC、およびデータ分析システムとアプリケーションの驚異的なスピードを提供します。プログラミングの容易さと NVIDIA の CUDA プラットフォームの豊富さにより、デザイナー、研究者、エンジニアなどはイノベーションを素早く起こすことが可能です。
今日、GPU汎用コンピューティングは HPC およびデータ センターに利用されている最も一般的で、最も入手しやすく、最もエネルギー効率の高いテクノロジです。
NVIDIAはGPU汎用コンピューティング分野において世界を牽引するTOP企業です。
製品ラインアップ
NVIDIA データセンター向けGPU
NVIDIA A100
コンピューティング/ハイエンド

コンピューティングのハイエンド
AI学習、HPC、データ処理
最速コンピューティング、FP64
最大7つのMIGインスタンス
250W & 300W | 40GB & 80GB
2-slot FHFL | NVLINK
NVIDIA A30
コンピューティング/スタンダード

コンピューティングのスタンダード
AI推論、データ処理
用途の広いメインストリーム
コンピューティングFP64
最大4つのMIGインスタンス
165W | 24GB
2-slot FHFL | NVLINK
NVIDIA A2
コンピューティンググラフィックス

スモールエッジ AI
インテリジェントビデオ分析
モバイル クラウドゲーミング
コンパクトで低消費電力
データセンターとエッジ推論
40-60W | 16GB
1-slot LOW Profile
NVIDIA A40
グラフィックス/ハイエンド

グラフィックスのハイエンド
レンダリング、デザイン、
Omniverse、CloudXR
最速のRTグラフィックス
最高のレンダリングモデル
300W | 48GB
2-slot FHFL | NVLINK
NVIDIA A16
グラフィックス/スタンダード

グラフィックスのスタンダード
オフィス仮想デスクトップ用
高密度搭載可能モデル
高解像度、マルチモニター、
大容量のエンコード/デコードストリーム
250W | 64G (4 x 16GB)
2-slot FHFL
NVIDIA RTX Desktop Workstation向けGPU
NVIDIA RTX A6000
ウルトラハイエンド

超大規模CAD/3Dモデル、CAE
複雑なインタラクティブ レイトレーシング
超高解像度レンダリング
DeepLearning・Machine Learning
Ampere | 48 GB GDDR6
300 W |4.4” (H) x 10.5” (L)
Dual Slot
NVIDIA RTX A5500
ハイエンド

大規模で複雑なCAD/3Dモデル
AIのエントリー
インタラクティブ レイトレーシング
超高解像度レンダリング
Ampere | 24 GB GDDR6
230W | 4.4” (H) x 10.5” (L)
Dual Slot
NVIDIA RTX A4500
ハイエンド

大規模で複雑なCAD/3Dモデル
AIのエントリー
インタラクティブ レイトレーシング
超高解像度レンダリング
Ampere | 24 GB GDDR6
200W | 4.4” (H) x 10.5” (L)
Dual Slot
NVIDIA RTX A2000-12G
ミッド、スモール

ミッド、スモールCAD/3Dモデル
簡易AI、レイトレーシング
Ampere | 12 GB GDDR6
70 W | 2.7“(H)x6.6”(L)
Dual Slot
NVIDIA T1000-8G
ローエンド

部品のデザイン
マルチアプリワークフロー
Turing | 8GB GDDR6
50W | 2.7”(H) x6.2”(L)
Single Slot
NVIDIA T400-4G
ローエンド

部品のデザイン
マルチアプリワークフロー
Turing | 4GB GDDR6
30W | 2.7”(H) x6.2”(L)
Single Slot
Hopperについて
H100は最先端の TSMC 4N プロセスを使用して 800 億のトランジスタで構築されており、NVIDIA のアクセラレーテッド コンピューティングのニーズ向けに設計されています。
H100 は、AI、HPC、メモリ帯域幅、相互接続、通信を高速化するために大きく進歩した機能を備えており、これには毎秒 5 テラバイト近くの外部接続が含まれます。
H100 は、PCIe Gen5 をサポートする最初の GPU、かつ HBM3 を利用する最初の GPU でもあり、3TB/s のメモリ帯域幅を実現します。
20 基の H100 GPU は、全世界のインターネット トラフィックに相当する転送量を維持できるため、顧客はリアルタイムでデータの推論を実行する高度なレコメンダー システムと大規模な言語モデルを提供できます。

Hopperの仕様
H100 SXM | H100 PCIe | |
---|---|---|
FP64 | 30 teraFLOPS | 24 teraFLOPS |
FP64 Tensor Core | 60 teraFLOPS | 48 teraFLOPS |
FP32 | 60 teraFLOPS | 48 teraFLOPS |
TF32 Tensor Core | 1,000 teraFLOPS* | 500 teraFLOPS | 800 teraFLOPS* | 400 teraFLOPS |
BFLOAT16 Tensor Core | 2,000 teraFLOPS* | 1,000 teraFLOPS | 1,600 teraFLOPS* | 800 teraFLOPS |
FP16 Tensor Core | 2,000 teraFLOPS* | 1,000 teraFLOPS | 1,600 teraFLOPS* | 800 teraFLOPS |
FP8 Tensor Core | 4,000 teraFLOPS* | 2,000 teraFLOPS | 3,200 teraFLOPS* | 1,600 teraFLOPS |
INT8 Tensor Core | 4,000 TOPS* | 2,000 TOPS | 3,200 TOPS* | 1,600 TOPS |
GPU memory | 80GB | 80GB |
GPU memory bandwidth | 3TB/s | 2TB/s |
Decoders | 7 NVDEC/7 JPEG | 7 NVDEC/7 JPEG |
Max thermal design power (TDP) | 700W | 350W |
Multi-Instance GPUs | Up to 7 MIGS @ 10GB each | Up to 7 MIGS @ 10GB each |
Form factor | SXM | PCIe |
Interconnect | NVLink: 900GB/s PCIe Gen5: 128GB/s | NVLINK: 600GB/s PCIe Gen5: 128GB/s |
Server options | NVIDIA HGX™ H100 Partner and NVIDIA-Certified Systems™ with 4 or 8 GPUs NVIDIA DGX™ H100 with 8 GPUs | Partner and NVIDIA-Certified Systems with 1–8 GPUs |