NVIDIA

  1. HOME
  2. 製品紹介
  3. NVIDIA

NVIDIAについて

NVIDIA は1999 年にGPU を発明して以来、ビジュアル コンピューティング分野を牽引しています。
2006 年に誕生したCUDA プログラミング モデルおよび Tesla GPU プラットフォームにより、GPU がビジュアル コンピューティング分野だけでなく並列計算能力を利用した汎用コンピューティングに適用することが可能になりました。
CUDAのツールとライブラリは3000万回以上ダウンロードされ、約300万人の開発者によって使用されています。CUDAプラットフォームは、より強力なCUDA対応GPU、新しく多様なGPUアクセラレーションライブラリ、ワークステーション、サーバー、およびアプリケーションのセットにより、継続的に改善、最適化、および拡張されています。
NVIDIA CUDA 汎用プログラマブル GPU と多数の GPU アクセラレーション SDK、API、およびアルゴリズムの組み合わせにより複数のドメインにわたって驚異的なアプリケーションの高速化を実現します。 NVIDIA GPUは世界中のクラウド データ センターで使用されており、AI、HPC、およびデータ分析システムとアプリケーションの驚異的なスピードを提供します。プログラミングの容易さと NVIDIA の CUDA プラットフォームの豊富さにより、デザイナー、研究者、エンジニアなどはイノベーションを素早く起こすことが可能です。
今日、GPU汎用コンピューティングは HPC およびデータ センターに利用されている最も一般的で、最も入手しやすく、最もエネルギー効率の高いテクノロジです。
NVIDIAはGPU汎用コンピューティング分野において世界を牽引するTOP企業です。

製品ラインアップ

データセンター向けGPU

▼A100 ▼A30 ▼A2 ▼A40 ▼A16 ▼H100

Desktop Workstation向けGPU RTXシリーズ

▼A6000 ▼A5500 ▼A4500 ▼A2000-12G ▼T2000-8G ▼T400-4G

NVIDIA データセンター向けGPU

NVIDIA A100

コンピューティング/ハイエンド

コンピューティングのハイエンド
AI学習、HPC、データ処理
最速コンピューティング、FP64
最大7つのMIGインスタンス
 

250W & 300W | 40GB & 80GB
2-slot FHFL | NVLINK

NVIDIA A30

コンピューティング/スタンダード

コンピューティングのスタンダード
AI推論、データ処理
用途の広いメインストリーム
コンピューティングFP64
最大4つのMIGインスタンス

165W | 24GB
2-slot FHFL | NVLINK

NVIDIA A2

コンピューティンググラフィックス

スモールエッジ AI
インテリジェントビデオ分析
モバイル クラウドゲーミング
コンパクトで低消費電力
データセンターとエッジ推論

40-60W | 16GB
1-slot LOW Profile

NVIDIA A40

グラフィックス/ハイエンド

グラフィックスのハイエンド
レンダリング、デザイン、
Omniverse、CloudXR
最速のRTグラフィックス
最高のレンダリングモデル

300W | 48GB
2-slot FHFL | NVLINK

NVIDIA A16

グラフィックス/スタンダード

グラフィックスのスタンダード
オフィス仮想デスクトップ用
高密度搭載可能モデル
高解像度、マルチモニター、
大容量のエンコード/デコードストリーム

250W | 64G (4 x 16GB)
2-slot FHFL

NVIDIA RTX Desktop Workstation向けGPU

NVIDIA RTX A6000

ウルトラハイエンド

超大規模CAD/3Dモデル、CAE
複雑なインタラクティブ レイトレーシング
超高解像度レンダリング
DeepLearning・Machine Learning

Ampere | 48 GB GDDR6
300 W |4.4” (H) x 10.5” (L)
Dual Slot

NVIDIA RTX A5500

ハイエンド

大規模で複雑なCAD/3Dモデル
AIのエントリー
インタラクティブ レイトレーシング
超高解像度レンダリング
 

Ampere | 24 GB GDDR6
230W | 4.4” (H) x 10.5” (L)
Dual Slot

NVIDIA RTX A4500

ハイエンド

大規模で複雑なCAD/3Dモデル
AIのエントリー
インタラクティブ レイトレーシング
超高解像度レンダリング
 

Ampere | 24 GB GDDR6
200W | 4.4” (H) x 10.5” (L)
Dual Slot

NVIDIA RTX A2000-12G

ミッド、スモール

ミッド、スモールCAD/3Dモデル
簡易AI、レイトレーシング

Ampere | 12 GB GDDR6
70 W | 2.7“(H)x6.6”(L)
Dual Slot

NVIDIA T1000-8G

ローエンド

部品のデザイン
マルチアプリワークフロー

Turing | 8GB GDDR6
50W | 2.7”(H) x6.2”(L)
Single Slot

NVIDIA T400-4G

ローエンド

部品のデザイン
マルチアプリワークフロー

Turing | 4GB GDDR6
30W | 2.7”(H) x6.2”(L)
Single Slot

Hopperについて

H100は最先端の TSMC 4N プロセスを使用して 800 億のトランジスタで構築されており、NVIDIA のアクセラレーテッド コンピューティングのニーズ向けに設計されています。
H100 は、AI、HPC、メモリ帯域幅、相互接続、通信を高速化するために大きく進歩した機能を備えており、これには毎秒 5 テラバイト近くの外部接続が含まれます。
H100 は、PCIe Gen5 をサポートする最初の GPU、かつ HBM3 を利用する最初の GPU でもあり、3TB/s のメモリ帯域幅を実現します。
20 基の H100 GPU は、全世界のインターネット トラフィックに相当する転送量を維持できるため、顧客はリアルタイムでデータの推論を実行する高度なレコメンダー システムと大規模な言語モデルを提供できます。

Hopperの仕様

H100 SXMH100 PCIe
FP6430 teraFLOPS24 teraFLOPS
FP64 Tensor Core60 teraFLOPS48 teraFLOPS
FP3260 teraFLOPS 48 teraFLOPS
TF32 Tensor Core1,000 teraFLOPS* | 500 teraFLOPS800 teraFLOPS* | 400 teraFLOPS
BFLOAT16 Tensor Core2,000 teraFLOPS* | 1,000 teraFLOPS1,600 teraFLOPS* | 800 teraFLOPS
FP16 Tensor Core2,000 teraFLOPS* | 1,000 teraFLOPS1,600 teraFLOPS* | 800 teraFLOPS
FP8 Tensor Core4,000 teraFLOPS* | 2,000 teraFLOPS3,200 teraFLOPS* | 1,600 teraFLOPS
INT8 Tensor Core4,000 TOPS* | 2,000 TOPS3,200 TOPS* | 1,600 TOPS
GPU memory80GB80GB
GPU memory bandwidth 3TB/s2TB/s
Decoders7 NVDEC/7 JPEG7 NVDEC/7 JPEG
Max thermal design power (TDP)700W350W
Multi-Instance GPUsUp to 7 MIGS @ 10GB eachUp to 7 MIGS @ 10GB each
Form factorSXMPCIe
InterconnectNVLink: 900GB/s PCIe Gen5: 128GB/sNVLINK: 600GB/s PCIe Gen5: 128GB/s
Server optionsNVIDIA HGX™ H100 Partner and NVIDIA-Certified Systems™ with 4 or 8 GPUs NVIDIA DGX™ H100 with 8 GPUsPartner and NVIDIA-Certified Systems with 1–8 GPUs

お問い合わせ・資料請求

カタログ・資料請求、製品へのお問い合わせはこちらから
ご相談も承っております

電話でのお問い合わせ(平日9:00~17:00)03-3502-2534