2024.03.07

NVIDIA H100とは?その性能やおすすめの利用シーンを解説【トゥモロー・ネット テックブログ】

昨今においては、競うようにAIの開発が進んでおり、AIを用いた事業を展開する企業が増えています。

AIの開発に欠かせない装置が「GPU」であり、その一つがNVIDIAが発表した「H100」です。H100 Tensor Core GPU(以下H100と省略)は、前世代のA100と比べ約6倍もの処理能力を有しています。

とは言え、「NVIDIA H100にはどのような性能なのか」「おすすめの活用シーンを知りたい」と考えるご担当者もいるのではないでしょうか。

そこで今回は、NVIDIA H100の概要から性能、またAI開発との関係についてを詳しく解説します。今後、ビジネスシーンで活用をお考えのご担当者は、ぜひ参考にしてください。

NVIDIA H100とは

NVIDIA(エヌビディア)の H100 は、NVIDIA社によるイベント「GTC2022 Spring」で発表されました。

NVIDIA  H100には、どのような特徴があるのでしょうか。

NVIDIAのH100は何がすごいのか

H100の処理性能は、前世代であるA100の約6倍にのぼります。A100ではFP16(16ビット浮動小数点演算)での処理を行っていましたが、H100では、新たにFP8(8ビット浮動小数点演算)の採用により、「4000TFLOPS」という高い演算性能を実現しました。

またH100は、新しいアーキテクチャ「Hopper(ホッパー)」を採用しており、前世代の「Ampere」アーキテクチャのGPUに比べ、AI(人工知能)の学習や推論における演算処理性能を高めています。

NVIDIA H100の性能について

NVIDIA H100には、NVLinkとPCIeの2種類があります。ノード全体で GPU ごとに通信を高速化するNVIDIA® NVLink® Switch System では、最大で256個ものH100の接続が可能で、劇的な高速化を実現しています。

専用の「Transformer Engine」の利用により、兆単位の言語モデルにおけるパラメーターの実装が可能です。

ここでは、H100の性能について詳しく解説します。

最大30倍のAI推論性能

現代において、企業によるAIの導入は主流となりつつあり、新しい時代に向けて組織を加速させるためのエンドツーエンドの「AI対応インフラストラクチャ」を必要としています。

H100では、複合的な技術革新により前世代と比べ言語モデルが30倍も高速化され「対話型AI」を可能としています。

また、DRAMはHBM2、メモリインターフェイスは6,144bit、トランジスタ数は540億とVoltaの2倍以上を誇り、メモリ容量は40GBを実現しています。

スペック表

※1:スペックは変更される可能性があります。
※2:スパース性を利用した場合です。

NVIDIA H100のおすすめの活用シーン

NVIDIA H100は、GPUとして初めて「コンフィデンシャルコンピューティング」に対応しています。例えば、医療データなどの重要な個人情報においても、高いプライバシーへ配慮したデータ保護が可能です。

またそれだけでなく、H100はAIの学習へ活用することも可能です。

生成AIやLLM(大規模言語モデル)などの、現代において人気を集める「推論AIワークロード」、HPC(ハイパフォーマンス コンピューティング )、データ分析など、大規模な計算に向けた設計となっています。

研究や開発において多大なる高速化の実現やパフォーマンスの向上だけでなく、コスト削減にも貢献できる点は、活用する上で大きなメリットとなるでしょう。

以下では、GPUとAIとの関係について見ていきます。

AI開発とGPUの関係

AI開発においてGPUが活用される理由として、並列計算能力の高さが挙げられます。

GPUとは(Graphics Processing Unit)の略語であり、本来は画像処理を行うものを意味しています。元々GPUは、パソコンのグラフィックボードなどに使用されていました。

AIは、多大なる演算処理が必要な技術であるため、高速処理が可能なチップを必要とします。CPUほど複雑で多くの処理はできないGPUですが、並列処理を得意としているので、似たような計算を高速でくり返すことが可能です。

GPUが用いられるAI分野とは

AIの開発において利用されているGPUですが、具体的にどのようなAIの分野で用いられているのでしょうか。

例えばディープラーニングは、ニューラルネットワークという「人の神経細胞の仕組み」へ着目した計算モデルをベースとした技術です。

ディープラーニングの基本的な仕組みは、データ出力を行う出力層とデータの入力を行う入力層の間に、データの特徴量の抽出や保持をする中間層を配置します。さらに、それぞれの層が連結することで難解な判断を可能とするものです。

行列計算を主としたディープラーニングには、並列計算能力が高いGPUが向いているため、画像処理に限らず言語処理や音声処理にもGPUが使用されています。

その計算能力をさらに幅広く活用できるようにした「GPGPU(General Purpose Computing on GPU)」があります。GPGPUは、画像処理のほか、高い並列計算能力を必要とされる分野で活用されています。

まとめ

NVIDIA H100の処理性能は、前世代であるA100の約6倍にのぼります。新たにFP8(8ビット浮動小数点演算)を採用したことで、高い演算性能を実現しています。

その高い演算性能からAI開発にも活用され、ディープラーニングなどのAI分野で利用されています。

トゥモロー・ネットでご支援できること

トゥモロー・ネットでは、NVIDIAのパートナーとしてH100をはじめとするGPU製品の販売や導入サポートを実施しています。きめ細やかな提案、構築、導入を提供いたしますので、GPUをお探しの方はぜひお問合せください。

お問合せ先

お問い合わせはこちら

関連ページ

NVIDIA製品についてはこちら

この記事の筆者

 

株式会社トゥモロー・ネット

クラウドソリューション本部

製品のお問い合わせはこちらから

トゥモロー・ネットは「ITをもとに楽しい未来へつなごう」という経営理念のもと、感動や喜びのある、より良い社会へと導く企業を目指し、最先端のテクノロジーとサステナブルなインフラを提供しています。設立以来培ってきたハードウェア・ソフトウェア製造・販売、運用、保守などインフラに関わる豊富な実績と近年注力するAIサービスのコンサルティング、開発、運用、サポートにより、国内システムインテグレーション市場においてユニークなポジションを確立しています。
インフラからAIサービスまで包括的に提供することで、システム全体の柔軟性、ユーザビリティ、コストの最適化、パフォーマンス向上など、お客様の細かなニーズに沿った提案を行っています。

ページトップへ戻るボタン