新しいものづくりがわかるメディア

RSS


NVIDIA、AI推論のパフォーマンス記録を更新——CPUに比べ最大237倍高速

NVIDIAは、同社のAIコンピューティングプラットフォームが、機械学習のベンチマークコンテスト「MLPerf」の最新ラウンド(MLPerf Inference 0.7)において、パフォーマンスの記録を更新したことを発表した。

同社はMLPerf Inferenceの第2バージョンにおいて、データセンター/エッジコンピューティングシステム向けの全6応用分野のテスト全てで勝利している。このテストはコンピュータービジョン向けの当初の二つのテストに加え、AIの成長分野となるレコメンデーションシステムや自然言語理解、音声認識、医療用画像といった分野を網羅しているという。

2020年前半に発表された「NVIDIA A100」は、第3世代のTensorコアとマルチインスタンスGPUテクノロジーが特徴だ。今回MLPerf Inference 0.7において実施されたResnet50テストでは、NVIDIA A100は他のCPUに30倍の差をつけて勝利した。さらに、新しく追加されたデータセンター向け推論のレコメンダーテスト(DLRM)において、最新のCPUを最大237倍上回るパフォーマンスを記録している。

こうした結果から、NVIDIAは1台のNVIDIA DGX A100で約1000台のデュアルソケットCPUサーバーと同じパフォーマンスを達成できるという。

また、NVIDIAのT4 GPUは同じテストでCPUを最大28倍上回っている。こうした結果はNVIDIA T4 TensorコアGPUがエンタープライズ向けエッジサーバーやクラウドインスタンスにとって堅調な推論プラットフォームであることを示しているとNVIDIAは述べている。

関連情報

おすすめ記事

 

コメント

ニュース

編集部のおすすめ

連載・シリーズ

注目のキーワード

もっと見る