NVIDIA、AI 推論でパフォーマンスの記録を更新
[20/10/22]
提供元:PRTIMES
提供元:PRTIMES
NVIDIA A100 が CPU よりも最大 237 倍速い AI 推論を実現し、MLPerf ベンチマークのリードを拡大、企業は AI を研究から実稼働へ移すことが可能に
[画像: https://prtimes.jp/i/12662/175/resize/d12662-175-588569-0.jpg ]
2020 年 10 月 21 日、カリフォルニア州サンタクララ — NVIDIA はこのたび、NVIDIA の AI コンピューティング プラットフォームが MLPerf の最新ラウンドで再びパフォーマンスの記録を更新し、ハードウェア、ソフトウェア、サービスの AI パフォーマンスを測定する業界唯一の独立系ベンチマークでリードを広げたことを発表しました。
NVIDIA は、MLPerf 推論の第 2 バージョンにおいて、データセンターおよびエッジ コンピューティング システム向けの全 6 応用分野のテストすべてで勝利を収めました。このテストは、コンピューター ビジョン向けの当初の 2 つのテストに加えて、AI で最も速く成長している 4 つの分野であるレコメンデーション システム、自然言語理解、音声認識、医用画像を網羅しています。
幅広い業界にわたる組織が、すでに NVIDIA(R) A100 Tensor コア GPU(https://www.nvidia.com/ja-jp/data-center/a100/) の卓越した推論パフォーマンスを利用して、AI を研究から日々の業務へと移行しています。金融機関は対話型 AI を使って顧客の質問により早く答え、小売業者は AI を使って常に在庫を補充し、医療機関は AI を使って何百万枚もの医用画像を分析することで、病気をより正確に特定し、人命を救うのに役立てています。
NVIDIA のゼネラル マネージャー兼アクセラレーテッド コンピューティング担当バイス プレジデントであるイアン バック (Ian Buck) は次のように述べています。「私たちは転換点におり、あらゆる業界が AI を応用して新しいサービスを提供し、自社のビジネスを成長させるためのより良い方法を模索しています。MLPerf で今回の結果を出すために NVIDIA が成し遂げてきたことは、私たちの日常生活を向上させる新しいレベルの AI パフォーマンスを企業に提供します」
MLPerf の最新結果(https://blogs.nvidia.com/blog/2020/10/21/inference-mlperf-benchmarks/)は、AI 推論が劇的な成長を遂げてきたため、NVIDIA の足跡のようになっています。5 年前、GPU を推論に使っていたのはほんの一握りの大手ハイテク企業だけでした。現在では、NVIDIA の AI プラットフォームはすべての主要なクラウドおよびデータセンター インフラストラクチャーのプロバイダーを通じて提供されており、幅広い業界の企業が AI 推論プラットフォームを使ってビジネス活動を向上させ、付加的なサービスを提供しています。
さらに、NVIDIA GPU は、パブリック クラウドで CPU よりも多くの AI 推論能力を初めて提供するようになりました。NVIDIA GPU のクラウド AI 推論コンピューティング能力の合計は、2 年ごとに約 10 倍伸びています。
NVIDIA が AI 推論を新たな高みに引き上げる
NVIDIA とそのパートナーは、NVIDIA のデータセンター GPU、エッジ AI アクセラレーター、NVIDIA に最適化されたソフトウェアを含む、NVIDIA のアクセラレーション プラットフォームを使って MLPerf 0.7 の結果を提出しました。
今年の前半に発表された NVIDIA A100 は、第 3 世代の Tensor コアと Multi-Instance GPU テクノロジーを特徴としており、ResNet-50 テストでは CPU に 30 倍の差をつけて勝利しました (前回のラウンドでは CPU に 6 倍の差をつけていました)。さらに、A100 は新しく追加されたデータセンター向け推論のレコメンダー テストでは、最新の CPU を最大 237 倍上回るパフォーマンスを出しました (MLPerf 推論 0.7 ベンチマークに準拠)。
これは、1 台の NVIDIA DGX A100™ システム(https://www.nvidia.com/ja-jp/data-center/dgx-a100/)で約 1,000 台のデュアルソケット CPU サーバーと同じパフォーマンスを実現できるということであり、お客様が AI レコメンダー モデルを研究から実稼働に移す際に、きわめて高い費用対効果を提供できることを意味します。
このベンチマークはまた、主流のエンタープライズ向けエッジ サーバーや、費用対効果の高いクラウド インスタンスにとって、NVIDIA T4 Tensor コア GPU(https://www.nvidia.com/ja-jp/data-center/tesla-t4/) が引き続き、堅実な推論プラットフォームであることも示しています。NVIDIA T4 GPU は同じテストで CPU を最大 28 倍上回っています。さらに、NVIDIA Jetson AGX Xavier™ (https://www.nvidia.com/ja-jp/autonomous-machines/embedded-systems/jetson-agx-xavier/)は、SoC ベースのエッジ デバイスの中で首位のパフォーマンスを見せています。
このような結果を出すには、高度に最適化されたソフトウェア スタックが必要でした。これには NVIDIA TensorRT™ (https://developer.nvidia.com/tensorrt)推論オプティマイザーと NVIDIA Triton™ 推論サーバー ソフトウェア(https://developer.nvidia.com/nvidia-triton-inference-server)が含まれ、どちらも NVIDIA のソフトウェア カタログである NGC™(https://ngc.nvidia.com/) で入手できます。
NVIDIA からの提出に加え、NVIDIA の 11 のパートナーも NVIDIA GPU を使って合計 1,029 の結果を提出し、提出全体の 85% 以上はデータセンターとエッジ カテゴリーのものでした。
NVIDIA について
1999 年における NVIDIA (NASDAQ 表示: NVDA) による GPU の発明は、PC ゲーミング市場の成長に爆発的な拍車をかけ、現代のコンピューター グラフィックスを再定義し、並列コンピューティングに革命的変化を起こしました。最近では、GPU ディープラーニングが最新の AI (次世代コンピューティング) に火をつけ、世界を知覚し理解することができるコンピューター、ロボット、自律走行車の脳として GPU は機能しています。詳細は、こちらのリンクから: https://www.nvidia.com/ja-jp/
[画像: https://prtimes.jp/i/12662/175/resize/d12662-175-588569-0.jpg ]
2020 年 10 月 21 日、カリフォルニア州サンタクララ — NVIDIA はこのたび、NVIDIA の AI コンピューティング プラットフォームが MLPerf の最新ラウンドで再びパフォーマンスの記録を更新し、ハードウェア、ソフトウェア、サービスの AI パフォーマンスを測定する業界唯一の独立系ベンチマークでリードを広げたことを発表しました。
NVIDIA は、MLPerf 推論の第 2 バージョンにおいて、データセンターおよびエッジ コンピューティング システム向けの全 6 応用分野のテストすべてで勝利を収めました。このテストは、コンピューター ビジョン向けの当初の 2 つのテストに加えて、AI で最も速く成長している 4 つの分野であるレコメンデーション システム、自然言語理解、音声認識、医用画像を網羅しています。
幅広い業界にわたる組織が、すでに NVIDIA(R) A100 Tensor コア GPU(https://www.nvidia.com/ja-jp/data-center/a100/) の卓越した推論パフォーマンスを利用して、AI を研究から日々の業務へと移行しています。金融機関は対話型 AI を使って顧客の質問により早く答え、小売業者は AI を使って常に在庫を補充し、医療機関は AI を使って何百万枚もの医用画像を分析することで、病気をより正確に特定し、人命を救うのに役立てています。
NVIDIA のゼネラル マネージャー兼アクセラレーテッド コンピューティング担当バイス プレジデントであるイアン バック (Ian Buck) は次のように述べています。「私たちは転換点におり、あらゆる業界が AI を応用して新しいサービスを提供し、自社のビジネスを成長させるためのより良い方法を模索しています。MLPerf で今回の結果を出すために NVIDIA が成し遂げてきたことは、私たちの日常生活を向上させる新しいレベルの AI パフォーマンスを企業に提供します」
MLPerf の最新結果(https://blogs.nvidia.com/blog/2020/10/21/inference-mlperf-benchmarks/)は、AI 推論が劇的な成長を遂げてきたため、NVIDIA の足跡のようになっています。5 年前、GPU を推論に使っていたのはほんの一握りの大手ハイテク企業だけでした。現在では、NVIDIA の AI プラットフォームはすべての主要なクラウドおよびデータセンター インフラストラクチャーのプロバイダーを通じて提供されており、幅広い業界の企業が AI 推論プラットフォームを使ってビジネス活動を向上させ、付加的なサービスを提供しています。
さらに、NVIDIA GPU は、パブリック クラウドで CPU よりも多くの AI 推論能力を初めて提供するようになりました。NVIDIA GPU のクラウド AI 推論コンピューティング能力の合計は、2 年ごとに約 10 倍伸びています。
NVIDIA が AI 推論を新たな高みに引き上げる
NVIDIA とそのパートナーは、NVIDIA のデータセンター GPU、エッジ AI アクセラレーター、NVIDIA に最適化されたソフトウェアを含む、NVIDIA のアクセラレーション プラットフォームを使って MLPerf 0.7 の結果を提出しました。
今年の前半に発表された NVIDIA A100 は、第 3 世代の Tensor コアと Multi-Instance GPU テクノロジーを特徴としており、ResNet-50 テストでは CPU に 30 倍の差をつけて勝利しました (前回のラウンドでは CPU に 6 倍の差をつけていました)。さらに、A100 は新しく追加されたデータセンター向け推論のレコメンダー テストでは、最新の CPU を最大 237 倍上回るパフォーマンスを出しました (MLPerf 推論 0.7 ベンチマークに準拠)。
これは、1 台の NVIDIA DGX A100™ システム(https://www.nvidia.com/ja-jp/data-center/dgx-a100/)で約 1,000 台のデュアルソケット CPU サーバーと同じパフォーマンスを実現できるということであり、お客様が AI レコメンダー モデルを研究から実稼働に移す際に、きわめて高い費用対効果を提供できることを意味します。
このベンチマークはまた、主流のエンタープライズ向けエッジ サーバーや、費用対効果の高いクラウド インスタンスにとって、NVIDIA T4 Tensor コア GPU(https://www.nvidia.com/ja-jp/data-center/tesla-t4/) が引き続き、堅実な推論プラットフォームであることも示しています。NVIDIA T4 GPU は同じテストで CPU を最大 28 倍上回っています。さらに、NVIDIA Jetson AGX Xavier™ (https://www.nvidia.com/ja-jp/autonomous-machines/embedded-systems/jetson-agx-xavier/)は、SoC ベースのエッジ デバイスの中で首位のパフォーマンスを見せています。
このような結果を出すには、高度に最適化されたソフトウェア スタックが必要でした。これには NVIDIA TensorRT™ (https://developer.nvidia.com/tensorrt)推論オプティマイザーと NVIDIA Triton™ 推論サーバー ソフトウェア(https://developer.nvidia.com/nvidia-triton-inference-server)が含まれ、どちらも NVIDIA のソフトウェア カタログである NGC™(https://ngc.nvidia.com/) で入手できます。
NVIDIA からの提出に加え、NVIDIA の 11 のパートナーも NVIDIA GPU を使って合計 1,029 の結果を提出し、提出全体の 85% 以上はデータセンターとエッジ カテゴリーのものでした。
NVIDIA について
1999 年における NVIDIA (NASDAQ 表示: NVDA) による GPU の発明は、PC ゲーミング市場の成長に爆発的な拍車をかけ、現代のコンピューター グラフィックスを再定義し、並列コンピューティングに革命的変化を起こしました。最近では、GPU ディープラーニングが最新の AI (次世代コンピューティング) に火をつけ、世界を知覚し理解することができるコンピューター、ロボット、自律走行車の脳として GPU は機能しています。詳細は、こちらのリンクから: https://www.nvidia.com/ja-jp/