NVIDIA、Microsoft Azure クラウド上の、スケーラブルな GPU アクセラレーション スーパーコンピューターを発表
[19/11/19]
提供元:PRTIMES
提供元:PRTIMES
新しい Microsoft Azure NDv2 スーパーサイズ インスタンスは、複雑な AI やハイ パフォーマンス コンピューティングのアプリケーションのために、数百の相互接続された NVIDIA Tensor コア GPU 規模に拡張可能
[画像: https://prtimes.jp/i/12662/139/resize/d12662-139-563091-0.jpg ]
2019 年 11 月 18 日、デンバー — SC19 — NVIDIA は本日、Microsoft Azure で利用可能な、クラウド上で動作する新タイプの GPU アクセラレーション スーパーコンピューターを発表しました。
最も要件の厳しい AI およびハイ パフォーマンス コンピューティングのアプリケーションに対処するために構築された、Azure の新しい NDv2 インスタンスで最大のデプロイとなるこのスーパーコンピューターは、世界最速のスーパーコンピューター ランキングに入り、単一の Mellanox InfiniBand バックエンド ネットワークで相互接続された最大 800 のNVIDIA V100 Tensor コア GPU を提供します。これにより、顧客は需要に応じて AI スーパーコンピューター全体を初めてデスクからオンデマンドでレンタルできるようになります。このスーパーコンピューターの性能は、導入まで数か月の期間を要する場合もある大規模なオンプレミスのスーパーコンピューターに匹敵します
NVIDIA のゼネラル マネージャー兼アクセラレーテッド ビジネス担当バイス プレジデントであるイアン バック (Ian Buck) は、次のように述べています。
「これまで、AI およびハイ パフォーマンス コンピューティングでのスーパーコンピューターは、世界屈指の規模の企業や組織だけに使用されていました。Microsoft Azure の新しい機能によって、誰もが AI を利用できるようになり、世界最大レベルの課題のいくつかを解決するのに必要な、重要なツールを幅広く利用できるようになります」
Microsoft Corp の Azure コンピュート担当コーポレート バイスプレジデントのギリシュ バブラニ (Girish Bablani) 氏は、次のように述べています。
「クラウド コンピューティングはあらゆる場所で注目を集めており、お客様はよりパワフルなサービスを求めています。NVIDIA とともに Microsoft は、これまで想像もできなかったレベルのスーパーコンピューターのパワーをお客様が即座に利用できるようになる、新しいイノベーションの時代を実現しようとしています」
劇的なパフォーマンス、コスト メリット
この新しいスーパーコンピューターは、複雑な AI、機械学習および HPC ワークロードに理想的で、従来の CPU ベースのコンピューティングに比べて、劇的なパフォーマンスをもたらし、費用効果も優れています。高速のソリューションを必要とする AI 研究者は、複数の NDv2 インスタンスをすばやく立ち上げ、複雑な対話型 AI モデルのトレーニングをわずか数時間で行えるようになります。
Microsoft と NVIDIA のエンジニアは、クラスタのプレリリース バージョンで 64 台の NDv2 インスタンスを実行し、一般的な対話型 AI モデルである BERT のトレーニングをおよそ 3 時間で行いました。これは、NCCL、NVIDIA CUDA X™ ライブラリ、および高速の Mellanox のインターコネクトによるマルチ GPU 最適化の利用が貢献して達成されました。
また、LAMMPS のような複雑な HPC ワークロードを実行する場合も、複数の NDv2 インスタンスを使うことでメリットが得られます。LAMMPS は薬剤の開発や発見などの分野で素材を原子サイズでシミュレーションするために使用される一般的な分子力学アプリケーションです。単一の NDv2 インスタンスでも、ディープラーニングなどの特定の種類のアプリケーションでは、GPU による高速化に対応していない従来の HPC ノードより、桁違いに速く結果が得られます。このパフォーマンスは、大規模シミュレーションでは 100 台のインスタンスまで直線的にスケールします。
すべての NDv2 インスタンスは NVIDIA NGC コンテナ レジストリ および Azure Marketplace から、GPU に最適化されたHPC アプリケーション、機械学習ソフトウェア、TensorFlow や PyTorch、MXNet といったディープラーニング フレームワークを活用することができます。レジストリには Helm チャートもあるため、Kubernetes クラスタに AI ソフトウェアを簡単にデプロイすることができます。
提供時期と価格
NDv2 は現在、プレピューでの利用が可能です。8 つの NVIDIA V100 GPU を搭載した 1 つのインスタンスをクラスタ化して、多様なワークロードの要件に合わせて拡張できます。詳細は、https://azure.microsoft.com/en-us/pricing/details/virtual-machines/linux/#n-seriesをご覧ください。
[画像: https://prtimes.jp/i/12662/139/resize/d12662-139-563091-0.jpg ]
2019 年 11 月 18 日、デンバー — SC19 — NVIDIA は本日、Microsoft Azure で利用可能な、クラウド上で動作する新タイプの GPU アクセラレーション スーパーコンピューターを発表しました。
最も要件の厳しい AI およびハイ パフォーマンス コンピューティングのアプリケーションに対処するために構築された、Azure の新しい NDv2 インスタンスで最大のデプロイとなるこのスーパーコンピューターは、世界最速のスーパーコンピューター ランキングに入り、単一の Mellanox InfiniBand バックエンド ネットワークで相互接続された最大 800 のNVIDIA V100 Tensor コア GPU を提供します。これにより、顧客は需要に応じて AI スーパーコンピューター全体を初めてデスクからオンデマンドでレンタルできるようになります。このスーパーコンピューターの性能は、導入まで数か月の期間を要する場合もある大規模なオンプレミスのスーパーコンピューターに匹敵します
NVIDIA のゼネラル マネージャー兼アクセラレーテッド ビジネス担当バイス プレジデントであるイアン バック (Ian Buck) は、次のように述べています。
「これまで、AI およびハイ パフォーマンス コンピューティングでのスーパーコンピューターは、世界屈指の規模の企業や組織だけに使用されていました。Microsoft Azure の新しい機能によって、誰もが AI を利用できるようになり、世界最大レベルの課題のいくつかを解決するのに必要な、重要なツールを幅広く利用できるようになります」
Microsoft Corp の Azure コンピュート担当コーポレート バイスプレジデントのギリシュ バブラニ (Girish Bablani) 氏は、次のように述べています。
「クラウド コンピューティングはあらゆる場所で注目を集めており、お客様はよりパワフルなサービスを求めています。NVIDIA とともに Microsoft は、これまで想像もできなかったレベルのスーパーコンピューターのパワーをお客様が即座に利用できるようになる、新しいイノベーションの時代を実現しようとしています」
劇的なパフォーマンス、コスト メリット
この新しいスーパーコンピューターは、複雑な AI、機械学習および HPC ワークロードに理想的で、従来の CPU ベースのコンピューティングに比べて、劇的なパフォーマンスをもたらし、費用効果も優れています。高速のソリューションを必要とする AI 研究者は、複数の NDv2 インスタンスをすばやく立ち上げ、複雑な対話型 AI モデルのトレーニングをわずか数時間で行えるようになります。
Microsoft と NVIDIA のエンジニアは、クラスタのプレリリース バージョンで 64 台の NDv2 インスタンスを実行し、一般的な対話型 AI モデルである BERT のトレーニングをおよそ 3 時間で行いました。これは、NCCL、NVIDIA CUDA X™ ライブラリ、および高速の Mellanox のインターコネクトによるマルチ GPU 最適化の利用が貢献して達成されました。
また、LAMMPS のような複雑な HPC ワークロードを実行する場合も、複数の NDv2 インスタンスを使うことでメリットが得られます。LAMMPS は薬剤の開発や発見などの分野で素材を原子サイズでシミュレーションするために使用される一般的な分子力学アプリケーションです。単一の NDv2 インスタンスでも、ディープラーニングなどの特定の種類のアプリケーションでは、GPU による高速化に対応していない従来の HPC ノードより、桁違いに速く結果が得られます。このパフォーマンスは、大規模シミュレーションでは 100 台のインスタンスまで直線的にスケールします。
すべての NDv2 インスタンスは NVIDIA NGC コンテナ レジストリ および Azure Marketplace から、GPU に最適化されたHPC アプリケーション、機械学習ソフトウェア、TensorFlow や PyTorch、MXNet といったディープラーニング フレームワークを活用することができます。レジストリには Helm チャートもあるため、Kubernetes クラスタに AI ソフトウェアを簡単にデプロイすることができます。
提供時期と価格
NDv2 は現在、プレピューでの利用が可能です。8 つの NVIDIA V100 GPU を搭載した 1 つのインスタンスをクラスタ化して、多様なワークロードの要件に合わせて拡張できます。詳細は、https://azure.microsoft.com/en-us/pricing/details/virtual-machines/linux/#n-seriesをご覧ください。