2013年06月20日

NVIDIA GPUDirect RDMAテクノロジー対応のメラノックスのFDR InfiniBandソリューションにより、GPUベースクラスタでこれまでにないパフォーマンスを実現 小規模メッセージのスループットが3倍に向上されるとともにMPIレイテンシーが69%短縮

メラノックステクノロジーズジャパン株式会社   http://www.mellanox.co.jp

データセンターにおけるサーバやストレージシステム向けにエンドトゥエンドのインターコネクトソリューションを提供するトップベンダーであるメラノックステクノロジーズ社(Mellanox® Technologies, Ltd., NASDAQ: MLNX; TASE: MLNX)は、本日、同社のFDR InfiniBandソリューションがNVIDIA® GPUDirect™ Remote Direct Memory Access(RDMA)テクノロジーに対応したことにより、GPU間通信が新たな領域へと大きく進歩したことを発表しました。
次世代のNVIDIA GPUDirectテクノロジーにより、GPUアクセラレータベースのハイパフォーマンスコンピューティング(HPC)クラスタ環境に業界をリードする優れたアプリケーションパフォーマンスおよび効率性がもたらされます。NVIDIA GPUDirect RDMAテクノロジーによって、メラノックスのスケーラブルなHPCアダプタおよびNVIDIAのGPUとの間に直接ピアトゥピア通信用データパスが提供されるため、GPU間の通信速度が飛躍的に向上します。

この優れた機能により、GPU間通信のレイテンシーが大幅に短縮されるとともに、ネットワーク全体に渡るすべてのGPU間通信の負荷がCPUおよびシステムメモリサブシステムから完全にオフロードされます。オハイオ州立大学における最新の性能データでは、InfiniBandで接続されたGPU間でデータを移動する場合のMPIレイテンシーが19.78マイクロ秒から6.12マイクロ秒へと69%短縮されるとともに、小規模メッセージの総合スループットが3倍に向上し、大規模メッセージのバンド幅性能は26%向上することが実証されています。
“小規模および中規模メッセージを利用するMPIアプリケーションでは、メラノックスのInfiniBandインターコネクトソリューションおよびNVIDIA GPUDirect RDMAテクノロジーによって大幅なパフォーマンス向上が実現されることが期待されています”と、オハイオ州立大学のダーブルスワー・K.(DK)・パンダ教授は語っています。
このテストは、オハイオ州立大学コンピュータサイエンスおよびエンジニアリング学部のMVAPICH2ソフトウェアを利用して実施されました。このソフトウェアにより、InfiniBandが利用されているハイエンドコンピューティングシステムおよびサーバにワールドクラスのハイパフォーマンス、スケーラビリティおよび耐障害性能がもたらされます。MVAPICH2ソフトウェアは、メラノックスのFDR 56Gb/s InfiniBandで接続された204,900コアによって数ペタフロップスクラスの高い処理能力が実現し、今回7位にランクされたTexas Advanced Computing Center(TACC)のStampedeシステムをはじめ、TOP500リストに登場する数多くのスーパーコンピュータで利用されています。
“GPUメモリとデータが直接やり取りできるようになることにより、システムおよびアプリケーションのパフォーマンスは飛躍的に向上します。その結果、従来よりも短時間で計算処理集約型のコードを実行し、結果を出すことが可能になります”と、メラノックステクノロジーズ社マーケティング担当副社長ギラッド・シャイナーは述べています。“NVIDIA GPUDirect RDMA対応のメラノックスのFDR InfiniBandソリューションにより、GPUベースクラスタでトップレベルのアプリケーションパフォーマンス、スケーラビリティおよび効率性が実現されます。”
“クラスタにおけるアプリケーションのスケーリング性能は送信メッセージの増加によって制約を受けており、メッセージサイズが小さくなるとその制約は次第に大きくなります”と、NVIDIA社GPUコンピューティングソフトウェア担当ジェネラルマネージャのイアン・バック氏は語っています。“MVAPICH2およびGPUDirect RDMAの組み合わせにより、複数のGPUの間およびメラノックスのInfiniBandネットワークファブリック間で、小規模メッセージのレイテンシーとバイセクションバンド幅が大幅に改善されます。”
GPUベースのクラスタは、地震データ処理、数値流体力学ならびに分子動力学など、計算処理集約型のタスクで広く採用されています。GPUでは非常に多くのコアを使用して浮動小数点演算が高速実行されるため、プラットフォーム間の接続には、GPUクラスタリングの効率的な運用ならびにGPU間通信パスのボトルネックの解消に必要となる高バンド幅および低レイテンシーの高速インターコネクトが不可欠です。
メラノックスのConnectXおよびConnect-IBベースのアダプタ製品は、CPU処理への割込み、データのコピーおよびシステムノイズをすべて回避するために不可欠なフルオフロード機能が提供されるとともに、効率性の優れたGPUベースクラスタの運用を可能にする、世界で唯一のInfiniBandソリューションです。最新のNVIDIA GPUDirect RDMAテクノロジーとメラノックスのInfiniBandソリューションの組み合わせにより、HPC環境にこれまでにないハイレベルのパフォーマンスおよびスケーラビリティがもたらされます。
メラノックスは、本日よりGPUDirect RDMA機能を利用可能にするアルファコードの提供を開始します。このアルファコードには、既存のMPIアプリケーションを利用可能にするオハイオ州立大学のMVAPICH2-GDRリリースのアルファ版などが含まれています。正式な出荷は2013年第4四半期に開始される予定です。詳しくは、japan-sales@mellanox.com までお問い合わせください。

関連情報
• メラノックスInfiniBandスイッチおよびアダプタカード
• メラノックスのスイッチ管理およびストレージファブリック用ソフトウェア製品
• Twitter、Facebook、Google+、Linked-In、YouTubeの各メディアでメラノックスの最新情報をご確認ください。
• メラノックスに関する情報交換スペース、メラノックスコミュニティにぜひご参加ください。

メラノックスについて
メラノックステクノロジーズ社は、サーバやストレージを対象にInfiniBandならびにEthernetのエンドトゥエンドインターコネクトソリューションを提供するリーディングカンパニーです。メラノックス社の製品により、データセンターのパフォーマンスが最適化され、業界をリードするバンド幅、スケーラビリティ、低消費電力、高い対費用効率が可能になるとともに、複数のレガシーネットワークテクノロジーを将来性も考慮されたアーキテクチャに統合することも可能になります。メラノックス社はHPC、一般企業、メガウェアハウスデータセンター、クラウドコンピューティング、Internet、Web 2.0といったさまざまな市場向けに革新的な製品、ソリューションを提供しています。
メラノックステクノロジーズは1999年に創設され、サニーベール(米国カリフォルニア州)、ヨークナム(イスラエル)に本社を構えます。メラノックステクノロジーズに関する詳しい情報は、www.mellanox.co.jp または www.mellanox.com でご確認ください。

Mellanox, BridgeX, ConnectX, CORE-Direct, InfiniBridge, InfiniHost, InfiniScale, PhyX, SwitchX, Virtual Protocol Interconnect, Voltaireはメラノックステクノロジーズ社の登録商標です。Connect-IB, CoolBox, FabricIT, Mellanox Federal Systems, Mellanox Software Defined Storage, MetroX, MLNX-OS, ScalableHPC, Unbreakable-Link, UFM, Unified Fabric Managerは、メラノックステクノロジーズ社の商標です。記載されているその他の会社名および製品名は、各社の商標または登録商標です。