期待のネット新技術
InfiniBand FDR対応の「ConnectX-3 VPI」カード、HPC向けが中心
【InfiniBandの現在】
2019年12月3日 06:00
「InfiniBandの現在」では、規格としての歴史と現状、今後の動向をまとめて紹介している。大半の読者にとっては「InfiniBandって何?」というところだろうが、僚誌クラウドWatchをご覧になっておられる読者の中には「何で今さら」という方も居られるかもしれない。
そう、InfiniBandという規格は、1999年に作業が始まり、2000年に最初の規格策定が行われたという「えらく古い」規格なのである。
「InfiniBandの現在」記事一覧
- 汎用的なInterconnectへ進化しつつあるInfiniBandの成り立ちは?
- ラック間やサーバー間で2.5GT/sの転送速度を実現する「InfiniBand 1.0」
- Intelが開発中止、発熱対処に難、サーバー間接続一本化は実現せず
- 低コスト低レイテンシーでHPC向け分散型構成に活路
- InfiniBandで高性能を実現するMPIの仕様策定と、その実装「MPICH」
- HBAとMPIとの組み合わせで、低レイテンシーを安価に実現する「RDMA」
- RDMAでパケットを高速転送する「SDP」、これをiSCSIで実現する「iSER」
- 売上から見るInfiniBand市場規模の推移、急速な世代交代もポイント
- SDRの2.5GT/secに加え、DDRの5GT/secとQDRの10GT/secを2004年に追加
- 低レイテンシ―かつ高速なMellanox初のDDR対応HCA「InfiniHost III Ex/Lx」
- 「QDR」に初対応のInfiniBand HCA「ConnectX IB」と10GbEカード「ConnectX EN」
- InfiniBand QDR/Ethernet両対応「ConnectX-2」、324ポートスイッチ「MTS3610」
- 14GT/secの「FDR」と25GT/secの「EDR」、64b66bでのエラー増に「FEC」で対応
- InfiniBand FDR対応の「ConnectX-3 VPI」カード、HPC向けが中心
- SANスイッチ向けにInfiniBand市場へ参入したQLogic、撤退の後、2006年にはHCA向けに再参入
- QLogic、市場シェアを拡大も2012年にInfiniBand部門をIntelへ売却
- Intel、QLogicから買収したInfiniBandからOmni-Path Fabricへ
- InfiniBandが主戦場のMellanox、独自の56GbEでイーサーネット関連を拡大するも……
- Mellanox、100Gbpsの「EDR」製品を2014年リリース、2017年は売上の中心に
- 4x構成で200Gbps超の「InfiniBand HDR」、Mellanoxが2018年後半に製品化
- データ量と演算性能増によるメモリ帯域不足解消へ、Gen-Z Consortiumへ参画
- Gen-Zに加え、競合InterconnectのCAPI、CCIX、CXLにも参画するMellanox
- PCIeの処理オーバーヘッドを36分の1に、IBM独自の「CAPI」から「OpenCAPI」へ
- DRAMサポートを追加、メモリI/F統合も考慮した「OpenCAPI 3.1」
- 3種類の接続形態をサポートする「Gen-Z Ver.1.1」
- HDRは好スタート、InfiniBandのこの先は?
InfiniBand FDR/EDR、高速化で配線が最長でも4mに
InfiniBandの転送速度を高速化すれば、当然ながら配線は厳しくなる。第9回で、パッシブケーブルの場合はSDRで20m台前半、DDRで15m未満、QDRで7mという話を紹介したが、InfiniBand FDR対応のパッシブケーブルは、最長でも4mのものしか用意されていない。
もっとも、4mというのは通常のケーブルであって、LSZH(Low Smoke Zero Halogen:火災などで燃えた場合でも低発煙性で、かつハロゲンを発生させない安全性の高いケーブル)の場合は最長3mになっているのは、LSZHだと電気特性上厳しい部分が何かあるのだろうか? ちなみに、InfiniBand FDR対応の現行商品には、LSZHタイプはラインナップされていない。
Specificationでは、「パッシブケーブルは通常、イコライザーの有無に関わらず低速かつ短距離の接続に用いられており、速度が上がるほど到達距離が短くなる」で済ませており、こうした点には無関心と言える。つまり仕様では、あくまでケーブルが満たすべき電気的特性を定めているに過ぎず、あとは速度と距離に合わせて、必要ならアクティブケーブルを使ったり、リピーターを挟んだりしなさい、としているだけだ。
その電気的特性だが、表そのものには一応InfiniBand FDR/EDRがまとめて定義されている。しかし、周波数特性については、FDRが7.03125GHz、EDRが12.819GHzと、パラメーターが個別に用意されていて、FDR対応ケーブルは7.03125GHzの場合だけ満たせば済むが、EDR対応ケーブルは7.03125GHzと12.819GHz、双方のパラメーターを満たす必要があるので、なかなか大変そうである。
FDR対応パッシブケーブルは5mに、太い配線を利用して伝達特性を改善
ついでに、より高速なものについても少し触れておこう。現行のFDR対応パッシブケーブルは、最長で5mのものまでラインナップされている。
ケーブル長が伸びているのは、利用している配線を、直径0.2540mmのAWG30から直径0.4039mmのAWG26へ増やしたことによる。要するに、太い配線を利用して伝達特性を改善したことで、より到達距離を増やせたわけだ。
もっとも、当然ながらケーブルそのものはその分太くなる。AWG30を利用したものは直径7.1mmで、ケーブルを曲げる場合の最小半径は35.5mmとなるのに対し、AWG26だとケーブル径9.4mm、最小曲げ半径は47mmとなり、ラックなどに高密度で実装しようとするとなかなか難しいわけだ。
加えて言えば、さらに高速なInfiniBand HDR向けの場合、30AWGのもので最長1.5m、30AWGのものでも2mでしかない。高さが2.2mのラックもあるし、2mでは1ラック内でギリギリ届くかどうかという程度だ。物理的な距離はともかく実際にはメンテナンス性を向上するために、配線を脇に迂回させたりする関係で、配線長はどうしても長くなりがちなものだ。
このあたりになると、素直にアクティブケーブルを使う方が無難だろう。既存のInfiniBandを利用中のユーザーがアップグレードするなら、このあたりから配線のやり直しが必須となるだろう。下手をすると、HCAよりもケーブルと配線をやり直すコストの方が高くなりかねない気がするが、実際の事例を聞いてみたいものだ。
InfiniBand FDR対応の「ConnectX-3 VPI」カード、HPC向けが中心
そのInfiniBand FDRに対応した「ConnectX-3 VPI」カードは、2011年6月に発表されている。発表のタイミングを「ISC 11(International Supercomputing Conference)」にあわせたあたりから、依然としてInfiniBandのPrimary TargetはHPC向けということがよく分かる。
同時に、InfiniBand FDR対応のスイッチ向けチップである「SwitchX」と、これを利用した「SX-6000」スイッチ、更にSwitchXチップに対応したスイッチ用OS「MLNX-OS」なども発表された。いずれも、サンプル出荷そのものも同時に始まっているが、量産出荷は2011年後半とされ、実際、2011年11月のTOP500リストにおけるInfiniBand FDRベースのシステムは、54位のCarter、104位のEndeavorの2つだけである。
ちなみに、最新のEndeavorはIntelのOmni-Pathを使っているが、InfiniBand FDRベースから切り替えたのは2017年のことだ。もともと初登録された2010年6月の時点では、InfiniBand(SDR/DDR/QDRのいずれかは不明だが、タイミングとしてはQDRと想像できる)で構築され、2011年11月の時点でInfiniBand FDRへと切り替わった。ただ、全体で言えば500システムのうち202システムがInfiniBandを導入しており、そのうちほぼ半分となる90システムがInfiniBand QDRを導入していたので、なかなかの普及率だったと言える。
そんなわけで、2011年の速度別売上比率を見てみると、InfiniBand FDRはごくわずか(1210万ドル)でしかないが、これが2サイト分と考えれば納得できる。
そして翌年の2012年6月には合計204システムがInfiniBandを採用。うち105システムがInfiniBand QDR、20システムがInfiniBand FDRとなっていた。この増分のほとんどは、新規に登録されたシステムばかりで、既存のシステムからのアップグレードはこの時点では見かけない。
これがおよそ半年後の2012年11月には219システムとなり、InfiniBand QDRは106システム、InfiniBand FDRは45システムに採用と広がっている。一方で、InfiniBand SDR/DDRを使ったシステムはかなり減っていた。もちろんこうしたシステムの中には、ランク外に落ちたというケースもある一方で、QDRをパスしてFDRに直接移行したケースも少なくない。
当初はQDRで構築したシステムに、追加のノードをFDRで接続する、などというハイブリッド型のサイトも見られた。例えば2012年11月の時点で14位となっているNASAのPreiadesがこのパターンで、2011年6月にはQDRで構築されていたが、2012年6月にQDRとFDRのハイブリッド構成となり、2013年11月にやっとFDRのみに統一された。
この結果、InfiniBand FDR関連製品は、2012年に2億3670万ドルという、前年比19.5倍もの伸びを見せることになった。とは言っても、この時点ではまだInfiniBand FDR関連製品の供給が十分ではなかったのか、あるいは価格的に厳しかったのかは不明ながら、InfiniBand QDRも結構な伸びを見せ、QDRとFDRの合計で4億1200万ドルもの売上を立てていた。
全体で見ても、前年からほぼ倍増となる5億ドルもの売上を達成し、純利益も1億ドルあまりを実現していた。そして第3四半期には、前年同時期は最大でも36.79ドルだった株価のピークが120.05ドルにまで高騰している。この売上急増には、買収に起因してVoltaireの売上が合算されたことも加味されており、その反動が2013年に出ることにはなる。
こうしたMellanoxの好景気は、当然他社もよく理解していた。Mellanoxの2012年のForm 10-Kを見ると、少数のOEMからの売り上げが猛烈に大きいそうで、実際その20%がHPから、19%がIBMからとなっていた。
要するにHPやIBMは、InfiniBandを使って自社のサーバーシステムを構築していたという話である。実際TOP500のリストを眺めると、独自Interconnectを提供しているのはIBM(ハイエンド向け)とCray(この当時はGemini Interconnectと呼ばれるものを提供)くらいで、このほかには京(富士通のTofu Interconnect)や、天河一号A(NUDT:中国国防科学技術大学の独自開発)が目立つ程度であり、残りはInfiniBandかEthernetだった。
Ethernetは、2012年11月のTOP500では44位が最上位であり、基本的には低価格向けで、それほどパフォーマンスが必要ないところでしか使われていない、という位置付けだった。このあたりを睨み、再びInfiniBandマーケットへと参入したのがIntelであるが、これはQLogicのInfiniBand関連資産を、丸ごと買収するかたちで行われた。そんなわけで、次回はQLogicの歴史を簡単にご紹介したい。
「InfiniBandの現在」記事一覧
- 汎用的なInterconnectへ進化しつつあるInfiniBandの成り立ちは?
- ラック間やサーバー間で2.5GT/sの転送速度を実現する「InfiniBand 1.0」
- Intelが開発中止、発熱対処に難、サーバー間接続一本化は実現せず
- 低コスト低レイテンシーでHPC向け分散型構成に活路
- InfiniBandで高性能を実現するMPIの仕様策定と、その実装「MPICH」
- HBAとMPIとの組み合わせで、低レイテンシーを安価に実現する「RDMA」
- RDMAでパケットを高速転送する「SDP」、これをiSCSIで実現する「iSER」
- 売上から見るInfiniBand市場規模の推移、急速な世代交代もポイント
- SDRの2.5GT/secに加え、DDRの5GT/secとQDRの10GT/secを2004年に追加
- 低レイテンシ―かつ高速なMellanox初のDDR対応HCA「InfiniHost III Ex/Lx」
- 「QDR」に初対応のInfiniBand HCA「ConnectX IB」と10GbEカード「ConnectX EN」
- InfiniBand QDR/Ethernet両対応「ConnectX-2」、324ポートスイッチ「MTS3610」
- 14GT/secの「FDR」と25GT/secの「EDR」、64b66bでのエラー増に「FEC」で対応
- InfiniBand FDR対応の「ConnectX-3 VPI」カード、HPC向けが中心
- SANスイッチ向けにInfiniBand市場へ参入したQLogic、撤退の後、2006年にはHCA向けに再参入
- QLogic、市場シェアを拡大も2012年にInfiniBand部門をIntelへ売却
- Intel、QLogicから買収したInfiniBandからOmni-Path Fabricへ
- InfiniBandが主戦場のMellanox、独自の56GbEでイーサーネット関連を拡大するも……
- Mellanox、100Gbpsの「EDR」製品を2014年リリース、2017年は売上の中心に
- 4x構成で200Gbps超の「InfiniBand HDR」、Mellanoxが2018年後半に製品化
- データ量と演算性能増によるメモリ帯域不足解消へ、Gen-Z Consortiumへ参画
- Gen-Zに加え、競合InterconnectのCAPI、CCIX、CXLにも参画するMellanox
- PCIeの処理オーバーヘッドを36分の1に、IBM独自の「CAPI」から「OpenCAPI」へ
- DRAMサポートを追加、メモリI/F統合も考慮した「OpenCAPI 3.1」
- 3種類の接続形態をサポートする「Gen-Z Ver.1.1」
- HDRは好スタート、InfiniBandのこの先は?