期待のネット新技術

最大400Gbpsながら高コストで普及に至らない「400GBASE-SR8」と、さらに高価な「400GBASE-SR4.2」

【光Ethernetの歴史と発展】

 Ethernetというか10GBASE-Tに関しては、2017年から【10GBASE-T、ついに普及?】と題し、全11回と番外編2回をお届けした。だが、ツイストペアによる銅配線のEthernetは10GBASE-Tまでで、25/40GBASE-Tはまだまだ実用化には至っていない。

 【アクセス回線10Gbpsへの道】とも一部は被るかもしれないが、ここでは光ファイバーを利用する“光Ethernet”を紹介していこう。

「光Ethernetの歴史と発展」記事一覧

「400GBASE-SR4.2」が製品化されない理由は技術面よりコスト

 「400GBASE-SR4.2」については、2020年の標準化完了から1年以上が経過しているのにもかかわらず、今のところモジュールが製品化された、という話が全くない。

 2019年9月にダブリンで開催されたECOC 2019においてFinisarが行った相互接続デモの様子を、Finisarを買収したII-VIがYouTubeへアップロードしているが、このときはFinisarとFOIT(Foxconn Optical Interconnect Technology)がそれぞれ400GBASE-SR4.2のモジュールを用意し、間を100mのMMFで繋いてエラーレートが十分低いことを示していた。

Finisarが行った相互接続デモ

 にもかかわらず、Finisar(現II-VI)にしてもFOIT(現在はBoradcomのOptical Systems Division)にしても、400GBASE-SR4.2のモジュールをリリースしていない。II-VIのウェブページでOptical Transceivers(光トランシーバー)を確認しても、MMFで400Gbpsの製品を1つもラインアップされていない。

 これはBroadcomでも同様だし、CiscoやAristaでは「400GBASE-SR8」対応製品こそラインアップしているが、400GBASE-SR4.2に関しては全く何もない。

 こうした大手メーカーが出さなければ、互換メーカーからも何も出てこないのは当然であり、FSなどからも400GBASE-SR4.2対応製品は全くラインアップされていない。

 その理由については当然ながら明らかにされていないが、やはり最大の理由は技術面より商品としての問題であり、要するにコストが思ったほど下がらなかったようだ。

 400GBASE-SR4.2で利用する光ファイバーの本数は、400GBASE-SR8の半分で済む。最近はデータセンターでラックを借りて運用する場合、光ファイバーの本数に応じた追加費用が必要になるとの話もある(ラック間接続の場合)ので、長期的に運用するならTOCを低減できる、という話は、400G BiDi MSAが元々発していたメッセージでもある。

 とはいえ、そもそも10年も20年も400Gで運用するわけではなく、もし仮に将来、より高速な規格が出てくれば更新される可能性がある。このため、せいぜい数年、それも5年未満で差額を償却できなければいけない。

 ところが、トランシーバーモジュールの初期コストが、この償却分を埋め切れないほど高価ならば、誰も400GBASE-SR4.2に目を向けないだろう。なぜそんなに高コストになったのかは不明だが、BiDiを構成するためのMux/Demuxを入れるのがそれだけ厳しかった、ということだろうか。PAM-4に関しては、400GBASE-SR8も似たようなものだからだ。

 標準化が完了後からまだ1年なので、もう少し待てば市場に出てくる可能性がゼロではないが、少なくとも400GBASE-SR8にやや遅れを取っているのは間違いない。

26.5625GHzのPAM-4で50Gbpsを通す「50GBASE-SR/100GBASE-SR2/200GBASE-SR4/400GBASE-SR8」の各規格

 ついでに、その400GBASE-SR8というか「50GBASE-SR/100GBASE-SR2/200GBASE-SR4/400GBASE-SR8」についてもまとめて紹介しよう。50GBASE-SRそのものは『50Gbpsに対応する5つの規格「50GBASE-KR/CR/SR/FR/LR」』で説明した通り、840~860nmの光源を利用し、26.5625GHzのPAM-4で50Gbpsを通す規格だ。

「50/100GBASE-R PCS」には含まれない「RS-FEC」が後追いで追加されているが、これが含まれている「200G/400GBASE-R PCS」はその分すっきりしている。出典は、「IEEE 802.3cd-2018」からの更新分となる「IEEE 802.3cm-2020」のFigure 138-1

 ただ、BiDiと異なり、送受信で1本ずつ、トータル2本の光ファイバーを利用する。OM3での到達距離は70m、OM4/5は100mである。4規格のレイヤー構成が右の図で、外から見ればPCSへのインターフェースが50GMII/CGMII/200GMII/400GMIIと、どんどん広がっているだけで、その先は同じに見える。

 その中身にしても、以下のTransmit/Receive Pathの図は、単にレーン数が増えるだけで、構造そのものは全く同じだ。

50GBASE-SR/100GBASE-SR2の図はない(正確に言えばあるが、描き方が異なるので省いた)が、単にレーン数が1/2レーンになるだけだ。出典は「IEEE 802.3cd-2018」のFigure 138-2
400GBASE-SR8では、さすがに8レーンを馬鹿正直に描く気にはなれなかったようだ。出典は「IEEE 802.3cm-2020」のFigure 138-2

 Transmit Parameter(以下左)に至っては「IEEE 802.3cd-2018」の定義そのままで、Receive Parameter(以下右)に目を転じても、違いはTableの下の脚注gが"Only applies to 100GBASE-SR2 and 200GBASE-SR4."から"Only applies to 100GBASE-SR2, 200GBASE-SR4, and 400GBASE-SR8."に変わっているだけだ。

IEEE 802.3cd-2018のTable 138-8。IEEE 802.3cm-2020ではClause 138.7.1が"Each lane of a 50GBASE-SR, 100GBASE-SR2 and 200GBASE-SR4 transmitter shall meet the specifications in Table 138-8 per the definitions in 138.8"から"Each lane of a 50GBASE-SR, 100GBASE-SR2, 200GBASE-SR4, and 400GBASE-SR8 transmitter shall meet the specifications in Table 138-8 per the definitions in 138.8"へ訂正されただけだ
こちらはReceive Parameter。ちなみにEquation(138-1)自身はそもそも訂正すらなく、IEEE 802.3cd-2018のままだ。出典はIEEE 802.3cm-2020のTable 138-8

50GBASE-SRから400GBASE-SR8までの違いはレーン数とMPOコネクタ形状のみ

 要するに50GBASE-SRから400GBASE-SR8まで、個々のレーンについては特性などに一切変更がなく、純粋に数だけが違う。

 一方で、明確に違うのがPMD Receptacleである。要するにMPO光コネクタの形状なのだが、1対2本の50GBASE-SRから4対8本の200GBASE-SR4までは12ピンのMPO(以下左)でカバーできるが、8対16本の400GBASE-SR8の場合は12ピンのMPOではカバーできない。そこで16ピンないし24ピンのMPO光コネクタ(以下右)を使うこととなっている。

そもそも1対2本の50GBASE-SRではMPOコネクタを使う必要もないためか、特に規定は記載されていない。出典はIEEE 802.3cd-2018のFigure 138-6と138-7
400GBASE-SR8のMPO光コネクタは16ピンと24ピンのどちらでも可となっている。出典はIEEE 802.3cm-2020のFigure 138-7a

 そんなわけで、仕様として明確に異なるのは、レーン数そのものとMPOコネクタの機械的形状くらいであり、電気光学的特性に関して言えば完全に一致していることになる。このためか、IEEE P802.3cm Task Forceでも(400GBASE-SR8に関しては)あっさり仕様策定が完了している。

 実際、400GBASE-SR8に関しては初回になる2018年5月のミーティングでは、MPO光コネクタでサポートするのは16ピンと24ピンのどちらかと、24ピンの割り当てに関して議論があっただけだ。その決着がついた後は、そもそも400GBASE-SR8ではほとんど議論らしい議論はなかったようだ。それだけスムーズに決まったというのは喜ばしいことではある。

24ピン(左側)と16ピン(右側)のメリットとデメリットの比較。出典は"400G-SR8 MDI Definition and Lane Assignments"
上は中央に寄せるタイプ(これは否決)、下が最終的に採択された方式。出典は"400GBASE-SR8 MDI Choices"

 そして、400GBASE-SR8はコストも手ごろだ。国内の例で言えば、例えばFSのQSFP-DDモジュール一覧を見ると、400GBASE-SR8互換モジュールは唯一10万円台で入手できるし、FiberJP.comのQSFP-DDモジュール一覧を見ても似たようなものだ。

 とはいえ、ほかの規格はSMF対応で到達距離が500m~10kmのものばかりで、MMF対応で100mの400GBASE-SR8とは市場が違うため、価格そのものにはあまり意味がないのだが、かなりお手頃感はある。

 ただそれでもまだ「相対的に高い」感じは否めない。例えばFSで100GBASE-SR4対応のモジュールを検索すると1万円そこそこであり、これ4つを並べた方が初期投資では安い、ということになる。

 もちろん、慢性的に帯域不足に悩まされていて、「100G×4では絶対的に足りない」(そもそも400Gの×2や×4構成が前提で、100G×8とか×16は非現実的)といった場所はともかく、通常のラック内接続で考えれば100G×4でも十分では?という議論は当然起こりえるからだ。

 その意味では400GBASE-SR8は現状ではまだ高価な部類で、もう少し価格が下がらないと本格的な普及には至らない気がする。なるほど、さらにに高価になりそうな400GBASE-SR4.2のモジュールがさっぱり出てこないのも、致し方ないところであろう。

大原 雄介

フリーのテクニカルライター。CPUやメモリ、チップセットから通信関係、OS、データベース、医療関係まで得意分野は多岐に渡る。ホームページはhttp://www.yusuke-ohara.com/