1.6Tbpsの次は?

展示会での会話では次の次はどうなるかという話が必ず登場します。高速化の行方を考えるにはPCIeの仕様がどうなっていくかが参考になります。

  • 400G NICはPCIe 5.0x16でも全二重容量には足りない
  • PCIe 6.0はPAM4を採用
  • PCIe 7.0はopticalも規定されそう
  • PCIe 8.0はopticalだけ?

PCIe7.0はx16で512GB/s。2Tbps全二重の容量です。1lane辺りは128Gbpsですので、112Gbpsに極めて近い。PAM4を採用したことによりFECも併用される。

もちろん、遅延の要件やそれに付随する最大距離は異なりますが信号の伝送部分だけを取り上げると1.6T DR16とほぼ同じです。

CXL(PCIe over optics)

外部メモリーの共有を行うCXLの伝送部分は、PCIeの拡張で有り。CXL 3.0では40ns程度の遅延が見込まれています。これは8m程度のケーブル長に相当し最大150nsまで許容すると30mのケーブル長になる。

安価に複数のレーザーを並べるにはMMFのVCSEL arrayが便利で112GbpsではOM4 100mを使用したCXL想定のデモがOFC2024では行われていました。256Gbpsで最大30mであればぎりぎり対応できるかも知れません。

OSFP-XD 1.6T DR16光トランシーバーは簡単

SMFパラレルの伝送能力には余裕がありますので500m保証ならば、128Gbps PAM4は問題ないはず。同一波長ですので高出力レーザーの分岐が使えますので16 laneをOSFPパッケージに収めるのも難しくはない。

実際に行われたPCIe7.0 x8 opcialのデモには既存のOSFP 800G DR8光トランシーバーがそのまま使われていたそうです。

HBMの拡張

こうして考えて観るとethernetを代表とする外部ネットワークは既にPCIeの帯域を上回っていると言えます。より広帯域な伝送の標準としてメモリー専用バスがあります。

  • DDR5 8.4GT/s x 64 = 50GB/s 400Gbps
  • HBM 1Gbps x n = 512GB/s
  • HBM2(P100) 1.43Gbps x n = 732GB/s  3.2Tbps
  • HBM3 6.4Gbps x 1,024 = 819GB/s = 6.4Tbps
  • HBM4 1.8TB/s 14.4Tbps
  • HBMn PAM4

開発の想定は内部バスの拡張

つまり2km以下の近距離では光トランシーバーはethernetの高速化よりも内部バス、メモリーバスの拡張をどう実現するかが目標となっているのです。

これらは、単純に電気を光に変えるだけの光トランシーバーの視点からのものであって、実際には各方式フレーミングが異なりますのでそれぞれにPHYの開発が必要ですので全て同じ土俵ではありません。

PCIe Specs

    line   x16 half bps
1.0 2003 NRZ 8/10b 2.5GT/s 4GB/s 32Gbps
2.0 2007 NRZ 8/10b 5.0GT/s 8GB/s 64Gbps
3.0 2010 NRZ 128/130b 8.0GT/s 16GB/s 128Gbps
4.0 2017 NRZ 128/130b 16GT/s 32GB/s 256Gbps
5.0 2019 NRZ 128/130b 32GT/s 63GB/s 504Gbps
6.0 2022 PAM4+FEC 242/256B 64GT/s 121GB/s 1Tbps
7.0 2025 PAM4+FEC  242/256B 128GT/s 242GB/s 2Tbps

 

Links

https://pcisig.com/

この記事をシェア

Previous Article

June 17, 2024 • 10:23AM

Next Article

July 8, 2024 • 8:53AM

Topics

トピックがありません。

From Our Blog