随着数据中心管理人员放眼未来,基于云计算的发展迹象无处不在:更高性能的虚拟化服务器、更高的带宽和更低的延迟需求,以及更快的服务器切换连接。无论您今天运行的是10Gb还是100Gb,向400Gb的过渡可能比您意识到的更快。
许多因素导致了400G/800G甚至更高的需求。数据中心已经从多个完全不同的网络转移到更虚拟化的、软件驱动的环境。与此同时,它们正在部署更多的机器对机器的连接,并减少它们之间的交换机数量。支持未来云规模数据中心的大部分组件都已经存在。现在缺少的是一个创建物理层基础设施的全面战略,该基础设施可以将所有这些设施连接在一起。
那么,我们如何做到这一点呢?
收发器
跃升至 400Gb 需要将当前 SFP、SFP+ 或 QSFP+ 收发器的密度提高一倍。这就是 QSFP-双密度 (QSFP-DD) 和八进制小型可插拔 (OSFP) 技术发挥作用的地方。两者都使用 8 个通道而不是 4 个通道,并且可以在 1RU 面板中安装 32 个端口。唯一显着的区别在于向后兼容性和功率处理能力。 MSA 提到了不同的光学连接选项:可以根据支持的应用选择 LC、mini-LC、MPO 8、12、16、SN、MDC 和 CS 连接器。
连接器
多种连接器选项提供了更多方式来分配更高的八进制容量。 12 芯 MPO 传统上用于支持 6 个双芯通道。对于许多应用,如 40GBase-SR4,仅使用四通道(八根光纤),MPO16 可能更适合与八进制模块一起使用。其他值得研究的连接器是 SN 和 MDC,它们采用 1.25 毫米插芯技术并为高速光学模块提供灵活的分线选项。最终的问题将是未来哪些收发器可与哪些连接器一起使用。
芯片
当然,对带宽的需求是没有限制的。目前,限制因素不是你可以在交换机前面插入多少,而是里面的芯片组可以提供多少容量。更高的基数与更高的 SERDES 速度相结合,从而获得更高的容量。大约在 2015 年支持 100Gb 应用程序的典型方法使用 128 - 25Gb 通道,产生 3.2Tb 交换机容量。达到 400Gb 需要将 ASIC 增加到 256 个 50Gb 通道,从而产生 12.8Tb 的交换机容量。下一个进展——256 个 100Gb 通道——将我们带到 25.6Tbs。正在考虑将通道速度提高到 200Gb 的未来计划——这是一项艰巨的任务,需要几年时间才能完善。
更多详情,参见:数据中心如何向 400G/800G 迁移?
参与评论 (0)