|
数据中心巨头们宣布新的高速互联规范英特尔、微软、谷歌、Facebook、HPE、思科、戴尔EMC、华为和阿里巴巴共同制定了计算快速链路(CEL),这是用于芯片到芯片通信的高速互连规范。 数据中心领域的一批大公司已携手开发另一种高速互联规范,旨在连接处理器芯片。 该规范名为计算快速链路(CXL),旨在将数据中心CPU插入到加速器芯片。这个联盟共同开发该规范的成员包括英特尔、微软、谷歌、Facebook、HPE、思科、Dell-EMC、华为和阿里巴巴。 怎么不见IBM、AMD、英伟达、赛灵思或Marvell/Cavium等任何ARM服务器供应商的身影?它们有自己的基于PCIe的规范:CCIX。该行业组织包括AMD、Arm、迈络思、高通、赛灵思和华为。 还有以IBM为首的OpenCAPI规范,2016年多家公司创办了OpenCAPI联盟:AMD、谷歌、IBM、迈络思、美光、英伟达、HPE、戴尔EMC和赛灵思。所以其中几家公司两面下注,而其他每家公司选择了各自的阵营。难道你们不喜欢技术上的统一吗? 计算快速链中(CXL)是什么东东? 英特尔在声明中称,该联盟将CXL技术描述为“保持CPU内存空间与所连接设备上的内存之间拥有内存一致性,因此实现资源共享,从而提升性能、降低软件堆栈的复杂性,并降低整体系统成本。这使得用户只需关注目标工作负载,而不是加速器中的冗余内存管理硬件。” CXL基于第五代PCIExpress物理和电气协议,使用x16通道为CXL提供高达128GB/s的传输速度。它有三种接口协议:用于发送命令和接收状态更新的I/O协议,允许主机处理器与加速器高效共享物理RAM的内存协议,以及用于资源共享的数据一致性接口。 它基本上做的是,让CPU、SOC、GPU和FPGA可以直接联系并共享内存。现在的工作方式是,如果CPU想要将内容发送到FPGA,必须通过以太网端口发送出去,这样一来速度慢得多,并在接收芯片接收之前要通过大约六个接口。因此,CXL将允许直接、快速的芯片到芯片通信,随着数据中心变得越来越庞大,这大有帮助。 CXL比CCIX和OpenCAPI有一个优点。OpenCAPI和CCIX是平衡的,这意味着发送器和接收器有同样的复杂度;随着传输量增加,发送器和接收器的复杂性都随之增加。CXL像USB一样不对称运作,因此所有的繁重任务都在处理器端完成(应该在这里完成)。因此,CXL的可扩展性会高得多。 创始成员英特尔特别指出,压缩、加密和人工智能(AI)等专门工作负载的增加导致异构计算的使用更广泛;在异构计算环境中,专用加速器更常常与通用CPU并行工作。 英特尔数据中心集团的执行副总裁兼总经理NavinShenoy在声明中表示:“CXL在CPU、工作负载加速器(比如GPU和FPGA)和网络之间创建了一种高速低延迟的互连。CXL保持了设备之间的内存一致性,允许资源共享,以提升性能、降低软件堆栈的复杂性,并降低整体系统成本。” 该规范的1.0版本将在computeexpresslink.org上发布,因此它尚未正式发布。成员公司表示它们会从2021年开始推出产品。 |