若是咱们回到两年前,时死在野生智能敏捷突起之前,代已大局部数据中间硬件都在追赶CXL。时死它被看为是代已异构计较、内存池和可组合办事器架构的时死救世主。现有的代已开运登录进口到场者和全新的草创公司都急于将CXL集成到他们的产物中,或成立新的时死基于CXL的产物,如内存扩大器、代已毗连池(pooler)和互换机。时死可是快进到2023年和2024年初,代已良多名目被暗暗弃捐,时死良多超大规模企业和大型半导体公司几近完整加入了市场。代已
跟着行将到来的时死Astera Labs IPO和产物宣布,CXL的代已会商起码会在短时辰内回到前台。咱们已写了大批对于这项手艺的时死文章,它为云办事供给商和生态体系和硬件仓库,云开·kaiyun官方网站供给节流本钱的潜力。固然在纸面上很是有远景,但数据中间的远景已产生了很大的变更,但有一件事不转变:CXL硬件(如节制器和互换机)依然不大批出货。固然如斯,环绕CXL依然有良多乐音和研讨,行业中的某些专业人士此刻将CXL描写为野生智能的“鞭策者”。
更普遍的CXL市场是否是已筹办好腾飞并兑现其许诺?CXL能成为AI操纵法式的毗连点吗?在CPU附加扩大和池化中表演甚么脚色?咱们将在本报告的定阅局部回覆这些题目。
简略的谜底是否是定的——那些将CXL推向AI的人是完整毛病的。让咱们起首疾速回首一下CXL的首要用例和许诺。
对CXL的一个简略回首
CXL是成立在PCIe物理层之上的和谈,撑持跨装备的缓存和内存分歧性。操纵PCIe接口的普遍可用性,CXL 许可在各类硬件之间同享内存:CPU、网卡和 DPU、云开平台登录进口GPU 和其余加快器、SSD 和内存装备。
这撑持以下用例:
内存扩大:CXL能够赞助办事器增添内存带宽和容量。
内存池:CXL能够成立内存池,此中内存与CPU分手,从实际上讲,这能够大大进步DRAM操纵率。实际上,这能够为每一个云办事供给商节流数十亿美圆。
异构计较:ASIC比通用CPU要高效很多。CXL能够经由过程在ASIC和通用计较之间供给低提早缓存分歧互连来赞助完成异构计较,如许操纵法式就能够更轻易地将它们集成到现有的代码库中。
可组合的办事器体系架构:办事器被分化成差别的组件,并分差别的组,这些资本能够静态地分派给任务负载,从而改良资本停顿和操纵率,同时更好地婚配操纵法式须要。
下图说了然局部环境:CXL能够处理主体系内存和存储之间的提早和带宽差别,从而作为新的内存层。
SNIA
有些人此刻展望到2028年CXL的发卖额将到达150亿美圆,而不是明天的数百万美圆,以是咱们感觉是时辰对CXL市场停止恰当的更新了,由于这是一个完整荒诞的说法。让咱们从处理用于野生智能的CXL案例起头。
CXL不会成为野生智能时期的互联手艺
今朝,CXL可用性是首要题目,由于Nvidia GPU不撑持,而AMD的手艺仅限于MI300A。固然MI300X实际上能够在硬件中撑持CXL,但它并不准确地公然。CXL IP的可用性将在将来获得改良,可是存在比可用性更深层的题目,使CXL在加快计较时期变得有关紧急。
两个首要题目与PCIe办事器和海滨或海岸线地区(beachfront or shoreline area)有关。芯片的IO凡是必须来自芯片的边缘。上面这张来自Nvidia的图片以卡通的情势展现了H100.中间具备一切的计较。顶部和底部都100%用于HBM。当咱们从H100挪动到B100时,HBM的数目增添到8个,须要更多的岸线面积。Nvidia将持续在其 2 芯片封装的整整两侧利用HBM。
Locuza
剩下的双方公用于其余芯片到芯片的IO,这便是规范和专有互连争取芯片面积的处所。H100 GPU有PCIe、NVlink、C2C (Grace)三种IO格局。Nvidia决议只包含起码16个PCIe通道,由于Nvidia更喜好后者的NVLink和C2C。请注重,办事器CPU,如AMD的Genoa,最高可达128通道的PCIe。
这类挑选的首要缘由是带宽。16通道PCIe接口的双方向带宽为64GB/s。Nvidia的NVlink为其余GPU供给了450 GB/s的双向带宽,约莫超出跨越7倍。Nvidia 的C2C也能为Grace CPU带来每秒450GB/s的双向带宽。公允地说,Nvidia为NVLink进献了更多的海滨面积,因此咱们须要将芯片面积归入此中;但即便如斯,咱们估量,在各类百般的SOC中,每平方毫米,以太网气概的SerDes(如Nvidia NVLink, Google ICI等)每单元海岸线面积的带宽要多3倍。
因此,若是你是一个带宽受限的芯片设想师,当你挑选利用PCIe 5.0而不是112G以太网气概的SerDes时,你的芯片约莫会差3倍。这类差别在接纳224G SerDes的下一代GPU和AI加快器中依然存在,与PCIe 6.0 / CXL 3.0坚持3倍的差别。咱们糊口在一个无限的天下里,抛却IO效力是一种猖狂的衡量。
AI集群的首要扩大和扩大互连将是专有和谈,如Nvidia NVlink和Google ICI,或以太网和Infiniband。这是由于内涵的PCIe SerDes限定,即便在扩大格局。由于提早方针差别,PCIe和以太网serde具备明显差别的误码率(BER)请求。
Astera Labs
PCIe 6请求的误码率< 1e-12.而以太网请求的误码率为1e-4.这8个数目级的庞大差别是由于PCIe严酷的提早请求,须要很是轻的前向纠错(FEC)计划。FEC在发射器上以数字体例增添冗余奇偶校验位/信息,领受器利用它来检测和改正毛病(位翻转),就像内存体系中的ECC一样。较重的fec增添了更多的开消,占用了能够用于数据位的空间。更首要的是,fec在领受器上增添了大批的提早。这便是为甚么PCIe在第6代之前防止了任何FEC。
Wikipedia
以太网气概的SerDes受严酷的PCIe规范的限定要少很多,从而使其速率更快,带宽更高。因此,NVlink具备更高的提早,但这在大规模并行任务负载的AI天下中并不首要,此中~100ns vs ~30ns不值得斟酌。
MI300 AID将其大局部海滨地区用于PCIe办事器而不因此太网气概的办事器。固然这给了AMD在IFIS、CXL和PCIe毗连方面更多的可设置装备摆设性,但它的成果是总IO约莫因此太网气概SerDes的1/3.若是AMD想要与英伟达的B100合作,他们须要当即抛却利用pcie气概的SerDes。咱们信任MI400是如许的。
持久来看,AMD缺少高品质的芯片严峻限定了他们产物的合作力。他们提出了Open xGMI / Open Infinity Fabric / Accelerated Fabric Link,由于CXL不是野生智能的适合和谈。固然它首要基于PCIe,但出于上市时辰、机能、分歧性和笼盖规模的缘由,它确切避开了PCIe 7.0和CXL的一些规范特征。
原文《CXL Is Dead In The AI Era》
by/ DYLAN PATEL AND JEREMIE ELIAHOU ONTIVEROS
停止时辰:2024-03-22 08:17:26
礼包内容:潮水纤维*50,金币*1
停止时辰:2024-03-22 08:17:26
礼包内容:瓶盖*1000
停止时辰:2024-03-22 08:17:26
礼包内容:瓶盖*600,潮水纤维*20
阿尔特曼:天下上不须要另外一个谷歌,OpenAI 不乐趣挑衅搜刮范畴
日期 2024-03-22 07:58极米 RS 10 Ultra 等五款投影 / 配件获 2024 iF 设想奖 国际大奖到达 90 项
日期 2024-03-22 07:14原神4.6前瞻直播甚么时辰起头 4.6版本前瞻直播时辰先容[多图]
日期 2024-03-22 06:316871MB
检查1MB
检查82867MB
检查631MB
检查2969MB
检查2974MB
检查7115MB
检查5528MB
检查
网友批评
41 冷到不想措辞
叨教马来西亚能不能用?
2024-03-21 来自湖南 保举
34654 冷到不想措辞
渣机党劝退,出来卡死。看来我不配。
2024-03-21 来自湖南 保举
359 hhjjk
叨教马来西亚能不能用?
2024-03-21 来自湖南 保举
74934 喵星上将
双11又到了!又能天天都见到阿谁快递小哥哥了!!!
2024-03-21 来自湖南 保举
438 哎呀我去.
渣机党劝退,出来卡死。看来我不配。
2024-03-21 来自湖南 保举