AI 和 HPC 数据中心
容错解决方案
集成内存
随着数据密集型工作负载的复杂性和规模持续增长,可以轻松且经济高效地扩展数据中心、云服务和 HPC 提供商的计算资源内存。
在不增加更多处理能力的情况下增加内存容量,同时减少延迟,这改变了游戏规则。简化大型数据集的实时处理,通过内存扩展加快复杂算法和高级分析的执行速度。
由于人工智能 (AI) 和机器学习 (ML)、图像处理、内存数据库和实时分析等现代应用消耗的内存比以往任何时候都多,因此需要一种新的解决方案来满足对低延迟、高带宽内存的需求。
几十年来,计算机系统一直使用RDIMM内存模块直接连接到主机主板和使用并行总线连接到CPU。扩大系统可以使用的模块数量需要在CPU上添加内存控制器和引脚,这很快就会变得令人望而却步。
Compute Express®(CXL®)是一种高带宽、低延迟、CPU到设备的互连标准,它建立在现有PCI Express®(PCIe®)基础上,利用PCIe物理和电气接口,同时添加其他传输协议。
CXL 支持内存扩展和池化,以扩展容量,同时大幅节省成本并提高能效。
在以毫秒为中心的行业中,对高容量、高性能可扩展存储器解决方案的需求空前高涨。
作为在当前系统架构下扩展内存的更经济的选择,CXL 是一种行业标准的开放协议,用于主机加速器之间的高速和低延迟通信,越来越多地用于 AI 和 ML 等新兴应用。
CXL 已成为改变游戏规则的解决方案,它可以实现经济实惠的内存扩展、灵活扩展、提高性能,并允许将内存资源从处理器中分离出来。该技术消除了传统的内存限制,可以以前所未有的效率实时处理海量数据集。
这种方法可以实现更灵活和可扩展的内存架构,在这种架构中,可以根据需要添加或移除存储器设备,而无需更换或升级整个系统。
切换为启用内存池以实现高效的内存分配。将您的设备分区为多个逻辑设备 (MLD),允许多达 16 个主机同时访问内存的不同部分。
客户无需购买 8 个 128GB DDR5 RDIMM,而是通过使用 8 个 64GB DDR5 RDIMM 和 8-DIMMCXL 附加卡 (AIC) 来实现等效的内存容量。这种配置使成本显著降低了25%。
多年的经验
GPU 已部署和管理
GPU 运行时间
CXL 提供低延迟、高速内存访问,缩短了内存密集型工作负载的响应时间。CXL 内存扩展允许以更低的成本获得更高的容量。
实时摄取和处理大量数据,以加快计算分析和仿真处理,缩短周转时间。受益于 CXL 的用例包括:
立即联系我们,详细了解我们如何帮助您制定集成的内存池和扩展计划,以最大限度地提高处理能力,同时降低系统内存成本。