AI 和 HPC 数据中心
容错解决方案
集成内存
克服传统计算限制,使用 CXL 内存技术提供前所未有的性能、可扩展性和成本效益。
在诸如人工智能之类的内存密集型应用中,内存墙是一项特别重大的挑战,在这些应用中,训练大型模型需要超快的内存带宽,无法满足不断增长的需求。
在 GPU 和内存之间(或跨多个 GPU)移动数据所花费的时间可能会成为一个重要的瓶颈,从而减慢训练时间。
即使使用经过训练的模型进行推理,内存墙也可能导致延迟增加,因为模型需要访问内存中的数据才能做出预测。
如果内存系统无法满足推理请求的需求,则可以降低 AI 系统的总体吞吐量。
由于内存限制,需要更多的硬件和复杂的基础架构,扩展 AI 模型以服务大量用户可能很困难。
我们与阿里巴巴、思科、Dell EMC、Facebook、谷歌、惠普企业、英特尔公司和微软等其他行业领导者一道,合作组建了一个开放的行业标准小组,以制定技术规范,促进新兴使用模式的突破性性能,同时支持数据中心加速器和其他高速增强功能的开放生态系统。
Compute Express Link® (CXL) 是一种行业开放标准协议,它重新定义了服务器管理内存和计算资源的方式。通过在CPU和内存之间实现高速、低延迟的连接,CXL消除了数据处理中的传统瓶颈,为越来越多地用于人工智能 (AI)、高性能计算 (HPC) 和机器学习 (ML) 等新兴应用的数据密集型工作负载开辟了新的可扩展性和性能水平。
对于需要更快的竞争洞察力以及速度和准确性推动竞争优势的组织来说,CXL提供了改变游戏规则的优势:
• 更快的数据处理:以最小的延迟对海量数据集进行实时分析。
• 提高基础设施效率:优化资源利用率,同时降低运营成本。
• 可扩展、面向未来的解决方案:无缝扩展内存以满足不断变化的数据需求,而无需进行昂贵的基础架构大修。
我们的全新附加卡 (AIC) 系列实现了CXL标准,也支持行业标准的DDR5 DIMM,是同类产品中首款采用CXL协议的高密度DIMM AIC。我们的 4-DIMM 和 8-DIMM 产品使服务器和数据中心架构师能够在熟悉、易于部署的外形中快速增加多达 4TB 的内存。
借助经济实惠的 64 GB RDIMM,AIC 使服务器能够达到每个 CPU 高达 1TB 的内存。它们还为供应链的可选性提供了机会。根据市场状况,用更多数量的低密度模块替换高密度 RDIMM 可以降低系统内存成本。
尽管 AI、HPC 和 ML 需要更多的高速内存,这超出了当前服务器的容纳能力,但由于 CPU 的引脚限制,尝试通过基于 DIMM 的传统并行总线接口添加更多内存却成了问题。
随着业界转向引脚效率更高的基于 CXL 的解决方案,我们的 4-DIMM 和 8-DIMM AIC 采用先进的 CXL 控制器构建,消除了新兴计算密集型工作负载的内存带宽瓶颈和容量限制。
立即联系 Penguin Solutions 进一步了解我们的 CXL 产品 以及我们如何帮助您利用数据,更快地将信息转化为切实可行的见解。
立即联系我们,详细了解我们如何帮助您最大限度地提高内存扩展和池化能力,同时降低内存容量扩展成本。