AI 和 HPC 数据中心
容错解决方案
集成内存
当大量用户和数据集参与 AI 模型训练和 AI 推理时,就会出现一个明确的指标:内存容量。
当尝试增加内存数据库的大小时,答案——一旦单个 CPU 的内存用尽——始终是添加更多 CPU 和内存。
该解决方案存在问题,因为一旦工作负载溢出到多台服务器,网络延迟和工作流程开销就会迅速开始降低数据访问响应和应用程序通信性能。
但是,在运行数据库的单个服务器中可以容纳的内存越大,出现网络延迟的可能性就越小。输入 Compute Express Link® (CXL®)。
从 PCIe Gen 5 开始,内存扩展协议层与 CPU 的内存架构紧密耦合,允许向主流的单插槽或双插槽服务器添加额外的内存或内存模块。
CXL 是 旨在解决内存容量问题 允许通过 CPU 的外设 I/O 总线添加更多内存,从而在单个服务器内解决您的实时数据分析检索和处理大内存需求。
增加内存余量可避免永久存储空间溢出
与 256GB DIMM 相比,使用更低的每位成本 96GB 或 128GB DIMM
使用快速实时 dBASE 部署时延迟为毫秒级
在 AI 推理中做出关键决策时使用最新数据
立即联系我们,详细了解我们如何帮助您实现 AI 和 HPC 基础设施项目目标。我们的团队设计、构建、部署和管理高性能、高可用性的企业解决方案,使客户能够实现突破性创新。