AI 和 HPC 数据中心
容错解决方案
集成内存
AI 解决方案需要一类新的计算能力要求。在过去的10年中,数据中心处理器和加速器的平均功耗增长了近两倍,需求持续攀升。
与 GPU 集群和 AI 基础架构相关的功耗增加对数据中心运营具有重大影响。与传统 IT 系统相比,AI 集群具有苛刻而复杂的功率要求。如今,高密度机架可以在 40kW 到 125kW 的范围内,而极高密度机架可以达到 200kW 或更高。
AI 运营需要恒定的高密度电力,这给现有基础设施带来负担,并减缓了向清洁能源的过渡。
如果节能技术没有进步,人工智能不断增长的能源足迹可能会阻碍环境和气候中立的目标。
AI 推理和训练 AI 模型可能非常耗能,引发了人们对可持续发展和能源成本的担忧。
内存可能是计算能力的重大瓶颈,因为处理器访问数据的速度需要比传输数据的速度更快。
人工智能(AI)正在彻底改变行业,但其快速增长伴随着巨大的能源需求。随着 AI 工作负荷的扩大,与训练和运行模型相关的功耗飞涨,引发了人们对可持续发展和气候影响的担忧。
到2026年,仅AI数据中心就预计每年消耗90太瓦时,比2022年的水平增长十倍。这种激增给电力供应商带来了巨大压力,如果不提高效率,到2030年,全球数据中心的能耗预计将超过1300太瓦时。此外,存放人工智能运营必需服务器的数据中心占全球用电量的1%以上,预计将消耗高达 到 2028 年,美国电力占总量的 12%。
AI 工作负载的能源密集型性质对科技巨头设定的气候目标构成了挑战。尽管承诺到2030年实现碳中和,但由于数据中心的扩张,温室气体排放量继续大幅增加。
除排放外,数据中心还给当地资源带来压力。在缺水地区,数据中心设施每年消耗数百万加仑的饮用水。随着越来越多的房地产分配给人口区附近的技术数据中心中心,数据中心附近的社区面临着重新分区问题以及对水电供应的担忧。
电力和热量是当今影响数据中心的两个最大问题。密度更高的机架需要更多的功率,而使用传统的冷却方法无法持续冷却。
液体浸泡冷却 与空气冷却系统相比,运行所需的电力要少得多,冷却数据中心服务器设备的能耗有可能减少50%。液体冷却通过消除风扇来降低功耗,并通过消除冷却基础设施的开销来减少空间需求。
立即联系 Penguin Solutions 详细了解我们如何解决上述问题 内存计算瓶颈 痛点,可以提供帮助 数据中心内的可持续性 包括通过直接到芯片冷却的无水冷却和两相液体冷却。
你也可以阅读我们是如何做到的 提高了性能并降低了排放 在壳牌的数据中心使用数据中心浸入式冷却。
立即联系我们,详细了解在您为私有 AI 设计数据中心基础设施时,我们如何帮助您满足可扩展的 AI 计算能力需求。