简而言之,高性能计算(HPC)是计算能力的聚合,可提供远高于标准台式机或服务器预期的性能水平。通常,HPC部署用于运行复杂的算法、模型或深度学习工作负载,以解决工程、科学或业务中的大型问题。由于CPU容量、时间(任务处理速度太慢)或同时运行复杂模型的能力的限制,标准计算部署通常无法提供HPC提供的计算能力水平。

过去五年,对HPC的需求急剧增长,尤其是在学术领域。许多大学使用HPC部署进行研究,例如寻找可再生能源、开发太空探索项目以及创造新材料。HPC在天气预报(包括风暴的预测和跟踪)以及医学研究、智能能源网格和制造模拟分析等气象学领域也非常普遍。任何使用“大数据”的应用都适合HPC。

由于HPC对电力和冷却的高要求,现代数据中心往往是唯一能够提供合适环境的设施;尝试在大学或商业建筑内容纳HPC可能具有挑战性。需求的增加导致数据中心(主要是超大规模)被设计来应对这些类型的应用,而HPC无疑是数据中心行业的一个增长领域。例如,2020年HPC市场价值为45亿美元,预计到2026年将达到115.4亿美元。那么,HPC如何改变数据中心的设计方式呢?

高性能计算需求如何塑造未来的数据中心

新的数据中心设计注意事项

HPC部署通常比标准计算部署消耗更多的能源。然而,有几个因素可以缓解这种情况,首先,计算能力显著增强,并且占用空间更小。其次,所需的更高功率水平可能需要不同的冷却技术,例如从建筑物冷却系统向实际硬件提供水冷却,而不是像标准服务器那样通过空气冷却。第三,HPC部署可以根据支持的工作负载的性质非常快速地增加和减少。这直接影响到数据中心的设计;水冷数据中心需要包含缓冲容器,以适应突然的冷却需求。

这些设计含义显然值得考虑,因为HPC比传统计算机带来了许多好处。标准计算机处理器每秒可以执行2到40亿个周期。这对于普通用户来说已经足够了,但对于海量应用、算法和数据集来说并不合适。

高性能计算设施中的集群或超级计算机,可以实现每秒千万亿次的计算速度。特别是如果设计有先进的中央处理单元(CPU)、图形处理单元(GPU)、高速内存和低延迟网络,这些速度甚至可以使最大的任务变得易于管理。

这些更快的速度意味着用户可以更快地解决问题。虽然高性能计算成本可能是短期支出,但他们可以通过快速的洞察、发现和创新节省很多倍的资金。

此外,HPC基础设施可以针对独特的工作负载进行更改和优化。HPC根据其特定任务进行调整,改变了组织管理项目的方式-无论是简化重复任务、使用自动化,还是比以前更快地测试新流程。

随着世界对数据的依赖不断增长,使用HPC的组织将在竞争中处于领先地位。在商业中,高性能计算企业可能比竞争对手更快地产生见解或提供服务。在研究中,HPC可以帮助团队更快地创新。

实施中的限制

高性能计算现代系统和实践可以帮助组织创新和蓬勃发展,但在某些情况下也可能存在挑战。数据传输速度和带宽对于首先采用HPC应用的企业来说可能是一个挑战。本地HPC基础设施通常是一个障碍,因为网络的设计可能无法满足HPC所需的超快数据传输速度,而且首先将数据上传到HPC系统也可能非常耗时。

同样,购买部署高性能计算解决方案的设备的成本也会引起问题。根据所讨论的HPC工作负载,组织可能需要一次购买多个计算资源,这对于许多无法支付初始费用来拥有其HPC基础设施的人来说是一个进入障碍。

此外,数据隐私对于所有企业都至关重要,尤其是金融和医疗保健等高度监管领域的企业。在这些领域,个人数据必须安全保存并符合许多要求。高性能计算存储可以分布在多个解决方案中,每个解决方案都必须保证数据隐私。

当讨论HPC时,人们通常会担心功耗和可持续性,虽然运营需要更多电力,但从长远来看,使用HPC可以带来更大的可持续发展效益,因为利用率高,运营效率提高。

虽然HPC是满足不断增长的计算和存储需求的强大解决方案,但数据中心开始通过旨在解决密度、热量和带宽挑战的集中设计规范来解决明显的进入障碍。除了先进的冷却之外,随着对HPC就绪设施的需求增加,能够提供经济实惠的电力、网络选项、可扩展性、冗余和安全性的耐用数据中心环境将变得更加容易获得。