人工智能(AI)正在彻底改变从医疗保健、金融到娱乐及日常便利的各个领域。在流畅的用户体验和突破性创新背后,存在着一个常被忽视的关键要素: 人工智能处理所需的巨大能量。
人工智能系统,尤其是基于深度学习和神经网络的系统,需要大量的计算资源。这些系统通过分析海量数据来学习模式、进行预测并随着时间推移不断改进。这个被称为训练的过程,需要在强大的硬件设备上运行复杂的算法,从而消耗大量能源。
高盛的这篇链接文章描述了人工智能对能源的巨大需求。
高性能GPU(图形处理器)和TPU(张量处理器)对人工智能处理至关重要。与传统CPU不同,GPU和TPU专为处理并行计算任务而设计,使其成为人工智能算法核心矩阵运算的理想选择。然而,这种先进的处理能力需要付出代价:这些设备需要消耗大量电力才能高效运行。
数据中心是人工智能模型常被训练和部署的场所,其内部配备着数千台服务器——每台服务器都搭载多块GPU和TPU,所有设备协同运作。这些数据中心的能耗相当可观。据估算,数据中心约占全球电力需求的1%,随着人工智能应用的普及,这一数字预计将持续攀升。
对计算力的需求不仅限于训练阶段。推理——即利用训练好的AI模型进行预测或决策的过程——同样需要大量计算资源,尤其在实时应用场景中。随着人工智能日益融入日常设备(从智能手机到自动驾驶汽车),对高效、低功耗AI处理方案的需求变得愈发迫切。
为减轻人工智能能耗对环境的影响,相关工作正在推进。硬件设计领域的创新——例如开发更节能的芯片——以及降低计算需求的AI算法进步,已成为关键研究方向。此外,为数据中心引入可再生能源,可显著降低人工智能运营的碳足迹。
尽管人工智能不断突破技术边界,但必须认识到并解决支撑这项技术发展的能源需求。可持续且高效的能源解决方案至关重要,它将确保我们在享受人工智能红利的同时,不损害地球的健康。
平均而言,处理一次ChatGPT查询所需的电量是谷歌搜索的近10倍。
查看引用文章