在人工智能大模型技术快速地发展的当下,随着其算力的突飞猛进,数据中心惊人的电力消费和水资源消耗数字也慢慢变得受到各界的关注。
在今年年初的达沃斯世界经济论坛年会上,OpenAl首席执行官萨姆·奥尔特曼(Sam Altman)就曾为AI的能源,特别是电力需求“叫苦”。他表示,AI的发展需要能源方面的突破,AI将带来远超预期的电力需求。
如何在通过AI大模型实现数字化智能化的同时,使AI大模型本身及相关设施也实现绿色化、低碳化,已成为未来人工智能技术发展过程中必须回答和解决的重大问题之一。
AI大模型也能回答自身碳足迹和水足迹问题,当你下次与ChatGPT对话时,想一想交互所需要的家庭用电,再考虑每个月有超亿人使用聊天机器人,所产生的电耗和水耗加起来是否都是一个天文数字?这个天文数字究竟有多大,我们不妨来看一下有关人员的研究及数据统计的结果。
本文为瞭望智库个人独创的文章,如需转载请在文前标注明确来源瞭望智库(zhczyj)及作者信息,否则将严格追究法律责任。
萨姆·奥尔特曼曾表示,AI耗电将远远超出人们预期。根据斯坦福人工智能研究所发布的《2023年AI指数报告》,AI大语言模型GPT-3一次训练的耗电量为1287兆瓦时,大概相当于3000辆特斯拉电动汽车共同开跑、每辆车跑20万英里。报告同时提出,AI大语言模型GPT-3一次训练,相当于排放了552吨二氧化碳,约等于126个家庭每年的碳排放量。
亚历克斯·德·弗里斯于2023年10月10日在Joule上发布的论文显示,一次标准谷歌搜索耗电0.3瓦时,AI大语言模型ChatGPT响应一次用户请求耗电约2.96瓦时,在AI大模型驱动下的一次谷歌搜索则耗电8.9瓦时。随着AI大模型能力的慢慢地加强,其单位应用电耗也随之显著飙升。
人工智能热潮导致的用水量也在飙升,而科技巨头们正因为这样变得更“饥渴”。AI大语言模型GPT-3在训练期间耗水近700吨,每回答20至50个问题就需消耗500毫升水。谷歌发布的2023年环境报告数据显示,该公司的用水量飙升20%,这在很大程度上也归功于其人工智能工作。高电耗和水耗已成为AI大模型及数据中心发展的显著特征,已有学者呼吁将其纳入高耗能领域进行管理。
并非只有微软和谷歌感到越来越“饥渴”。Facebook母公司Meta也在亚利桑那州建设一个数据中心,弗吉尼亚理工学院研究指出,Meta在2022年使用了超过260万立方米的水,主要是数据中心使用。Meta最新的大语言模型Llama 2,也需要大量的水来训练,Llama 2几乎是Meta早些时候推出的上一款大型人工智能模型Llama 1的水足迹的两倍,训练Llama 2需要的用水总量高达1090万升,如果不包括水力发电,则为280万升。
算力的大幅度的提高是AI大模型电耗和水耗增加的根本原因。GTP-4主要参数是GTP-3的20倍,计算量是GTP-3的10倍,能耗也随之大幅度的增加,而GTP-5的参数将达GTP-3的100倍,计算量将达GTP-3的200-400倍。《科创版日版》2024年3月27日报道,GTP-5尚未面世,GTP-6似乎慢慢的开始着手训练了,但电力或许已成为一个卡脖子难题。据负责GTP-6的一位微软工程师称,如果在一个州放置超过10万片H100GPU,电网就会崩溃。10万片H100是什么概念?作为参考,市场调研机构Factorial Funds的一份报告数据显示, OpenAI的文生视频模型Sora在峰值期间需要72万片H100,按上述工程师的说法,这个数量足以让七个州的电网崩溃。
对AI进行大量训练,也就从另一方面代表着需要更强的算力中心和与之匹配的散热能力,在AI快速进步的道路上,电力和水资源的消耗增加速度已超出人们的想象。数据中心能否盈利、建设时间如何,看电力“眼色”。由于新数据中心的建设速度高于新建发电厂,供需差距慢慢的开始出现。美国商业不动产服务公司世邦魏理仕(CBRE Group,Inc.)透露,由于电力供应延迟,数据中心的建设时间已经延长了2到6年,AI“能源巨兽”的称号并非浪得虚名。数据中心全年无休,发热量巨大,大规模水耗大多数来源于冷却需求。相关统计显示,数据中心六成的成本是电费,而电费里的四成多来自冷却散热(参见图一),相应地也会带来巨量的冷却水耗。风冷数据中心 60.5% 的耗电量都会浪费在风冷上,只有不到四成电力用在了实际的计算上。
研究显示,全球数据中心市场的耗电量已经是十年前的近十倍。训练GPT-3所需的清水量相当于填满一个核反应堆的冷却塔所需的水量。
面对如此大规模的电耗和水耗,为什么还要全力发展AI?我国已提出全力发展新质生产力的号召,而AI大模型正是新质生产力的典型代表,根本原因有三。
一是当前全球正处于第四次科技革命和产业变革的时代,第四次科技革命以数字化智能化为主要特征,AI大模型正是其中的典型代表。从前三次科技革命的结果来看,哪个国家能抓住科技革命的浪潮,就能够在未来科技和产业竞争中占据明显的优势。
二是从发展阶段看,我国正处于由中等收入国家迈向高收入国家的关键阶段,即:由人力资本为主要动力的发展阶段(H阶段),转向以科学技术创新和工程师红利为主的后人口阶段(D阶段),以AI大模型为代表的新一代数字化智能化技术则成为科学技术创新的关键之一。
三是美国在高科技领域对我展开“小院高墙”式打压遏制,美商务部对英伟达为专门对我出口而设计生产的AI大模型GPU芯片A800采取了限制措施,使得英伟达不得不进行进一步降级设计生产,针对我国市场的GPU已带有明显的鸡肋色彩。美国商务部部长雷蒙多更放言“美国需要第二个芯片法案”,并施压日本及荷兰进一步对我收紧备件和维修限制。
可见,AI大模型已成为当前大国博弈的主战场和必争之地,更是我们国家发展新质生产力、实现高水平发展的中之重,事关我国在第四次科技革命阶段的前途和命运,必须尽全力参与和应对。
在第四次科技革命带来的数字化的经济2.0时代,信息财富与创意已成为经济稳步的增长的重要驱动因素,而全球具备这种大规模驱动因素基础的国家并不多。有学者曾指出,全球具备发展AI大模型条件的国家只有中国和美国,大量的网络人口所支撑的数据基础是发展AI 大模型的必要前提,目前全球只有中国和美国具有这样规模的数据体系。
同样,工程师红利也是发展AI大模型及相关产业的重要支撑。我国每年的理工科生数量超越发达经济体的总和,1998年起每年大学生招生人数就达700万以上,到2025年我国大学毕业生存量将超过2亿。当前,我国已步入人口老龄化阶段,巨大的工程师红利将是继人口红利之后,我们国家发展新质生产力,实现高水平发展的又一重要基石。充分的发挥好工程师红利,是我国顺应第四次科技革命浪潮,步入高收入国家和科技强国行列的必要前提。
英伟达CEO黄仁勋在2月12日的“世界政府峰会”上提到,AI和算力耗能巨大,但由于计算机性能飞速增长,会变得更高效,即自己的产品把算力提高了100万倍,相当于更节省能源了。在2024年3月26日英伟达GTC 2024大会上,发布了新一代Blackwell架构GPU以及一系列AI芯片和软件应用。黄仁勋提到打破通信瓶颈是关键,并以训练1.8万亿参数的GPT-MoE混合专家模型为例,说明能效提高的重要性。
施耐德电气集团董事长赵国华(Jean-Pascal Tricoire)在不久前的中国发展高层论坛2024年年会上表示,“作为新质生产力的关键动力,数字化正重新定义各大产业,这不仅是技术演进,更是一场产业革命;数字化转型不仅关乎效率,也关乎可持续发展。通过全面应用包括人工智能在内的数字化技术,各大产业可以同步推进数字化和绿色低碳两大进程,加快迈向高效与可持续。”据了解,施耐德电气中国区供应链通过广泛部署数字化系统和人工智能技术,整体效率逐年提升8%-10%,整体能耗相比2019年降低了13%。
赵国华在接受央视专访时还表示,尽管随着数据中心算力的提升,GPU需要更加多的能源,但AI和能效之间并没有矛盾冲突,数字化及人工智能技术可以在一定程度上完成更好的能效,并大幅度减少碳排放。人工智能只占全球能耗的2%,而借助人工智能技术,可减少10%-50%的工业能耗。建筑能耗占全球总能耗的约40%,工业能耗也占全球能耗的近40%,若通过人工智能技术可以在一定程度上完成20%的节能,则总体能效提升和碳减排将非常可观。
人工智能和互联网能获取更为详细的数据,一旦有了这一些数据,客户就知道哪里的能耗高,可能有能源浪费,措施就更有明确的目的性。因此,实现万物互联,实现工业领域数字化,利用人工智能技术改进旧工艺旧系统,将有利于进一步提升能效,减少碳排放量。当前中国已处于能源转型的前列,不管是光伏、电池,还是电动汽车技术都处于全球领头羊,通过加快绿色低碳化能源体系建设,将非常有利于人工智能高能耗问题的解决。
再有,AI大模型是具有典型的企业及国家特点的,国家大小与AI大模型电耗和水耗之间并不成明显的正比关系。因此,中美等能源消费大国和数据大国,相对于其他几个国家而言,在电力和水资源方面受到的AI大模型加快速度进行发展的冲击不会那么强烈。同时,我国还是全球可再次生产的能源资源大国,具备良好的水电、风能以及太阳能资源禀赋条件,不仅风电、光伏装机量稳居全球第一,总装机量更是超过所有发达经济体的总和,仅2023年新增光伏装机就超过2亿千瓦,也使得新能源装机总量首次超过火电,也就是说除了工程师红利之外,我国还具备更好的发展AI大模型的可再次生产的能源等资源条件和基础。
根据美国机构Uptime Institute的预测,到2025年,AI相关业务在全球数据中心用电量中的占比将从2%增加到10%。据预测,到2030年,智能计算的年耗电量将达到5000亿度,占全球发电总量的5%。因此,在全力发展AI大模型的同时,就必须提前做好相关规划布局,以提供必要的电力和水资源等技术支撑。
黄仁勋表示,人工智能的未来发展与状态和储能紧密相连。他强调,不应仅仅关注计算力,而是需要更全面地考虑能源消耗问题。萨姆·奥尔特曼认为未来AI的技术取决于能源突破,更加有助于气候平均状态随时间的变化的能源,尤其是核聚变或更便宜的太阳能以及储能,是人工智能的发展方向。
为降低电力和水资源消耗,很多企业都在尝试采用很多方法为数据中心散热。例如,微软曾尝试部署海下数据中心,Facebook数据中心选址北极圈附近,阿里云千岛湖数据中心使用深层湖水制冷等,很多内资和外资企业则把数据中心布局在水电资源丰富的贵州等西南地区。
目前可通过算法优化、开发和使用更高效的AI专用硬件、调整神经网络训练过程以优化计算资源等技术方式来降低AI大模型的能耗,并更多采用自然冷却、液冷、三联供、余热回收等新兴节能技术,提高制冷效率以降低数据中心能耗。从技术未来发展趋势上看,光电智能芯片更有助于解决AI大模型的电耗和水耗问题,戴琼海院士曾表示“改用光电智能芯片,AlphaGo整体计算能耗将从1吨煤下降到1克。”
当前我国已实施严格的能耗双控政策,不论是AI大模型本身,还是其应用行业,对单位GDP能耗指标来说,均有着非常明显的下降作用。从整体能耗来看,尽管AI大模型带来的效率提升也会抵消一部分能耗增长,但随着需求激增而带来的电耗和水耗需求上升问题仍需得到格外关注。同时,我国将绿电额外于能耗双控指标之外,再加上逐步由能耗双控向碳排放双控政策的转变,也使得可再次生产的能源电力对未来AI大模型发展的支撑能力越来越强。
AI大模型的发展,仅符合高端化智能化的要求是远远不足的,更要符合绿色化低碳化发展的时代要求。为此,从国家和地方层面上看,为缓解AI大模型发展所带来的电力和水资源冲击,很有必要将数据中心行业纳入高耗能行业管理体系,并提前做好相关规划布局。同时,加强资源整合,充分的发挥人工智能大模型和数据中心的效能,利用效能下限设置,低于下限严重处罚等方式,确保其自身的电力和水资源使用效率。在能源及双碳政策方面,更应严格落实国家能耗双控及碳排放双控政策,推动可再次生产的能源大规模用于人工智能大模型和数据中心,确保AI大模型在绿色化低碳化前提下得到有序规范发展。
从企业层面,应要求企业成立单独的绿色能源部门,采用多种措施降低人工智能大模型和数据中心的电力及水资源消耗,并将碳足迹与水足迹纳入行业考核范围,切实推动碳足迹与水足迹的逐步降低,以更好地应对日渐增长的AI大模型电力和水资源需求。