随着人工智能技术快速发展,人工智能(AI)大模型的运行消耗问题受到越来越多关注。大模型为何成了耗能大户?能耗问题会不会成为人工智能发展的“绊脚石”?如何解决能耗问题?
耗电耗水量大
人工智能大模型到底有多耗能?据斯坦福人工智能研究所发布的《2023年AI指数报告》,AI大语言模型GPT-3一次训练的耗电量为1287兆瓦时,大概相当于3000辆特斯拉电动汽车共同开跑、每辆车跑20万英里所耗电量的总和。报告同时提出,AI大语言模型GPT-3一次训练,相当于排放了552吨二氧化碳。
国外研究显示,一次标准谷歌搜索耗电0.3瓦时,AI大语言模型ChatGPT响应一次用户请求耗电约2.96瓦时,在AI大模型驱动下的一次谷歌搜索耗电8.9瓦时。
除了耗电,另有研究显示,AI大语言模型GPT-3在训练期间耗水近700吨,每回答20个至50个问题就要消耗500毫升水。弗吉尼亚理工大学研究指出,Meta公司在2022年使用了超过260万立方米的水,主要作用是为数据中心提供冷却。
据了解,人工智能大模型GPT-4的主要参数是GPT-3的20倍,计算量是GPT-3的10倍,能耗也随之大幅增加。
华泰证券研报预测,到2030年,中国与美国的数据中心总用电量将分别达到0.65万亿千瓦时至0.95万亿千瓦时、1.2万亿千瓦时至1.7万亿千瓦时,是2022年的3.5倍和6倍以上。届时,AI用电量将达到2022年全社会用电量的20%和31%。
为何如此耗能
为什么人工智能大模型如此耗能?AI技术迅速发展,对芯片的需求急剧增加,进而带动电力需求激增。同时,对AI进行大量训练,也意味着需要更强的算力中心和与之匹配的散热能力。在AI快速迭代的道路上,电力和水资源的消耗也在快速增加。因为很多数据中心全年无休,发热量巨大,大规模电耗和水耗主要来自于冷却需求。
相关统计显示,数据中心运行成本的六成是电费,而电费里的四成多来自冷却散热,相应也会带来巨量冷却水的消耗。风冷数据中心六成多的耗电量都会用在风冷上,只有不到四成电力用在实际计算上。如今,全球数据中心市场耗电量是10年前的近10倍。
能耗问题会不会成为人工智能发展的“绊脚石”?英伟达首席执行官黄仁勋曾提到,AI和算力耗能巨大,但由于计算机性能飞速增长,计算会更加高效,相当于更节省能源。当前,我国实施严格的能耗双控政策,无论是AI大模型本身还是其应用行业,对单位GDP能耗来说均有明显降低作用。
从整体能耗来看,AI大模型带来的效率提升也会抵消一部分能耗增长。随着绿电广泛应用,再加上我国逐步由能耗双控向碳排放双控政策转变,可再生能源对未来AI大模型发展的支撑能力也会越来越强。
此外,相较于其他国家而言,中美等能源消费大国和数据大国,具备更好发展AI大模型的资源条件和基础。
怎样应对挑战
据预测,到2025年,AI相关业务在全球数据中心用电量中的占比将从2%增加至10%。到2030年,智能计算年耗电量将达到5000亿千瓦时,占全球发电总量的5%。因此,在大力发展AI大模型的同时,必须提前做好相关规划布局,以提供必要的电力和水资源等技术支撑。
有专家认为,人工智能的未来发展与状态和储能紧密相连。因此,不应仅关注计算力,而是需要更全面地考虑能源消耗问题。OpenAI创始人奥尔特曼认为,未来AI技术取决于能源突破,更绿色的能源尤其是核聚变或更便宜的太阳能以及储能的可获得性,是人工智能发展快慢的重要因素。
为降低电力和水资源消耗,很多企业在尝试采用各种方法为数据中心散热。例如,微软曾尝试部署海下数据中心,脸书(Facebook)数据中心选址北极圈附近,阿里云千岛湖数据中心使用深层湖水制冷等,我国很多企业则把数据中心布局在水电资源丰富的西南地区。
目前,可通过算法优化、开发和使用更高效的AI专用硬件、调整神经网络训练过程以优化计算资源等技术方式来降低AI大模型的能耗,并更多采用自然冷却、液冷、三联供、余热回收等新兴节能技术,提高制冷效率以降低数据中心能耗。从技术未来发展方向上看,光电智能芯片也有助于解决AI大模型的电耗和水耗问题。
AI大模型的发展,不能仅符合高端化、智能化的要求,更要符合绿色化的发展要求。为此,从国家和地方层面上看,为缓解AI大模型发展所带来的电力和水资源冲击,有必要将数据中心行业纳入高耗能行业管理体系,并提前做好相关规划布局。同时,加强资源整合,充分发挥人工智能大模型和数据中心的效能,通过使用效能下限设置等方式,确保其自身的电力和水资源使用效率。还应严格落实国家能耗双控及碳排放双控政策,并将其碳足迹与水足迹纳入行业考核范围,切实推动碳足迹与水足迹逐步降低,以应对日益增长的AI大模型电力和水资源需求。
(崔 成 作者系中国宏观经济研究院能源研究所研究员)
随着人工智能技术快速发展,人工智能(AI)大模型的运行消耗问题受到越来越多关注。大模型为何成了耗能大户?能耗问题会不会成为人工智能发展的“绊脚石”?如何解决能耗问题?
耗电耗水量大
人工智能大模型到底有多耗能?据斯坦福人工智能研究所发布的《2023年AI指数报告》,AI大语言模型GPT-3一次训练的耗电量为1287兆瓦时,大概相当于3000辆特斯拉电动汽车共同开跑、每辆车跑20万英里所耗电量的总和。报告同时提出,AI大语言模型GPT-3一次训练,相当于排放了552吨二氧化碳。
国外研究显示,一次标准谷歌搜索耗电0.3瓦时,AI大语言模型ChatGPT响应一次用户请求耗电约2.96瓦时,在AI大模型驱动下的一次谷歌搜索耗电8.9瓦时。
除了耗电,另有研究显示,AI大语言模型GPT-3在训练期间耗水近700吨,每回答20个至50个问题就要消耗500毫升水。弗吉尼亚理工大学研究指出,Meta公司在2022年使用了超过260万立方米的水,主要作用是为数据中心提供冷却。
据了解,人工智能大模型GPT-4的主要参数是GPT-3的20倍,计算量是GPT-3的10倍,能耗也随之大幅增加。
华泰证券研报预测,到2030年,中国与美国的数据中心总用电量将分别达到0.65万亿千瓦时至0.95万亿千瓦时、1.2万亿千瓦时至1.7万亿千瓦时,是2022年的3.5倍和6倍以上。届时,AI用电量将达到2022年全社会用电量的20%和31%。
为何如此耗能
为什么人工智能大模型如此耗能?AI技术迅速发展,对芯片的需求急剧增加,进而带动电力需求激增。同时,对AI进行大量训练,也意味着需要更强的算力中心和与之匹配的散热能力。在AI快速迭代的道路上,电力和水资源的消耗也在快速增加。因为很多数据中心全年无休,发热量巨大,大规模电耗和水耗主要来自于冷却需求。
相关统计显示,数据中心运行成本的六成是电费,而电费里的四成多来自冷却散热,相应也会带来巨量冷却水的消耗。风冷数据中心六成多的耗电量都会用在风冷上,只有不到四成电力用在实际计算上。如今,全球数据中心市场耗电量是10年前的近10倍。
能耗问题会不会成为人工智能发展的“绊脚石”?英伟达首席执行官黄仁勋曾提到,AI和算力耗能巨大,但由于计算机性能飞速增长,计算会更加高效,相当于更节省能源。当前,我国实施严格的能耗双控政策,无论是AI大模型本身还是其应用行业,对单位GDP能耗来说均有明显降低作用。
从整体能耗来看,AI大模型带来的效率提升也会抵消一部分能耗增长。随着绿电广泛应用,再加上我国逐步由能耗双控向碳排放双控政策转变,可再生能源对未来AI大模型发展的支撑能力也会越来越强。
此外,相较于其他国家而言,中美等能源消费大国和数据大国,具备更好发展AI大模型的资源条件和基础。
怎样应对挑战
据预测,到2025年,AI相关业务在全球数据中心用电量中的占比将从2%增加至10%。到2030年,智能计算年耗电量将达到5000亿千瓦时,占全球发电总量的5%。因此,在大力发展AI大模型的同时,必须提前做好相关规划布局,以提供必要的电力和水资源等技术支撑。
有专家认为,人工智能的未来发展与状态和储能紧密相连。因此,不应仅关注计算力,而是需要更全面地考虑能源消耗问题。OpenAI创始人奥尔特曼认为,未来AI技术取决于能源突破,更绿色的能源尤其是核聚变或更便宜的太阳能以及储能的可获得性,是人工智能发展快慢的重要因素。
为降低电力和水资源消耗,很多企业在尝试采用各种方法为数据中心散热。例如,微软曾尝试部署海下数据中心,脸书(Facebook)数据中心选址北极圈附近,阿里云千岛湖数据中心使用深层湖水制冷等,我国很多企业则把数据中心布局在水电资源丰富的西南地区。
目前,可通过算法优化、开发和使用更高效的AI专用硬件、调整神经网络训练过程以优化计算资源等技术方式来降低AI大模型的能耗,并更多采用自然冷却、液冷、三联供、余热回收等新兴节能技术,提高制冷效率以降低数据中心能耗。从技术未来发展方向上看,光电智能芯片也有助于解决AI大模型的电耗和水耗问题。
AI大模型的发展,不能仅符合高端化、智能化的要求,更要符合绿色化的发展要求。为此,从国家和地方层面上看,为缓解AI大模型发展所带来的电力和水资源冲击,有必要将数据中心行业纳入高耗能行业管理体系,并提前做好相关规划布局。同时,加强资源整合,充分发挥人工智能大模型和数据中心的效能,通过使用效能下限设置等方式,确保其自身的电力和水资源使用效率。还应严格落实国家能耗双控及碳排放双控政策,并将其碳足迹与水足迹纳入行业考核范围,切实推动碳足迹与水足迹逐步降低,以应对日益增长的AI大模型电力和水资源需求。
(崔 成 作者系中国宏观经济研究院能源研究所研究员)
南方财经全媒体记者 吴立洋 上海报道日前,2024中国家电及消费电子博览会(AWE)在上海新国际博览中心闭幕。作为一年一度的家电产业盛会,AWE既是各大厂商展示新技术与新产品的重要节点,也是 据英国《金融时报》网站3月13日报道,科学家们已经在利用人工智能(AI)阐释人体所谓的“黑暗基因组”,并开发一种可能很强大的癌症检测、监测和治疗新方法。美国约翰斯·霍普金斯大学的研 近年来,电动自行车以便利性受到大众青睐,但相关起火事故威胁着居民的生命财产安全。据国家消防救援局发布的统计数据,2023年全国共接报电动自行车火灾2.1万起,比2022年增加17.4%。电动自行车起火 我国成功发射云海二号02组卫星 中新网北京3月21日电(马帅莎 曹译 张艳)北京时间2024年3月21日13时27分,我国在酒泉卫星发射中心使用长征二号丁运载火箭/远征三号上面级,成功将云海二号02组卫星发射升空,卫星顺利 近日有消息称,huaweiMate60已经停产。作为huawei于2023年8月末发布的最新旗舰机型,huaweiMate60的停产意味着huawei新款旗舰或即将上市,接替Mate60。2023年8月29日,huaweiMate60 Pro、huaweiMate60等 3月24日,记者从中国农业科学院获悉,该院蔬菜花卉研究所甘蓝类蔬菜遗传育种创新团队,开发了快速创制细胞质雄性不育系的新方法——“一步法”。相关研究日前发表在国际期刊《自然&midd 。本文链接:大模型为何成耗能大户http://www.sushuapos.com/show-2-5513-0.html
声明:本网站为非营利性网站,本网页内容由互联网博主自发贡献,不代表本站观点,本站不承担任何法律责任。天上不会到馅饼,请大家谨防诈骗!若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。
上一篇: 全球半导体产业格局生变