AI的尽头是能源吗 能耗挑战与未来方向

admin 阅读:42 2024-11-08 16:02:08 评论:0
AI的尽头是能源吗无论是否支持人工智能的发展,我们都不能忽视其能耗问题。有人担心AI发展过快会对能源市场和环境造成冲击,也有人担忧能源产业进步缓慢会成为AI发展的瓶颈。AI的尽头是能源吗!随着AI的普及,其在能耗中的占比将逐年提升。为此,AI研发企业纷纷投资能源供应。谷歌宣布购买Kairos Power建造的小型模块化反应堆生产的电力,微软则与星座能源公司达成协议,重启三里岛核电站1号反应堆并购买未来20年的电能。OpenAI首席执行官山姆·奥特曼也在今年年初投资了核聚变技术。然而,新的趋势正在出现。多位业界人士表示,可以通过软硬件技术的提升以及宏观布局优化来降低AI的能耗,使能源利用更加高效。更重要的是,AI的进步方向不一定更大更强,一些小而美的模型正悄然登场。关于AI的耗电量,一篇报道指出ChatGPT每日耗电量或超50万千瓦时,相当于1.7万个美国家庭的能耗。但也有观点认为这些估算过于夸张。尽管如此,我们可以进行一些定性讨论。例如,在算法层面,训练阶段比推理阶段能耗更高。清华大学电子工程系主任汪玉团队测试了不同算力芯片的单卡推理功耗,发现推理阶段的功耗基本在300W-500W之间,而训练阶段的功耗则高达400W-700W。未来推理功耗有望进一步下降。大模型训练过程中还存在容错相关的额外能耗开销。Llama 3-405B在为期54天的训练期间共发生了466次任务中断,约78%由硬件问题引起,实际算力利用率只有38%左右。不过,从应用场景上看,用户推理请求的调用频率更高,即使单次调用能耗低,总能耗也可能相当可观。

本文 刊讯杂志网 原创,转载保留链接!网址:https://m.zazhishe.org/post/36497.html

声明

1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。

发表评论
搜索
排行榜
标签列表