| 广告联系 | 繁体版 | 手机版 | 微信 | 微博 | 搜索:
欢迎您 游客 | 登录 | 免费注册 | 忘记了密码 | 社交账号注册或登录

首页

新闻资讯

论坛

温哥华地产

大温餐馆点评

温哥华汽车

温哥华教育

黄页/二手

旅游

AI吸干全球电力?更可怕的事在后面

QR Code
请用微信 扫一扫 扫描上面的二维码,然后点击页面右上角的 ... 图标,然后点击 发送给朋友分享到朋友圈,谢谢!
近年来,人工智能(AI)的崛起引起了广泛的讨论和担忧,很多人担心 AI 会造成失业率飙升,而有些乐观的朋友则戏称“只要电费贵过馒头,AI 就永远不能完全代替人”。


虽然这是句玩笑话,但背后则是实实在在的AI能耗问题,越来越多的人担忧高能耗将成为制约 AI 发展的瓶颈。就在不久前,技术创业者、前谷歌工程师凯尔·科比特(Kyle Corbitt)在社交媒体 X 上表示,微软已经遇到了这方面的难题。

AI 到底有多费电?


科比特称,训练 GPT-6 的微软工程师们正忙着搭建 IB 网络(InfiniBand),把分布在不同地区的 GPU 连接起来。这项工作很困难,但他们别无选择,因为如果把超过 10 万块 H100 芯片部署在同一个地区,电网就会崩溃。



来源:X@corbtt

为什么这些芯片集中起来会导致电网崩溃的后果呢?让我们来简单算一笔账。




图库版权图片,转载使用可能引发版权纠纷

英伟达网站上公布的数据显示,每块 H100 芯片的峰值功率为 700W,10 万块 H100 峰值功耗最高可达 7000 万W。而 X 评论区有能源行业从业者指出,10 万块芯片的总能耗将相当于一座小型太阳能或风能发电厂的全部输出。除此之外,还要考虑这么多芯片的配套设施的能耗,包括服务器和冷却设备。这么多耗电设施,集中在一小片区域,给电网带来的压力可想而知。


AI 耗电,冰山一角

关于 AI 能耗问题,《纽约客》的报道一度引起广泛关注。报道估算,ChatGPT 每日耗电量或超过 50 万千瓦时。(参见:ChatGPT 日耗电超 50 万度,卡死AI发展的竟然是能源?)实际上,目前AI耗电量虽然看上去是个天文数字,但仍然远远不及加密货币和传统的数据中心。而微软工程师遇到的难题也表明,制约 AI 发展的不仅是技术本身的能耗,还有配套基础设施的能耗,以及电网的承载力。

国际能源署(IEA)发布的一份报告显示,2022 年全球数据中心、人工智能和加密货币的耗电量达到 460 TWh,占全球能耗的近 2%。IEA 预测,在最糟糕的情况下,到 2026 年这些领域的用电量将达 1000 TWh,与整个日本的用电量相当。

但是,报告同时显示,目前直接投入 AI 研发的能耗远低于数据中心和加密货币。英伟达在 AI 服务器市场中占据约 95%的份额,2023 年供应了约 10 万块芯片,每年耗电量约为 7.3 TWh。但是在 2022 年,加密货币的能耗为 110 TWh,与整个荷兰的用电量相当。


觉得新闻不错,请点个赞吧     已经有 2 人参与评论了, 我也来说几句吧
上一页123下一页
注:
  • 新闻来源于其它媒体,内容不代表本站立场!
  • 在此页阅读全文
    猜您喜欢:
    您可能也喜欢:
    共有 2 人参与评论    (其它新闻评论)
    评论1 紫衣 2024-04-20 16:15
    AI发展到失控,电力不够了,会不会把人类当成能源?
    上一页1下一页
    我来说两句:
    评论:
    安全校验码:
    请在此处输入图片中的数字
    The Captcha image
    Terms & Conditions    Privacy Policy    Political ADs    Activities Agreement    Contact Us    Sitemap    

    加西网为北美中文网传媒集团旗下网站

    页面生成: 0.0531 秒 and 9 DB Queries in 0.0083 秒