为什么OpenAI需要7万亿美元造芯片?其实它还需要20座三峡电站

最近据说OpenAI的CEO 山姆奥尔特曼正在与投资人和供应商商讨,融资七万亿美元重塑全球芯片产业。真的有这么大的需求吗?这是怎么算出来的呢?

我们现在就大致估算一下,真正的通用人工智能所需要的一些主要资源。

成本

GPT-3耗资400万美元。GPT-4耗资1亿美元。GPT-5约25亿美元。按照每代20 30倍费用差估算,GPT-6预计耗资750亿美元,GPT-7预计2万亿美元。

数据

GPT-3 使用了0.3万亿个tokens。GPT-4 使用了 13 万亿个tokens。大致可以预计 GPT-5 将需要百万亿个tokens,GPT-6 将需要千万亿个tokens,GPT-7 将需要上兆个tokens。

算力

2023年全球计算机的总算力约为 10^21 次浮点运算/秒。以此为基准,如果每一代训练周期为一年。那么,GPT-4使用了全球算力的 1/2000。GPT-5 使用了全球算力的 1/70,GPT-6将使用全球算力的 1/2,GPT-7 将使用全球算力的15 倍。

2023年全球半导体产值约5000亿美元,如果要全球算力提高15倍,那么这个产值规模是不是应该扩大15倍?正好对应着7万亿美元。

能耗

GPT-4 训练耗能约 5千万度电。使用乘数因子 30 倍,预计 GPT-5 需要 15亿度电,GPT-6 需要 450亿度电,GPT-7 需要 1.35万亿度电。

作为参考,三峡电站的年发电量约为800亿度。

看了上面这些数据,我相信大家对人工智能应该有了一个更清醒的认识,通用人工智能其实是人类史无前例的巨型工程。

满足上面这些条件,不一定能做成,但没有,一定做不成。

现在,你怎么看国内那上百家做AI大模型的公司?反正它们自称跟OpenAI和谷歌的差距只有一年。

展开阅读全文

页面更新:2024-02-24

标签:山姆   乘数   美元   发电量   浮点   人工智能   史无前例   电站   产值   芯片   数据   全球

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2008-2024 All Rights Reserved. Powered By bs178.com 闽ICP备11008920号-3
闽公网安备35020302034844号

Top