众所周知,算法、算力和数据是共同制约AI发展的三个关键要素,这也是ChatGPT完美运行的三个条件。
其中,算力是ChatGPT运行的关键所在。而一个ChatGPT应用的算力消耗却让人瞠目结舌。
其大模型GPT经历了三次迭代,GPT、GPT-2和GPT-3(当前开放的版本为GPT-3.5)的参数量从1.17亿增加到1750亿,预训练数据量从5GB增加到45TB,其中GPT-3训练单次的成本就已经高达460万美元。
最新的GPT3.5在训练中使用了微软专门建设的AI计算系统,由1万个V100 GPU组成的高性能网络集群,总算力消耗约3640PF-days,即假如每秒计算一千万亿次,需要计算3640天。
如何理解这样的算力消耗呢?可以简单做一个分析——我国近期正大力新建数据中心, 以其中总投资30.2亿,算力500P的数据中心项目来说,要想支撑起ChatGPT的运行,至少要7-8个此量级的数据中心运行一整天。
事实上,仅2012年2019年,短短七年,人类对AI算力的需求就增长了30万倍。平均每100天就会翻倍,远超摩尔定律。
与此同时,AI算力的实际增长却有限,需求和供给之间形成了一个巨大的鸿沟。
准华为轮值主席孟晚舟曾在一次公开演讲时就表示,现在的算力还远远不能满足未来的需求,算力必然是世界科技竞争的焦点之一。
另外,GPU或CPU+FPGA是ChatGPT算力的硬件支撑,该应用对于高端芯片的需求增加会拉动芯片均价,量价齐升将导致芯片需求暴涨。
据了解,采购一片英伟达顶级GPU成本为8万元,GPU服务器成本通常超过40万元。对于ChatGPT而言,支撑其算力基础设施至少需要上万颗英伟达GPU A100,单采购GPU的成本就近亿元。
而ChatGPT越火,对算力及其关联产业的需求便越大。
中国信息通信研究院测算,截至2021年底,中国算力核心产业规模超过1.5万亿元,关联产业规模超过8万亿元。
这是一块巨大的蛋糕。并且随着AI产品应用的逐渐渗透,这块蛋糕将越来越大。
除了算力外,ChatGPT引发万众瞩目的还包括在C端的破冰。
一直以来,AI产品的落地与盈利基本都靠B、G两端支撑,在C端虽然也有不少试水,但都没有引发太大的反响,几乎没有让大部分人愿意买单的项目。
如果ChatGPT真的能成为一款现象级产品,将具有划时代意义。
不妨想想,在移动互联网时代,微信让腾讯成为了时代的王者,月活跃用户数量达12.88亿;依靠抖音,字节跳动不到十年就跃升为中国最著名的互联网企业之一;而拼多多市值已经是百度的3倍……
这背后不仅是一场产业革命,更是数以万亿计财富的诞生。如今,类似的连锁反应也开始在AI领域显现。 |