ChatGPT推出收费版——总要有人为算力买单
当地时间周三,OpenAI推出ChatGPT付费订阅版ChatGPT Plus,每月收费20美元(按照2月2日汇率计算,约合135元人民币)。
虽然OpenAI表示,将持续提供免费版,并且收费项目也将更好的“帮助尽可能多的人使用免费服务”。但是,《纽约时报》也指出“在高峰时段,免费版访问人数将受到限制。”显然当下免费版ChatGPT时常出现的流量限制、数量限制等措施预计会一直存在。
ChatGPT“真面目”——吞金怪兽
就在我们过大年的时候,生成式AI聊天机器人ChatGPT火了。刚刚面向公众开放不过两个月,ChatGPT就已经完成了“AI生小目标”——月活过亿。这两个月中,全世界的网友们都在兴致勃勃的“调教”这个智能聊天机器人,但第一个受不了的却是ChatGPT的所有者。为了更长远的发展,OpenAI宣布了付费订阅版ChatGPT Plus。
收费是AI服务长久发展的必然选择。此前,此前OpenAI总裁兼董事长Greg Brockman已公开发帖,就“如何通过ChatGPT获利”向用户征求建议。
究其根源,在于ChatGPT等AI“越来越聪明”的背后,需要庞大的成本支撑。其中,算力成本是最重要的,也是最不能偷工减料的一部分。
有数据显示,ChatGPT的总算力消耗约为3640PF-days。直观一点的对比,我们可以回顾下近期的一些数据中心建设新闻,比如总投资30.2亿,算力500P的数据中心项目,就知道要支撑ChatGPT的运行,至少要7-8个这样的数据中心支撑,基础设施的投入都是以百亿记。
当然,基础设施可以通过租用的方式来解决,但算力需求带来的本压力依然巨大。东吴证券研报分析认为,ChatGPT的优化主要来自模型的增大,以及因此带来的算力增加。GPT、GPT-2和GPT-3(当前开放的版本为GPT-3.5)的参数量从1.17亿增加到1750亿,预训练数据量从5GB增加到45TB,其中GPT-3训练单次的成本就高达460万美元。
算力!算力!算力!
可以想见,ChatGPT的火爆出圈,必然引起业界对AI新一轮关注和投资热潮。比如就在近日,百度宣布计划在今年3月推出与ChatGPT类似的人工智能聊天机器人服务。国际上的Meta、Google等巨头也在摩拳擦掌,不想在新时代中落伍。
但无论是谁参与进来,都需要回答一个问题:算力成本怎么解决?
或许,答案就在中国正在如火如荼推进的“东数西算”工程里。
“东数西算”工程通过构建全国一体化的新型算力网络,优化数据中心建设布局,将东部算力需求有序引导到西部,利用西部的资源优势,为数字中国的发展提供低碳、低成本的优质算力。
对于AI产业来说,“东数西算”也可以成为“东数西训”,即庞大的训练算力需求完全可以转移到算力成本更低,同时规模更具优势的西部数据中心中进行。
对应的,这些承载智能训练的数据中心本身,也将为更好的适应智能训练需求进行针对性改造,比如在能源供给、散热结构、机柜形态等方面更适合使用了大量智能训练芯片的服务器等。
从中,我们也能看出数据中心未来发展的新道路。“东数西训”、“东数西渲”、“东数西存”等应用将成为主流方向,数据中心建设也将告别千篇一律的通用时代,进入以场景为指引、以应用为导向的“专用”时代。