“机智”向“人智”靠拢,发展AI算力是关键
2023世界人工智能大会(WAIC 2023)以“智联世界 生成未来”为主题,在大会期间,人们在展馆里见证了人工智能兴起带来应用的百花齐放,也在论坛上对“机智”和“人智”不停地比较,试图找到沟通两者的桥梁。
“ChatGPT用的是GPT3.5的技术,大概是1750亿的参数,人的大脑神经元大概是在800亿到1000亿之间。这样一个参数实际上跟人的神经元数量是非常相似的,所以大参数、大模型到了1750亿这样一个级别的时候,人工智能就不只是根据我们的训练去学习成长,更重要的是它会自己学习,自己进化。” 联想集团副总裁ISG中国服务器事业部总经理陈振宽在参与第一财经圆桌对话时说。
(相关资料图)
作为通用人工智能发展的重要里程碑,ChatGPT是数据、算法、算力三大基本要素的精巧组合,而能支持“机智”向“人智”不断靠拢的,算力就是值得关注的领域之一。
高增长难掩算力焦虑
狭义的算力可以用一台计算机理论上具备的每秒浮点运算次数(FLOPS)来衡量。1946年世界上第一台通用计算机“ENIAC”每秒只能进行5000次计算,而如今全球排名第一的超级计算机“Frontier”每秒已能进行百亿亿次运算(1.194Exaflop)。
当前,算力正由终端计算等需求驱动的“被动式”发展,转向促进AI大模型训练、实现通用人工智能、超越经典计算等代表的“主动式”发展。随着数字产业化由规模化发展转向高质量发展,大到5G通信、卫星互联网,小到出行线路规划、外卖订单系统优化、 影视特效制作,都离不开算力支撑。
“要实现算力所消耗的功耗跟人的大脑所消耗的功耗不是完全一个数量级,所以人的功耗消耗是非常小的,但是要支撑这么大一个算力,功耗的要求是非常高的。”陈振宽说。而这还只是在人工智能AGI的初级阶段,新计算时代呼之欲出。
深度学习出现之前,用于AI训练的算力增长大约每20个月翻一番,基本符合摩尔定律;之后,用于AI训练的算力大约每6个月翻一番;2012年后,全球头部AI模型训练算力需求更是加速到每3-4个月翻一番,即平均每年算力增长幅度达到惊人的10倍;目前大模型发展如火如荼,训练算力需求有望扩张到原来的10到100倍,算力需求的指数级增长曲线将更加陡峭。正如此前“ChatGPT之父”、OpenAI首席执行官山姆•奥特曼在社交媒体称,一个全新的摩尔定律可能很快就会出现。
在中国,中国信通院研究得出,2016-2021年,全球算力规模平均每年增长34%,数字经济规模和GDP每年分别增长8%和4%。虽然高速增长,算力发展仍面临着巨大的挑战,体现为传统计算架构缺乏并行管理架构、效率低、能耗高,已然无法适应爆发式增长的算力需求和愈发复杂的计算任务。
未尽研究创始人周健工提到,“一篇业内论文的标题用了通用人工智能的火花来形容,我觉得这个比喻比较贴切,我们看到火花,但还处于通用人工智能比较早期的阶段。”他表示,现在处在模型训练中算力比较紧缺的阶段,如果生成人工智能发展普及比较快,将来对推理需求更高。
高额投入和潜藏商机
在过去一段时间,随着大模型的蓬勃发展,算力落差正成为制约大模型发展的瓶颈。谁能提供算力,谁就是未来掘金人工智能时代的“卖水人”。
在科技的飞跃中,算力也创造了巨大的经济价值。根据毕马威与联想集团联合发布的《普慧算力开启新计算时代》报告(下文简称“报告”)测算,预计到2025年,我国算力核心产业规模将不低于4.4万亿元,算力关联产业规模可达24万亿元。
“以联想来说,我们自己不会参与到大模型赛道,不会去做去训练大模型,但是我们为所有搭建和训练大模型的企业去提供基础设施和服务,比如说提供GPU服务器、人工智能服务器。”陈振宽说。
据他介绍,一个通用服务器的研发投入大概是两千万人民币,而做GPU、人工智能服务器投入是需要通用计算五倍,按亿作为计算单位。这其中还要考虑散热、更快联接速度等诸多现实中的制约因素,因此在技术上的投入非常庞大。
申万宏源证券研究董事总经理、TMT部门总监及首席分析师刘洋提到了其中蕴藏的商机。“通用AGI,涉及到芯片、服务器、液冷、风冷。如果光讲算力,落实到二级市场还有光器件、光模块,还有一些是IDC相关。”
他认为,一方面机架里的服务器要升级, AI渗透率可能会慢慢达到50%,还有很多工程设计问题待解决,另一方面,超算数据中心里AI为科学的内容有机会把以前难测的内容变成可能。
“现在市场基本注意到了AI服务器、芯片和光器件,后面的领域没有特别注意,周期和机会可能会反复来袭。”他说。
一旦未来发展到推理环节,对算力要求还会持续增加。“如何在这样的场景中持续进行优化,以更加普慧的能力去提供未来整体人工智能相关的产业理论服务,这是我们持续要考虑的地方。”陈振宽说。
普慧算力是发展趋势
未来究竟需要怎样的算力?
联想集团董事长兼CEO杨元庆在2022联想创新科技大会上首提“普慧算力”:对于计算的需求快速增加,单设备以及本地化的数据中心已经不能满足需求,“端-边-云-网”的新算力基础架构应运而生。端设备加覆盖广泛的云,还有更加靠近数据源头的边,辅以高速网络,无处不在的“普慧”算力即刻诞生。
陈振宽解释称,人人可得(Affordable)、人人可用(Available)、人人适用(Adaptable),算力将成为“3A”型基础资源,是发展数字经济的基础;自适应(Self-adapting)、自学习(Selflearning)、自进化(Self-evolving)为代表的“3S”智能将是实现通用人工智能广泛应用、推动数字经济迈向更高阶段的必然要求。普适(Inclusive)与智慧(Intelligent),将成为未来算力发展的两大特征。
AI大模型的真正价值最终将体现在具体场景中,未来产业竞争将从“规模”转向“应用”。目前大模型训练都在云端实现,所用算力是中心化的,精度要求高且成本高,意味着大模型落地必然会面临能耗和性能平衡的难题。破局之道在于大小模型协同进化,即在利用大参数训练完大模型之后,通过高精度压缩,将大模型转化为端侧可用的小模型,大模型相当于超级大脑,小模型相当于垂直领域专家,共同推动AGI落到实处。
他认为,未来算力的需求将先帮助产业升级,再到各个企业去实现数智化转型,最终惠及到每一个人。“今天算力可以进行不同切片提供服务,这个灵活性应该是存在的。搭建一个基础设施,可以把它用来提供一个大模型支持,也可以做不同切片进行垂直行业模型支持,这个可以实现,不需要重复投入。”
这一过程中,我们将见证算力由中心化走向泛在化,由通用化走向智能化,也正是“普慧”算力释放价值的过程。
关键词: