高通中国区董事长孟樸:混合AI是未来 将赋能众多终端类型-今日快讯
大模型、生成式AI以及ChatGPT等引发的人工智能热潮正在驱动市场参与者加速新一代AI的研发,而作为移动终端领先企业,高通也在加快AI领域的部署节奏。
几个月前,高通对外展示了全球首个运行在安卓手机上的Stable Diffusion(AI动画生成工具)视频。在该视频中,操作人员在一部没有联网的安卓手机上使用了上述工具生成了一副生动有趣的 AI 图像,而整个生成时间不超过15秒。
这一技术向外界传达了一个明确的信号:未来AI的发展不是云端厂商的专属产品,终端上运行大模型的预言,已经被高通提前变成了现实。
(资料图片仅供参考)
在2023世界人工智能大会期间,高通中国区董事长孟樸在接受第一财经电视直播专访时表示,生成式AI大幅拉近了AI技术与消费者个体的距离,而混合AI则是AI发展的未来。
新一轮技术革命高潮正在到来
上线短短七个月,生成式AI即令全球各地的科技和商业领袖们为之瞩目,浮想联翩。这项技术将对生产力水平和利润率产生怎样的影响在高管们看来是显而易见。布鲁金斯学会预测,未来10年,GenAI有望将生产率和产出提高18%。
“生成式AI能够推动由AI驱动、引领的新一轮技术革命高潮的到来。”孟樸表示,去年11月,ChatGPT的推出,在短短两个月内,其月活用户就已突破1亿——这几乎是进入互联网时代以来发展速度最快的应用。生成式AI首次让每一个消费者切身体验、感知到AI能够帮助我们实现的事情。通过输入简短的指令,AI就能够生成具有一定深度与广度的自创性内容,包括文字、图像等形式——而这是此前的AI无法实现的。
在他看来,人工智能(AI)经历了二十余年的发展,在技术层面一直不断演进。AI的实现离不开基础的算力、数据,以及强大的算法。人工智能,顾名思义,是希望机器可以帮助人类完成我们需要做的事情。
“生成式AI大幅拉近了AI技术与消费者个体的距离,在我们的日常生活中,AI能够在很多不一样的事情上有用武之地,比如帮助艺术家完善艺术作品;在建筑师设计大楼、设计桥梁时,为其提供创意想法等等,AI正在离我们的生活越来越近。”孟樸表示,AI技术一直在发展,像过去十年内,AlphaGo机器人也曾与人类棋手对弈,这其中运用的都是AI技术。随着算力的提升、数据的积累,以及在经过机器学习之后更强大算法的实现,AI已经发展得越来越成熟。
高通对AI的研发启动最早是在2007年。
从终端上进行图像识别、音乐识别等相关技术和应用的研发,到关于自动驾驶所需的判断能力的研究工作,例如如何判断(车辆)前方的图像是人类还是动物,是大型动物还是小型动物等,高通一直在寻找AI在端侧的机会。
2015年,高通正式推出骁龙820芯片,首次搭载了高通第一代AI引擎。随着AI首次被引入智能手机的芯片当中,手机对于文本、图像和视频的处理能力就有了很大提升。不仅如此,每个人的智能手机对用户的状态(比如是走动还是跑步),都可以感知,因而能够实现更为定制化的服务。
2022年,高通公司推出的第二代骁龙8移动平台,搭载当时最为先进的AI引擎之一,而这代产品也在本届世界人工智能大会的开幕式上获得了卓越人工智能引领者奖(SAIL大奖)。
“这是对我们在AI终端化上所做贡献的认可。”孟樸表示,智能终端,实际上已经远超出传统智能手机的范畴,甚至现在的新能源车都要有智能网联功能,因为不论是对于驾驶员还是乘客的驾乘体验提升而言,都涉及到许多AI的因素——主要是通过AI技术来提高安全行驶以及舒适感受。
AI发展的下一步:混合AI
但和其他大模型公司所遇到的一样,实现AI规模化扩展的最大挑战来自于两方面,其一是算力,其二是成本。
目前,将大模型部署到手机端进行推理主要有两种方式,一种是通过云端进行推理,一种是在手机端直接进行推理。如果选择回传云端推理,则对手机的通讯能力要求较高;而如果选择在在手机端推理,则对算力有一定的要求。尽管技术提供商会对模型进行剪枝和压缩等优化,但仍然需要一定的算力。
例如,ChatGPT这样的超大模型需要1000张主流卡容量的独立计算集群,以及对应的模型并行算法框架来支持训练。在成本方面,超大模型的训练需要大规模计算集群以及对应的模型并行算法框架的支撑,因此训练成本通常很高。ChatGPT单次模型训练耗时1个月,训练成本达1200万美元。
但从手机产业链来看,高通一直以来致力于在智能终端上寻求的AI能力的提升,以混合 AI架构通过利用边缘终端的算力支持生成式 AI 开发者和服务提供商降低成本。
高通所提出的云边一体“混合AI”的概念,指的是网络数据中心和人们日常使用的边缘终端的协同工作,在适当的场景和时间下分配AI计算的工作负载,以提供更好的体验,并高效利用资源。
事实上,随着生成式AI的飞速普及和计算需求的日益增长,混合处理的重要性空前突显。与仅在云端进行处理不同,混合AI架构在云端和边缘终端之间分配并协同处理AI工作负载。云端和边缘终端(如智能手机、汽车、个人电脑和物联网终端)协同工作,能够实现更强大、更高效且更普及的AI应用。
孟樸在直播中表示,混合AI是一个与网络相关的名词,在网络数据中心会用到很多基础设施,而终端设备是在边缘。随着终端侧AI处理能力的提高,可以进一步减少云端数据中心的负载。所以,AI的发展最终能够被广泛应用于日常生活,在超大型数据中心和每个人使用的智能终端上得到实现,针对终端侧和针对数据中心的AI可以用于解决不同的问题。
“我们认为对ChatGPT这种交互式AI的运用,会培养出人们与问答式AI或类似的工具相互交流的习惯。每一次基于生成式AI的网络搜索查询(query),会对数据中心负载量和网络承载量提出很高的要求。虽然对每个问题ChatGPT都可以在短短几秒钟内回答,但已有估算标明,每一次交互所带来的数据中心负载和网络成本,要比传统搜索高出10倍。可以说,这对算力、网络的要求都非常高,也需要承载非常大的功耗。但是,很多日常问题并不复杂,人们也不愿意在网络中询问很多个人私事,而这种情况可以通过生成式AI在智能终端中实现。因此,今后终端侧AI和数据中心云AI的结合,将达到比较理想的兼容适配结果——既降低功耗、保护个人隐私,又能够使得大型复杂问题得到及时响应。”孟樸说。
在最新的计划中,高通在今年下半年将会对外展示在手机上运行100亿个参数的大语言模型。从高通已有的模型落地案例来看,其边缘大模型相当于云端大模型的“感知器官”,从而可以使AI功能在终端设备得以实现。
“我认为,未来的发展趋势应该是比较平衡且自然的。在未来,数据中心的算力会越来越强大,与此同时每个人使用的智能终端,例如手机、智能网联汽车等,其计算能力和AI的处理能力也会越来越强。这样来看,数据中心主要负责处理的是工作量较大的问题,而我们的个人智能终端则会用于处理一些工作量相对较小的问题。”孟樸表示,终端可以更好地保护隐私,未来小事私事问终端,大事公事可以问云端。
关键词: