信通院何宝宏:大模型“卷”向下半场,需要新打法

作者:朱文凤 责任编辑:王鹤迦 2024.12.20 17:26 来源:通信世界全媒体

通信世界网消息(CWW)2024年大模型技术加速迭代、产品丰富多样、应用多点开花,助力千行百业加速智能化转型,掀起变革浪潮。“2025年大模型将角逐下半场,需要新打法。”12月18日,在2025年ICT行业趋势年会“算网与AI大模型应用论坛”上,中国信通院云计算与大数据研究所所长何宝宏讲道。

1734686814653060569.png

何宝宏在演讲中指出,2024年,全球训练大语言模型的效果普遍不及预期,可能已经撞上“数据墙”。如OpenAI产品迭代明显放缓;Anthroipc暂停Calude 3.5 Opus开发。另外,大模型产品迭代的速度也明显在放缓,这些情况表明,大模型竞赛的上半场已经进入“垃圾时间”。

对于大模型下半场的主赛道与新打法,何宝宏表示,大模型的下半场竞赛可以有多个可选的转变:从训练转为推理,从语言大模型转到多模态大模型,从人类互联网数据转为AI合成数据和私域数据,从闭源过渡到基于开源,从拼性能到拼性价比,从虚拟智能到实体智能等。

具体来看,行业要“卷”合成数据,也需要谨慎。过去30年来互联网上积累的数据,将在未来3~5年内被AI耗尽。但与此同时,Meta等的研究发现,即使只用了1%的合成数据,也将导致严重的模型崩溃。此外,现在互联网上超过50%的流量是机器人在搬运,接下来网上将充斥着人工智能生成的内容人类生成的高质量数据很可能会被淹没在AI生成的垃圾堆里。

“卷”开源,领先的开源模型的能力已经达到闭源模型能力的80%,但成本却是闭源模型的1/20,那在大部分场景下会选择开源模型。从效果来看,集中式训练大模型已经导致对一般性智算需求的大降,加速大模型应用的私有化部署,行业大模型也将加速落地。

“卷”工程,大模型工程化过程中,长推理范式、可解释性与透明度、可靠性与安全性、压缩与轻量化、MLOps、记忆能力等方面仍是机会,仍有待突破。

“卷”性价比,一方面,根据相关测算,AI年产值超过6000亿美元,才够支付AI基础设施的费用,但现在还缺5000亿,且2024年5月开始的价格战目前暂无停止的迹象。另一方面,国内单位算力成本大致相当于英伟达算力的1.5倍,但同等的大语言模型服务价格经常只有它的20%到50%。接下来,行业会更关注商业化和应用落地,更注重性价比。

而在接下来大模型自身主攻方向转变的同时,算力等基础设施、智能体等应用也将迎来更为彻底的变革。

大模型下半场,智能体将接棒大模型。何宝宏表示,尽管少数巨头在继续探索通用大模型的未知边界,但更多数企业将聚焦探索各类LLM的好用(优化)和多用(场景)的路线,即Agent。未来几年,Agent泡沫将兴起,但Agent会有遗传自LLM的“故疾”(如不可解释性和幻觉)。另外,LLM的本质是压缩,Agent的本质是目标导向,二者本质的不同,导致未来可能会出现三个问题:难以觉察的终极目标不一致性;难以理解的机器陌生的思维和行为方式;AI系统缺失的自我修正机制。

大模型下半场,算力不能只追求高性能。算力发展也将有三大转变,一是发展边缘算力、混合算力、云端算力、推理算力、节能算力、低成本算力等多样化算力。二是从IDC到AIDC,之前IDC是技术创新的制高点,而现在AIDC不仅仅是技术创新,而是将重构整个生态,覆盖Agent、网络、芯片、风火水电等方方面面。三是从缺算到缺电,近年来数据中心耗电量持续上升,2030年AIDC耗电量将占全球总电量的20%,人工智能将激活全球核电市场。

大模型下半场,液冷从小众走向刚需。数据显示,2023年中国液冷服务器市场规模15.5亿美元,同比增长52.6%,未来五年年复合增长率将达到45.8%。未来AIDC几乎都要采用液冷解决方案,液冷将迎来爆发风口。

大模型下半场,信息基础设施要智力在线。随着科技变革,行业已经建成了庞大的通信基础设施,正在大规模建设算力基础设施,开始试点数据基础设施,接下来还要探索和大力发展智力基础设施。


通信世界网版权及免责声明:
1、凡本网注明“来源:通信世界全媒体”及标有原创的所有作品,版权均属于通信世界网。未经允许禁止转载、摘编及镜像,违者必究。对于经过授权可以转载我方内容的单位,也必须保持转载文章、图像、音视频的完整性,并完整标注作者信息和本站来源。
2、凡本网注明“来源:XXX(非通信世界网)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。
3、如因作品内容、版权和其它问题需要同本网联系的,请在相关作品刊发之日起30日内进行。
发表评论请先登录
...
热点文章
    暂无内容