蚂蚁数科中关村论坛发声:Token效能将是衡量企业级AI价值的核心指标
以OpenClaw为代表的自主执行智能体爆火,标志着AI应用已从“对话交互”向“任务执行”加速演进。企业在加速拥抱的同时,也面临着算力浪费、安全合规等多重挑战。如何让智能体真正实现规模化、可持续地落地,成为产业界共同关注的核心议题。
(资料图片仅供参考)
3月26日,在中关村论坛未来产业创新发展论坛中,蚂蚁数科大模型技术创新部总经理章鹏在演讲中表示,OpenClaw的爆发将带来企业级AI范式革命,推动大模型在产业场景的落地从‘参数竞赛’走向“Token效能竞争’。”
蚂蚁数科大模型技术创新部总经理章鹏在中关村论坛演讲
OpenClaw类智能体的快速普及,反映了市场对自主执行型智能体的需求,但在真实产业环境中,其落地面临显著挑战:由于缺乏对行业规则、业务流程的深度理解,智能体在执行复杂任务时往往反复调用工具,导致Token消耗远高于有效产出。据了解,在一些高频调用场景中,OpenClaw的Token消耗成本可达集成式Agent成本的数十倍甚至百倍,这种高投入低产出的模式,让其在产业规模化应用中面临可持续性难题。
“大模型产业落地的下半场,核心命题不是模型参数规模的竞争,而是单位Token效能的持续提升。”章鹏认为,企业应结合实际场景与需求,选择大小模型结合的AI解决方案,以更低算力成本实现更高业务价值。
以金融场景为例,该领域每天需处理海量高频低时延的任务——快速识别意图、提取关键信息、检索排序等等,这些任务具备高并发、快响应、高精准要求,传统行业推理大模型能力强大,但在这些场景就像“杀鸡用牛刀”,成本高昂,响应偏慢,资源浪费。
“产业真正需要的是,在确保专业、严谨与合规的前提下,实现最优性价比与响应速度的AI解决方案。”章鹏表示。他认为,大参数模型在复杂推理与深度分析方面表现效果更优,小参数模型则在高频小任务场景的拥有更低延迟与更高性价比,产业需要大小模型相结合的方案,才能更高效低成本地解决真实场景问题。
在中关村论坛上,蚂蚁数科发布了轻量级金融专用模型Ling-DT-Fin-Mini-2.5,这是Ling DT系列大模型的首款模型。据介绍,Ling DT Fin Mini 2.5是一款轻量级MoE模型,基于Ling 2.5最新的混合线性注意力架构,针对金融领域高并发、低时延的任务场景进行优化,在保持专业深度的同时,可将推理成本压缩至可规模化部署的水位。它相比业界主流的同能力通用模型,推理速度快100%,处理相同任务量的硬件成本显著降低,为金融机构带来切实的降本增效价值。
事实上,当AI智能体加速渗透产业核心场景、执行真实任务后,大小模型相结合已经成为行业趋势。近期,OpenAI便相继推出两款小模型GPT‑5.4 mini与nano,主打低延迟与高性价比,作为执行层子智能体主力。
章鹏表示,技术发展终将回归产业对效率的理性要求,下一阶段的竞争中,Token效能将成为衡量企业级AI价值的核心指标。蚂蚁数科将持续深耕企业级AGI,进一步推出百灵企业版Ling DT大模型及其行业版,加速智能体在企业级复杂场景的规模化落地。
责编:张靖雯、侯兴川

