有观点认为,最前沿的人工智能模型虽然在复杂任务上表现突出,但放到企业实际业务场景中,未必总是最高效的选择。
据香港《南华早报》19日(当地时间)报道,美国数据处理与分析公司Databricks高级副总裁David Meyer近日在接受采访时表示,大语言模型(LLM)并不一定适合所有日常业务流程。
他以单据纠错为例称,如果让前沿大模型去识别单据中的错误数字,模型往往会直接把数字改掉,而不是先识别并标记异常项,再交由后续流程处理。对企业系统而言,关键不只是给出“正确答案”,而是准确找出问题并交给下一环节处理;但AI在这类任务中,往往会越过这一过程,直接输出修改结果。
David Meyer表示,这类局限并不只出现在单一场景。以Anthropic的Claude等高端模型为例,其在编程任务中的表现十分突出,但在数据工程场景下,未必强于使用该领域数据专门训练的模型。所谓数据工程,主要包括大规模数据集的转换、缺失值处理以及0值清洗等工作。他认为,再先进的AI模型,也不可能在所有任务上都保持同样优势。
在这一背景下,企业部署AI的方式正在发生变化。David Meyer指出,经强化学习优化的开源小模型,可以用更低的训练成本完成特定任务;与最前沿的大模型相比,这一路径有望将成本拉低几个数量级。
这种思路也体现在Databricks自身产品中。其自然语言转数据查询的AI助手Genie,采用的是多智能体、多模型协同架构。根据对客户使用情况的分析,相比前沿大模型,企业更倾向于选择规模更小的模型,因为参数更少的小模型通常具备成本更低、时延更短的优势。
David Meyer表示,小模型的首个Token生成时间和整体响应时间通常更快。随着业务进入高并发场景,企业需要的是既能承载相应吞吐量、又具备成本优势的模型。换句话说,企业在模型选型时,关注重点已不再只是性能本身,而是实际运行环境中的处理速度和单位成本。
不过,企业目前还无法立即采用兼具“低成本+高性能”的理想模型。David Meyer提到,市场对阿里云推出的Qwen系列关注度很高。他认为,中国开源模型在性能、时延和成本方面已经达到令人惊讶的水平;但在当前企业环境下,受监管和合规因素影响,这类模型的实际落地仍然受到限制。
尽管存在这些约束,企业导入AI的速度仍在加快。David Meyer称,许多企业担心在竞争中落后,因此倾向于尽快推进AI落地。其中,上市公司会更谨慎地评估AI投入对财务报表的影响;相较之下,非上市公司在AI投入上往往更为积极。
总体来看,企业级AI市场的竞争焦点,正从“谁先推出最大模型”转向“谁能以更快速度、更低成本完成实际工作”。Databricks给出的方向是,将通用超大模型与面向具体业务的小型专用模型结合使用。