行业关注点正从“AI更快写代码”转向“谁来保证质量、承担责任”。图片来源:Shutterstock

随着人工智能(AI)编码工具能力快速提升,开发者在未逐行审查代码的情况下,直接将其部署到生产环境的现象正在增多。围绕生成式AI产出代码的责任边界如何划定,相关争议也在持续升温。

据海外科技媒体Gizmodo当地时间11日报道,开发者Simon Willison近日表示,在他的实际工作中,“vibe coding”与代理式工程(agent engineering)之间的界限正变得越来越模糊。

所谓“vibe coding”,是指对AI生成的代码不做细致审查,只要结果能够运行便直接接受。相比之下,代理式工程更接近资深开发者使用AI工具时的工作方式,即在借助AI提升效率的同时,也将安全性、可维护性和运行稳定性纳入考量。

Willison表示,自己过去一直会明确区分这两种方式。在他看来,“vibe coding”用于个人项目或小型工具或许可行,但如果直接应用于涉及他人数据或真实业务的软件,就属于不负责任的做法。

不过,随着AI编码工具能力不断增强,开发者的使用习惯也在发生变化。Willison提到,在多次看到AI编码代理Claude完成SQL查询、生成JSON API,以及编写测试和文档等任务后,自己对于一些相对简单的工作,已经不再逐行阅读代码。

但问题在于,信任一旦上升,审查流程就可能随之松动。Willison坦言,“未经审查就把代码部署到生产环境,这样做是否负责任”,已成为他反复追问自己的问题。

他将这一现象类比为大型组织内部服务的使用方式。比如在调用其他团队开发的图像处理服务时,大多数开发者通常不会完整阅读其内部实现,而是先依据文档直接使用,只有在出现问题后才会回头检查具体细节。

不过他同时指出,AI与人类开发团队之间存在根本差异:AI并不具备可追责机制,也不存在声誉约束。出现问题时,人类团队通常可以沿着责任链条追溯原因,而AI生成代码并没有相应的责任结构。

Willison还特别警惕“反复成功”带来的过度自信。他解释称,当AI多次给出正确结果后,开发者往往会逐步省略验证步骤,最终在关键时刻遗漏错误,形成所谓“偏差常态化”(normalization of deviance)。

有分析认为,进入AI时代后,衡量代码质量的标准也在发生变化。过去,人们还可以通过提交频率、测试规模、README整理程度等指标,对开发质量作出相对粗略的判断;但在AI辅助下,开发者已经可以在短时间内生成外观完成度很高的代码仓库。

因此,Willison认为,真实使用记录和运维经验正变得愈发重要。他表示,即便是AI生成的代码,只要有人在日常环境中持续使用并不断验证,其价值也会高于那些只是被快速生成出来、却未经实际检验的代码。

对于这一变化,开发者社区看法不一。有观点担心,AI会让开发者变得过于被动;也有人认为,这只是开发方式演进的一部分,就像高级编程语言出现后,开发者不再需要手动编写汇编代码一样。

与此同时,业内批评声也不少。部分观点指出,如果在未分析根本原因的情况下,直接接受AI提出的大规模改动,反而可能引入新的Bug。也正因如此,AI编码竞争的核心正在从“生成能力”转向“能否稳定完成验证,并将责任机制纳入严谨的开发流程”。

关键词

#AI编码工具 #生成式AI #生产环境 #代码审查 #vibe coding #代理式工程 #Claude #SQL #API #责任机制
版权所有 © DigitalToday。未经授权禁止转载或传播。