有观点认为,AI迈向自我迭代的时间点可能已越来越近。图片来源:Shutterstock

Anthropic联合创始人Jack Clark预计,到2028年底,AI系统可能发展到能够自我改进、持续推动自身迭代的阶段。

据区块链媒体Cryptopolitan 5日 报道,Jack Clark认为,AI在2028年底前进入这一阶段的概率为60%。他同时表示,尚无法确定社会是否已经为此做好准备。

Jack Clark称,这一判断是他在过去几周审阅数百项与AI开发相关的公开数据后得出的。他在X平台发文表示:“我认为,到2028年底,AI自我改进能力全面启动的概率是60%。”在他看来,AI系统或许很快就会具备更强的自我构建与自我优化能力。

他强调,最值得关注的变化在于,AI研发过程中人类介入正在减少。Jack Clark认为,AI系统正朝着在更少人类监督下运行的方向演进,而这将带来重要影响。这不仅意味着性能持续提升,也可能意味着AI开始缩短自身的开发与迭代周期。

Anthropic研究员Ajeya Cotra也提到了AI研发自动化的进展。她曾在今年1月预测,到今年年底,AI可独立完成的软件工程任务时长约为24小时;而现在,她已将这一预测上调至可能超过100小时。Ajeya Cotra表示,这是她第一次没有看到足够明确的反证,来断言今年不会出现AI研发自动化。

这一表态也呼应了业内近来的判断:AI正在从编写代码、辅助单点任务,逐步转向对研发流程本身的自动化。Jack Clark所说的“自我构建的AI”,本质上是指由AI接手原本主要依赖人类推动的改进过程,并进一步参与下一轮AI迭代。

这也正是市场和产业界关注的焦点。如果AI开发速度超过现有的人类审查与审批体系,变化将不只体现在模型性能竞争上,安全检查、评估流程和控制机制也可能随之调整。

在这一背景下,Jack Clark的表态被视为AI行业内部对研发自动化时间预期进一步提前的一个信号。一旦AI研发自动化真正到来,其影响也不会局限于性能竞赛。随着AI在新模型设计与评估中的角色不断上升,用于识别错误、控制风险的标准也需要进一步细化。

尤其是在AI接近反复自我改进的阶段后,开发速度与监管、验证速度之间的差距可能进一步拉大。围绕安全评估、责任边界以及人类应保留多大介入空间,行业也需要展开更深入的讨论。

不过,鉴于上述判断主要基于对公开数据的梳理,目前仍属个人预测。AI在2028年前究竟能达到何种程度的自我改进水平,最终仍将取决于技术推进速度,以及人类监督体系能否跟上。

关键词

#Anthropic #Jack Clark #AI自我改进 #AI自我迭代 #AI研发自动化 #软件工程任务 #安全评估 #风险控制 #人类监督 #新模型设计与评估
版权所有 © DigitalToday。未经授权禁止转载或传播。