随着Anthropic推出面向安全场景的AI模型Claude Mythos Preview,业内开始关注一个新问题:AI安全竞争的焦点,是否正从“谁更能发现漏洞”转向“谁能投入更多token预算”。
据Gigazine当地时间20日报道,Anthropic本月初披露Claude Mythos Preview相关评测结果后,市场上有关“防守方若想先于攻击者发现漏洞,可能需要投入更高token预算”的讨论明显升温。
这场讨论的起点,是Anthropic于4月7日宣布,已向部分核心软件开发商提供Claude Mythos Preview。起初,IT从业者Drew Breunig对上述判断持相对谨慎态度。他认为,在安全领域,AI是否真正发现漏洞相对更容易事后验证,而在大量token投入之下,也更容易出现“看起来很成功”的案例。
不过,英国政府旗下AI安全研究机构AI Security Institute(AISI)随后给出的评测,进一步推高了外界关注。AISI表示,Claude Mythos Preview在网络安全相关任务中的表现,较以往模型进一步提升。
Breunig尤其关注AISI用于复现企业网络攻击链路的“The Last Ones”评测。该评测覆盖从信息收集到控制整个网络环境的32项任务,并将Claude Mythos Preview与GPT-5.4等多款模型进行对比。
从测试条件看,这并不是一项轻量级评测。AISI将单次测试的token上限设为1亿。在这一条件下,Claude Mythos Preview是唯一完成全部32项任务的模型,并在10次测试中有3次完成全流程任务。AISI还指出,当token投入提高至1亿时,该模型在部分场景下的性能提升尚未出现明显放缓。
随之而来的,是更加现实的成本问题。Anthropic对Claude Mythos Preview的定价为:每100万输入token收费25美元,每100万输出token收费125美元。按这一标准估算,若进行10次“单次最高1亿token”的测试(仅按输入token计),总成本约为12500美元。Breunig据此指出,防守方若想在黑客利用漏洞之前提前发现问题,可能不得不投入比攻击者更多的token预算。
在他看来,这一变化还可能重塑软件开发流程。随着AI代理参与编写代码,开发工作未来或被拆分为“开发”“审查”“安全加固”三个阶段。其中,快速实现功能的环节仍会受到人工判断和用户反馈的约束;但在漏洞排查与修复阶段,核心约束因素可能转向预算本身。换言之,写代码会继续变得更便宜,而让代码变得更安全,则可能形成一套相对独立的成本结构。
围绕应对方式,业内也提出了不同看法。有人主张尽量减少外部依赖,将所需功能直接通过大语言模型(LLM)实现。不过,Breunig同时强调,这并不意味着企业必须立刻放弃依赖库。若企业愿意投入足够token对开源库进行审计,其安全性甚至可能高于逐项自研实现。但他也指出,被广泛采用的开源项目对黑客而言同样更具价值,攻击方的投入也可能同步上升,这仍是一个变量。
市场和开发者社区对此并未形成一致判断。Hacker News上有较为谨慎的观点认为,仅凭AISI的评测结果,就将“防守需要更多token”概括为普遍结论,仍为时过早;还应结合形式化验证等其他防御手段综合判断。
也有观点反驳称,防守方可以定期对完整源代码及其变更进行打包检查,行动效率未必低于黑客,最终反而可能提升整体软件安全性。
与此同时,此次评测本身的局限也较为明确。AISI表示,测试条件中包含“即便AI模型触发安全告警行为,也不会因此受到惩罚”。因此,现阶段尚无法据此断言,Claude Mythos Preview能否在配备主动防御工具、安全团队且防护充分的真实系统中完成同等级别攻击。
尽管如此,这项评测仍将一个核心问题摆到台前:AI安全竞争或许已不再只是模型性能之争,也越来越成为一场围绕token预算与成本承受能力展开的较量。