Anthropic正在研发的新一代AI模型Claude Mythos近日引发网络安全领域担忧。业内认为,若该模型被黑客利用,漏洞发现和攻击实施的速度可能快于防御方的响应速度,从而进一步放大安全风险。
据多家外媒报道,一篇疑似被Anthropic误发后迅速下线的Claude Mythos博客草稿中,提到了上述风险。
据The Information报道,Anthropic已向网络安全研究人员提前开放Claude Mythos模型,并正在收集反馈。报道称,该模型在代码生成与审计能力方面较此前版本进一步增强。
基于此前测试Anthropic现有模型的经验,上月被Google收购的云安全公司Wiz也计划对Claude Mythos展开评估。
Wiz首席技术官Ami Luttwak表示,新模型“几乎相当于顶尖网络安全研究人员的水平”。他认为,Anthropic允许安全厂商提前接触该模型,是一项“非常重要的举措”,有助于研究人员提前判断可能出现的情况。
Anthropic研究员Nicholas Carlini今年3月在一场安全大会上提到,团队曾利用Claude Code对开源新闻通讯平台Ghost进行分析。
报道称,Ghost在过去13年里从未公开披露严重安全漏洞,但Claude Code仅用数小时就发现了其中的潜在漏洞。黑客若加以利用,可能入侵用户网站、篡改内容,或窃取个人信息。
AI不仅提升了漏洞发现效率,也在压缩攻击落地后的各个环节耗时,包括快速摸清被入侵网络、窃取数据,以及在防御方响应前完成加密等操作。
AI安全初创公司Irregular Security创始人Dah Lahav表示,主流AI模型已经能够理解如何在企业网络中规避检测并实施横向移动。UiPath首席信息安全官Scott Roberts也称,攻击者利用AI的案例正在增多,这种变化的影响“堪比电力问世”。
值得注意的是,用于拦截AI驱动攻击的安全工具,往往同样由Anthropic、OpenAI等公司的同类模型驱动,而这些模型也可能被攻击者使用。The Information称,安全公司会申请获得不设限制的版本(ungated)的特殊访问权限。与公开版本不同,这类模型能够处理与黑客活动相关的请求,以便提前识别客户防御体系中的薄弱环节。