Google已与美国国防部签署合同,允许商用人工智能(AI)模型用于“所有合法政府用途”,相关合同细节被列为机密。
据Engadget等外媒4月28日(当地时间)报道,根据这份合同,美国国防部可广泛使用Google的商用AI模型及相关基础设施,适用范围被界定为“所有合法政府用途”。不过,据匿名消息人士透露,Google与国防部同时约定,如涉及国内大规模监控或自主武器,前提是必须保留适当的人类监督和控制。
争议的焦点在于,这些限制并未在合同中形成实际约束机制。据称,合同并未赋予Google对政府如何使用AI进行干预或拒绝的权利,这意味着即便事后出现争议用途,Google也无法对国防部的具体使用方式进行限制。
Google则将此举定义为对国家安全的支持。Google发言人向路透社表示,通过提供商用模型的API访问权限来支持国家安全,是一种负责任的做法。Google同时重申其既有立场,即在大规模监控或自主武器应用中,必须保留适当的人类监督。
不过,公司内部反对声浪正在升温。约600名Google员工向CEO Sundar Pichai发出公开信,要求公司不要向涉密军事行动提供AI技术。员工担心,这些技术“可能以不人道或极具破坏性的方式被使用”。
公开信还指出,技术滥用已在美国国内外对生命安全和公民自由构成威胁。员工表示,“我们正在构建的关键技术被滥用,已造成生命损失,并使公民自由面临风险”,并称AI系统不仅会加剧权力集中,也可能在现实应用中造成错误后果。
随着这份合同落地,Google将与OpenAI、xAI一道,加入为美国政府涉密AI项目提供技术的企业行列。与之相对,据称Anthropic曾拒绝接受政府提出的“移除与武器和监控相关的安全护栏”要求,随后被排除在联邦政府相关使用范围之外。
在这一背景下,这份合同也显示出,大型科技公司的AI模型正迅速从商业服务延伸至国家安全和军事领域。安全护栏是否有效、企业对模型用途的控制边界,以及员工提出的伦理争议,预计仍将持续成为关注焦点。