报导也指出,美军上个月在卡拉卡斯抓捕马杜洛及其妻子的任务中曾轰炸数个地点,然而,Anthropic 的使用规范明确禁止Claude 用于助长暴力、开发武器或进行监视。
美国国防部拒绝置评,Anthropic 发言人说:「我们无法评论Claude 或任何其他AI 模型是否被用于特定的机密或非机密行动。使用Claude——无论是在私营部门或政府机构——都必须遵守我们的使用政策。我们正与合作伙伴密切合作,以确保符合规定。」
透过Palantir 合约使用Claude
知情人士指出,美国国防部是透过Anthropic 与资料分析软体商Palantir( PLTR-US ) 的合作而得以使用Claude,Palantir 则是国防部和联邦执法部门经常合作的对象。
WSJ 先前报导,Anthropic 对五角大厦如何使用Claude 的疑虑,已促使政府官员考虑取消这份价值高达2 亿美元的合约。
Anthropic 是第一个由美国国防部用于机密行动的AI 模型开发商。根据报导,在委内瑞拉的行动中,可能还有其他AI 工具用在非机密任务上,从文件摘要到控制自主无人机都是潜在用途范围。
在AI 公司努力争取正当性、并试图撑起高估值之际,军方的采购被视为重要助力,然而,Anthropic 执行长Dario Amodei 等高层也高度关注AI 可能带来的社会风险。
与其他业界主管不同,Amodei 呼吁加强监管与防范措施,让强调安全性的Anthropic 面临内部压力。
与川普政府的监管博弈
国防部长赫格塞斯(Pete Hegseth) 在1 月宣布五角大厦将与xAI 合作的活动中提到,军方不会「雇用不允许你打仗的AI 模型」,此番言论被认为是暗指与Anthropic 的讨论。
这份2 亿美元的合约于去年夏天签署。 Amodei 对AI 用于自动化致命行动和国内监视表达担忧,这也是目前与五角大厦谈判的两大争执点。
这些限制也加剧Anthroipic 与川普政府的矛盾:白宫指责,Anthropic 呼吁加强监管和限制AI 晶片出口,意在削弱政府的低度监管AI 策略。
另一方面,OpenAI 最近也加入Google( GOOGL-US ) 的Gemini 平台,为约300 万名军事人员提供服务。国防部表示,特制版的ChatGPT 将用于分析文件、生成报告及支援研究。













