
【编者按】在人工智能技术日益渗透国家安全与军事领域的今天,一场关于“技术伦理”与“军事需求”的角力正在悄然上演。近日,美国国防部与知名AI公司Anthropic因模型使用限制陷入僵局,甚至可能终止合作。这不仅是商业与政治的碰撞,更折射出AI军事化应用中的深层矛盾:当尖端技术试图划出“不作恶”的底线,而权力机构追求“无禁区”的掌控,谁该为技术的最终用途负责?本文梳理外媒报道,揭示这场关乎未来战争形态与科技伦理的隐秘博弈——当算法成为新型“军火商”,世界需要怎样的规则?
2月14日消息:据Axios周六援引政府官员报道,因坚持对美国军方使用其AI模型保留部分限制,五角大楼正考虑终止与人工智能公司Anthropic的合作关系。
Axios报道称,五角大楼正施压四家AI公司,要求允许军方将其工具用于“所有合法用途”,包括武器研发、情报收集和战场行动等领域。但Anthropic拒绝接受这些条款,历经数月谈判后,国防部已失去耐心。
其余三家公司包括OpenAI、谷歌和xAI。
Anthropic发言人回应称,公司未与五角大楼讨论过将其AI模型Claude用于具体军事行动。该发言人表示,目前与政府的对话聚焦于特定使用政策问题,包括对全自主武器和大规模国内监控的严格限制,且均不涉及现行军事行动。
截至发稿,五角大楼未立即回应路透社的置评请求。
值得注意的是,《华尔街日报》周五披露,Anthropic的AI模型Claude已通过其与数据公司Palantir的合作,被用于美军抓捕委内瑞拉前总统马杜罗的行动中。
路透社周三曾报道,五角大楼正推动OpenAI、Anthropic等头部AI公司放宽标准限制,使其人工智能工具能在保密网络中供军方使用。











