
【编者按】在科技与政治的交叉路口,每一次决策都可能掀起行业巨浪。近日,微软与AI新锐Anthropic的合作突遭美国国防部“供应链风险”标签的冲击,却戏剧性地选择“排除国防部,继续合作”的路线。这不仅是商业契约的博弈,更折射出人工智能技术在全球战略中的敏感定位——当创新触及国家安全红线,科技巨头如何平衡商业利益、法律合规与技术伦理?微软此番“选择性切割”背后,是AI军备竞赛的暗流涌动,还是企业应对监管的柔性策略?以下为您深度解析这场牵动硅谷与五角大楼的科技风暴。
微软周四宣布,将继续在面向客户的产品中嵌入初创公司Anthropic的人工智能技术,但美国国防部除外。
此番声明发布当日,联邦机构刚告知Anthropic将其列为供应链风险企业。Anthropic随即表示将通过法律途径挑战该决定。
微软发言人在邮件中对CNBC透露:“我们的律师团队已评估此项认定,结论是除国防部外,Anthropic旗下包括Claude在内的产品仍可通过M365、GitHub、微软AI铸造厂等平台向客户提供,且我们将在非国防相关领域继续与Anthropic合作。”
微软长期向美国政府多个部门提供技术支持,其Microsoft 365办公套件在国防部内部应用广泛。今年9月,微软曾宣布将Anthropic的生成式AI模型与OpenAI模型一同整合至Microsoft 365 Copilot附加服务中。
目前,众多软件工程师已采用Anthropic的Claude模型编写源代码,该模型与OpenAI的Codex模型均内置于GitHub Copilot工具中。










