Anthropic风波:AI时代国家、企业与伦理的复杂博弈
美国人工智能公司Anthropic近期深陷华盛顿政治与军方的争议漩涡,美国总统特朗普指示联邦机构停止使用其AI技术,这一罕见举措引发全球关注。此前Anthropic指控中国AI公司“工业级蒸馏攻击”,被视为“对华强硬派”,然而却遭美国政府禁用,这背后隐藏着复杂且多维度的逻辑。
能力扩散焦虑:安全逻辑下的双重红线
Anthropic创始人阿莫迪出身OpenAI早期核心团队,是硅谷“AI安全主义”思潮代表。他强调高能力模型存在系统性风险,主张在能力扩散前建立严格安全护栏,认为无论模型落入谁手,缺乏约束都可能用于大规模监控或自主武器系统。其思想源于有效利他主义与长期风险主义,认为人工智能能力达临界点会带来结构性风险,需在部署前设置约束。
基于此,Anthropic提出“宪法式AI”,用内置规则约束模型输出。在对华问题上,体现为“能力扩散焦虑”,主张对前沿芯片、模型能力进行出口管制,担心技术用于军事与监控场景。这虽使用了国家安全话语,参与美国对华技术竞争叙事,但根本出发点是能力扩散担忧,而非民族主义敌意。它既批评中国公司蒸馏,也拒绝美国军方在军事用途上的“无限授权”,在两个方向都划红线。
美国国防部将AI视为战略核心能力,在合同条款上要求完全开放的技术访问权限,希望AI技术为军方所有“合法用途”提供支持,包括可能涉及大规模监控或无人监督的自主武器。而Anthropic拒绝在安全规范之上无条件移除限制,坚持模型不能用于大规模监控美国公民或具有完全自主致命行动的武器,这一立场源于创始人“安全优先”哲学。这种分歧最终导致政府强硬回应,五角大楼和国防部长将Anthropic列为“供应链风险”,纳入国家战略与安全范畴。
政治标签下的复杂立场:左翼、右翼争议与行业反应
特朗普政府对Anthropic的批评不局限于合同细节,特朗普在社交媒体上称公司高层为“左翼疯子”,暗示其价值观与政府定位的国家利益不一致。部分政治人物认为拒绝开放AI用于全部军事用途的企业行为会削弱国家在全球竞争中的技术优势,美国国内对于“AI安全主义”是否意味着战略软弱存在争议。与此同时,国会内部有声音呼吁建立明确法律框架规范军用AI,而非通过政治压力迫使企业妥协。
Anthropic此前指控中国AI公司“蒸馏”,引发西方技术界关于训练数据与技术保护边界的争论。西方媒体报道多带嘲讽意味,批评者认为其说法缺乏技术证据,更多是迎合美国国内政治审查和安全氛围。这反映了东西方在AI安全与开放政策上的差异,美国部分AI公司和政府官员呼吁强化技术保护措施,防止核心能力外泄,这一策略也不可避免地带有阻碍中国等技术竞争者发展的逻辑。
这场冲突引发科技行业内部强烈反响,一些AI研发人员和公司员工公开签署联名信,表达对政府做法的担忧,认为强制性解绑合同和政治化标签可能破坏政府与科技界原本的合作关系。而一些竞争对手企业更愿意在军用合同中妥协,以获得更有利的市场与合作位置,如OpenAI创始人奥尔特曼表示将OpenAI的模型部署到美国国防部的机密网络中。这表明当前AI产业并非在全部层面与政府利益一致,企业在追求技术发展与商业利益的同时,也试图维护一定的伦理底线。
制度冲突:AI时代国家与企业的深层矛盾
Anthropic对中国AI模型的指控,是商业竞争、知识产权争议与地缘政治叙事交织的产物;其创始人的思想源头是深度安全主义与能力扩散焦虑;美国政府对其禁用源于对军用AI完全控制权的需求。三者交叉构成复杂结构,揭示了人工智能在现代社会中不可回避的制度冲突。
一方面,国家希望通过控制先进技术强化战略地位和安全优势;另一方面,科技公司试图保留对技术应用边界的定义权,尤其是在涉及伦理风险的领域。当前技术发展速度远超现有政策制定与伦理规范的更新速度,特朗普政府动用总统权力强硬制裁Anthropic,既有对国家安全的具体考量,也反映出政治力量对技术伦理主张的抵触。
当AI技术成为未来战争和国家竞争的核心资源时,私人企业在多大程度可以坚持其价值边界,政府又该如何制定有效而不致过度干预的治理框架,成为亟待解决的问题。这场冲突远未结束,随着诉讼、行业反击以及全球技术竞争的加剧,它可能成为未来几年AI治理格局的重要转折点,影响不仅限于美国国内,更将波及全球AI政策制定与国际力量对比。