快速阅读:OpenAI、Anthropic与Google通过Frontier Model Forum罕见结盟,旨在通过情报共享拦截中国企业利用“对抗性蒸馏”技术提取模型能力的行为。这场合作标志着中美AI竞争正从单纯的算力与参数竞赛,转向针对技术路径与行业规则的防御战。
原本在人才和合同上杀得眼红的OpenAI、Anthropic与Google,最近竟然坐到了同一张桌子上。他们通过Frontier Model Forum这个非营利组织,开始共享异常流量和账户行为等情报。
目标很明确:盯着所谓的“对抗性蒸馏”。
简单来说,这就像是有人通过大量调用顶级实验室的API,把这些“教师”模型的输出数据像挤压榨汁一样收集起来,用来训练更便宜、更快速的“学生”模型。美方认为这不仅是在规避安全对齐,更是在通过低成本的“仿制”来抢夺市场。
有网友提到,这本质上是硅谷在面对高效创新时的集体焦虑。
OpenAI甚至直接向国会提交备忘录,指责DeepSeek在“搭便车”。Anthropic也披露了通过数千个虚假账户进行大规模交互的细节。
这种行为在技术逻辑上很像是在进行某种“逆向工程”。如果“学生”能轻易汲取“老师”的精华,那每年投入数十亿美元构建的护城河就会迅速干涸。
有观点认为,这种所谓的“安全风险”更像是借用政治力量来维护技术垄断。毕竟,在模型蒸馏的法律边界尚未完全划清之前,这种围堵更像是一场关于定价权与技术壁垒的防御战。
当竞争的维度从堆叠算力转向拦截数据流,这场博弈的边界在哪里?