逃离硅谷:从大语言模型的军备竞赛中突围

2026年的AI行业正在经历一场范式革命。AMI Labs,一家仅有25人团队的初创公司,在未推出任何产品的情况下,完成了10.3亿美元的种子轮融资,投前估值高达35亿美元。这不仅创下了欧洲AI创业史上最大规模的种子轮融资纪录,也标志着一场由图灵奖得主杨立昆(Yann LeCun)和青年学者谢赛宁主导的“逃离硅谷”运动的开始。

谢赛宁认为,硅谷已经被大语言模型(LLM)催眠了。在当前的行业环境下,研究正逐渐沦为纯粹的商业与产品问题,研究者被困在无休止的基准测试(Benchmark)竞争中,失去了定义问题的能力。AMI Labs采取了“反向OpenAI”的策略:不同于从互联网下载海量文本数据来训练GPT,AMI Labs致力于通过合作伙伴共建模型,利用真实世界的数据来驱动研究,形成一个去中心化、分布式的全球联盟,以抵制技术垄断。

世界模型:从预测字符到预测状态

谢赛宁给出了世界模型的清晰定义:给定系统或环境的当前状态,在施加干预或动作后,通过预测函数预测出下一个时刻的系统状态。这与大语言模型的逻辑有着本质区别:如果说大语言模型的核心是预测下一个字符(Token),那么世界模型的核心则是基于动作预测下一个状态

这种预测能力是实现智能的关键。在强化学习领域,基于模型的策略(Model-based policy)能够赋予系统规划(Planning)的能力,而规划本质上就是推理。构建世界模型的核心在于表征学习(Representation Learning),即如何从高带宽的原始数据中,过滤掉无关细节(如桌子的纹理),提取出对决策有用的层次化抽象状态。世界模型的Scaling Law并不依赖于无损压缩知识,而是依赖于过滤和组织信息的能力,从而实现对物理规律的理解。

语言的局限:警惕“语言鸦片”对真实智能的污染

谢赛宁提出了一个极具争议的观点:语言是毒药,或者说是一剂鸦片。他认为,大语言模型过度依赖人类文明沉淀的语言体系,这虽然提供了强大的数字空间智能,但也带来了根本性的局限。语言作为高度凝练的抽象工具,在交流时必然会牺牲大量的物理细节(如动力学过程),导致模型可能具备“文本技巧”而非真正的“推理能力”。

这体现了莫拉维克悖论(Moravec's Paradox):对机器而言,逻辑推理等高阶思维相对简单,而走路、视觉感知等人类认为简单的物理交互却极其困难。杨立昆曾比喻,现在大家都拄着语言模型这根拐杖走路,虽然能走,但跑不起来。过度依赖语言会导致视觉表征能力的退化,使得AI难以处理连续空间、高维度、带噪声的真实世界信号。真正的智能必须从数字空间走向物理空间,实现物理空间智能

三条路径的共生:通往通用智能的终极博弈

目前,通往世界模型的道路并非单一的技术路线,而是存在三种互补的方向:

  1. 视频生成派(如Sora、Runway):聚焦于构建世界模拟器,核心目标是渲染出具备物理一致性的逼真视频。
  2. 空间智能派(如李飞飞的World Labs):重视强3D表征,将空间视为交流与创造的接口,确保空间维度的准确性。
  3. 预测大脑派(AMI Labs):核心是提升智能本身的能力,通过理解物理世界来实现具备联想记忆、推理、规划及因果推理能力的真实世界交互。

谢赛宁强调,这些路线并非竞争关系,而是共同的目标。AMI Labs的目标是通过整合全球资源,利用分布式合作推动研究回归本质,最终打造出一个能够理解并预测物理世界的“预测大脑”。