斯坦福新观点:让AI挑战“不可能的语言”,4步揭秘人类认知偏好

人类为何能轻松学会复杂的自然语言,却很难掌握某些看似简单的人造规则?这背后隐藏着人类大脑独特的归纳偏置Inductive Biases)。长期以来,语言学家和认知科学家一直苦于缺乏完美的实验工具来探究这一奥秘——毕竟,我们不能为了实验,把儿童关在房间里只教他们一种违反自然规律的“不可能的语言”。

ArXiv URL:http://arxiv.org/abs/2512.09394v1

然而,斯坦福大学的研究团队提出了一种全新的视角:语言模型(LMs)或许就是我们一直在寻找的“数字替身”。

本文将解读这篇极具启发性的立场论文,探讨如何通过让AI去学习“不可能的语言”,反向破解人类语言认知的底层密码。

核心难题:什么是“可能的语言”?

人类语言虽然千差万别,但似乎都遵循着某些潜规则。语言学家将符合人类学习能力的语言系统称为“可能的语言”(Possible Languages),而那些人类极难习得、违反普遍语法的系统则被称为“不可能的语言”(Impossible Languages)。

要彻底理解人类的语言能力,我们需要回答一个关键问题:究竟是什么界限区分了这两者?

传统的历史记录受限于外部因素(如迁徙、战争),无法提供纯粹的样本;而人工语言实验受限于参与者母语的干扰,且规模有限。此时,语言模型(LMs)的出现提供了一个绝佳的实验场。

为什么选择语言模型?

尽管大模型在数据摄入量和学习方式上与人类存在巨大差异,但最近的一系列研究(如 Futrell 和 Mahowald 的工作)发现了一个令人兴奋的现象:现有的语言模型在学习“人类语言”时,比学习“不可能的语言”效率更高。

这意味着,LMs可能已经具备了某种与人类相似的归纳偏置(例如对信息局部性的偏好)。基于此,斯坦福的研究团队提出了一个分阶段的研究计划,旨在将LMs打造成探索人类认知的精密仪器。

四步走:由AI反推人类认知

该研究提出了一个包含四个阶段的循环研究框架,旨在逐步通过LMs揭示人类语言的本质。

第一阶段:寻找“最小对立体”

首先,我们需要定义什么是“可能的”和“不可能的”。

最有价值的往往是那些与其对应的自然语言非常接近、但在关键结构上被篡改的“不可能”版本,这被称为最小对立体(Minimal Pairs)。

第二阶段:AI的“学习能力测试”

在这一阶段,研究者将训练LMs分别学习第一阶段定义的“可能”与“不可能”语言。

第三阶段:建立“连接假设”

这是最关键的理论升华阶段。仅仅观察到LMs学得快或慢是不够的,我们需要通过连接假设Linking Hypotheses)将LMs的内部机制与人类认知联系起来。

我们需要问:LMs表现出的这种偏好,对应的是人类大脑中的哪种认知机制?例如,如果模型偏好局部依赖关系(Locality),这是否反映了人类工作记忆的某种限制?这一步需要严谨的定义,将计算机科学的术语映射到认知科学的领域。

第四阶段:架构“手术”与迭代

如果现有的LMs还不够像人怎么办?那就改造它。

这一阶段的目标是探索新的模型架构、训练数据或目标,使模型在区分“可能”与“不可能”语言时,表现得更像人类。

一旦完成第四阶段的架构调整,研究将回到第二阶段进行新一轮的实证评估,形成一个不断迭代的科学发现闭环。

重新定义“学习”

这种方法论可能会引发一场关于“学习”定义的辩论。LMs并没有一个二元的“学会了”或“没学会”的状态。

该研究倾向于认为,人类的语言学习本身就是渐进的(Gradient)和流动的。因此,我们不应强求AI给出一个是非黑即白的答案,而是利用LMs来模拟这种渐进的学习过程。通过观察模型在不同架构下对不同语言规则的适应程度,我们可以更细致地描绘出人类语言能力的边界。

总结与展望

这篇论文的核心价值在于,它不再仅仅将语言模型视为一个工程产品或聊天机器人,而是将其视为一种认知科学的探针

通过让AI去挑战那些人类无法习得的“不可能的语言”,我们不仅能测试AI的极限,更能反向照亮人类认知的盲区。正如文中所言,LMs之所以特殊,不仅因为它们是史上最成功的语言技术,更因为它们允许我们进行无数次架构上的“手术”,来验证关于人类心智的各种大胆假设。