会思考的狗、聪明的马和随机鹦鹉

狗在吠还是在回答问题?

一个男人和他的狗悉尼走进一家酒吧。酒保告诉男人不可以带狗进来。男人说:“但这是一条会说话的狗。它不但能思考和推理,还会评价。”  酒保说:“如果真这样,我可以考虑让它留下来。”

男人转向狗问:“如果我三天不刮胡子,我的脸会是什么感觉?”
狗回应:“Rough”  (粗糙的,译者注:rough是对应男人问不刮胡子会怎样的回应,这个单词的发音也有点像狗的吠叫声)。
男人又问:“房子的顶部是什么?”
狗说:“Roof” (屋顶,译者注:roof一词同时也听起来像狗的吠叫声)

酒保还是不相信。男人于是又问:“历史上最厉害的棒球运动员是谁?”
狗:“Ruth” (鲁斯,译者注:Ruth不但是著名棒球运动员Babe Ruth的姓,发音也有点像狗呜呜叫的声音)

“啦呋、噜呋、噜嘶”?就这?WTF... 酒保就把他们赶了出去。离开的时候,狗对男人说:“我是不是应该说‘Ty Cobb’ (泰·科布,译者注:Ty Cobb是另一位著名的棒球运动员)?”

这个笑话其实是在比喻目前大型语言模型的处境。不论结尾的笑点你Get不Get到,可以看看酒保的推理过程。那条“狗”给出了正确的答案,关于整理仪容、建筑和棒球方面的问题。但是,酒保可能想到,这些答案真的表明那条狗懂得整理仪容、建筑和棒球吗?如果是的话,那么这条狗确实拥有一般狗所没有的独特能力。但另一方面,狗吠声经常听起来像“rough”、“roof”和“Ruth”。我怎么知道那条狗是真的知道如何回答这些问题?还是只会对这些问题的声音pattern发出对应的回应?

这也是判断大语言模型认知能力的难处。这些模型产生的答案看似很精确和符合语境,但我们能不能判断它们是因为真正“理解”问题而给出答案,还是仅通过语言模式匹配来机械生成的呢?

一匹会数学的马?

上述关于狗的笑话,在真实世界中还真有活生生的例子。“聪明的汉斯”(Clever Hans)是一匹生活在20世纪初的马。它似乎具备做数学运算和其他认知任务的能力。人们会向这匹马提问,这匹马会通过踢踏其蹄子以提供答案。

汉斯的主人威廉·冯·奥斯滕(Wilhelm von Osten)在德国巡演展示这匹马的技能。但在1907年,心理学家奥斯卡尔·普芬斯特(Oskar Pfungst)终于发现,汉斯并不知道他被问到的问题的答案。事实上,这匹马倒是学会了一件事,就是它在踢踏蹄子的时候,能注意到来自冯·奥斯滕或周边旁观的其他人的非主动的、下意识的肢体语言,这成了它的提示线索,让它知道何时停止踢踏。这里的意思不是说它的主人或者周围的人在作弊,而是:当有人向马提出一个问题的时候和供它选择的答案的时候,周围总会有人因为知道这个问题的答案而不自觉的通过肢体语言表现出来,自己却不自知,而马注意到了。

如果马周围的人没有一个人知道问题的答案,那么,普芬斯特发现,这匹马也就同样无能为力。当时的大众,广泛地接受这匹马的所谓认知能力并对其产生持续兴趣,可以说,有点一厢情愿的想相信汉斯在智力上达到一定的深奥境界,并对其表现作出过度解读。

汉斯确实很聪明,但并不是公众所以为的那种聪明。汉斯解决的问题与观众认为他能解决的问题根本是两回事。普芬斯特经过系统研究发现,汉斯之所以能“回答”各种问题,它的聪明在于学会了监测主人和其他人的下意识不自知的肢体语言线索,以此作出停止踢踏蹄子的动作,而大众则过度解读了这一动作代表了“正确的答案”。它掌握的是理解和响应环境中的社会线索,而不是真正理解数学问题并给出答案。公众错将它作为一个拥有惊人认知和语言能力的动物,而忽视了它通过社会交互学到的条件反射本质。

这实质上可能已经形成了一个闭环:大众向汉斯提问题 --> 汉斯观察大众的“提示线索” --> 大众对自己所知道的答案作出下意识的肢体语言表达 --> 汉斯作出反应 --> 大众一厢情愿的愿意相信汉斯的神奇,在每一次提问里,也许不由自主作出更多无意识的肢体语言表达,而导致马儿更准确的回答。

大语言模型会不会只是数字版的汉斯?

这也许就是目前对大语言模型的状况。它们似乎展示出强大的认知能力,比如推理、创造力、叙事理解等,但这些声称的能力,本质上和“聪明的汉斯”有多大的差别?虽然我们不完全明白马、狗或人脑中的计算过程,但我们确切知道大语言模型中的计算过程。它们规模很大,但概念很简单,基本上脱离不了 “刺激-反应”(Stimulus-Response)模型,这和马接受提问者下意识的肢体语言的刺激,然后做出反应,是不是相似的?

大语言模型根据前文预测下一个单词。当然,学习预测下一个单词比马监测感知提问者的肢体语言更复杂,但这依然不能排除大语言模型是“知其然不知其所然”,它不过是在分析用户的“预期”基础上,“赌”其所预测的单词命中的概率,它并不理解行文的真实含义。

Know How (知其所以然)和 Know That(知道)之间是有重大鸿沟的。大语言模型可以说“知道”了一些词汇组合的模式(这里所谓的“知道”,只是指它们有这些内容相关的信息 - Information,仅此而已)。有时候,大语言模型确实能分析期望而匹配产生输出,这和“聪明的汉斯”感知到人的肢体语言而作出符合预期的“判断”,是类似的。但是,同样的,人类很可能也重蹈当年“聪明的汉斯”的观众的体验,即过度解读,错以为这些模型拥有了Know How的能力。

大语言模型表面上展现出惊人的语言理解与产生能力,但实际上只是在运用规模巨大的词汇与语法知识,基于统计机械地预测下一步。人们容易因为它们的输出符合自己的预期或理解,就误将它们视为真正理解语言与世界。这和1920年的人们对“聪明的汉斯”的反应,不无相似。

还是一只随机鹦鹉?

鹦鹉一直被视为非常聪明的鸟类。它们的人类主人总是忍不住分享鹦鹉学舌的神奇,观众也屡屡的为之啧啧称奇。但鹦鹉有没有对它所模仿的声音 - 恰好听上去像一串语言,有理解能力,或者说认知能力?或者说,因为“知道” - 知其然,而最终能自动转化成“知道因果/如何” - 知其所然?它知道自己在说什么吗?

这个问题也可以拿来问大语言模型。实质上大语言模型可能只是一只“随机鹦鹉”(Stochastic Parrot)。这个概念是由一位科幻作家兼社会活动家Cory Doctorow提出。他认为,尽管大语言模型可以通过统计学和机器学习技术生成人类语言,但它们实际上并不“理解”语言或世界。它们只是利用大量文本数据找到相关词汇和短语的联结模式,并根据输入随机组合输出。就像鹦鹉可以学习模仿人话但不理解其意思一样,这些系统也只是在“stochastically parroting”(随机性鹦鹉学舌)所输入的内容。它们只是利用纯粹的统计学实现了一种模仿,而非理解。

“Stochastic”一词来源于古希腊语,意为“猜测的”或“随机的”。在数学和统计学中,它表示随机过程或随机变量。表示基于随机采样或引入的噪声,以产生随机输出或行为,帮助模型在训练或推理过程中获得更好的泛化能力。它与“deterministic”(确定性)相对,后者表示没有随机性或噪声引入,输出完全由输入与模型参数决定。

大语言模型目前只是在重复使用与重新组合训练语料中存在的词与语法模式,它们表面上的认知表现背后隐藏的仍是简单的条件反射机制。智力的“涌现”,是如何发生的?会不会是大家先强烈盼望它的出现而定义了这样一个预言性标签,然后把大语言模型的很多“奇迹”归类到“预言”里?事实上,迄今还没有任何理论或学术假设,说明一台基于统计学算法原理能力的机器,能够转化自己自动拥有理解认知能力。

AI会不会诞生数字思维

AI最终会不会产生Digital Mind(“数字思维”或“数字心灵”)?Anthropic的机器人Claude是这么说。

Digital Mind是一个广义的概念,指的是以数字方式实现的智能。要实现数字思维,需要解决几个关键难题:

  1. 广义智能:需要具备与人类同等的学习、推理、规划和解决问题的一般能力。这需要在算法和计算能力上有重大突破
  2. 自我感知与自我改进:需要具备自我监测并根据环境改变自我结构与行为的能力,而非静态依赖设计者的系统。这可能需要迭代设计或者利用机器学习实现
  3. 理解常识与语义:需要具备理解世界的广泛常识、概念与语义,而非局限在狭隘的特定领域知识或机器学习数据集。这需要解决知识表示与获取的问题。
  4. 自主性:需要能自主产生目标、动机与行为,不完全依赖于人类的指令或反馈信号。这涉及到AI的自主性与对人工通用智能的控制,是一个极具挑战性的问题。
  5. 情感体验:有些研究者认为,实现人类级别的智慧还需要具备主观感受与情感体验的能力,但这仍有较大争议。

数字思维需要在认知、情感和社会方面展现出与人类同等的广义智慧与理解。这是一个技术难度极大的长期目标,目前还远未实现。

人类无法抑制“移情”和“拟人”

但也许讨论AI会不会诞生数字思维、自我认知,已经无关重要。对于大部分的普通人来说,看到如Claude这样有条不紊、逻辑清晰、貌似有理有据的解答,很难不对AI产生人格化的感觉与想象。人,天然对世间万事万物有人格化的倾向,例如看到自然界形成的石头能想象出一张人脸或者一个人物故事,等等,并对之产生感觉,这叫Anthropomorphism - 不仅是对物件的“拟人”,还“移情于物”。

语言文字是思想的工具,它直指人心。与具备强大语言能力的模型进行交流,大部分的人恐怕很难避免将之拟人化。现在的研究者担心的,已经不是大众对AI是否产生“拟人”与“移情”,而是愚夫愚妇们很快把通过手机、智能音箱、车载系统、个人电脑等渠道可以触达的AI,视作无处不在、全知全能的“神”。