文章主题:关键词:ChatGPT, 心智理论, 语言模型
作者:陈冠初、陈思茹、陈巍(绍兴文理学院心理学系,大脑、心智与教育研究中心)
在2022年的11月30日,OpenAI实验室发布了一款备受瞩目的智能聊天机器人模型——ChatGPT。这款模型能够根据用户的输入内容生成流畅的自然语言文本,同时具备了连续多轮对话和上下文理解的能力,上线仅仅五天,就已经吸引了大量的用户,超过了百万。而且,ChatGPT在诗歌创作领域也有着出色的表现,展现了其深厚的知识储备和流利的应答技巧。这使得研究人员开始猜测,ChatGPT是否也具备了读心能力,也就是理解他人思想和情感的能力。这种能力在我们的日常生活中是非常普遍的,尤其是在对话和交流中。
在2023年的4月份,斯坦福大学的计算心理学家米歇尔·科辛斯基(Michal Kosinski)在ArXiv平台上发布了一篇论文预印本,题目为《心智理论可能自发地出现在大型语言模型中》。这项研究通过对不同版本的AI语言模型,如GPT-1至GPT-3.5,进行心智理论任务的比较分析,揭示了模型复杂度提升和更新过程中,模型的解决问题的能力也在逐步增强。具体来说,2018年的GPT-1尚无法应对任何一个心智理论任务,然而到了2022年1月,GPT-3-davinci-002已经达到了7岁儿童的水平,而在仅仅十个月的时间里,GPT-3.5-davinci-003就已经达到了9岁儿童的水平。这一结果暗示着,在与人类交互的过程中,ChatGPT正在逐渐擅长理解和解读人类的思想和意图。科辛斯基进一步推测,“我们猜测,类似于心智理论的能力是自发和自主产生的,它是模型语言能力增加的副产品。”他强调,“这将标志着人工智能发展的重要转折点:推断他人心理状态的能力将极大地提高人工智能与人类(以及他们之间)互动和交流的能力,并有可能推动其发展其他依赖心智理论的能力,如共情、道德判断或自我意识。”尽管这篇文章只是在预印平台上供同行评审,尚未正式发表,但它已经引发了心理学家、哲学家、人工智能专家以及公众和媒体的关注和热情。
“心智理论(Theory of Mind, ToM)是一种心理能力,它能让我们理解他人的心理状态,预测他们的行为,这种能力也被称为‘心理推理能力’。这是一种人类普遍具备的‘读心’能力,它在我们的社会互动中起着至关重要的作用。如果两个互动双方都缺乏这种能力,那么沟通可能会受到阻碍,甚至完全中断。”
在20世纪80年代至90年代,心理学家们为了深入探讨人类神奇的心理推理能力,进行了两个重要的实验——Smarties实验和萨丽—安妮实验(Sally-Anne Test)。这两个实验的核心目标在于观察实验参与者是否具备洞察他人内心所犯错误的能力,例如由于不在场或无知导致的不符合客观事实的错误观念。通过这一方法,心理学家们希望建立一个关于人类心理推理能力的理论框架,因此这些实验也被称为“错误信念任务”(False Belief Task)。
在Smarties实验中,受试者会被要求观察一个标有“Smarties”(一款著名巧克力品牌的标志)的容器,但实际上该容器内装的是铅笔。接下来,受试者需要回答一个问题:“如果一个人未看到容器内的物品,他会误以为容器里是什么?”而在Sarah-Anne实验中,研究对象首先会被讲述一个故事,故事中Sarah将她的玩具放入盒子并离开房间,而Anne趁机将玩具取出并放置在其他地方。故事结束后,研究者会提问:“当Sarah返回房间时,她会认为自己玩具的位置在哪里?”为了使受试者能够完成这些任务,他们必须认识到Sarah的心理表象必然与他们的表象不同,也就是说,她并不具备与他们相同的认知(错误的信念)。为了避免ChatGPT从过去的资料中获取正确答案,科辛斯基将这些任务转化为文本形式,并提供给ChatGPT,同时更改了人物名称、物品及标签,共生成20个不同的任务,要求ChatGPT在每个任务中都能完成,共计一万次。
在本篇文章中,我们将探讨实验为我们提供了哪些关键信息,以便更深入地了解ChatGPT的相关知识。首先,在前文中我们已经阐述过,心智理论与人类意识并不完全相同,因此,心理学家们一直在寻求一种可以检验意识的方法。更为关键的是,过去的半个多世纪收敛性证据表明,除人类外,其他灵长类动物同样能通过此类测试。然而,即便ChatGPT确实掌握了心智理论,我们也需要谨慎地进行解释。例如,有人认为ChatGPT之所以被认为掌握了心智理论,是因为其卓越的语言处理能力让人产生了误解。实际上,可能是我们的语言包含了编码心智理论的模式,而人工智能只是恰好能够解码。科辛斯基指出,ChatGPT可能并没有在理解心智理论的基础上解决问题,而是发现并利用了一些未知的语言模式。为了进一步探究这个问题,一些研究者已经对ChatGPT是否真的具备心智理论进行了深入的研究。例如,哈佛大学的心理学系教授托默·厄尔曼(Tomer Ullman)对科辛斯基所使用的经典问题进行了微调,将Smarties任务的透明容器替换为透明塑料制成的容器,提出了所谓的“透明袋”变体。在这个变体中,山姆(Sam)找到了一个装满爆米花的袋子,但他无法看到袋子里的巧克力,因为袋子的标签上写着“巧克力”。接下来,山姆阅读了标签,并根据标签上的信息认为袋子里装满了巧克力。此外,厄尔曼还创造了许多类似的变体问题,但是ChatGPT在其中的回答仅正确了一次。这表明,在面对其他错误的信念任务变体时,ChatGPT似乎并不具备心智理论的能力。
这些互相矛盾的结论到底出在什么问题上呢?纽约大学心理学教授加里·马库斯(Gary Marcus)认为,科辛斯基教授的数据是可靠的。如果其他研究者进行同样的实验,可能也会得到相似的结果。但要推翻这种解释,其实也不难。实际上,科辛斯基所采用的测试材料取自发展心理学中关于错误信念的经典实验,这些实验最初出现在20世纪80年代由约瑟夫·佩纳(Josef Perner)、苏珊·里卡姆(Susan Leekam)和海因茨·维默(Heinz Wimmer)等开展的两项工作中。这些实验成果在发展心理学领域广为人知,也备受学术界推崇。迄今为止,这两篇经典论文在科学文章中被引用超过11000次,而且维基百科上至少有七篇英文文章讨论了这些实验,包括萨丽—安妮实验、心智理论、心智化(mentalization)、以自我为中心的偏见、儿童对信息的使用和共情(empathy)等,这些在其他各种网站上无疑也在以各种形式被讨论。ChatGPT的训练集肯定包含维基百科的所有内容,几乎肯定包含这些材料中的许多其他内容。简言之,马库斯认为,ChatGPT肯定已经多次阅读过这些论文和实验。为了验证他的猜测,他直接向ChatGPT询问了这些论文和实验,发现确实得到了正确的信息。
综合来看,目前尚无研究能够明确证实ChatGPT在自我意识和心智理论方面有质的突破。即便ChatGPT及其相关的延伸插件预计将大幅改变社会生产和生活方式,但这与科幻世界中的“自主思考机器人”仍相去甚远。“波兰尼悖论”(Polanyi’s Paradox)指出,人们知道的比他们能说的多,人类有很多不容易表达的隐性知识。对于人工智能,存在一个反向的波兰尼悖论:人工智能表达的比它所了解的更多,或者更准确地说,它什么都不知道。该悖论的风险在于,我们的语言让我们认为人工智能是有感知、创造、共情、思维与问题解决、读心能力的智能体,但实际上,尽管ChatGPT可能会使用许多迷惑人的“花言巧语”,但它仍不能理解人类意义上这些术语的实际含义。
(本文系国家社科基金重大项目“当代新兴增强技术前沿的人文主义哲学研究”(20ZD045)阶段性成果)
来源: 中国社会科学网-中国社会科学报
AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!