文章主题:热点追踪, 论文, 《新闻大学》, 2023年04期
本期,《新闻大学》2023年04期的热点追踪为您呈现了精彩纷呈的研究成果。我们精选了3篇颇具影响力的论文,分别从不同角度深入探讨了当今社会关注的热点话题。这些论文包括《“延伸的心灵”和“对话的撒播”:论作为书写的ChatGPT》、《论事实:美丽、谎言与ChatGPT》以及《人机互动:替代还是增强了人际互动?——角色理论视角下关于社交机器人的控制实验》。通过这些论文,我们希望为您提供丰富的信息资源,助您在学术领域取得更深入的理解和认识。
01
“延伸的心灵”和“对话的撒播”:论作为书写的ChatGPT
邓建国
本文从ChatGPT的矛盾性(即它作为“延伸的心灵”在与人类的合作共创中实现两者心灵的共同演化,但仍具有书写的撒播和他者特点)切入,聚焦于ChatGPT的书写功能,进行了思辨性的探讨。
首先,作者先介绍“延伸的心灵”理论和其最早的范例——语言和书写。“延伸的心灵”理论源于心灵哲学中的一个经典问题——如果我们的心智(mind)始于大脑,它止于哪里?外部世界又始于何处?哲学家安迪·克拉克和大卫·J.查默斯认为,盲人的拐杖构成了他的内在思维与外部世界相互合作的一个互动系统。此时,盲人的心灵、身体、拐杖和外部世界之间的边界被持续地协商,从而完成一个功能性目标——稳定地行走。两位学者将拐杖称为盲人的“延伸的心灵”(the extended mind)。作者认为,人类最早和最重要的“延伸的心灵”首先是语言。凭着语言的脚手架,人类实现了对外部世界的指示和操纵,能脱离当下的时空进行思考和表达,实现个体间的合作,甚至对“思考进行思考”(哲学)。另一个重要的“延伸的心灵”是书写,书写作为“人工平面”使得思维外化和可操作,此时用户操作书写如同操作自己的心灵——书写已经成为其“延伸的心灵”。
然后,作者通过一个“人—机内容共创”的实例描述和分析ChatGPT这一最新和最强大的“延伸的心灵”对人类写作的深刻影响。ChatGPT可以在心灵层面上与人类用户进行深度合作,成为人类有价值的写作伙伴。例如,2021年,美国“艺术和人工智能”评论家K.Allado-McDowell和ChatGPT背后的大语言模型GPT-3合作出版了一本名为《灵药—AI》(Pharmako-AI)的书。ChatGPT让用户能随用随查,并将结果清晰呈现,或富有逻辑或充满诗意,极大地降低了用户的记忆负担,帮助我们的心智更有效地工作,最终创造出一个一加一大于二的新的更强大的心智系统——延伸的心灵。
最后,文章分析了ChatGPT以对话为表象的撒播和他者性。ChatGPT被设计为一个聊天机器人(chatbot),“擅长与人类用户对话”,也在很大程度上做到了这一点。但是因为其运作原理,它仍然体现出众多的依循脚本单向传播的书写(文字)特征,是“对话式”的撒播。作者认为,原因主要有:一是ChatGPT按照概率预先内嵌了一种中立的“全球公共价值观”和最为中和的表达方式;二是ChatGPT没有身体,也就没有自我、隐私、无法“自我表露”(self-disclosure),无法承担责任,无法与用户建立亲密关系。
总之,作者认为,ChatGPT作为人体心灵的延伸,具有“毒药—解药”双重性。我们要宽容、珍惜和受益于越来越多的人工智能体的他者性,在人机互动中最终找到人和人工智能各自的生态位。
扫描二维码,查看思维导图
02
论事实:美丽、谎言与ChatGPT
胡泳
在过去的数十年中,西方社会中的精明的观察家和怀疑性的公众逐渐认识到,媒体在构建某些”事实”的过程中,也在有意地掩盖其他一些事实。这种现象被称为”后真相政治”,它也被称作”后事实政治”。在后真相政治的文化中,情感需求取代了事实和专家意见,辩论的主要框架来自于对事实的反驳置若罔闻的对话要点重复强调。已故的美国参议员丹尼尔·帕特里克·莫伊尼汉曾说过这样一句名言:”每个人都有自己的观点,但不能有自己的事实。”然而,我们似乎正在朝着每个人都拥有自己独特事实的方向发展。
显然,事实已经发生了变化,但是关于其最初的状态,即如何变成现在这样,仍然值得探讨。这个频繁使用的词语“事实”究竟代表何种含义?在何时,哪些事件或信息被赋予了这样的标签?又是谁将原本简单的描述、故事、轶事以及八卦升级为无可争议、铁证如山的真实依据?
在探讨法律领域时,我们不可避免地会接触到“事实”这一核心概念。它的起源可追溯至拉丁语“factum”,意指人为的事迹、功绩和事件。根据这一词源,事实可以理解为人类行为者实施的行为、执行和完成的任务。然而,直到16世纪,这个词才开始具备我们现在所熟悉的含义:“真正发生的事情”或“事物的真实状态”。在英国普通法的背景下,一个基于目击者和证词的事实定义逐渐形成。在法律领域中,“事实”并不等同于确定的真相,而是一个存在争议的行为,其是否发生过仍存在不确定性。换言之,在现代早期,英国法律体系建立了一个被广泛接受的认知框架和实施方法,对于作出关键社會決策而言,這種認識框架和方法的效果相当顯著。總之,这种認識論和方法的大部分內容都可以,並且已經被應用到其他知識領域和其他知識創造的情況中。
在探讨历史写作的诸多原则中,首要且至关重要的就是遵循“追求事实真相”的原则。这一点并非空穴来风,而是有法可依。一旦法律对事实性(factuality)的概念进行了确认,其影响力便不仅限于法律领域,开始渗透到历史的创作中。尽管历史长期以来与虚构和修辞脱不开干系,但在“历史革命”的推动下,一个基本的信念逐渐形成,那就是历史应当关注事件发生的真实情况。这个信念在17世纪愈发深入人心。在事实概念的发展过程中,早期现代的历史学重新定义了事实与虚构之间的关联,并从中吸取了真实性和公正性的规范,从而使历史写作更加严谨、客观。
本文作者强调,科学对于合法化事实使用具有重要作用。“自然哲学”若从法律和历史等人文科学中吸取了广为人知且在文化上被视为合法的“事实”类别,进而借助此一概念,为新的自然哲学赋予合法性。随着时间的推移,正是“科学事实”的广泛应用,推动了除自然科学之外的其他事实使用的合法化。
接着,作者指出“无论是在宗教、法律、政治、知识或社会领域的分裂或差异,都加剧了对如何解释事实和真相标准的争论。这可能鼓励了人们形成对游戏规则的共同信念,然而这些规则的应用往往存在很大争议,以至于规则本身甚至看起来是多余的。没有哪个领域比新闻更能体现这一点了。”,进而引入“新闻领域”,探讨新闻的事实性和客观性。
而随着互联网和社交媒体的到来,“内部人和外部人”“专业和非专业”“记者和博主”之间的界线已经漫漶不清,而且越来越模糊了。事实的时代被互联网结束了:曾经由“事实”占据的位置正在被“数据”取代。这导致了更多的认知混乱,因为事实的收集和权衡需要调查、辨别和判断,而数据的收集和分析则是外包给机器。作者认为数据替代事实,导致事实的土崩瓦解。事实的土崩瓦解,正是造成后真相时代来临的最大原因。事实本来给我们提供了一个解决分歧的方式。然而,网络化事实却开启了一个充满分歧的网络。
最后,作者探讨现如今的“生成式人工智能与事实”。现如今,最大的人工智能计算的规模每六个月翻一番,远远超过了摩尔定律(Pichai,2023)。同时,先进的生成式人工智能和大型语言模型(LLMs)正在捕捉世界各地人们的想象力。大型语言模型的问题之一是它们能够产生虚假和误导性的内容。大型语言模型也不知道什么是事实。它们是通过分析从网络上抓取的大量文本中的数据的模式来训练的。模型在数据中寻找统计规律,并使用这些规律来预测任何给定的句子当中接下来应该出现什么词。这意味着他们缺乏关于世界上的系统如何运作的硬编码规则,导致他们倾向于产生“流利的废话”。尽管在ChatGPT的案例中,通过使用人类反馈的强化学习实现了有害和不真实的输出的内容大幅减少,但OpenAI承认其模型仍然可以产生有毒和有偏见的输出。OpenAI表示,ChatGPT可以给出完全错误的答案,并将错误的信息作为事实呈现,写出“听起来合理但不正确或无意义的答案”。OpenAI说,解决这个问题很困难,因为在他们用来训练模型的数据没有真实来源,而且监督训练也会产生误导,“因为理想的答案取决于模型知道什么,而不是人类演示者知道什么”随着未来的到来,人工智能并不会减少对批判性思维的需求。我们将更迫切地需要逻辑测试。我们将比以往任何时候都更被逼迫提出尖锐的问题。最重要的是,我们需要验证结果。
在结语部分,作者指出我们一方面看到知识的繁荣,但另一方面却产生了知识的危机。在知识的危机面前,我们甚至连知识到底是什么都无法完全达成一致,遑论解决方式了。机器学习的兴起是人类历史上最重大的变革之一,越来越多的机器学习模型将成为我们的知识库,就像现在的图书馆和人类的头脑一样。然而,机器学习模型并不产生真正的知识,而只是给人一种错误的智能的感觉。这将意味着我们需要重新思考知识的性质和用途,甚至重新思考作为能够了解自己世界的生物,我们到底是谁。
扫描二维码,查看思维导图
03
人机互动:替代还是增强了人际互动?
——角色理论视角下关于社交机器人的控制实验
作者:简予繁 黄玉波
智能技术飞速发展,越来越多的人使用社交机器人填补现实人际交往的缺憾和不满。本文基于角色理论,探讨在高低水平的社会联结需求下,人们与不同角色的社交机器人进行互动,对现实人际互动意愿的影响。
社交机器人是拥有人格属性、通过自然语言交互生产内容并与真人用户产生类人际互动的智能机器人。本文主要关注社会化功能属性较强的聊天机器人,例如ChatGPT与微软小冰等。
而社会联结需求指的是人们渴望通过与他人的互动和交往或归属于特定群体,来满足陪伴感、归属感以及联结感的程度。社会联结需求高的个体倾向于感知自己与他人的亲近关系,表现出较高的参与社会群体活动的意愿
随后,作者提出了研究假设:H1-人际层面/H2-群际层面。
文章通过2项研究,共4个行为实验来验证假设。
研究一:采用 2(社会联结需求低VS.社会联结需求高)X3(仆人角色人机互动VS.伙伴角色人机互动VS.没有人机互动)的组间实验设计,因变量为被试现实人际互动意愿。
实验1a使用情景模拟实验,截取与社交机器人软件“Replika”真实对话内容制成对话页面,让被试观看并设想这是自己与小B的互动交流。最后要求被试填写问卷。
实验1b采用真实人机互动,使用华为手机智能语音助手小艺作为实验对象,根据个人体验填写问卷。
研究二:采用2(社会联结需求低VS.社会联结需求高)X3(替代者角色人机互动VS.协助者角色人机互动VS.没有人机互动)的组间实验设计,因变量为现实人际互动意愿。
实验2a同样使用情景模拟实验,将与微软小冰的真实对话加工为虚拟社交机器人“小C”的对话料。在观看完材料后,被试回答问题。
实验2b采用真实人机互动,采用小米手机内置的智能语音助手小爱同学作为实验对象。
研究结果表明,①当社交机器人是伙伴角色与协助者角色时,只有在人们社会联结需求高的情况下,人机互动才对人际互动产生替代效应。②当社交机器人是仆人角色时,无论人们社会联结需求高低,人机互动对现实人际互动意愿都并无显著作用。③当社交机器人是替代者角色时,其会激发人们的威胁感知,因而在人们社会联结需求低的情况下,人机互动反而对人际互动产生增强效应。
文章最后,作者提出人们应当注意具有伙伴角色和协助者角色的社交机器人,以防用户对这些类型的社交机器人产生过度情感依赖,避免其对人类真实社会交往的影响。
扫描二维码,查看思维导图
本期《新闻大学》中的热词有ChatGPT、大语言模型、AIGC、智能传播等。
本期分享就到这里啦!
点击阅读原文,获取论文压缩包~
提取码:0608
责编:邓晨迪 任鹏羽 段智慧
AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!