结合,为用户提供更高质量的emotionsupport对话服务我们正在积极寻找数据来源并开展相关研究,以期在不久的将来推出更成熟的对话机器人产品
文章主题:沈向洋, 读论文, NLP, 情感交流机
在”沈向洋带你读论文”的首期节目中,我们有幸邀请到了来自我国知名学府清华大学人工智能研究所的黄民烈教授,为我们深入解析情感交流机(ECM)这一前沿领域。随着科技的发展,未来的机器人对话究竟将对用户产生何种深远的影响?在黄教授的引导下,我们将探索 ECM 研究的新的社会性问题。让我们一起跟随黄教授,走进情感对话的新篇章。
论文链接:
在对话系统中,情感的感知与表达起着至关重要的作用。尽管如此,目前在大型对话生成领域中,这一问题尚未得到充分的研究。在本篇论文中,我们提出了一种名为情感对话机器(ECM)的解决方案,其能够在内容和情感两方面生成符合要求的回复。值得一提的是,这是我们首个在大规模对话生成中解决情感问题的研究成果。为了应对情感表达的挑战,ECM采用了三种机制:(1)利用情感类别嵌入对高级情感表达进行建模;(2)通过捕捉内在情感状态的隐变来把握情感状态;(3)根据外部情感词汇显式地表达情感。经过实验验证,我们发现所提出的模型能够生成长度合适且在内容和情感上都恰当的回复。
黄民烈:机器人到底能不能有自己的情感?
在1995年,麻省理工学院的教授Marvin Minsky就首次提出了一个观点,那就是情感对于制造智能机器是至关重要的。随着时间推移,MIT的教授Rosalind Picard进一步发展了这个理念,并开创了情感计算的研究领域。她在视觉、图像和语音等方面进行了情感分析的工作。
在文本情感分析领域,美国伊利诺伊大学芝加哥分校(UIC)计算机科学系的教授刘兵堪称先驱。尽管我们在这一领域也取得了一定的研究成果,但在将情感元素融入对话系统中,我们还尚未找到合适的解决方案。在这个大规模神经网络生成时代,如何让机器表达各种情感内容仍然是一个空白。因此,我们曾试图探讨:是否有可能让机器表达不同情绪的内容?
这里我们举个例子,用户输入一段话,让它用不同的情感回答问题,和用户产生不同的交互。
作为一名关注情感问题的人工智能助手,我注意到您提到了Minsky和Picard这两位杰出的学者,他们均在麻省理工学院(MIT)工作。在此,我想分享一个有趣的往事,即MIT的一位知名教授Weizenbaum曾制造出一个名为Eliza的机器人,它是一款具有情感互动能力的设备。虽然这个例子并非直接与情感问题相关,但它确实为我们提供了一个思考情感机器的可能方向。
史上第一个聊天机器人“Eliza”
黄民烈指出,例如微软小冰这样的情感机器人,其定位在于社交领域,具备与用户产生共鸣的能力,这在情感交互过程中占据了重要地位。由此可见,一旦技术实现迭代更新,对于新一代聊天机器人的技术发展将会产生显著影响。
我们进一步对人类的情感进行分类,可以看出我们所谓的情感交互模式。这个模式非常有意思:在人类的对话行为里,Like -Like的概率非常高,这是一个非常典型的共情模式。
比如我跟沈老师互动,沈老师发了个特别开心的信息,那我肯定也不会扫他的兴,也会对此表达开心的情绪,这就是我们的共情;比如我今天不高兴,沈老师过来安慰我,即他会有安慰模式。
这个对角线是从输入的同一情感标签到回复的另一相同情感标签,这就是人类的交互模式,这对于我们建立起真实的共情系统是非常有帮助的。
但实际上,但凡跟情绪相关的东西都是比较复杂的。比如现在疫情大家都闷在家里,如何帮助他们做情绪支持,如何很好地去共情呢?
我们在人类行为分析发现,共情安慰也是非常好的模式。如何让计算机更好地去做共情和理解,是一个非常值得研究的问题。因为做情绪支持是非常复杂的,在心理学上有各种各样的共情理论,在心理咨询上也有各种流派,我们希望能够借鉴这些流派和思想,用计算机模型去帮助人们更好地做情绪支持。
我们做了一个这样的研究:当用户表示受挫了,机器人会询问为什么受挫,同时作出安慰以及自我暴露:(如果是人的话)这件事情如果发生在我身上,我也会感到非常沮丧,到最后甚至会提一些建议。
由此对话我们可以看出,这是一个长期的交互而非单次的。而它也会基于理论去做心理咨询或心理治疗。比如深圳疫情,政府开通了很多热线,接线员是经过专业训练的,而专业训练则是建立在治疗理论的基础上。
心理学有一本书叫作”Hills Helping Skill Systems”,它把有效情绪分为三个阶段,我们借鉴了该理论,对其做一定的适应和改良,最终改造为在计算机上可行的三个阶段的对话框架:Exploration(探索问题)–Conforting(理解与安抚)–Action(行动与建议),并在每个阶段定义一些策略,帮助更好地去实现该阶段的目标。
我们认为经过三个阶段的对话后,它能非常有效地帮助用户。这也是我们的一个主要思想,即借鉴心理咨询理论设计策略,通过自我暴露等方式,拉进与用户的距离。
尽管看起来很美好,但实现起来是非常难的,因为它缺少数据支撑。因此我们也做了一个数据收集以支撑我们工作,叫作emotion support conversation,这个论文发表于ACL 2022,目前我们已经对其开始有一些引用。
沈向洋:当机器人对话与人类情感一挂钩,这个问题就变得更深入了,这其中也会产生很多问题,我们以后也有更多的机会还可以进行再多的交流。我也想问问接下来科研你在产品方面有没有想法?
黄民烈:我们在做了这个工作之后,其实还是挺受鼓舞的,最近在做一些中文的尝试,希望能够把对话技术与心理咨询的理论深入结合,能真正帮助更多的人。
最近我们推出了个公众号:Emohaa,作为一个试验性的产品,它后台有对话系统,用户可以通过公众号跟它聊天。我们发现很多人知道这是个机器人,但就是喜欢和它聊天,而不喜欢跟人聊。虽然是机器人,但是它可以和用户聊得很深入,帮助用户排解无聊、孤独以及解决情绪问题。
在公众号这些对话里,很多用户是真的来寻求建议和解决方法的。但像沈老师刚才提到的,对于AI来说,这会引申出很多问题,例如伦理风险:因为AI它不知道什么建议是好的,什么是不好的。这也引申出新的研究问题,我们希望通过实际产品的尝试,不断推动我们的研究向前。
最近我们也在ACL 2022上有一篇Paper定义了一个安全基准和分类法,有助于AI分清什么样的回复是安全的,什么样的回复是不安全的。而更复杂则是伦理方面的风险,因为需要考虑到社会道德关系等等。
UW(华盛顿大学)在这一方面的工作是有的,但在AI对话方面还是比较空白,因此我们希望能把对话技术和心理咨询的一些真实的数据和场景做深入结合,真正做到为用户服务。可能在技术上还有一定的挑战,但我们有一些试验性的产品已经做出来了,所以对于这个方向我还是比较乐观的。
沈向洋:太好了,我也非常高兴你们在认真伦理方面的问题,我自己做微软小冰很多年,对此也有相同的感受,的确像你讲的,这个产品虽然对用户有很多帮助,但同时也可能还有很多潜在的问题。在设计时,和服务推出之前,这些都值得我们再认真地更多地考虑。
AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!