?划重点:
1. 一组研究人员警告大众,不要将ChatGPT等大型语言模型用于心理学和心理治疗,因其生成心理有用信息的能力有限,缺乏同理心和人类理解。
他们强烈倡导学术界与产业界联手,推进类似于“人类基因组计划”的跨国研究项目,共同研发具有心理学价值的语言模型,并建立相应的数据集和标准基准。
3. 研究人员担心这些模型可能引发心理伤害,但也认为进一步的研究和发展可以实现转型性的心理应用。
站长之家(ChinaZ.com) 10月23日 消息:一项最新研究警告大众,不要在心理学和心理治疗领域使用ChatGPT等大型语言模型。研究人员认为,这些模型在生成心理上有用的信息方面存在根本性的限制,同时缺乏同理心和对人类理解的能力。
斯坦福大学研究生院教育数据科学教授Dora Demszky指出,这些系统在展示同理心或理解人类方面存在局限性。
图源备注:图片由AI生成,图片授权服务商Midjourney
在科研领域,对于人工智能助手而言,其心理理解能力的重要性日益凸显。有研究者提出,大型语言模型普遍存在”心灵理论”的缺失,换言之,这些模型尚无法深入地理解他人的内心世界。这一观点由德克萨斯大学奥斯汀分校的心理学教授、同时也是相关研究论文的合著者之一的大卫·耶格(David Yeager)提出。他认为,尽管这些模型能够生成类似于人类的语言表达,但其对心理状态的理解程度却远不如专业的心理学家或者亲密的朋友。这种现象表明,当前的大型语言模型在心理理解方面的表现仍有待提升。
为解决此一难题,专家们倡导学术界与产业界联手,共同推进一项类似于“人类基因组计划”的国际科研項目。这项合作需扩展至开发重要數據集、制定標準準則等方面,尤其是對於心理治療領域而言;同時還包括共建計算基礎設施,以促進心理学領域中具有實際應用價值的語言模型的發展。
这篇呼吁背后隐藏着两个重要动因。首先,研究人员对于“那些未能对人类思维或行为影响进行评估的制造生成性人工智能系统的公司”感到担忧,他们呼吁这些企业应承担起相应的精神损害责任,耶格对此表示认同。其次,他们也看到了这些模型的巨大潜力,虽然目前大型语言模型在心理测量、实验和实践方面还有待提升,但在未来,通过深入研究和开发,这些模型有可能被运用到更为 transformative 的心理应用领域中。
(举报)
AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!