文章主题:ChatGPT, 不可靠信源, AI聊天机器人
来源 | 央视新闻、新华社
ChatGPT,可以完全信任吗?
近日,美国一名律师在一起诉讼案件中,帮原告打官司时,引用了ChatGPT搜集的6个案例,而法官却发现那些信息全是子虚乌有。律师承认自己没有核实信息并为此道歉,眼下面临处罚。
让ChatGPT协助办案
美国30年资深律师被坑
据新华社援引美国有线电视新闻网28日报道,男乘客罗伯托·马塔对哥伦比亚航空公司提起诉讼,称自己2019年搭乘该公司航班飞往纽约市途中,乘务人员疏忽导致他膝盖被客舱内推车撞伤。马塔的代理律师是已有30多年从业经历的纽约市律师史蒂文·施瓦茨。为支持马塔诉求,施瓦茨向法官凯文·卡斯特尔提交了多个所谓类似案例及其判决结果。
举个例子,在史蒂文·施瓦茨提交的10页辩护词中,引用了一个名叫Varghese的人起诉中国南方航空公司的裁决案例,但Avianca的律师向法官表示:“我们无法找到这段引文,也没有在任何案件中找到类似的内容。”
得此消息后,法官要求马塔的律师提供其辩护词中引用案例的相关资料,史蒂文·施瓦茨方面也很快给出了案例的法院和法官、案件编号和日期。
其中,对于Avianca的律师例举的Varghese案件,史蒂文·施瓦茨就给出了长达6页的判决书,并说它是由第11巡回法院的一名法官写的。
尽管如此,Avianca方面依旧找不到这些法庭记录,在法律数据库中也毫无踪影。对此,Avianca的律师BartBanino表示:他所在的Condon&Forsyth公司长期专研航空法,可以看出对方辩护词中引用的案例都是假的。甚至他还补充道:“可能有聊天机器人参与其中。”
今年4月,哥伦比亚航空公司的律师致信法官,质疑施瓦茨所提交案例信息的真实性。据美国《纽约时报》报道,律师之一巴尔特·巴尼诺说,他的律所律师精通航空法律,看出那些信息不实。他说,他们当时隐约感觉那些信息来自ChatGPT。法官卡斯特尔本月4日在一份书面文件中写道,那6个案例的判决结果、引语等都是假的,“法庭从未遇到过这种情况”。他下令6月8日就处罚施瓦茨举行听证会。施瓦茨承认那6个案例为ChatGPT提供。法庭文件显示,他看到这些案例信息后追问ChatGPT信息是否属实,机器人称“千真万确”,还给出了所谓的信息出处。施瓦茨说,他这是第一次用ChatGPT协助办案,“没有意识到内容伪造的可能性”。他在书面文件中“深表懊悔”,愿意承担相关责任,承诺今后“没有完全核实”就不会使用聊天机器人提供的信息。研究发现ChatGPT并非可靠信源值得一提的是,今年3月14日,OpenAI宣布正式发布为ChatGPT提供支持的更强大的下一代技术GPT-4,称其拥有图像识别功能,高级推理技能,以及处理25000个单词的能力,在某些测试中的表现“可与人类相媲美”,并在大学入学和法律及医学等专业领域的许多模拟考试中优于其前身GPT-3.5。例如,GPT-4通过了律师资格模拟考试,分数超过90%的人类考生,而GPT-3.5此前的分数则低于90%的人类考生。
不过,目前最新的研究发现ChatGPT并非可靠信源。
据科技日报5月18日的一篇报道,加拿大科学家在16日出版的《放射学》杂志上刊登新论文称,最新版本的ChatGPT通过了美国放射学委员会的考试,突出了大型语言模型的潜力,但它也给出了一些错误答案,表明人们仍需对其提供的答案进行核查。
🌟ChatGPT,AI对话巨匠🌟,凭借深度学习算法的卓越力量,从海量训练数据中提炼语言模式,仿佛人类般流畅交流。🚀它已融入谷歌和必应等热门搜索引擎,为医疗信息搜索带来便利,医生与患者皆能借此快速获取可靠资讯。🔍然而,值得注意的是,尽管强大,ChatGPT的答案并非总是百分之百准确,需谨慎对待,确保信息来源的权威性。
🌟研究揭示ChatGPT在放射学考试中的实力与挑战🔍 – 专家视角🔥多伦多大学的杰克·博士,医学领域的领军人物,带领团队对ChatGPT的放射学应用进行了深度评估。他们通过150道精心设计的问题,涵盖从基础知识到复杂分析的全方位测试,这些题目模仿了加拿大皇家学院和美国放射学委员会的标准,确保严谨性和一致性。👀ChatGPT凭借其强大的语言生成能力,在低阶问题上展现出色的记忆力和理解力,仿佛具备一定的知识库。然而,高阶思维挑战面前,它在影像解读、临床决策制定以及一些计算任务中,显现出了局限性,揭示了AI与人类专业知识的差距。💻对于影像学表现描述,ChatGPT虽能提供基本信息,但在细节和复杂解释上还需提升;在临床管理方面,虽然能提供建议,但缺乏临床判断的灵活性;而在需要精确计算和分类的任务中,其准确性仍有待提高。📊这项研究不仅评估了ChatGPT的能力,也为我们指明了未来教育和培训的方向——如何有效结合AI与人类专业知识,以优化学习体验并提升专业技能。🎓欲了解更多关于ChatGPT在放射学领域的具体表现及深入讨论,敬请关注后续的详细分析。🔥
研究人员发现,基于GPT-3.5的ChatGPT的正确率为69%,接近70%的及格线。该模型在低阶思维问题上表现相对较好,正确率为84%,但回答高级思维问题时表现不佳,正确率仅为60%。而性能更优异的GPT-4的正确率为81%,且在高阶思维问题上的正确率为81%,远好于GPT-3.5。但GPT-4在低阶思维问题上的正确率仅为80%,答错了12道题——GPT-3.5全部答对了这些题目,这引发了研究团队对GPT-4收集信息的可靠性的担忧。“现在律师界讨论的焦点是,如何避免本案所发生的情况,你不能只是把 AI 输出的内容复制粘贴到你的法庭文件中。”这两项研究都表明,ChatGPT会有提供不正确答案的倾向,如果仅仅依靠它获取信息,非常危险,因为人们可能意识不到其给出的答案是不准确的,这是它目前面临的最大的问题。当前,ChatGPT最适合用来激发想法,帮助撰写数据摘要,而用于快速信息检索,需要对其提供的事实性答案予以核查。
对于这个案件,你又是否有什么看法?
-END-
责任编辑 | 金梦洋
审核人员 | 张文硕
本文声明 | 本文章仅限学习交流使用,如遇侵权,我们会及时删除。本文章不代表北大法律信息网(北大法宝)和北京北大英华科技有限公司的法律意见或对相关法规/案件/事件等的解读。
▼往期精彩回顾▼ChatGPT爆火!“数字法治”主题征稿 |《北大法宝文粹》ChatGPT评中国最好的十大高校一位法官刚刚使用ChatGPT做出法庭裁决皮勇 张凌寒 张吉豫 | ChatGPT带来的风险挑战及法律应对於兴中 郑戈 丁晓东 | 生成式人工智能与法律的六大议题:以ChatGPT为例王兆艺:人工智能生成内容的侵权风险及其规制路径——以ChatGPT为例 | 娱乐法内参202304周智博 | ChatGPT模型引入我国数字政府建设: 功能、风险及其规制 | 山东大学学报(哲学社会科学版)202303武汉被撞小学生母亲者坠亡,网暴何时了!
罗翔、陈碧:性侵未成年人“从重处罚”,以雷霆之势打击性侵未成年人犯罪
关注下方公众号,获取更多法律信息
AI时代,掌握AI大模型第一手资讯!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
扫码右边公众号,驾驭AI生产力!