律师用ChatGPT打官司,惨烈翻车,援引6个案例全是假的

AIGC与创业7mos agoupdate lida
116 0 0

ChatGPT,还可以信任吗?

近日,美国一名律师在一起诉讼案件中帮原告打官司时,引用了ChatGPT搜集的6个案例,而法官却发现案例信息全是子虚乌有。最终律师承认自己没有核实信息并为此道歉,眼下相关律师还将面临处罚。

这波操作瞬间在网上引起轩然大波。毕竟,GPT-4刚诞生时就在美国统一律师资格考试(UBE)中超过了90%的人类考生。

一份离谱的辩护词

事情起源于一件非常普通的案件。

2019年,一位名叫罗伯特·马塔(Roberto Mata)的乘客在搭乘哥伦比亚航空公司航班时被餐车撞伤。

几年后,马塔向曼哈顿联邦法院起诉哥伦比亚航空,要求航空公司进行赔偿,并聘请了有着丰富经验的史蒂文・施瓦茨(Steven A. Schwartz)作为他的律师。而航空公司则称该案已过了诉讼时效,要求法官撤销此案。

接手案子后,为支持当事人的诉求,施瓦茨很快向法官提交了一份辩护词,作为佐证还引用了从1999年到2019年的六起案件,用这些案件来论证为什么时效期限尚未到,该航空事故案应予审理。

律师用ChatGPT打官司,惨烈翻车,援引6个案例全是假的原文:https://storage.courtlistener.com/recap/gov.uscourts.nysd.575368/gov.uscourts.nysd.575368.32.1.pdf

但是,这起再平常不过的官司却出现了一个让人啼笑皆非的意外。航空公司的律师竟然发现施瓦茨提交的6个案件都是假的,并将这一情况告知了主审法官。

法官卡斯特尔在一份书面文件中写道,那6个案例的判决结果、引语等都是假的,“法庭从未遇到过这种情况”,并下令将就处罚施瓦茨举行听证会。

尽管援引案例的格式看上去十分规范,文件中列出了每个案子的受理法院、法官、档案标号和日期,但是……从案件本身,到司法判决,再到内部引文,全是假的!

施瓦茨在面对法官质疑时也承认自己使用了ChatGPT搜集案例,但他辩解称自己核实过这些案件的真实性,只不过他核实的方式是:询问ChatGPT信息是否属实,而机器人回复他“千真万确”。

律师用ChatGPT打官司,惨烈翻车,援引6个案例全是假的律师用ChatGPT打官司,惨烈翻车,援引6个案例全是假的律师用ChatGPT打官司,惨烈翻车,援引6个案例全是假的AI 提供内容需要验证

这个案件的发展,吸引了许多来自律师界的关注和讨论。纽约大学法学院法律伦理学教授 Stephen
Gillers 表示,自 ChatGPT 问世以来,律师们就一直在争论 AI 软件的价值和危险。

自今年3月份OpenAI发布了GPT人工智能系列的第四代版本,在各行各业引起了轩然大波。GPT-4在美国统一律师资格考试(UBE)中超过了90%的人类考生的战绩更是让不少法律人有了危机感。

现在看来,用AI打官司可能没那么快,至少现在还不行。

ChatGPT等AI聊天机器人并不是查询已证事实的数据库来回答问题,而是依据语料和高赞回答作为基础来回答。

因此,ChatGPT会有提供不正确答案的可能性,如果仅仅依靠它获取信息非常危险,因为人们可能意识不到其给出的答案是不准确的。

Stephen Gillers 也指出:“现在律师界讨论的焦点是如何避免本案所发生的情况,你不能只是把 AI 输出的内容复制粘贴到你的法庭文件中。”

核实AI提供信息的必要性是不可缺少的一步,尤其是在医学、法学等向来严谨的领域。人们可以使用ChatGPT来辅助工作,但用完ChatGPT必须用其他来源进行双重甚至三重查证。

在很长一段时间内,甚至未来,人工智能都不具备完全替代律师和法务的能力。最终的决策还需要人类来做。

© Copyright notes

Related posts

No comments

No comments...