纽约时报的记者Benjamin Weiser在2023年5月27日的一篇文章中写到,一名男子起诉一家航空公司,他的律师依靠ChatGPT来帮助准备法庭文件,结果却翻车了。
这本来是一个平淡无奇的案件:一位名叫Roberto Mata的男子起诉Avianca航空公司,称他在飞往Kennedy International Airport的航班上,被一辆金属餐车撞到膝盖而受伤。
然后原告就聘请了Levidow, Levidow & Oberman律师事务所,起草文件的是该律师事务所的Steven A. Schwartz律师,他在纽约从事法律工作已有30年,应该是一位非常资深的律师了。
当被告Avianca航空公司请求法院驳回原告Roberto Mata的诉请时,原告的 律师Steven A. Schwartz则表示强烈反对,他提交了一份长达10页的文件,其中引用了六个用ChatGPT生成的先前判例来支持他的诉请。
大家都知道在英美法下,律师需要进行大量的案件检索,并提供先前案件的判决来支持自己的诉请。这是一项非常耗时耗力的工作,一份判决可能就会十几页到几十页,律师需要对这些先前的案例进行分析和应用,非常考验律师的分析能力。如果可以使用ChatGPT真的是太让人愉快了,但事实证明Steven A. Schwartz律师翻车了。
因为被告Avianca航空公司的律师跟法官表示他们根本找不到原告在起诉文件中所引用的案例。
法官P. Kevin Castel被惊呆了,他也找不到这些案例,可能在他的法官生涯中从来没有遇见过这样的一份充满了虚假司法裁决、虚假引用的法律文件。
后来Steven A. Schwartz律师在其提交给法院的宣誓书中承认了他曾使用OpenAI的聊天机器人进行法律检索,但他不知道其内容可能是虚假的。
而且当时为了验证这些法律检索的结果是否真实,Steven A. Schwartz律师还采取了合理措施,他问聊天机器人这个检索的案件是真的吗,然后机器人回答是真的,并且给出了像模像样的案件编号和出处,然后这位律师就把这些机器人创造出来的案件写进了他的文件。这真的是太离谱了!
这是Steven A. Schwartz律师和ChatGPT的对话:
法院的调查结果是这样子的:
Schwartz律师肯定现在肠子都悔青了。
法官已经决定在2023年6月8日中午12点举行听证,来决定Steven A. Schwartz律师是否应该为此受到制裁了。
让我们拭目以待喽。
Reference:
https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html
https://www.theverge.com/2023/5/27/23739913/chatgpt-ai-lawsuit-avianca-airlines-chatbot-research
欢迎关注我们:
欢迎加小编微信: