2023年6月9日,纽约——在曼哈顿联邦法院举行的一场听证会上,两名道歉的律师指责ChatGPT在法庭文件中包含虚构的法律研究,并声称他们被ChatGPT欺骗。
史蒂文·A·施瓦茨和彼得·洛杜卡是因针对一家航空公司的诉讼而可能面临处罚。这起诉讼涉及对过去法院案件的引用,而这些案件实际上是由人工智能驱动的聊天机器人发明的,而施瓦茨却认为它们是真实存在的。
施瓦茨解释说,他使用这个创新程序来寻找法律先例,以支持客户针对哥伦比亚航空公司在2019年一次飞行中受伤的诉讼。
ChatGPT以其对用户提示的类似论文的回答而引起了全球的关注。它提供了几个涉及航空事故的案例,而施瓦茨无法通过他的律师事务所使用的常规方法找到这些案例。
然而,问题在于其中一些案例并不存在,或涉及不存在的航空公司。
在面对美国地区法官施瓦茨表示:“我在错误的观念下运作…该网站是从我无法访问的某些来源获取这些案例的。”他说自己在进行后续研究以确保引文的正确性时遭遇了挫折。
施瓦茨说:“我不明白ChatGPT可以造假。”
微软已向ChatGPT背后的公司OpenAI投资了约10亿美元。
ChatGPT的成功展示了人工智能如何改变人类的工作和学习方式,引起了一些人的担忧。数百名行业领袖在5月份签署了一封信,警告说“减轻AI灭绝的风险应该与流行病和核战争等其他社会规模的风险一起成为全球优先事项。”
对于这一不寻常的事件,法官Castel似乎感到困惑和不安。他对律师们在Avianca的律师和法院首次提醒他们这一问题时没有迅速采取行动纠正虚假的法律引用感到失望。Avianca在3月份的一份文件中指出了伪造的判例法据法官P. Kevin Castel透露,他对律师们在法庭文件中包含虚构法律研究的指控感到困惑和不安。他表示,律师们对于他们所提交的文件中存在的虚假引用问题的回应似乎并不令人满意。
在这起案件中,律师们最初提出的索赔涉及一名妇女因航空公司的过失而导致死亡,但后来演变成一名男子因错过飞往纽约的航班而要求承担额外费用的法律索赔。这表明律师们的文件在引用案例时出现了严重的失误和错误。
Avianca航空公司在3月份的一份文件中揭示了这些虚假引用的问题,指出这些案例实际上是由ChatGPT生成的,并不存在真实的法律先例。这一指控对律师们的声誉造成了重大损害,并引起了对ChatGPT可靠性和可信度的质疑。
这场听证会引发了关于人工智能在法律领域中的使用和可信度的广泛讨论。一些人担心,如果律师和法官过度依赖人工智能工具,可能会导致类似的错误和误导。此外,人工智能的创造者和开发者也面临着对他们产品的监管和责任问题。
尽管施瓦茨和洛杜卡在听证会上为他们在书面陈述中的角色向法官道歉,但法官Castel仍在考虑是否对他们进行制裁。他将评估这两名律师是否故意欺骗法庭,以及他们对此事的处理方式。
此事件凸显了在人工智能技术迅速发展的背景下,法律界和司法系统面临的挑战和风险。确保人工智能工具的准确性、透明度和可靠性将成为一个重要的议题,以确保正义和公正在法庭上得以实现。这也可能促使相关监管机构和立法者更加关注人工智能技术的应用和限制。
随着此案继续审理,人们对于ChatGPT和类似技术在法律领域中的角色和责任将持续关注和讨论。这个事件对于推动相关法律和伦理准则的制定和执行可能会产生深远的影响。