文章主题:ChatGPT, 法律误用, 可靠性争议
ChatGPT,还可以信任吗?
👀【震惊】ChatGPT卷入法律纠纷!🔥美国律师在诉讼中误用ChatGPT收集案例,却被法官戳穿谎言!😱据报道,近日一桩案件中,这位律师试图利用AI工具的便捷性,却栽了个大跟头。他竟未经核实,就将ChatGPT搜集的6个案例作为证据呈上法庭,结果却一一被质疑为虚假。 böohaha,这无疑是对法律专业性和信息真实性的严重挑战!💼律师已公开承认错误,并面临可能的法律制裁,这场闹剧引发了对AI在法律领域使用规范的深度反思。💡下次法庭相见,可别再让ChatGPT成为“狡猾”的帮凶哦!
让ChatGPT协助办案
美国30年资深律师被坑
原文改写:🌟美国CNN报导揭示!一架哥伦比亚航空的班机成了乘客罗伯托·马塔膝部受伤的意外舞台,他在2019年飞往纽约的航班中遭遇了不愉快的经历。据他指控,客舱推车的操作失误导致这场意外发生。这位乘客随后决定采取法律行动,对航空公司提起诉讼,寻求公正赔偿。♂️✈️
马塔的代理律师是已有30多年从业经历的纽约市律师史蒂文·施瓦茨。为支持马塔诉求,施瓦茨向法官凯文·卡斯特尔提交了多个所谓类似案例及其判决结果。
今年4月,哥伦比亚航空一法律顾问曾向法官递交文书,对施瓦茨提供的案例资料的真实性提出质疑。据《纽约时报》披露,其中一位代表巴尔特·巴尼诺指出,其团队中的航空法专家敏锐地察觉到这些信息的不实之处。他透露,他们隐约怀疑这些信息可能源于ChatGPT这款人工智能工具。在此过程中,律师们严谨审核,确保了法律论证的准确性和公正性。
法官卡斯特尔本月4日在一份书面文件中写道,那6个案例的判决结果、引语等都是假的,“法庭从未遇到过这种情况”。他下令6月8日就处罚施瓦茨举行听证会。
施瓦茨承认那6个案例为ChatGPT提供。法庭文件显示,他看到这些案例信息后追问ChatGPT信息是否属实,机器人称“千真万确”,还给出了所谓的信息出处。
施瓦茨说,他这是第一次用ChatGPT协助办案,“没有意识到内容伪造的可能性”。
原文改写:🎉📚他诚挚地在文书中表达了深深的遗憾,主动承认错误,保证未来在未充分验证的情况下,将不再依赖聊天机器人的信息。🌟📝SEO优化:悔过书中的他郑重声明,承诺对不实信息的使用零容忍,强调核实重要性,未来的沟通将基于严谨态度。bots与责任 yazdırmada kesinlikle doğrulama önlemlerine bağlılık konusunda dikkat çeker.🌍💼增加emoji:悔过书诚恳反省 📝💬 信息核实承诺 💬📊 精准沟通未来 🚀
研究发现ChatGPT并非可靠信源
值得一提的是,今年3月14日,OpenAI宣布正式发布为ChatGPT提供支持的更强大的下一代技术GPT-4,称其拥有图像识别功能,高级推理技能,以及处理25000个单词的能力,在某些测试中的表现“可与人类相媲美”,并在大学入学和法律及医学等专业领域的许多模拟考试中优于其前身GPT-3.5。例如,GPT-4通过了律师资格模拟考试,分数超过90%的人类考生,而GPT-3.5此前的分数则低于90%的人类考生。
不过,目前最新的研究发现ChatGPT并非可靠信源 。
据科技日报5月18日的一篇报道,加拿大科学家在16日出版的《放射学》杂志上刊登新论文称,最新版本的ChatGPT通过了美国放射学委员会的考试,突出了大型语言模型的潜力,但它也给出了一些错误答案,表明人们仍需对其提供的答案进行核查。
图片来源:物理学家组织网
🌟ChatGPT,AI对话巨匠🚀,凭借深度学习算法的力量,从海量训练中提炼语言模式,仿佛人类般互动交流。它已悄悄融入谷歌和必应等热门搜索引擎,为医疗信息搜索带来便利💡。然而,值得注意的是,其答案可能存在一定的准确性挑战🔍,特别是在医疗领域,需谨慎对待。
🌟研究揭示ChatGPT在医学放射学考试中的实力与挑战🔍由多伦多大学拉杰什·哈瓦那博士带领的团队,对ChatGPT的放射学知识应用进行了深度评估。他们通过150道精心设计的问题,涵盖从基础记忆到复杂分析的全范围,这些问题模仿了加拿大皇家学院和美国放射学委员会的标准,确保严谨性和实用性。👀选择题分为初级(知识检测)和高级(推理与应用),后者细分为影像解读、临床决策、计算技巧以及疾病关联性测试,全面考察ChatGPT在实际场景中的表现。尽管ChatGPT展现出强大的生成能力,但在高阶思维和图像理解方面,其局限性也显而易见。💻这项研究不仅为教育者提供了评估新工具的有效途径,也为潜在用户揭示了其优势与待提升之处。未来,随着技术的进步,我们期待看到ChatGPT在医学教育中的更深入融合,同时也要关注如何优化以适应严格的学术标准。📚记得关注我们的最新研究动态,了解更多关于ChatGPT在医疗领域的实际应用和影响!🌐
研究人员发现,基于GPT-3.5的ChatGPT的正确率为69%,接近70%的及格线。该模型在低阶思维问题上表现相对较好,正确率为84%,但回答高级思维问题时表现不佳,正确率仅为60%。而性能更优异的GPT-4的正确率为81%,且在高阶思维问题上的正确率为81%,远好于GPT-3.5。但GPT-4在低阶思维问题上的正确率仅为80%,答错了12道题——GPT-3.5全部答对了这些题目,这引发了研究团队对GPT-4收集信息的可靠性的担忧。
这两项研究都表明,ChatGPT会有提供不正确答案的倾向,如果仅仅依靠它获取信息,非常危险,因为人们可能意识不到其给出的答案是不准确的,这是它目前面临的最大的问题。当前,ChatGPT最适合用来激发想法,帮助撰写数据摘要,而用于快速信息检索,需要对其提供的事实性答案予以核查。
编辑|程鹏 盖源源
校对|陈柯名
AI时代,掌握AI大模型第一手资讯!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
扫码右边公众号,驾驭AI生产力!