要说最近一段时间最火爆的概念,自然非ChatGPT莫属,ChatGPT你不想chat都不行。据投资银行瑞银近日的一份报告显示,在ChatGPT推出仅两个月后,其月活跃用户已经突破一亿,成为历史上用户增长速度最快的消费者应用程序。ChatGPT在不同领域的表现也让人们叹为观止,下面这些标题就足见ChatGPT的威力:《全班得分最高的论文,是用ChatGPT写的》《一位法官刚刚使用ChatGPT做出判决》《ChatGPT爆火,谷歌、微软、苹果都急了!百度也…》……
资本市场也在热捧ChatGPT的概念,截止2月6日,A股ChatGPT概念板块中有15只个股今年以来累计涨幅超过30%。刚开始人们还在观望ChatGPT是不是只是概念炒作,小心翼翼发问会不会昙花一现?但自微软数以十亿计美元的投资后,众多国内外科技企业也着手布局这一领域。忽如一夜春风来,全球ChatGPT,那当法律人在聊ChatGPT时,我们在聊什么?
本期主题:ChatGPT
作者 | 李玉民(上海金融法院立案庭)
一
ChatGPT,ChatGPS?
如果你问ChatGPT:能否介绍一下你自己?它会这样回答:当然!我是OpenAI公司开发的AI语言模型。我的主要目的是根据我收到的输入生成类似人类的文本,并根据我接受训练的数据尽我所能回答问题或提供信息。我接受过大量文本数据的训练,使我能够生成关于广泛主题的文本,从事实信息到创意写作。我没有个人经验或意见,因为我是一个人工智能程序。
看起来ChatGPT的回复还是比较高冷的,浅浅的解释一下就是,ChatGPT是一款对话式AI聊天机器人,能够像人一样思考和工作,它能写论文、编代码、写小说,甚至知道绕开人类提问中预设的价值判断、道德倾向等陷阱。
可以明确的是,ChatGPT是一种人工智能,那么它和此前的人工智能有什么不同?以至于连比尔·盖茨都说“ChatGPT这种技术出现的重大历史意义,不亚于互联网和个人电脑的诞生”。“ChatGPT是AI在大数据模型下的一种延续,但与AlphaGo相比,ChatGPT引入了人类知识并深入到认知领域,形成了‘数据+知识’的训练模型,即基于人类反馈的强化学习”。可以说ChatGPT实现了“熟读唐诗三百首,又会作诗又会吟”。因此,ChatGPT不是仅通过聊天为你导航通向获取答案的道路,而是可以直接生成答案,是人工智能生成内容的最新技术。
二
ChatGPT承担法律责任?
ChatGPT已经有一定的措施,防止它输出一些特别有悖伦理和危害社会的内容。然而,这些是可能被使用者绕过的。例如,用户可能诱导ChatGPT向他们提供犯罪的方法。此外,ChatGPT创建的看似合法的文本可能被用于诈骗,如网络钓鱼电子邮件、勒索和其他欺诈活动。因此,这可能引发责任问题,即谁该为ChatGPT生成的内容承担法律责任?
人类法律世界遵循行动者对其行为负责的原则,自然就会讨论人工智能是否可以成为法律主体。关于这一问题,当前全球没有任何一部法律可以给出明确答案,但是学术界有不少论者认为人工智能体可以具有法律上的人格并可以独立承担法律责任。
那么ChatGPT作为人工智能的最新代表,可以承担法律责任吗?按照当下法律界通说,自由意志是责任的核心,换言之,ChatGPT的责任问题与其自主性或自由意志有关。有学者提出一个标准:人工智能能否自主地摆脱既有算法的约束,若人工智能仍完全受制于既有算法的束缚,那就没有意志能力,也就不能被赋予独立的法律人格。ChatGPT所有的回答是在庞大语料库中,找到关联概率最大的那句话。本身没有类似人类的逻辑体系,从长期来看,它本身也不会创造出真正“创新”的内容。但是ChatGPT不能真正像人一样创造,得出的直接结论是ChatGPT并不是人,但不能直接否定ChatGPT不可能具有自由意志。ChatGPT生成的内容,并不完全是事先被设定好的,ChatGPT的算法并不能决定ChatGPT面对每次提问会如何回答。随着ChatGPT的相关技术不断更新,不排除ChatGPT可能不受人类设定的程序的控制而独立作出决策并自主行动。
但是,也有学者认为法律责任的目的是预防,因为算法是一个黑洞,即便令人工智能承担法律责任,在下一起事故中,同样的错误或者新型的错误仍然不可避免,所以让ChatGPT承担法律责任无法实现预防目的。可见,关于包括ChatGPT在内的人工智能是否以及如何对自己的损害行为承担法律责任,存在着不同的理解,但事实上分歧中也殊途同归。正如乌尔里希·贝克所言人类已进入风险社会,关于ChatGPT是否承担法律责任,其实都是在探讨如何应对ChatGPT带来的风险,也就是说如何让ChatGPT带来的负外部性内部化。追究风险发生后的法律责任,是否能真正减少风险的发生,对于ChatGPT来说值得商榷。ChatGPT导致的损害行为,将其法律责任分配给何方,才更有利于减少ChatGPT引发的风险,这或许才是探讨ChatGPT法律责任问题的关键。
三
如何回答ChatGPT带来的法律问题?
当用户一次次向ChatGPT提问时,ChatGPT也在向我们提问,如何应对ChatGPT带来的法律问题?新技术往往面临“科林格里奇困境”,即新技术的社会后果在早期不能被预料到,当不希望的后果被发现时,技术往往已经成为整个经济和社会结构的一部分,以至于对它的控制十分困难。但是,法律又往往滞后于社会的发展,难以对未来发生的和正在发生还没有定型的事物进行规定。“科林格里奇困境”和法律的滞后性之间的张力,其实就显现了对ChatGPT一类的人工智能进行规制的难题,既需要快速起跑但又难以抢跑。
人工智能对法律的挑战在性质上可以分为工具性挑战和根本性挑战。工具性挑战意味着,在法律自身范围内我们可以找到解决办法;根本性挑战意味着,我们要修正或改变既有的法律理论或实践,或创造出全新的理论或实践。ChatGPT一类的人工智能是工具性挑战还是根本性挑战,还不能断然下结论。但是ChatGPT或者类似的AI聊天机器人,可能很快也会在国内被应用,就当下可预见的情形,至少以下三个方面的法律问题需要我们关注。
1
如何回应监管问题?
2021年4月21日,欧盟委员会发布了欧洲议事和理事会《关于制定人工智能统一规则》的提案,旨在加强对AI系统的治理,并将目前欧盟基本权利法律和对于安全性的要求的强制力应用到AI系统上,但欧盟AI法案何时能正式颁布尚不得而知。而我国国家层面的人工智能立法处于预研究阶段,还没有正式的立法计划或相关的动议草案。可以说目前全球对于如何监管ChatGPT在内的人工智能带来的风险还没有明确的规定。
2022年10月1日施行的《上海市促进人工智能产业发展条例》,其核心关切是促进AI产业发展,其中也提出了一个原则性思路:对高风险的人工智能产品和服务实行清单式管理,遵循必要、正当、可控等原则进行合规审查。对中低风险的人工智能产品和服务采用事前披露和事后控制的治理模式,促进先行先试。这种“以风险为路径”的方案提供了一个大框架,但对ChatGPT从算法设计到内容生成各方面的配套性监管规定,还有待进一步细化。
因为ChatGPT是人工智能生成内容,现行法下值得探讨的是其是否属于《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》的规制范围。《互联网信息服务算法推荐管理规定》第二条规定,算法推荐技术,是指利用生成合成类、个性化推送类、排序精选类、检索过滤类、调度决策类等算法技术向用户提供信息;《互联网信息服务算法推荐管理规定》第二十三条规定,深度合成技术,是指利用深度学习、虚拟现实等生成合成类算法制作文本、图像、音频、视频、虚拟场景等网络信息的技术。ChatGPT在回答问题时可能涉及到算法推荐或深度合成。虽然当下关于AI人工智能的监管规定还在探索中,但算法推荐和深度合成方面因为有具体规定,ChatGPT或类似AI聊天机器人被使用时,可能还是需要遵守相关规定。
2
相关知识产权怎样保护?
ChatGPT涉及的知识产权问题涉及两个方面:ChatGPT生成内容是否受知识产权法保护以及ChatGPT生成内容是否会侵犯他人知识产权。
一般来说,著作权法保护的作品是人类的智力成果,由计算机程序自动生成的结果、机器人的创作目前都不能直接作为著作权法保护的作品。那么当人类参与程度较高时,ChatGPT生成的内容是否有可能获得著作权法的保护,就值得探讨。如果用户不断地指导ChatGPT来调整一个故事,例如要求ChatGPT引入人物、改变情节、修改背景,或创造可供选择的结局,由此人类似乎高度参与文本产生的过程中。但是,人类参与达到何种程度时,ChatGPT生成内容可以达到著作权法保护的门槛,以及是否有必要对ChatGPT生成内容采取权利保护的进路,都有待进一步探讨。
虽然ChatGPT生成内容是基于庞大的语料库产生的,可谓集亿万数据之精华,成一次提问之答案,但并不代表ChatGPT生成内容与现有作品不会重复,因此,ChatGPT生成内容还可能存在侵犯知识产权的可能性。ChatGPT接受大量文本数据的训练,包括书籍、文章和其他书面材料。如果这些训练数据包括受知识产权保护的作品,那么ChatGPT生成内容可能会侵犯这些作品的版权。根据现行《著作权法》,认定ChatGPT生成内容是否侵权的标准,可能还是判断ChatGPT生成内容与人类作品之间是否存在实质性相似。但是也有观点认为ChatGPT生成内容使用他人的作品并不违反知识产权法。例如以色列司法部发布了一份指导意见,称大数据人工智能模型的训练可能符合合理使用制度的要求。
3
数据处理和保护何以平衡?
ChatGPT依靠既有的大量数据进行学习和预测,并在与用户的问答中不断获取新的数据,这其中必然涉及到数据隐私和保护,在ChatGPT被使用的过程中,确保数据安全和个人信息保护十分重要,当然这一法律问题的难点在于如何实现数据保护和数据处理之间的平衡。《中共中央 国务院关于构建数据基础制度更好发挥数据要素作用的意见》中指出,建立公共数据、企业数据、个人数据的分类分级确权授权制度,ChatGPT如何合规获取并使用这三类数据是不可回避的问题。
以个人数据为例,《个人信息保护法》第十三条规定一般情况下处理个人信息需要取得个人同意,用户同意使用ChatGPT可以视为其同意了ChatGPT对其个人信息进行处理吗?同时ChatGPT也可能扒取数据,其中包含的个人数据不需要同意就可以处理吗?此外,基于个人同意处理个人信息的,个人有权撤回其同意,同时个人有权要求处理者删除个人信息,但用户在提问中披露了个人信息后,就纳入了ChatGPT的训练数据集,用户撤回同意和删除权能否真正得以实现?从机器学习模型中删除数据存在技术挑战,因为这些数据可能已经用于训练模型,删除数据可能会导致模型失去准确性。数据保护和数据处理之间的张力在此处凸显无疑。《个人信息保护法》规定处理个人信息有严格的目的限制,即数据必须用于收集数据的目的,但是ChatGPT可能与用户分享来自其训练数据集的个人数据,因此某种程度而言ChatGPT的语言模型似乎导致数据可以用于任何目的。那么如何解释ChatGPT收集数据的目的,仅是回应用户本人的提问,还是纳入其训练数据集不断扩充其数据量?这个问题的答案影响着ChatGPT使用个人数据时是否满足目的限制。这些问题都值得进一步探讨。
《未来简史:从智人到智神》中如此描述:未来,人类将面临三大问题:生物本身就是算法,生命是不断处理数据的过程;意识与智能的分离;拥有大数据积累的外部环境将比我们更了解自己。ChatGPT的应用似乎让这些问题变得不那么遥不可及,但同时也引发了新的问题。需要指出的是,人类福祉本身应该是科技发展的边际约束。与担心ChatGPT可能“抢饭碗”相比,如何通过制度设计与规则制定让ChatGPT在内的AI更增益人类福祉,或许更应该是法律人不断思考的问题。
来源:庭前独角兽
关键词:来源,庭前独角兽。