文章主题:人工智能,ChatGPT,法律问题,知识产权
张毅 朱安然 | 对ChatGPT等人工智能的法律思考
作者 | 张毅 朱安然
金诚同达律师事务所
在AlphaGo之后,ChatGPT以其独特的魅力吸引了众多公众的关注。随着ChatGPT的热度不断攀升,各大互联网科技公司也纷纷跟进,发布了自己的类似产品或者相关研究项目。在ChatGPT热度持续升温的同时,诸如“美国89%的大学生都在使用ChatGPT完成作业”、“多家学术期刊禁止将ChatGPT视为合作作者”、“著名科幻杂志《克拉克世界》因大量AI生成的投稿而暂停征稿”等离奇事件纷纷成为各大新闻媒体的重要报道对象。这类AI产品的特性在于,通过深度学习和大量的数据训练,它们能够迅速地收集和整理信息,并以惊人的速度输出内容。换言之,AI的“创作”过程实际上是对现有素材的快速整理和深度加工。这一过程无疑会涉及到底律领域的问题,例如数据保护和知识产权等。
为了深入探讨人工智能技术所可能涉及的诸多法律问题,并对其作出明智的回应,本文将聚焦于ChatGPT所引发的一系列事件,从法律视角进行深度剖析。
一、人工智能生成物和知识产权
在当今社会,人工智能技术迅速发展,与之紧密相关的法律领域自然是对知识产权法的运用。知识产权法在保护人工智能领域的成果尤为显著,无论是在维护人工智能源代码的安全,还是在保障人工智能生成的作品权益方面,以及深入研究人工智能生成物侵权问题等方面,都需要借助知识产权法来实现。因此,知识产权法无疑是最贴近人工智能发展的法律领域之一。
对于人工智能源代码的保护,我们已经有了明确的法律规定,因为人工智能的本质仍然是计算机软件。在全球范围内,人们普遍认为人工智能没有法律主体地位,这也是各国主流的观点。在这个前提下,关于人工智能生成的作品是否具有可版权性,学界仍存在一定的争议。一部分学者主张将人工智能生成的作品视为作品,他们认为人工智能的所有者应该就是生成这些作品的作者。然而,另一部分学者则持不同意见,他们认为人工智能生成的作品不应享有著作权。在我国,著作权法的定义是基于“人的独创性表达”,也就是说,作品应该是作者个性的外在表现,而这种个性必须是源于人的创造性。然而,人工智能生成的作品显然不符合这个定义。它们的生成过程完全依赖于计算机的指令运行,没有人的参与,而且它们也不是基于情感或思想产生的作品。因此,从这些角度来说,人工智能生成的作品自然不具有著作权。在2019年,北京互联网法院在一宗涉及法律数据库分析式AI生成报告纠纷的案件中,接受了第二种观点。该法院认为,文字作品应该由自然人创作完成,尽管人工智能在智力和经济投入方面做出了很大的贡献,但在现行法律下,我们应该对民事主体的基本规范进行保护,不应该对此类软件的独创性和经济投入予以充分保护。虽然这种观点在一定程度上保护了人工智能的权益,但对于人工智能生成的作品是否能够被认定为《著作权法》意义上的“作品”,在实践中还是存在一定的争议。这个问题需要我们从生成式人工智能的技术流程出发,以肯定的态度对待科技进步,对人工智能的生成物进行保护和规制。关于这一问题,我在另一篇论文中会有更深入的讨论,此处就不再赘述。
关于人工智能生成的侵权问题,如前所述,人工智能通过深度学习和训练,迅速收集和整理信息,从而生成内容。这种生成的内容可能会带有原始数据的“痕迹”,这在著作权法上构成了实质性的相似性,这可能会侵犯他人的著作权。在这种情况下,我们只需要按照一般的法律标准来判断侵权,而主要的问题在于确定责任承担的主体。从理论上看,人工智能的所有者(也就是开发者)应该被视为权利人,他们应该负责人工智能产生的侵权责任。但是,如果其中涉及到客户群体的行为,那么责任承担主体的判断就不能简单地局限于所有者。例如,某个客户要求ChatGPT为其生成一幅画,并且明确了画面的内容、颜色或表现手法,之后客户将这幅画用于其他地方。在这种情况下,如果这幅画存在侵权行为,那么要求生成并使用这幅画的客户无疑也是侵权行为人。对于ChatGPT的所有者OpenAI来说,他们确实设计了相关的程序,但是生成并使用这幅画的行为并不是出于他们的意愿。因此,对于提供了这样一个侵权工具的OpenAI,是否需要承担侵权责任,还需要进行更深入的判断。
在总结这个问题时,我们可以得出一个明确的观点:对于人工智能生成物可能引发的侵权问题,无论是开发者和所有者还是使用人工智能的用户,都需要认识到法律风险的存在。因此,在用户协议中明确约定相关行为的豁免是非常必要的。同时,用户在使用人工智能生成物时也不能抱有侥幸心理,认为与自己无关,而应该谨慎对待这一问题。
二、人工智能和数据保护
除知识产权外,人工智能可能面对的另外一个法律问题是数据保护。现阶段,人工智能的功能实现几乎都需要大量的数据进行学习和训练,例如ChatGPT的智能对话功能就需要对大量资料的存储、运算、识别和调用,因此,人工智能的数据使用势必会涉及到数据安全的相关问题。
在互联网高速发展的今天,数据是堪比石油的“工业血脉”,使用他人掌握的数据信息,则有可能触及不正当竞争的红线。从目前对ChatGPT的报道来看,ChatGPT似乎并不具备收集加密信息的功能,其语料来源基本是公开的资料和信息库,似乎并不涉及不正当竞争的相关内容,但假如以中国法视角来分析,公开的数据并不意味着可以随意引用。在大众点评网数据信息不正当竞争纠纷一案中[3],百度搜索引擎抓取大众点评网上公开的点评信息,法院认为虽然这样的抓取行为并未违反robots协议,但同为互联网公司,争夺相同的网络用户群体,“百度公司大量、全文使用涉案点评信息,实质替代大众点评网向用户提供信息”,因此该行为构成不正当竞争。从这一案件可以看出,起码对于以提供数据服务的互联网公司而言,公开的数据同样是公司的核心竞争力和有价财产。以此为视角,假如用户向ChatGPT提出一个“哪里的火锅好吃”,那么经过公开数据检索的ChatGPT是否可以依据相关的点评网站给出自己的推荐呢?假如可以,则这种推荐有相当大的可能替代点评网站在用户处的作用,以此类推,很多提供信息服务的网站(这里需要排除提供专业性极强的信息的网站)都有可能被这样简单快捷的问答机器人所替代,从而产生不正当竞争的风险。
除不正当竞争外,人工智能似的数据采集还有可能涉及到用户个人数据的保护。用户使用类似机器人时,一般需要经过注册程序,在询问相关问题时,也有可能暴露个人的信息,虽然OpenAI宣称ChatGPT收集的用户信息都会在一定时间内删除,但并不代表个人信息在类似的人工智能产品中得到了很好的保护,因此对于相关的开发者来说,除了在用户协议中明确隐私数据收集的范围、处理规则,使用户知情并征得用户的同意外,还应当注意用户数据收集的程度和范围。
三、人工智能和社会治理
最后,我们从更广的视角来看人工智能对社会治理的影响。ChatGPT语料的的来源是公开的数据,而公开的意见势必会存在携带一些发布者自身的观点、倾向。于是ChatGPT的回应同样会携带言论倾向性的基因,这可能导致一种人工智能领域的“信息茧房”,即任意立场的人与ChatGPT对话时,获得了符合期待的回答,从而进一步加深不同意识下的不同认知,因此,关注人工智能在社会舆论方面的影响,如何避免人工智能的“回答”输出不利于社会稳定的内容,依然是一个值得研究的课题。此外,精神文化作为社会治理的重点内容,几乎是直面ChatGPT等类似人工智能的冲击,以英文向ChatCPT提问将获得比其他语种更加准确和多样的回答,同样可以视为一种文化的输出,如何处理由此带来的精神浪潮是一个值得思考的问题。而对于我国来说,现在全球化进入了一个新的阶段,中国作为世界工厂需要世界市场,于是面临着越来越强烈的文化输出需求,利用大众对新技术的好奇,潜移默化地影响大众对某一问题的认知,毫无疑问是提供一个新的视角和思路。
除上述社会认知方面的问题,人工智能带来的另外一个问题是违法犯罪。类似人工智能将拥有比人脑更加快捷的资料收集能力,假如人工智能可以为不法分子制定详备的犯罪计划,那显然不会利于社会的稳定。而这并非恶意假设,美国媒体VICE曾经报道,ChatGPT可以完整提供一起爆炸抢劫案的策划,从爆炸物的制作到抢劫方案,十分详尽。这个问题的背后,即是对人工智能负面利用。从文章代笔到制定犯罪计划,新的工具都会面临被用来违法犯罪的风险,这毫无疑问是社会治理需要关注的问题。
四、法律对人工智能的回应
本文主要探讨了人工智能的部分法律风险,但人工智能技术的发展毫无疑问是值得高兴和期待的,人工智能技术的持续发展或许可以进一步解放生产力,带动科学文明进一步攀登高峰,而智能化的机器人势必会给人类带来更加便捷的生活。
相比于技术,法律作为社会秩序之一,滞后性和稳定性是其本质特征,我们并不能要求法律随时给予技术以回应,也不能因为新技术的出现就认为应当设立新法,针对人工智能使用中可能出现的问题,在实践中灵活运用法律解释技术,使现有法律可以覆盖新技术的使用情形,同时充分发挥行政力量在社会治理中的作用,或许能更好的规制人工智能带来的风险。
注释(上下滑动阅览)
[1] 参见熊琦:《人工智能生成内容的著作权认定》,知识产权,2017年第3期
[2] 参见王迁《论人工智能生成的内容在著作权法中的定性》,法律科学( 西北政法大学学报),2017年第5期
[3] (2015)浦民三(知)初字第528号
来源:金诚同达
编辑:Sharon
责任编辑:
AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!