人工智能语言模型ChatGPT的“新玩法

AI与法律1年前 (2023)更新 lida
171 0 0

调查动机

最近,由美国人工智能研究室OpenAI开发的全新“聊天机器人”ChatGPT引起了广泛关注。这款人工智能语言模型不仅可以和人进行对话,还可以进行各种复杂的任务,如写文章、制定方案、创作诗歌,甚至编写代码和检查漏洞。它的上线仅两个月就吸引了全球超过1亿活跃用户,成为人工智能领域的热门话题。

对此,有人直呼“太好用了,你要什么它就给什么”,也有人担忧“一些工作将被它取代”。

人工智能语言模型ChatGPT的“新玩法

图片来源网络

ChatGPT的问世引发了新一轮人工智能浪潮,人们在探索人工智能技术的无限可能性的同时,也意识到其可能涉及的法律问题。记者对这一问题进行了调查采访,发现在使用人工智能技术的过程中,可能会涉及到版权、专利、数据隐私等多个方面的法律问题。

ChatGPT火了,在国内连续多日冲上热搜榜,一时与ChatGPT相关的各种信息遍布网络。

ChatGPT是由OpenAI训练的大型语言模型,全称“Chat Generative Pre-trained Transformer”,可以回答各种问题并为人们提供帮助。

人工智能、人机交互、自动问答……与ChatGPT相关联的各种“高大上”的形容词让不少人感到好奇:ChatGPT到底能干什么?是否真的像一些人担忧的那样,可以取代文本创作等类型的工作?ChatGPT是一种强大的自然语言处理工具,能够进行文本生成、翻译、对话、自动问答等多种任务。但是,对于是否可以取代某些工作,这取决于具体的应用场景和需求。ChatGPT的主要优势在于其强大的自然语言处理能力和大量的训练数据。这使得它能够快速、准确地理解和生成自然语言,从而执行各种任务。但是,它并不能完全取代人类的智能,因为人工智能的发展和应用始终伴随着各种风险和挑战,包括伦理、隐私、安全等方面。对于ChatGPT的应用,应该根据实际情况和需求来进行,而不是盲目地追求“高大上”的功能。在实际应用中,需要结合人类的智能和大量的数据,充分发挥ChatGPT的优势,同时规避潜在的风险和挑战。

近日,《法治日报》记者对人工智能领域的发展进行了采访,发现随着ChatGPT的火爆,其背后隐藏着法律风险隐患。人工智能在给人们带来乐趣和提供便利的同时,其信息真伪、知识产权等法律风险也越来越受到关注。此外,一些人想利用其热度进行牟利,出现了大量“山寨”产品和账号转卖行为。这些行为的出现,既与人工智能技术的发展相关,也反映了在这一领域,法律规范和监管需要更加完善。

存在信息泄露风险

可能侵犯知识产权

在ChatGPT爆火后,许多博主拍摄了关于它的测评视频。有人给出评价,称ChatGPT在面对一些提问时,反应速度和准确性较高,表现甚至优于一些搜索引擎。然而,也有人指出,ChatGPT的回答通常是笼统的、整合性的回答,缺乏具有个性色彩的、创新性的回答。

公开资料显示,ChatGPT是一款由OpenAI开发的人工智能助手,它可以总结研究论文、回答问题、生成可用的计算机代码,并快速通过美国医学执照考试、沃顿商学院的MBA期末考试、司法考试。一些医学论文预印本和已发表的文章甚至正式赋予了ChatGPT作者身份。

但在受访的法律人士看来,ChatGPT的强大功能也隐含着不少法律风险。

ChatGPT 技术本身存在无法对信息、数据来源进行事实核查的问题,这可能会导致个人数据与商业秘密泄露和提供虚假信息的风险。北京盈科(上海)律师事务所互联网法律事务部主任谢连杰表示。

谢连杰指出,由于ChatGPT依赖于海量数据库信息,其中包含大量的互联网用户自行输入的信息,因此当用户输入个人数据或商业秘密等信息时,ChatGPT可能会将其纳入自身的语料库而产生泄露的风险。尽管ChatGPT曾承诺删除所有个人身份信息,但并未说明具体的删除方式,因此这类信息仍然存在一定的泄露风险。

ChatGPT的生成信息并非总是准确的,其出现“一本正经地胡说八道”的情况,需要专业知识才能辨别真伪。同时,也可能有不法分子恶意“训练”人工智能,使其提供诈骗信息、钓鱼网站等内容,损害公民人身财产安全。因此,在使用人工智能时,需要谨慎对待,并确保获取的信息来自可靠的来源。

平台应该对用户生成的内容进行充分的提示,可能为虚假信息,并在生成疑似违法信息时进行拦截或提示用户存在安全风险。谢连杰表示。

泰和泰(重庆)律师事务所高级合伙人朱杰表示,在使用 ChatGPT 建立语料库和生成文本时,如果并非公开的开源代码,或者使用开源代码商用未办理许可证或者未按照许可证的要求实施,可能会导致侵权。

而他解释说,这类人工智能主要是通过挖掘人类日常交流以及文本,进而统计分析,因此,对于受著作权保护的文本、视频、代码等,如果没有经过权利主体的授权,直接获取复制到自己的数据库中,并在此基础上修改、拼凑,极可能侵害他人的著作权。

2019年,国际保护知识产权协会(AIPPI)发布《人工智能生成物的版权问题决议》,认为人工智能生成物在其生成过程中有人类干预的情况下,如果该生成物符合受保护作品应满足的其他条件,则能够获得保护。而对于生成过程无人类干预的人工智能生成物,无法获得版权保护。这一决议对于人工智能生成物的版权保护问题做出了明确的结论。

近日,国内多家学术刊物针对大型语言模型工具(如ChatGPT)的使用发声,呼吁在署名时进行合理标注。其中,《暨南学报(哲学社会科学版)》指出,在使用大型语言模型工具进行论文写作时,需要遵循相关规则,且不接受单独或联合署名。作者需对使用工具情况进行详细解释,并论证自身创作性。否则,将对文章进行退稿或撤稿处理。《天津师范大学学报(基础教育版)》也发布了声明,建议作者在参考文献、致谢等文字中说明使用人工智能写作工具的情况。

朱杰认为,ChatGPT生成的文本等内容是基于大量数据的统计和应用生成的,不具有自己的思想和创新,很难构成著作权法保护的作品。

ChatGPT的文本数据挖掘技术可能导致其在他人享有著作权的作品中“借鉴”部分内容。对于这部分内容,若不能构成我国著作权法所规定的“合理使用”的情形,则可能引发侵权纠纷。

借势贩卖租赁账号

“搭便车”山寨频出

自ChatGPT走红后,由于服务端对中国大陆的IP有限制,无法注册使用。因此,一些商家采取了不同的方法来获取这些账号。在某电商平台上售卖成品账号的店铺,一天之内多达万人付款,价格最低仅为1.68元。

在名为“ChatGPT账号供应商”的店铺中,记者购买了账号。商家随后私聊发来账号和密码,并特别标注需要复制粘贴,并附有登录教程。登录后,记者发现这是一个多人共享账号。系统运行缓慢,不一会就被提醒不能多人同时提问。

记者发现,某电商平台上,多数商家售卖的都是共享账号,而单人定制账号或者代注册账号的价格往往更高。

近日,多个电商平台对ChatGPT账号销售行为进行了查禁,相关关键词被屏蔽。记者先前账号订单显示商品不存在,进入到商家界面发现,所有的商品均已下架。

记者通过社交平台搜索关键词“ChatGPT账号”发现,仍有不少用户在网上提供代注册、有偿账号分享服务。围绕ChatGPT账号展开的买卖行为仍在野蛮生长,一些卖家通过发布虚假信息、盗用账号等手段获取用户信息,给用户带来了不小的风险。

朱杰认为,这种买卖行为可能构成非法经营等违法行为。由于ChatGPT的正版服务由境外机构提供,而未经我国相关部门批准利用VPN跨境提供经营活动是被明确禁止的,因此国内这些代问、代注册的商家可能涉嫌违反相关法律法规,进行非法经营。此外,这些商家使用VPN搭建或使用他人VPN账号进行注册,未办理国家相关行政许可,擅自经营买卖国外账号,也可能面临行政处罚甚至刑事处罚。

近日,记者通过对相关数据的深入调查和分析,发现随着ChatGPT账号的商业价值被不断炒作,一些不法分子开始利用这一热点进行牟利行为。他们纷纷注册“ChatGPT”等与账号相关的名字,并开发小程序、公众号等,假扮成与ChatGPT相关的产品或服务,以此吸引消费者的关注和购买。这些“搭便车”的牟利行为不仅损害了ChatGPT账号的生态环境,也严重违背了社会道德和法律法规。

一些小程序的记者使用后,发现这些产品不仅与ChatGPT毫无关系,而且大多以免费试用为噱头,吸引用户注册使用后,再推出收费服务,最终目的是诱人充值以牟利。例如,一个名为“××超级AI”的公众号中提到,可以为用户提供ChatGPT中文版的服务,小程序界面有不同的服务类型,从“AI情感问题”到“AI程序助手”,用户可以选择与不同的AI聊天。

但当记者点击进入“AI情感问题”一栏时,还未进行任何操作,对话框就显示记者已经用完了今天的免费次数,需要购买VIP才能继续体验。VIP的价格分别为19.9元的一天会员、199元的月度会员和999元的年度会员。

朱杰指出,“山寨”软件通过虚假广告宣传,欺骗消费者进行下载,这种行为可能构成虚假广告。此外,“山寨”软件使用的名称及标志与正版软件相同或相似,误导他人认为它与正版软件存在特定联系,这种行为可能构成反不正当竞争法中规定的商业混淆行为,将受到行政处罚。

法律规范必不可少

部门监管精细治理

随着ChatGPT等人工智能语言模型的广泛应用,其背后暴露出的人工智能法律风险、围绕这些模型展开的无序商业行为也汹涌来袭,成为关注焦点。

上海政法学院人工智能法学院副教授郭金兰表示,我国算法行业在此前的标准制定时已经初步尝试了以场景和架构为基准的思路。

2018年7月,中国科学院软件研究所联合15家产学研单位共同编制了国内首个人工智能深度学习算法标准——《人工智能深度学习算法评估规范》。该标准基于深度学习算法可靠性的内部和外部影响,结合实际应用场景,确定了由7个一级指标和20个二级指标组成的算法可靠性评估指标体系。这一规范做了场景化和精细化算法治理实践的有益尝试,为深度学习算法的实际应用提供了可靠的评估标准。

2022年出台的《互联网信息服务算法推荐管理规定》中明确要求,人工智能的算法应当坚持社会主义主流价值观,不能利用算法危害国家安全和社会公共利益、扰乱经济秩序和社会秩序、侵犯他人合法权益。今年1月10日起施行的《互联网信息服务深度合成管理规定》中明确,任何组织和个人不得利用深度合成服务制作、复制、发布、传播法律、行政法规禁止的信息,不得利用深度合成服务从事危害国家安全和利益、损害国家形象、侵害社会公共利益、扰乱经济和社会秩序、侵犯他人合法权益等法律、行政法规禁止的活动。两个规定均对互联网信息服务的管理和算法的规范提出了明确的要求,旨在维护国家安全和社会公共利益,保护公民、法人和其他组织的合法权益,促进互联网信息服务的健康、有序、可持续发展。

随着人工智能产品不断迭代升级,未来对相关产品该如何进行监管与应对?

郭金兰认为,对人工智能监管需要深入人工智能系统的整个生命周期。从模型的建立、语料库的标注、模型训练、投放市场后的迭代进化直到系统退出使用。监管需要关注每个具体的环节,包括语料库的筛选标准制定、参与人工标注的人员培训、开发者的价值观考察等。

对ChatGPT这类生成式人工智能的监管必须将算法监管和数据监管结合起来。在算法监管机制的未来探索中,应充分考虑算法决策的主体类型和作用类别,探索场景化和精细化的算法治理机制,避免算法的滥用和误用。为此,郭金兰建议将算法监管与数据监管相结合,制定适用于不同类型人工智能算法的监管框架,并探索针对算法决策主体类型和作用类别的精细化算法治理机制。

朱杰提出,国家应当加强对人工智能的伦理规制,将伦理道德纳入人工智能研发和应用的全过程。这样做可以增强全社会的人工智能伦理意识和行为自觉,引导负责任的人工智能研发与应用活动,促进人工智能健康发展。

尊敬的读者,您好!本文来源于法治日报,记者韩丹东、实习生王意天。在此,我们向您声明,以上文字及图片均仅供学习和交流使用,不具任何商业用途。我们深知,文字和图片的版权对于任何一家媒体或平台都是至关重要的,因此,我们在此向您保证,我们将严格遵守相关法律法规,尊重版权,不对任何来源或版权问题进行妥协或模糊。如果您在使用以上文字或图片时,发现任何版权问题,请及时联系我们,我们将迅速处理,感谢您的合作。

这段文本涉及到以下关键词:

– 人工智能
– ChatGPT
– 法律风险
– 信息泄露
– 商业行为
– 账号交易
– 知识产权
– 伦理道德
– 监管
– 语料库
– 人工标注
– 算法评估
– 场景化
– 精细化
– 用户隐私
– 法律法规
– 学术出版物
– 电商平台
– 账号交易

© 版权声明

相关文章

暂无评论

暂无评论...