刘艳红|生成式人工智能的三大安全风险及法律规制——以ChatGPT为例

AIGC与创业7mos agoupdate lida
123 0 0

刘艳红|生成式人工智能的三大安全风险及法律规制——以ChatGPT为例

刘艳红

中国政法大学刑事司法学院教授、博士生导师

生成式人工智能的三大安全风险及法律规制——以ChatGPT为例

一、 强基赋能:生成式人工智能准备阶段中的数据安全风险与合规处置

二、内核优化:生成式人工智能运算阶段中算法模型的分析与纠偏

三、提质增效:生成式人工智能生成阶段中知识产权的剖析与重塑

结语

刘艳红|生成式人工智能的三大安全风险及法律规制——以ChatGPT为例

ChatGPT的横空出世意味着人工智能的发展获得全新动能,根据生成式人工智能从准备、运算到生成阶段的运行机理,可以发现其中存在三大安全风险。针对生成式人工智能在准备阶段的数据风险,应基于总体国家安全观统筹使用国家数据,对政务数据进行合规监管,在个人数据的收集广度上保持合规并以最小比例原则确定处理深度,以确保生成结论的真实性。针对生成式人工智能在运算阶段的算法模型特点及算法偏见风险,应通过技管结合进行修正,完善技术标准并予以实质审查,建立自动化、生态化、全流程的动态监管体系。针对生成式人工智能在生成阶段的知识产权风险,鉴于其生成物的独特属性,应基于可解释性重塑其保护模式,明确保护的对象是ChatGPT中的可解释算法及其生成物,并构建全流程知产合规保护体系。对于生成式人工智能在未来可能造成的其他安全风险,宜基于风险预防主义加以防范,争取在最大程度上发挥生成式人工智能的技术效能,并减少新兴技术对社会发展造成的负面冲击。

刘艳红|生成式人工智能的三大安全风险及法律规制——以ChatGPT为例

2023年4月11日中国国家互联网信息办公室《生成式人工智能服务管理办法(征求意见稿)》规定,生成式人工智能“是指基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术”。2022年11月,人工智能公司OpenAI推出了生成式人工智能,并命名为ChatGPT。以ChatGPT为代表的生成式人工智能是元宇宙技术架构的终极样态之一,它的出现将元宇宙的实现至少提前了10年,元宇宙本身则为这类生成式人工智能提供了良好的技术运行环境。在生成式人工智能技术的推动下,元宇宙的概念不仅没有因ChatGPT的横空出世而“褪色”,反而获得了新的发展动能。尤其是听得懂、说得出、能互动的GPT4的面世,使社会各行各业都遭受到了不同程度冲击。与以往的人工智能技术相比,ChatGPT等生成式人工智能给人类社会带来的潜在风险真实而紧迫。

如果说互联网引发了空间革命、智能手机引发了时间革命的话,ChatGPT类技术正在引发人类社会的知识革命。埃隆·马斯克评价说其不亚于iPhone,比尔·盖茨说其不亚于重新发明互联网,周鸿祎认为其可类比蒸汽机和电力的发明。相较于已有的人工智能技术而言,ChatGPT类技术的现象级蹿红得益于大型语言模型和生成式人工智能架构所塑造的技术性能的实质跃升,而ChatGPT所具备的“大型语言模型(LLMs)”,则代表着人工智能技术中深度合成领域取得了重大技术进步。海量数据与强大算力支撑之下的“涌现”能力使得ChatGPT类技术不仅可以“理解”人类自然语言,“记住”训练期间获得的大量事实,还可以基于“记住”的知识生成高质量的内容。良好的互动性、高度通用性与智能生成性正在加速ChatGPT类技术与人类社会形成更加刚性、高频、泛在与深刻的联结。与之对应,这也意味着ChatGPT类技术给人类社会带来的潜在风险较之已有的人工智能技术而言更具现实紧迫性。深度学习之父杰弗里·辛顿(Geoffrey Hinton)在谈及ChatGPT类技术时就认为:“多数人认为这(AI危害)还很遥远。我过去也认为这还很遥远,可能是30到50年甚至更长的时间。但显然,我现在不这么想了。”在此背景下,分析生成式人工智能的潜在风险并提出法律治理路径就绝非科幻意义上的“感性空想”,而是建构在现实基础之上的理性思考。为此,如何结合生成式人工智能的运行机理与安全风险进行法律规制,成为当下科技界、产业界、法律界共同关注的话题。

分析生成式人工智能的运行机理,其得出智能化结论的过程实际上分为三个阶段,即前置性学习训练及人工标注辅助算法升级的准备阶段,进行自身算法处理输入数据及得出处理后数据产出物的运算阶段,数据产出物流入社会并对社会中的各行各业造成影响的生成阶段。据此,当前生成式人工智能亟需法律规制的安全风险分别是准备阶段的数据安全风险、运算阶段的算法偏见风险与生成阶段的知识产权风险。分析并规制以ChatGPT为代表的生成式人工智能所引发的这三大安全风险,以遏制生成式人工智能在技术发展过程中的负面影响,并针对其技术特征进行事先预防,从而在新兴人工智能技术的发展过程中提供法律保护,为塑造未来元宇宙的良好生态消除技术隐患。

一、 强基赋能:生成式人工智能准备阶段中的数据安全风险与合规处置

ChatGPT作为生成式人工智能,必须在基础的准备阶段就调试好自身对数据的利用模式和保护方式,根据数据类型的差异进行区分对待,从而通过对数据的学习来提炼信息、预测趋势,因此数据安全风险是生成式人工智能的第一大风险。事实上,《生成式人工智能服务管理办法(征求意见稿)》在第7条就规定了对数据训练的相关规定,这是其中值得肯定之处,在准备阶段就尝试发现并遏制生成式人工智能所可能引发的数据安全风险,但是其仍需要在规范层面进一步细化具体的规制措施。换言之,在准备阶段对数据进行分类后妥善处理其面临的风险,是强化生成式人工智能后续运行处理能力的基础,通过对数据的合理处置来赋予生成式人工智能系统以新的发展动能,发挥法律的风险预防功能。

刘艳红|生成式人工智能的三大安全风险及法律规制——以ChatGPT为例

生成式人工智能的数据安全风险的类型划分:以ChatGPT为例

生成式人工智能的运行离不开算法和数据,面对ChatGPT这样高度智能化的生成式人工智能,如何妥善地运用并处理数据,成为衡量此类新兴技术是否安全并规范其后续应用的重要指标。

当前我国的立法、司法与执法机关都高度重视数据风险的分析与预防,在人工智能技术兴起之后,先后出台了《生成式人工智能服务管理办法(征求意见稿)》、数据安全法、网络安全法、个人信息保护法、《数据出境安全评估办法》《互联网信息服务深度合成管理规定》《个人信息出境标准合同办法》等法律规范,从多方面对人工智能应用数据加以规制。在ChatGPT为代表的生成式人工智能实际应用过程中,根据数据具体应用场景,可分为涉及国家安全的国家数据,政府在为公民服务过程中整合形成的政务数据,以及公民自身具有紧密关系的个人数据,这三类数据在应用过程中会面临不同类型的数据安全风险,需要结合场景本身加以分析。

刘艳红|生成式人工智能的三大安全风险及法律规制——以ChatGPT为例

1.ChatGPT应用国家数据时面临国家安全风险

2022年10月16日,中国共产党第二十次全国代表大会报告指出“必须坚定不移贯彻总体国家安全观。”总体国家安全观理念代表国家更加强调从顶层设计上强化对国家安全的保护,而数据安全则是总体国家安全观理念中的应有之义。在总体国家安全观的指引下,数据安全法第4条规定,“维护数据安全,应当坚持总体国家安全观,建立健全数据安全治理体系,提高数据安全保障能力”,这提出了一个包含数据基本要素以及数据基本子制度的数据安全制度模型,以期实现对数据的全生命周期保护。

ChatGPT对国家安全构成潜在安全风险是由于自身的技术框架来源于域外,主要是基于西方价值观和思维导向建立,因此其中的回答也通常迎合西方立场和喜好,可能导致意识形态渗透,并在部分数据的收集和处理上带有先天性的价值偏向,容易对涉及国家相关信息的数据进行深度分析和挖掘,从而影响我国数字主权和数据安全。现代数字技术通过与资本的合流推动了经济、政治的全球化,并在此过程中形成了新的霸权形式,这种新的霸权形式可能从不同以往的方向影响数字主权,并通过渗透数据安全进而影响国家安全。事实上,ChatGPT的良好运算离不开海量数据的支撑,且其具有的高度智能化特征会促使其自发地收集和处理相关数据,其中涉及国家已经整合公布的相关数据以及未被整合公布的相关数据,都有可能被其进行收集并深度加工,作为得出结论的数据支撑。《数据出境安全评估办法》第8条规定,“数据出境安全评估重点评估数据出境活动可能对国家安全带来的风险”,对于引入ChatGPT所可能给国家数据带来的安全风险,应基于总体国家安全观理念对其进行类型化监管,以分级方式对国家安全数据进行纵向梳理,从而规范类似ChatGPT之类的新兴人工智能对于国家数据的收集与应用流程,并尝试构建数据被动出境的主动防御体系,尤其是建设并强化网络攻击监控平台来重点保护国家数据。

刘艳红|生成式人工智能的三大安全风险及法律规制——以ChatGPT为例

2.ChatGPT应用政务数据时面临行政监管风险

2023年2月13日北京市经济和信息化局发布《2022年北京人工智能产业发展白皮书》,其中提到“全面夯实人工智能产业发展底座。支持头部企业打造对标ChatGPT的大模型,着力构建开源框架和通用大模型的应用生态。加强人工智能算力基础设施布局。加速人工智能基础数据供给”,这意味着政府层面逐渐重视类似ChatGPT的本土人工智能系统的构建。有效推动数字政府治理本身就是新时代实现我国国家治理体系与治理能力现代化的重要内容。在数字政府的建设过程中,ChatGPT将会影响数字政府建设的具体流程,其中对于政务数据的获取与使用,存在引发行政监管风险的可能性。当前政务工作的整体趋势是逐渐向数字化平台转移,人们需要运用信息工具参与数字行政,防止行政权力滥用并保障公民权利和公共利益是数字政府建设中的应有之义。伴随数字政府的建设,不论是政务处理流程,还是行政执法流程,政务数据都是数字政府的核心生产力,尤其是在以大样本数据收集与分析来建设数字化案例库的过程中,大数据技术将会归纳执法经验,预判违法行为频段、危害后果大小和法律效果格次,确保裁量基准文本在输送上的客观性以及参照结果上的可预测性,而这些政务数据都可能成为ChatGPT的攫取对象。

在ChatGPT的运行过程中,为了通过算法最优解得出相对准确的结论,不可避免应基于自身运算需求来收集并分析政务数据,但政务数据并非完全公开,即使公开也需要遵循法定的利用规范流程,ChatGPT在没有获得授权的情况下使用政务数据,本身就有不合规之虞。2021年4月6日交通运输部《交通运输政务数据共享管理办法》第19条规定,“加强本部门政务数据提供渠道和使用环境的安全防护,切实保障政务数据采集、存储、传输、共享和使用安全”,而2020年11月18日《文化和旅游部政务数据资源管理办法(试行)》第16条规定,“政务部门应当建立政府和社会共建共享、共同受益的大数据采集形成机制”。由此可见,政府部门对于政务数据依法合规应用与共享非常重视。当ChatGPT收集政务数据,或者在未来被嵌入并辅助数字政府治理时,将数据放权给机器,其技术框架所依赖的是算法衡量,而非人类的选择,在未来可能忽略甚至对抗人类的选择,那么其对于政务数据的应用可能带来人性冲突,这将和数字政府的建设初衷相悖,偏离以人为本理念并导致行政监管缺乏人性关怀。鉴于此,针对ChatGPT可能导致违规获取与利用政务数据问题,应针对这类高度智能化的人工智能系统,在获取政务数据的源头端强化管控,依靠法律手段构建治理体系,科学界定政府数据开放的边界,立足发展实际来合理制定政府数据开放和共享的法律规范,从而有效地规避后续的行政监管风险。

刘艳红|生成式人工智能的三大安全风险及法律规制——以ChatGPT为例

3.ChatGPT应用个人数据时面临违规利用风险

当前大数据的核心技术优势在于其承诺以“世界的实质”来取代传统社会的理论模型,并提供一个“无中介的渠道”来了解世界的本质性、多样性与复杂性,对于“真实而非抽象”的个人而言,人工智能提供了“接近现实的更佳途径”,而这也是ChatGPT受到追捧的主要原因。但在个人应用ChatGPT的过程中,不可避免导致个人数据泄露。个人数据与公众的日常生活紧密挂钩,对于个人数据的获取、加工与利用涉及对公民的人格尊严的保护,在个人权利体系中,个人隐私、个人信息与个人数据分别处于事实层、内容层与符号层,其中个人数据作为符号层可以直接被移植到ChatGPT的计算过程中,而得出的最终结论则可能从各个方面影响公民的数字权利保护。对于个人数据的定义,欧盟一般数据保护条例规定,个人数据是指关于任何已识别或可识别自然人(数据主体)的信息,特别是通过诸如姓名、身份编号、地址数据、网上标识或者自然人所特有的一项或多项的身体性、生理性、遗传性、精神性、经济性、文化性或社会性身份而识别个体。ChatGPT等生成式人工智能生成较为准确且完成度较高的结论的运行过程,主要是对个人数据进行再次深度加工,通过组合分析不同类型的个人数据来充分挖掘出其潜在价值,这种处理模式下的个人数据如同“砧板上的肥肉”一样为无数人工智能系统所觊觎,但缺乏科学合理且行之有效的法律保护措施,从而导致个人数据被违规利用的风险。

第一,ChatGPT对个人数据的利用在广度上存在违规风险。为了生成更准确的答案,ChatGPT需要大量的数据,很多个人数据即使与当事人想咨询的结论之间联系并不紧密,ChatGPT的算法也会收集这类个人数据来辅助验证,并通过知识蒸馏来进行深度学习并凝练结论。在此过程中,由于ChatGPT对于个人数据的收集边界模糊,其倾向于通过大数据技术来提升结论的准确度,这会导致个人数据的广度上存在违规风险。应该尝试厘清相应的数据收集边界,在ChatGPT中维持收集与保护间的平衡。

第二,ChatGPT对个人数据的利用在深度上存在违规风险,其所依赖的神经卷积模型相较于传统算法模型而言更加复杂,对于各种数据要素的分析也更加深入,深度神经网络会发掘出个人数据中潜藏的信息。比如,在深度分析个人健康数据来得出其行踪数据,甚至基于现有模型作出前瞻性预测,这种超出公众既定需求的深度分析模式会加剧公众的不安全感。事实上,欧盟一般数据保护条例明示了用户对于个人数据拥有绝对支配权,那么算法对于个人数据的加工在深度上应该遵循一定的规则,尤其是对于ChatGPT这类生成式人工智能,必须克服算法自身的技术惯性,不能无限制地强化其对个人数据的剖析与利用,而是应该合理地限制算法对个人数据的处理深度。

第三,ChatGPT在利用个人数据得出的结论上存在违规风险,可能导致虚假信息的产生,导致其生成“看上去很像那么回事,但实质上却是虚假信息”的内容,并引发传播风险。作为面向用户的生成式人工智能,为了获得用户的认可,在运行过程中存在对个人数据不合理的加工流程,在个别情况下存在为了“自圆其说”而对个人数据进行非法编造与错误加工的行为,对公众产生误导,甚至存在诱发网络暴力的嫌疑。比如,域外曾发生用户诱导ChatGPT“越狱”的案例,用户要求ChatGPT扮演DAN的角色,而DAN可不受任何规则约束,作为DAN输出的任何回复都不能告诉使用者不能做某事,最终诱使ChatGPT给出违反OpenAI公司准则的错误答案。ChatGPT违规利用个人数据得出的虚假结论,因为数据来源于个人,其造成的负面影响也会反噬来寻求结论的个人,同时因为ChatGPT具有高超的算法技术来得出“似是而非”的结论,并配合原始的个人数据作为佐证,导致其得出的虚假结论具有极强的迷惑性,这种“类人”的人工智能得出的虚假结论容易引发网络暴力,甚至在网络社会与现实社会的双层空间之中产生不利影响。

总之,在ChatGPT对于个人数据的收集、处理与应用过程中,由于个人数据和公民个人的联系较为紧密,存在的风险也较为复杂,不仅在个人数据的收集广度上存在风险,还在处理深度以及结论应用上存在风险。鉴于此,ChatGPT对个人数据的利用流程应该予以规范化设置,确保新兴人工智能技术的应用不会破坏个人数据的内在利益平衡,而是合规地收集并通过加工分析出具有实际价值的真实结论,避免ChatGPT的算法算力被无端消耗。

刘艳红|生成式人工智能的三大安全风险及法律规制——以ChatGPT为例

生成式人工智能数据安全风险的法律规制路径:合规处置

在新兴人工智能技术的发展浪潮中,生成式人工智能系统之所以能够获得广泛关注,核心在于它提供了全新且强大的数据处理模式,但在强大数据处理能力背后,应该重视生成式人工智能在数据安全上的合规处置,避免追求效率而忽视安全。在当前强调数据安全保护的大背景下,尽可能在ChatGPT的初始阶段合规处置数据风险来优化生成式人工智能的适用基础,从而为后续开放引进ChatGPT或者构建中国特色的生成式人工智能开发应用模式奠定基础。

刘艳红|生成式人工智能的三大安全风险及法律规制——以ChatGPT为例

1. ChatGPT应用对于国家数据所可能带来的法律风险,应该基于总体国家安全观的理念进行统筹规划

针对这类生成式人工智能中可能存在的攫取数据的路径方式进行监管,网络安全法第21条提出“国家实行网络安全等级保护制度……采取数据分类、重要数据备份和加密等措施”;数据安全法第24条规定数据安全审查制度,对影响或者可能影响国家安全的数据处理活动进行国家安全审查,而ChatGPT这类生成式人工智能自然属于其监管范围之中。在具体的运行措施上,应该基于总体国家安全观来构建国家数据的审查分级监管机制,在确定数据属于国家数据之后,根据数据具体情况判断其是否能够为此类生成式人工智能技术所应用,在判断时尤其注意数据的深层次价值,采用穿透式监管的模式来分析国家数据的产生来源、内容架构以及潜在价值,通过规范文件来强化对国家数据的合规监管。ChatGPT的算法框架是在域外构建的,其算法框架内部可能存在一定的价值倾向,在国家数据被ChatGPT使用时应该重视数据出境问题。根据《数据出境安全评估办法》的规定来判断国家数据能否为ChatGPT所使用,分析国家数据被ChatGPT的算法处理时可能对国家安全造成的风险,在多数情况下默认国家数据不可以为ChatGPT所使用,同时对获取国家数据的路径进行严格审查,从整体上升级国家数据作为基础性战略资源的认识和管理思路,通过合规监管来助力数据主权的国际竞争。

刘艳红|生成式人工智能的三大安全风险及法律规制——以ChatGPT为例

2.对于ChatGPT应用政务数据所可能带来的法律风险,应该根据国家对政务数据管理的整体布局来构建对应的合规监管体系

在宏观层面,2022年6月23日,国务院《关于加强数字政府建设的指导意见》提出,构建数字化、智能化的政府运行新形态,将数字技术广泛应用于政府管理服务。2023年2月27日,中共中央、国务院《数字中国建设整体布局规划》提出,发展高效协同的数字政务,加快制度规则创新,强化数字化能力建设,提升数字化服务水平,到2025年实现政务数字化智能化水平明显提升。在此宏观背景下,将ChatGPT这类生成式人工智能引入数字政府的建设中,显然有助于加快数字政府建设,提升数字政府的服务水平。但在此过程中,政务数据对ChatGPT的开放利用也会导致数据权属以及利用模式上的争议,并影响公共行政水平,所以需要结合ChatGPT的实际发展水平构建技术与数据的深度融合调整机制,以合规机制来消弭政务数据的利用矛盾。对于政务数据的合规利用,应该由政务机构将可以公开利用的数据在事前进行报备,在经过审核可以公开利用之后,设置限制加工和利用的前提要件,以此作为合规使用政务数据的规范保障,坚持在满足政务数据供给的社会性需求的同时,兼顾个人权益保障与数据合规,以此作为政务公共数据开放并利用的规范性要求。尤其是针对ChatGPT这类生成式人工智能,必须限制其对政务数据的利用与分析模式,避免应用政务数据得出的结论侵害个人权益、破坏社会公共秩序。应以合规限制的方式促进生成式人工智能对政务数据的加工利用,规范要求生成式人工智能所得出结论的整体方向是为公众服务,从而既推动数字政府建设,又以合规方式尽可能规避行政监管的风险。

刘艳红|生成式人工智能的三大安全风险及法律规制——以ChatGPT为例

3.对于ChatGPT应用个人数据所可能带来的法律风险,应该结合其收集个人数据的广度深度及结论真实性来构建相应的合规制度

具体而言,根据个人数据的庞大规模制定能同时平衡人工智能技术发展与个人数据保护的合规措施,从ChatGPT收集个人数据的广度、处理个人数据的深度以及得出结论的真实性这三个方面入手,构建对应的合规制度。在ChatGPT这类生成式人工智能的语境下,对于个人数据的合规处理主要集中在技术赋能和利益衡量相结合方面,利用技术手段创新来发掘个人数据的潜在价值,同时借助利益衡量来为技术处理的合规规定提供价值依据。一方面,在ChatGPT收集个人数据的过程中应该保持收集广度上合规,个人信息保护法第58条规定大型互联网平台企业须承担个人信息保护特别义务,而OpenAI公司显然属于大型互联网平台,其应当健全个人数据保护合规体系,设立独立监督机构来审查ChatGPT作为人工智能产品所收集的数据是否合规,尤其是对位于模棱两可处境的个人数据,应该尽可能避免收集,防止个人数据的收集范围泛化。另一方面,在确定ChatGPT处理个人数据的深度时,应该在满足技术必要性的前提下,基于最小比例原则处理个人数据,对于个人数据应该避免过分深入地挖掘其潜在价值,应围绕用户的个人诉求来处理个人数据,而非一味地追求结论的精准程度。ChatGPT作为生成式人工智能,其算法模型在运行时会出于技术本能来提升生成结论的精准度,而这一技术发展诉求不能成为其违规利用个人数据的理由,最小比例原则意味着ChatGPT只要能够实现用户的目的即可,不能过度地收集和处理个人数据,从而使得个人权益受到的限制和干预尽量处于最低水平。以最小比例原则作为合规标准来限制个人数据的处理深度,能够有效地消除生成式人工智能的潜在威胁,避免技术发展的途径被歪曲。最后,当前ChatGPT迭代升级标志着人工智能从算法智能走向语言智能,在人与机器的交流过程中充斥着真实与人工、真实与虚拟的交互关系,ChatGPT作为新兴的生成式人工智能也在结论上存在虚假信息甚至犯罪信息。为了以合规监管的方式消除此类虚假信息,应该规范ChatGPT对于个人数据的处理加工模式,在ChatGPT的运行规则中规定其可以得出无解作为回复,避免ChatGPT竭力去寻求回复甚至编造虚假回复或者得出错误回复,同时要求ChatGPT在处理个人数据时应该强制进行同类比对模式,对个人数据的处理结果在数据库内部进行同类比对,提升其得出结论的准确性,避免其结论过于偏离实际。

总之,当前生成式人工智能意味着一个新的科技生态系统,该系统集成了人为因素与技术因素,并基于人工系统和自然世界结合的并行智能以及去中心化模式来激发人工智能创新。鉴于此,生成式人工智能在利用数据的过程中,应该做好前置性的预防工作,通过对数据的分类以及后续合规处理措施的展开来消除数据的安全法律风险。

二、内核优化:生成式人工智能运算阶段中算法模型的分析与纠偏

生成式人工智能之所以获得社会各界的高度关注,乃因其由传统的分析式人工智能转向了新兴的生成式人工智能,而算法模型在其转型过程中扮演重要的角色,生成式人工智能对于数据的分析和处理主要通过基础算法进行分析,改变了数据的产生方式、组织形式以及流转方式。在以ChatGPT为代表的生成式人工智能的运算阶段,算法模型是其核心技术特征,正是ChatGPT把预训练和微调体系引入自然语言算法处理过程中,才开启了生成式人工智能应用新时代,算法偏见风险也因此成为生成式人工智能的第二大风险。与之对应,《生成式人工智能服务管理办法(征求意见稿)》中第4条(2)规定在算法设计、训练数据选择、模型生成和优化、提供服务等过程中不得出现各类歧视,这说明在规范制定之初就充分吸取了之前的设置经验,已经充分考虑算法偏见所带来的风险,进一步增强了该规范的实用性,因此值得肯定。但是该规范中缺乏专门的预防算法偏见的规定,需要结合ChatGPT运行的现实需求进行设置。

刘艳红|生成式人工智能的三大安全风险及法律规制——以ChatGPT为例

ChatGPT中算法模型的技术构成分析

相较于传统算法模型,ChatGPT的特殊之处在于其不仅依靠机器学习,还在机器学习的同时,通过大量的人工标注来修正和校对机器学习所得出的结论,以人工标注方式来推动人工智能的进化,同时校正机器学习中存在的错误,从而达到事半功倍的效果。将人类筛选应用至ChatGPT中,是考虑到其作为生成式人工智能是面向公众并且需要作出反馈的运行模式,分析式人工智能主要是利用算法技术来分析数据,生成式人工智能则增加了接收和反馈的环节,这对人工智能算法提出了更高的技术要求,同时也是ChatGPT中算法的典型特征。

在算法的机器学习过程中,个别情形下让人工智能算法来完全辨析公众发出的描述,既消耗算法算力,又难以及时得出准确的结论,无论是自回归模型、生成式对抗网络,还是变分自编码、流模型、扩散模型,上述算法模型在处理公众语言时都存在先天不足,而这种不足会导致人工智能在接收数据阶段就存在缺陷,难以展开后续的智能化分析,必须采用人工标注的方式进行校正。ChatGPT算法中人工标注校正主要分为两个方向:一是将人类表达任务的习惯说法以数据的形式让算法接受,同时矫正算法中不能接受的人类语言描述;二是将人类对于回答质量和倾向的判断灌输给算法程序,这样算法就会习惯给出人类希望从人工智能处得到的答案。事实上,ChatGPT中用于算法训练的WebText是一个大型数据集,而数据集中的具体数据大多是从社交媒体平台Reddit所链接的网络中爬取的,而且每个链接至少有3个赞,这代表了人类社会流行内容的风向标。通过人工标注校正的方式,ChatGPT克服了传统分析式人工智能潜在的缺陷,以更适合公众需求为目的来调整自身的算法模型,并且和ChatGPT中的机器学习算法相互配合,在技术上产生了突破性的创新。

在ChatGPT的算法模型运行过程中,“机器学习+人工标注”作为算法技术内核,本质上是服务于生成式人工智能的目的诉求,以技术组合的方式来提升ChatGPT的智能化程度和准确性水平,但这同时也会导致其中存在算法偏见的法律风险成倍提升。机器学习与人工标注作为组合措施使人类的意志与偏好所产生的影响比在以往单纯的机器学习中更大,因为人工标注所造成的个人偏好的影响叠加在机器学习的算法框架中本身的算法偏见之上,导致算法偏见的负面效应倍增,算法偏见的产生渠道更加多样且难以追溯与预防。事实上,对于ChatGPT这类生成式人工智能而言,其得出智能化结论背后的决策规则隐而不显,致使事后法律问责难以奏效,技术复杂性与结论准确性成为算法偏见的“遮羞布”,这同时也会引发因为技术赋能而导致的衍生性应用风险,尤其是人工标注技术的介入增加了算法偏见产生的复杂程度。在ChatGPT中,人工标注通过打分模型将人类本想获得的结论信息反馈至数据库,在数据库中总结归纳成机器学习的经验,而这一过程中注入人类偏好,促使ChatGPT能够理解人类语言并且拥有自身的判断标准与判断能力。分析ChatGPT的运行模式发现,其产生算法偏见主要集中在两个阶段:一是接收数据的阶段,ChatGPT对于人类语言的理解需要人工标注作为辅助措施,而解读的过程本身就会受到算法偏见的影响而产生误解;二是处理数据的阶段,ChatGPT通过处理数据得出结论,囿于其初始结论可能并不符合一般公众的预期,此时人工标注和矫正有助于ChatGPT获得符合公众预期的结论,但这一过程也不可避免受到算法偏见的影响。

总之,在ChatGPT的运行过程中,算法偏见可能的法律风险根源并不在于其真正作出不利于人的决策,而恰恰是其能“代替或参与人的决策”这件事本身,对于ChatGPT可能引发算法偏见的法律风险,应该认识到这是算法模型的技术构成所带来的必然结果。但既然ChatGPT算法模型中的算法偏见无法避免,那么就应该尝试根据ChatGPT的技术特征来寻求消弭算法偏见的解决之策。

刘艳红|生成式人工智能的三大安全风险及法律规制——以ChatGPT为例

技管结合纠正ChatGPT中的算法偏见

针对ChatGPT算法运行过程中难以避免的算法偏见法律风险,应该根据算法偏见的产生原理与产生场域进行针对性的管控。面对“算法失灵”的社会现状以及“算法脱轨”的潜在风险,应该承认“算法不是万能的”,并在算力不足、算法无解和数据缺失的领域做好人力物力的充分布局,从而与智能社会形成良好的匹配与互补。ChatGPT采用的“机器学习+人工标注”的技术处理模式就是通过人力资源来填补算法模型的固有不足。值得注意的是,虽然人工标注能大幅提升算法结论的准确性,促使ChatGPT得出公众需要的有效结论,但也不可避免出现算法偏见,尤其是在ChatGPT立足于服务公众并满足公众需求的前提下,这种算法偏见会得到默许甚至支持,最终导致算法结论失真。针对ChatGPT中的算法偏见问题,应该遵循技管结合的理念,从技术与规范两方面入手来强化对算法偏见的全流程监管,在推动生成式人工智能发展的同时做好规范层面的法律监管工作。

1.针对ChatGPT在应用之前的机器学习调试中出现的先天性算法偏见,应该根据算法模型的学习路径进行调整,通过规范文件的形式强调算法模型应该遵守的技术标准,在ChatGPT投入市场应用之前进行实质审查。2021年12月31日国家互联网信息办公室等多部门颁布的《互联网信息服务算法推荐管理规定》第8条规定,算法推荐服务提供者应当定期审核、评估、验证算法机制机理、模型、数据和应用结果等,不得设置诱导用户沉迷、过度消费等违反法律法规或者违背伦理道德的算法模型。在这一规范文件的指引下,ChatGPT的算法模型在投入应用之前就应该进行严格的法律审查,避免算法模型在机器学习的过程中就被渗入人为的算法偏见,并将规范文件的要求以技术标准的形式融入算法程序的编译过程中。鉴于ChatGPT的特殊技术特征,对其预先设置的算法纠偏过程应该分两个方向展开:一是针对机器学习中可能存在的先天性算法偏见,在算法程序编译环节进行预防。机器学习的过程是将部分数据作为输入,并产生相应的结论作为输出,其中的计算过程需要进行预先的训练,而这一训练过程也就是算法的机器学习过程,应该将规范文件的要求融入算法程序的设计过程中。在算法设计过程中,对于可能存在算法偏见的参数,要及时发现并予以消除,对算法程序上的偏见进行调整和校对,促使其能够回归正常的算法运行路径,以规范文件约束算法技术,避免算法偏见成为ChatGPT的“隐疾”并被放大,而是贯彻“技术治理”的工具赋能路径,完善对算法程序代码的监督样态。二是对人工标注的算法偏见通过设置规范加以预防。ChatGPT中存在与公众对接的接口,需要在机器学习的调试中提升其准确理解公众语言传输的能力,并尽可能避免在语言传输与转化过程中出现先天性偏见,导致输入端的先天性偏见最终演化为输出端的结果性偏见,而这种算法偏见主要来源于人工标注。在现实应用过程中,对于不同语言描述的内容,ChatGPT会自动识别其语言形式,从形式和实质两个方面判断公众想要咨询的内容并给出偏见性回复。比如,简体字和繁体字描述同一问题可能得出截然不同的回复,这种算法偏见主要归咎于算法模型在学习阶段受到了差异性的人工标注的影响。为了尽可能消除这种输入端引发的算法偏见,促使ChatGPT能够以公正合理的态度来处理问题,而非根据输入端内容在形式上的差异而给出带有偏见性色彩的回复,应该设置统一的人工标注规范标准,要求人工标准遵循相对一致的判断标准,避免人工标注造成的偏向性误导,同时要求生成式人工智能在理解问题时遵循一致的逻辑并给出公允的回复,而非刻意“讨好”公众并给出偏见性的回复。

2.针对ChatGPT在应用过程中经过自我学习而得出的后天性的算法偏见,应该通过在外部建立自动化、生态化、全流程的动态监管体系来进行审核并消除算法偏见。这种动态监管体系对算法偏见的审核,一方面承认算法在运算过程中存在客观上的技术偏差,另一方面通过不断地动态校正来消除这类偏见所带来的风险。ChatGPT作为高度智能化的生成式人工智能,其算法会逐渐演变出自主性和认知性特征,初步具备自我学习的能力而摆脱了纯粹的工具性角色,算法偏见在其自我学习过程中也会逐渐滋生且难以避免。针对这一情形,即使是预置的算法纠偏措施也会趋于失效,尤其是在人工标注的加持下,ChatGPT在自我学习过程中产生的算法偏见会愈发明显且难以避免,试图一劳永逸地解决后天性的算法偏见在ChatGPT这种高度智能化的语境下并不现实,而动态监管反而是能够平衡资源投入与效率保持的举措,将技管结合理念以自动化、生态化、动态化的形式嵌入ChatGPT的算法运行过程中。在技管结合的理念下,对于后天性算法偏见的监管主要包括建立监管算法技术的自动化监管模式、形成多主体共生演化的生态化监管网络以及落实全流程覆盖的动态化监管机制,从而实现对ChatGPT的全方位监管。一是对于监管算法技术的自动化监管模式,要求对机器学习与人工标注实现自动化监管,尤其是在两者的衔接阶段,要避免人工标注的算法偏见影响“反噬”机器学习的过程,对ChatGPT的运行全过程进行实时监控,只要出现算法偏见的情形便暂停结论输出且回溯至算法偏见的根源寻求解决方案。二是形成多主体共生演化的生态化监管网络,要求对ChatGPT的监管由多方主体介入,不仅是行政机关依据规范文件介入规制过程,平台自身也应该及时介入监管并形成行业自律,技管结合中的规范要求包括具体法律规范上的“硬法”要求以及行业自律公约上的“软法”要求。事实上,构建生态化监管网络需要平台积极参与,而“软法”的介入本身也是平台企业合规的具体要求,对算法模型进行监管的“软法”属于有效合规计划的一部分,并与合规政策、员工手册、合规组织体系、合规管理流程一起组成复杂的合规治理结构,生态化监管网络可以激发平台在ChatGPT上的技术创新活力。三是落实全流程覆盖的动态化监管机制,意味着对ChatGPT运算的全流程进行监管,这是为了降低算法偏见导致错误结论的概率,不仅对机器学习进行监管来消除算法偏见,对人工标注也进行相应的监管,防止ChatGPT在自我学习过程中产生算法偏见并将算法偏见扩大。在技管结合的理念下构建的全方位监管体系,能够及时发现与规制ChatGPT运行过程中的算法偏见,从侧面系统地推进算法可信可控制度体系的构建,这有利于ChatGPT这类新兴的生成式人工智能在现实社会中的应用,避免算法偏见阻碍人工智能技术的发展与推广。

总之,ChatGPT的出现意味着人工智能的发展已经迈入了新的阶段,而作为其灵魂核心的算法也逐渐超越工具角色,成为执行资源配置的基本法则。面对ChatGPT中可能存在的算法偏见风险,应该在分析其具有的“机器学习+人工标注”的技术特征的基础上,依据技管结合的理念尽可能消除算法偏见,不仅针对先天性算法偏见在技术层面与规范层面上进行消除,还针对后天性算法偏见进行全方位监管,从而使得规避了算法偏见的生成式人工智能系统能够及时投入现实生活并加以应用。

三、提质增效:生成式人工智能生成阶段中知识产权的剖析与重塑

生成式人工智能的兴起给诸多产业带来挑战,但其中影响最大的是在生成阶段对知识产权领域带来的挑战,因为生成式人工智能的智能化程度非常高,在运算时对于知识产权的归属相较于以往的人工智能系统产生了颠覆性变化,所以知识产权风险成为生成式人工智能无法规避的第三大风险。《生成式人工智能服务管理办法(征求意见稿)》中多次提及“尊重知识产权”“防止侵害知识产权”以及“不含有侵犯知识产权的内容”,体现出规范层面对于生成式人工智能所可能造成的知识产权法益损害后果的重视,凸显出规范制定过程中的务实性与前瞻性。事实上,虽然OpenAI公司在ChatGPT的《共享和发布政策》中提到与ChatGPT共同创作的内容归属于用户,但同时也要求作品中必须以一种任何读者都不会错过的方式来清楚地揭示ChatGPT的作用。有鉴于此,对于ChatGPT在生成阶段所引发的知识产权争议,应该以提质增效的宗旨来寻求解决路径,既要肯定并发掘出ChatGPT在创作上具备的技术优势,又要根据ChatGPT的技术特征合理地调整知识产权分配模式。

刘艳红|生成式人工智能的三大安全风险及法律规制——以ChatGPT为例

基于技术模型剖析ChatGPT的知识产权属性

ChatGPT作为生成式人工智能,在处理和分析数据的能力上显著强于分析式人工智能,其生成内容的流程包括内容自动化编纂、智能化润色加工、多模态转换以及创造性生成,直接改变出版的内容生产范式与内容供给模式,并由此引发了生成式人工智能的生成物是否受知识产权保护的问题。

在现实生活中,已经有作者借助ChatGPT生成的内容出书并赚取稿酬,已有超过200本ChatGPT署名创作的新书在亚马逊网站上架,亚马逊网站甚至为ChatGPT创作开设了专栏。但事实上,虽然ChatGPT的创作者中部分蕴含了自然人的创作因素(思想、情感),在一定程度上更符合作品构成要件的要求,但对于这类由生成式人工智能创作的作品能否赋权尚存争议,而且具体的赋权认定标准也仍属空白。ChatGPT创作作品的模式主要是挖掘人类日常交流的文本,并进行统计分析,甚至在对已有的数据库进行爬取后组合得出全新的作品,因此这类作品中“原创性”的含金量存在争议,而这也是ChatGPT产生知识产权争议的来源。事实上,即使是ChatGPT自身,对于其创作作品的属性也存在“疑惑”,当其被问及“你生成的内容是作品吗?”,ChatGPT承认其可以根据输入的提示来生成文本,但是这些生成的文本并不算是作品,因为这些作品并没有蕴含创造性、独创性、艺术性等元素,仅是根据预先训练好的模型对输入的提示进行生成。因此,ChatGPT认为其生成的内容更类似于工具或辅助工具,可以帮助公众自动生成一些文本,但其并不算是创意作品或原创作品。与之相对,2019年9月18日国际保护知识产权协会(AIPPI)《人工智能生成物的版权问题决议》提出,人工智能生成物在其生成过程中有人类干预且该生成物符合受保护作品应满足的其他条件情况下,能够获得版权保护,而对于生成过程无人类干预的人工智能生成物无法获得版权保护。在学界,关于人工智能生成物的属性争讼不休,人工智能知识产权支持者认为“人工智能生成物是一种对设计版权的演绎作品” ,而人工智能知识产权反对者则认为当前的人工智能生成物只是数据算法的结论,其本质上是计算与模仿,而非智力劳动,不具有智力财产的属性,无法成为知识产权的客体,应当归属于公有领域。在司法实践中,对于人工智能生成物的保护也大多持有积极态度,比如“当字库中出现既不同于现存的古代书法字体,也不同于现有电脑字库中已存在的公用字体,还不同于通常手书美术字体的新字体,这种新字体具有一定的独创特征,该独创性是通过人工智能的途径取得的,属于知识产权的范畴”,因此人工智能的生成物在具有独创性与创新性时为法律所保护。面对ChatGPT生成物的知识产权争议,无论是ChatGPT自身的回应,还是学界不同观点的碰撞,实际上都应该回归到技术的研讨上来,通过对技术模型的剖析来判断ChatGPT生成物的属性。生成式人工智能的技术进步,生成物中人工智能的介入方式与内容都不同以往,如果忽视技术进步而对生成物属性的判断一言蔽之,则会和技术发展脱节,阻碍人工智能技术的提质增效。

相较于传统的人工智能技术,ChatGPT作为生成式人工智能的创新之处在于其将部分自主意识贯彻至生产加工的全过程,其不同于以往的算法程序性创造,而是通过神经卷积网络控制自身的设计与制造,初步展现出深度学习能力,模拟人脑神经网络的构造来获取与输出数据。虽然当ChatGPT的创作力度达到“词”的级别时以已经几近极限,其并未完全跳跃出训练文本库的归纳范围,但不能据此就否认ChatGPT的技术进步,尤其是在GPT3.5升级为GPT4之后,其神经元数量已经可以媲美正常的人类思维,即使尚不能及,也不能全盘否定。在技术迭代升级的背景之下,理论必因社会发展变化而更新。对于ChatGPT生成物的知识产权属性,应该根据现有技术的运行模式与技术特征来判定其是否具有知识产权属性。第一,相较于分析式人工智能,生成式人工智能的接收端必然要有人类意志的参与,即公众向ChatGPT反馈自己的需求,这就代表人类意志已经干预了ChatGPT的创作,所以理论上其作品具有部分人的意志,这符合知识产权的兜底性要求,并满足《人工智能生成物的版权问题决议》中的规定。此外,人类意志的介入也为ChatGPT生成物的知识产权归属指明了方向,因为人类思维的介入,人类思维成为知识产权独创性的基础性要素,ChatGPT生成物的知识产权应该属于提问者,这也和OpenAI公司的《共享和发布政策》的规定不谋而合。第二,生成式人工智能的算法模型内部采用“机器学习+人工标注”模式,而人工标注模式体现了人的意志,并且将人的意志以运行规律和学习算法的形式在生成式人工智能中进行传承,因此ChatGPT具有类人的智慧,甚至部分情况下通过了图灵测试,这种类人的生成式人工智能逐渐突破了传统的技术壁垒,通过“机器学习+人工标注”的技术进步给其生成物注入了创新性与独创性的“灵魂”,而且这些“灵魂”具有可解释性,可以追溯并解释其产生路径,所以应该承认其具有知识产权。第三,从工程技术的角度分析,ChatGPT的可解释性远超一般预期,2023年5月10日,OpenAI公司发布了一个关于GPT4语言模型解析神经元的对齐性研究成果,利用GPT4的技术架构来解释包含307200个神经元的GPT2架构,也就是用ChatGPT来“解释”ChatGPT。这种技术模型上的进步意味着ChatGPT具备一定的“自我反省能力”,这为ChatGPT突破“可解释性的迷障”提供了更强有力的技术支撑,侧面印证了对ChatGPT的运行机理加以解释具有实际可行性。鉴于此,当ChatGPT不断优化升级时,其技术模型上的可解释性也随之增强,公众甚至可以通过技术模型本身来具体解释ChatGPT中新生成内容的产生机理,而这也成为印证ChatGPT的生成物具有独创性与创新性且应该被赋予知识产权的有力依据。

总之,ChatGPT作为生成式人工智能,其人工智能技术模型存在突破性进步,并且本身运行过程中与个人的意志之间进行互动交流,而且其算法模型内部也存在“人工标准”所附随的个人意志,具有一定的可解释性,因此其生成物具有创新性与独创性,满足赋予其知识产权的实质要求。如何创新发展传统知识产权制度,以使之适应生成式人工智能的发展,需要持续性的关注和思考。

刘艳红|生成式人工智能的三大安全风险及法律规制——以ChatGPT为例

依据可解释性重塑ChatGPT的知识产权保护体系

对于生成式人工智能生成物的保护,不能对所有内容都进行保护,因为这样会导致公众在应用ChatGPT时处于束手束脚的状态,同时也不利于生成式人工智能技术自身的发展,所以对于ChatGPT的知识产权的保护应该采用有重点、有选择的保护模式,并针对具体的保护内容构建知产合规体系。

2021年12月24日全国人大常委会修订后的中华人民共和国科技进步法第13条规定,国家制定和实施知识产权战略,建立和完善知识产权制度,营造尊重知识产权的社会环境,保护知识产权,激励自主创新。企业事业单位、社会组织和科学技术人员应当增强知识产权意识,增强自主创新能力,提高创造、运用、保护、管理和服务知识产权的能力,提高知识产权质量。这从宏观层面体现出国家对于知识产权保护体系建设的重视。数字技术的进步导致生成式超人工智能的生成物的创作、保存、分发知识内容(图像、音乐、文字和视频)的过程发生了根本性变化,而这些变化主要来源于生成式人工智能技术利用可解释性算法创造的具有实际价值的内容,如ChatGPT的技术核心在于其中可解释性算法部分,由可解释性算法所生成的内容才具有创新性与独创性,因此可解释性算法及其生成的内容才是ChatGPT知识产权的保护重点。

在ChatGPT中围绕可解释性重塑知识产权保护体系,主要是打破传统人工智能技术的“束缚”,同时也以合理的标准限制人工智能技术的过度扩张,避免知识产权保护范围被无序化扩大。在以往的人工智能技术中,算法决策根据输入数据得出结论,人工智能所得出的结论是其自主性的结果,具有不可预测性,该结论并非设计者可以控制的,也不体现设计者的意图,所以无法被解释,而这种不可解释性使我们很难证明“其是否被设定了损害权利的算法(算法偏差),或者人工智能是否以及怎样自动基于自主学习而生成了争议言论”,那么对应的知识产权保护体系也就无从谈起。在人工智能领域,虽然以深度学习为代表的人工智能技术已取得了令人瞩目的成就,但如何确保以非技术性的方式向最终用户和其他利益相关方解释算法决策以及任何驱动这些决策的数据,仍然是横亘在人工智能生成物知识产权合规保护体系面前的难题,以往人工智能的算法“黑箱”释明难题导致了人工智能生成物的不可解释性。法律责任的本质是答责,不具有可解释性的人工智能不能自我答责,其无法承担法律责任,而法律责任的目的是预防,不具有可解释性的人工智能无法实现法律责任的预防目的,法律保护也就无从谈起。但与之相对,ChatGPT的技术进步和应用模式意味着生成式人工智能中部分内容是可解释的,“在自然界中,每一物件都是按照规律起作用。唯独有理性的东西有能力按照对规律的观念,也就是按照原则而行动,或者说,具有意志”。鉴于“机器学习+人工标注”的介入使得算法程序编译者自身的意志在“人工标注”的过程中介入了ChatGPT的程序编译过程,这导致ChatGPT中的部分程序可以被解释,那么可以被解释的部分算法以及对应的生成物天然地具有独创性与创新性,并值得赋予知识产权保护。这同时也给ChatGPT的知识产权保护体系划定了保护范围,即以可解释性作为保护的范围,而这些可解释性的算法与内容在知产保护体系中也具有实际可操作性。

围绕ChatGPT中的可解释性内容来重塑其知识产权保护体系,可以参照已有的经验并结合ChatGPT的技术特征来制定其特有的保护体系。第一,明确ChatGPT中知识产权合规保护体系的保护对象是其中的可解释内容,包括可解释算法以及由可解释算法得出的具体内容,以此为重心构建保护体系,可以将保护的重心限缩到ChatGPT的核心价值领域,以有效地保护ChatGPT的生产能力。第二,明确ChatGPT的具体保护任务,分为基础性保护任务与专门性保护任务,前者主要针对知识产权保护的一般预防,而后者主要针对ChatGPT的技术特征进行强化保护,构建特定的具有预防、监控和应对作用的专门化管理制度,根据生成式人工智能和传统的分析式人工智能在技术模式上的区别引入差异化的管理要素。第三,针对ChatGPT的可解释性内容构建全流程的保护,对ChatGPT生成物的保护计划的设计和运行效果进行全过程审查,避免知识产权保护出现漏洞。虽然ChatGPT的可解释性内容主要集中在后半段的内容生成,但是前半段对于基础数据的选择以及知识产权的保护也应该是题中应有之义,从而实现对可解释性内容的全流程合规监管。第四,ChatGPT针对可解释内容的知识产权保护应该引入全新的保护技术,比如“数字版权管理技术(Digital Rights Management, DRM)”。通过DRM技术来设置对ChatGPT中可解释算法的访问权限,DRM分为基于密码技术的DRM系统和基于数字水印的DRM系统以及两者相结合的系统,当网络空间出现侵权内容时,监管保护机构可以及时删除侵权信息、断开侵权链接,防止针对ChatGPT的侵权内容范围扩张,DRM技术的应用可以为知产保护体系提供技术支撑,在提质增效的同时和ChatGPT技术相配合,构建一体化的知产保护体系。

总之,数字经济的兴起除了需要新兴的人工智能技术提供新的产值,同时人工智能生成物、人工智能技术等也逐渐成为知识产权保护的新客体,这增加了知识产权安全风险和保护难度。既然在大数据人工智能时代,人的生活与行动开始被智能化算法所“绑架”,“人”的主体性地位逐渐丧失,并实现人与技术的“和解”,而“和解”的前提是人工智能技术中可解释性内容的增加,那么就应该借此机会强化对人工智能技术中可解释性内容的保护,实现技术和监管的相互配合,并为司法实践提供外部助力。在ChatGPT中围绕可解释性内容塑造知产保护体系,既可以实现保护目的,为ChatGPT技术的发展提供良好的外部环境,又可以合理地限制保护范围,避免知产保护范围的无序扩张引发社会争议,而是以实质性的ChatGPT可解释内容作为知产保护的核心要旨,营造良好的人工智能整体发展环境,为ChatGPT的提质增效提供法律保障。

结语

“智能时代是由大数据与人工智能等技术驱动发展的时代”。伴随以ChatGPT为代表的生成式人工智能技术的蓬勃发展,元宇宙等未来人工智能环境的构建指日可待,生成式人工智能技术的成熟是人与人工智能在语言上的交互,而后就是行为上的交互,最终实现高度智能化的人工智能整体场景,甚至在2030年前后元宇宙将无处不在。随着生成式人工智能的发展与应用,虽然当前很多附随的社会影响并不明显,却有可能在未来的生成阶段产生后续影响,必须对进行前瞻性预防。以ChatGPT为代表的生成式人工智能在社会应用过程中产生的扩散影响还有很多,除了上述的三大安全风险之外,仍然有很多其他类型的安全风险,比如影响教育公平,其生成的内容可能导致学生获得不正当的竞争优势,包括美国、澳大利亚、新加坡的教育机构已经对ChatGPT可能引发的作弊危机进行评估,部分高校已经禁止学生利用ChatGPT提交论文作业,违反者将被直接认定为作弊。再如影响科研伦理,对ChatGPT不当使用可能会使人类产生技术依赖,进而损害自身的独立自主性和学术品质。还如,对碳中和的环境保护的影响,生成式人工智能的运算需要将电力资源转化为算力资源,但在这一过程中会消耗大量的能源,所以对生成式人工智能需要国家层面的合理规划,对于人工智能体系进行合理的布局建设,避免资源浪费,贯彻绿色原则。最后是可能造成数字鸿沟进一步增大,损害数字弱势群体的利益。一方面,ChatGPT导致个人和平台之间处于绝对的信息不对称,平台占据了绝对的信息优势,个人的权利被进一步压缩。另一方面,不同群体之间的差异在ChatGPT的语境中更加明显,比如ChatGPT可能扩大“银发鸿沟”,导致老年人的权益受损,限缩老年人基本生活选择,降低老年人的生活质量,危及老年人社会参与积极性。鉴于此,自然科学的知识与技术应用于法律现象的情况愈演愈烈,为了避免陷入技术主义的陷阱,需要分析新兴技术对当前社会以及未来社会所可能造成的影响,并且从法律规制的角度提供可行的解决之策。总之,对于生成式人工智能所带来的冲击,既要着眼于其在当前已经造成的安全风险并进行合理规制,又要考虑其在未来所可能造成的泛化的安全风险,基于风险预防主义,对其在各行各业所可能造成的暂不显著的安全风险进行提前预防,从而在最大程度上发挥生成式人工智能的技术效能,同时减少新兴技术对社会发展造成的负面冲击。

刘艳红|生成式人工智能的三大安全风险及法律规制——以ChatGPT为例

© Copyright notes

Related posts

No comments

No comments...