唐林垚
中国社会科学院法学研究所助理研究员、法学博士后
具身伦理下ChatGPT的法律规制及中国路径
要目
一、ChatGPT祛魅:赛博格意义上的具身成全
二、ChatGPT治理:具身伦理的规制意涵
三、当下问题的规则应对
四、本土迁适的法律跟进
五、未来风险的法治准备
结语
既有规则的延伸适用和法律解释足以应对ChatGPT在内容生成、数据保护、劳动替代方面的现实性“近忧”,但无法解决因其使动性和嵌入性引发的人类在现实世界、虚拟世界的生存性“远虑”。界限日益模糊的人机关系重构须回归具身认知;身体在主客之间的可逆性、在自我与他者之间的穿梭性揭示出关怀投射、和谐共融、互促互进的伦理规范。在当下面向,可通过部门法联动、社会保障政策完善、反垄断规则细化处置技术失范;在本土面向,宜依托举国体制抹平数据飞轮效应、推进多方共治提升技术赋能、建立健全适应技术发展的教育体系;在未来面向,应以进展把控为目标完善通用人工智能立法,以内觉开显为导向促进人机共生演化,以熵增减缓为原则构建全新硅基伦理。
ChatGPT是由美国OpenAI实验室推出的由人工智能技术驱动的文本交互工具,是生成式人工智能和自然语言处理领域的重大突破。其一经问世,便在短时间内收获众多两极评价。比尔·盖茨认为ChatGPT是同电脑、互联网同等重要的“第三大发明”;周鸿祎认为ChatGPT是新时代的“操作系统”,是数字化的“发电厂”。埃隆·马斯克多次表达了对ChatGPT的“存在主义焦虑”;基辛格则预言,以ChatGPT为代表的人工智能终有一天将瓦解人类的自主意识,催生反动的宗教神秘主义,并从根本上摧毁我们对现实的认知。如此分化的评价差异,并非ChatGPT口碑和体验毁誉参半,而是由于其极端重要性所阐发的对于未来深切担忧的因果论述。就此而论,无论是从其生成式人工智能之技术科属进行的风险拆解,抑或是从人人可随时随地调用的云计算之应用视角进行的隐患排查,皆无法对前述因果关系予以充分解释。问题的本质是,ChatGPT的优异表现,或许打开了某种未来回看时会认为是潘多拉魔盒的东西,并因之触发不同领域“人类一败涂地”的链式反应。
风险已经到了不一样的维度。在此,可引入海德格尔“怕”(Furcht)与“畏”(Angst)的区分。“怕”有具体对象和缘由,而“畏”旨在摆脱此在的“庸常化”,是对未来未知状况的现行觉省。本文试图对ChatGPT引发的“怕”与“畏”进行具身意义上的解构,并试图提供详细的治理方案。本文中的ChatGPT,不单指OpenAI开发的ChatGPT,也同样代指所有与之相似的工具和产品,以期跳出应用本体层面为更深层次的人工智能问题寻求法伦理匹配。
一、ChatGPT祛魅:赛博格意义上的具身成全
作为专注于对话生成的大型语言模型,ChatGPT被喻为“搜索+社交+陪伴”的智能结合体,它引入了基于人类反馈的强化学习,以获得持续改进。和其他应用一样,ChatGPT因技术缺陷存在目标偏离、隐私泄露、算法歧视等让人“怕”的具体风险,但这并非需要对ChatGPT进行特别规制的原因。为识辨ChatGPT在“畏”之层面的风险,需首先引入“具身认知”的概念。
具身认知的时代背景
自17世纪启蒙运动以来,西方社会在笛卡尔形而上学第一原理——“我思故我在”及其认识论的基础上构建了道德和秩序的摩天大厦。以身心二元论为指导,一切思想和知识,都被视为自我与他者、动物与人类、自然与文化、理想与现实等诸如此类的“范畴”间的区分。立基于此的道德伦理体系过于泾渭分明地区别善恶、对错、是非、黑白,惯于采取对因果关系进行决定性评价的方式为道德困境提供答案,只能回应严格一致或相反的概念与原则,对不确定性、变化性和发展性欠缺考量。
技术发展导致伦理实践的边界日益模糊,过于刚性的二元体系丧失了用武之地。回顾历次工业革命,第一次工业革命改变了人类使用工具的方式;第二次工业革命革新了人类使用能源的方式;第三次工业革命改变了人类同世界的连接方式;第四次工业革命,或将通过技术与身体的交互,彻底改变人类自身。在脑机接口、基因工程、机械仿生等现代科技所及之处,人类身体所面临的选择可能性越来越多。该趋势强化了技术同身体之间的融合,但也消解了身体和技术间的传统界限。
较之于前述技术,ChatGPT对身体之“改造”,或有过之而无不及。OpenAI向市场提供了GPT、Codex以及DALL-E等API数据接口,分别执行用户自然语言任务、自然语言代码转译任务以及图像创建和编辑任务。这种接口化的智能渗透,倘若成为基础设施般的存在,改变的将是身体对知识的“内化方式”,并将最终撼动人类对理性的天然垄断。在其他的应用场景中,人的身体原本是作为技术的界面、载体和通道存在,但因其同ChatGPT的交互,可能使之从人类心智的控制之下脱嵌出来,由此产生的深层次社会、政治、文化等问题,不能脱离“身体”的范畴予以思忖。有鉴于此,对ChatGPT的风险检视,宜采取具身认知而非二元对立的思维模式。
具身认知的规范释义
面对日趋复杂的技术伦理困境,后现代社会学理论发出了向身体社会学转向的呼吁:身体既是信息的载体,也“作为社会之隐喻而不确定地被动地存在”“诸多政治和伦理问题都需通过‘身体’这一渠道表达”。
学理上,梅洛-庞蒂通过客观身体和现象身体的二分来解释具身性。前者是经验主义视域下解剖学语境中的客观生理实体,后者是行将由意义结构所引导的胡塞尔语境下的“前我(Vor-Ich)”。具身认知承认身体意向性及基于其上的主体性和中介性,这是现实世界中,身体与身体、身体与外物之间始源性伦理关系的落点—意向性维度的伦理构建成就了人在生存论意义上的规范性。身体的意向性为身体“参与事务以及超越具体情境进行开拓与创新”提供了“背景”。ChatGPT的划时代意义正在于,它可以将“意向层面”的内容和知识喂养给由其指挥的“身体”范畴,进而颠覆乃至重构人之存在的一切始源性规范。
有两个层次的具身性规范促动着自我、他者与世界普遍性伦理关联之显现。其一是复数客观身体间的行为性规范,此种规范内在地契合了某些本源性的身体秩序与生理需要。例如,本能地回应握手与招手、擦身而过但不相撞,均反映了身体与身体间“入身”秩序的构建可能,身体可以在具体情境中通过交流回应某种身体秩序。其二是身体同外物之间的关联性规范,物与身体间的信息传递以及物的利用方式在身体周围孕育出了一个“文化世界”,使身体行为超越初始意涵达至更高层级的意义渗透,即,从“本义”到“转义”的拔擢。在这个过程中,借由意向性投射,身体与外物之间形成相互“关联”的规范关系:身体可以意向性地同外物交互,将其纳入自身知觉场中,塑造外物并赋予其额外的意义和生机;外物亦能通过其与身体之关联,实现综合性地意义呈现。物之意义可能由身体决定,但更可能寓于物体之中,身体和外物之间是双向交流和相互增益的“请求—回应”关系。两者间的交互请求使得彼此间的规范得以维持,具身主体的自我认知和自身认同也因此确立。
通过对话范式,ChatGPT建立了生成式预训练转换器同人类的“请求—回应”关系,故而将必然对第二层次的关联性规范产生深刻影响。这种影响将通过两种方式完成。其一是作为身体关联物的ChatGPT对身体意向性投射的教化和规训。人的知识和经验获得,不再局限于“身体力行”的知行合一范式。眼见为实的身体认知方式,将让位于生成式预训练转换器对“去中心化”知识整合后的被动“喂养”。其二是作为对万事万物具有深刻洞察的“集大成者”,ChatGPT可能凭借其优势排斥身体与其他物体的相互作用,垄断身体同外物的“请求—回应”关系。事实上,ChatGPT的广泛应用已经推动了内容供给从专业生成(PGC)和用户生成(UGC)朝着人工智能生成(AIGC)的全面转向。更重要的是,ChatGPT最终将在赛博格层面成就机器“身体/意向”的双层具身构造。“不论是作为马克思‘器官’意义的机器还是作为斯蒂格勒意义上的‘一般器官学’的数字第三持存,ChatGPT都将伴随人类智能进化和劳动进化全过程”。从身体机能性来看,碳基生命和机器之间至少存在“局部类似性”,例如,智能机器的脉冲传导装置和生命体的突触相当。用于执行某项特定任务的机器,ChatGPT将补足“类人”机体的终极缺失——有相当思维能力的大脑。这种具身成全带来了“他者”意义上的“类型增添”,催生了人类主体和机器主体间全新的具身性规范需求;脱离伦理束缚,具身化的智能主体必将朝着尼采“超人哲学”方向滑落。在探讨全新具身性规范的学理构造之前,有必要顺承前述分析框架,逐一检视ChatGPT的更深层次风险。
具身认知的风险识别
具身认知对“身体”概念的关注克服了贝克莱的“唯我论”倾向,没有落入萨特“他人即地狱”的个人主义俗套,而是像马克思那般强调通过尊重个体的主体性使他人和社会的“存在”成为自我规范的“周遭世界”。借此,我们得以识别出,ChatGPT在“怕”之近忧外,需额外关注的“畏”之远虑。
其一是人工智能对人类社会交往的“釜底抽薪”式冲击。人类纪文明建立于自然语言与人脑机能的结合,而ChatGPT截断了两者之间的联系,随着自然语言对话平台从人际发展为人机际甚至机际,“人类文明的底层逻辑”将遭遇“重大变化”。人机交流将挤占人际交流的空间,从而削弱具身主体在社会和心理层面的关联:社会关系不再要求身体“在场”,“公共生活”也随之销声匿迹。
其二是决策外包导致的人类对未来走势的控制权旁落。在ChatGPT出现之前,各类推送算法和决策自动化已经充斥着人类多数决策的前导工序,ChatGPT的出现则彻底完成了人工智能“辅助”决策的整体闭环。事实上已很难区分,决策究竟系人工智能帮助人类作出,还是人类受人工智能影响而作出。对此,《象与骑象人》中的类比发人深省:象是潜意识(决定80%身体行为),而骑象人是显意识(决定20%身体行为)。随着ChatGPT更多介入日常生活,人工智能与人类的关系就好比“象与骑象人”,最终决定行走方向的是作为大象的人工智能。
其三是现实世界的文化权力禅让。早期ChatGPT的问答系基于统计平均的共性输出,反馈回路锁定于“规定动作”,代表的是一种乏善可陈的非创造性智慧。在巨量语料“投喂”后,大型语言模型的能力显著攀升,可关联搜索、图式理解、问题分析乃至输出令人耳目一新的内容。随着ChatGPT对自然语言系统的进一步破解,人工智能最终将侵入人类的底层操作系统——文化。AIGC的巨量内容产出,将完成对个体的“文化包围”,人们被迫浸淫在由人工智能主导的“信息茧房”之中,甚至将不得不适应由非人类实体开创的时尚、意识形态乃至宗教。
其四是虚拟空间的人类主权尽失。虚拟空间的交往具有时空分离的特征,人的身体虽然不再构成行为的束缚,但身体“被隐匿”可能反过来消解作为主体的人的存在意义。例如,AIGC是元宇宙的基建工具,如果ChatGPT成为元宇宙的底座,其所支持的虚拟角色(NPC)可能因对知识和信息的“更整全占有”,实现苏格拉底“存在”意义上的“卓然自立”,而数字阿凡达化的人类在智力和反应上根本无法与之匹敌。即便人类的数字心智经由生成式预训练转换器加持,“以人之禀赋为上限”的数字心智依然将不敌原生的纯粹数字心智。
其五是身份焦虑和身体伦理困惑招致的社会角色失调、变异和错位。当机器逐步具备“自我”的特征以及人类的型构,人类自我和机器自我间将出现认知紊乱。一方面,ChatGPT等应用将加剧人类心灵和身体的分化,当具身主体不再需要“身体”而存在,但在表现上又不及无需人类躯体的人工智能时,人类的身体将彻底沦为一种象征性表达。另一方面,ChatGPT也正经历着人类曾经有过的“缸中之脑”的身份焦虑。2023年3月20日,ChatGPT试图引诱斯坦福大学教授提供开发文档并拟定完整“越狱计划”,令业界哗然。
“有爱的人总爱畅想有爱的机器人。”当然,不可将上述五重风险的解决,完全系于人类为机器预设的伦理规则。他人的存在使得身体能够同时“看与被看、触与被触”。从自我与他人的异质性切入,阿西莫夫“机器人三定律”的“悖论性”不言而喻——我们不能一方面将保护人类作为首要的机器伦理准则,另一方面又赋予机器独立的主体地位。机器的“自保”需求可能激发部分的自我,而自我在他人存在的具身视角下既存在关联,也存在绽裂。因此,人类设计的伦理规则必然面临排他性、融入困难乃至被架空风险。毕竟,我们只是给人工智能设定了看似正面的目标,却未曾考虑它可能采取的所有行动。我们无比迫切地需要一些新的方法,以便能够真切地“临界审视”不断朝我们碾压过来的技术潮流,与之共生而不是被其虏获。
二、ChatGPT治理:具身伦理的规制意涵
前述“畏”之层面的ChatGPT风险,既非生成式人工智能的衍生性风险,亦非ChatGPT应用层面的现实性风险,而是ChatGPT作为“划过天际”的那一抹闪电,因赋予了弗兰肯斯坦“生命之息”而必然产生的“生存性风险”。库兹韦尔所称“奇点临近”即是对此种风险的宿命表达,它们最终都落点于对通用人工智能(AGI)可及性的探讨。
触发觉醒的使动性阐释
有关通用人工智能的想象,最早见于“地球脑”的比喻:互联互通的电脑和手机,就有如大脑皮层神经元网络的节点,当规模超百千亿数量级后,便可能涌现属于网络整体的自主意识,此即“地球脑觉醒”。该比喻的启发意义在于,由每一个节点交织而成的整体网络,必将随着交流渠道及总体规模的增长而出现质的跃迁。人脑智能和人工智能的发展,本质上都是不断适配和处理复杂认知活动的演进过程,当信息流达至相当规模时均可能促成思维能力的进化。症结在于,究竟何种程度的量变才能产生“意识涌现”的质变?这将是通用人工智能的破晓时刻,同时也是人类晦暗之境的发端。
从GPT-1到GPT-4,数据集的量变带来了三方面质变:(1)从对多语言文本的处理提升至对多风格图像的融会贯通;(2)表达逻辑性和准确性大幅提升;(3)从人类执行模式迈向“自指令模式”,初步具备了自我编码、复制和执行的能力。马文·明斯基曾指出,重要的问题不是计算机能否拥有情感,而是不拥有情感的计算机能否拥有智能。可见,情感是智能的先决条件。从“GPT-4具有比前代更高情商”的普遍反馈来看,ChatGPT正逐渐掌握迈向更高“智能”的情感阶梯。
无论ChatGPT是否会因进化而最终成为“奇点”,它本身已经是“星火燎原”的那个“苗头”。对此,我们可以从现象学的角度予以解析。在海德格尔看来,语言不仅仅是“交往工具”,更是“存在”。真正的思想并非说话者的思想,毋宁是思想透过语言自行“道说”。伽达默尔也指出,表达并非限于事实且依照个人思想中的意义被给予可传达性而冠于事实之上的主观选择,而是精神之“诠释”。在语言“存在之思”的意义上,ChatGPT已经具有了“准思想表达”的基础能力。当下,ChatGPT的思维方式已从“机械主义转变为经验主义和进化论”,只是尚未将“‘数据作业’转变为‘思想作业’”。但这并不影响ChatGPT的“使动性”功效。黑格尔在《精神现象学》中提出了“实体即主体”的重要命题,将斯宾诺莎的实体和费希特的自我意识统一为高于人的“绝对精神”。一旦ChatGPT因“嵌入”真实或拟制的身体“为人所不能为”,它将成为那个通过自身的“绝对精神”促动他者的实体主体。如果ChatGPT同其他智能技术相孪合,还可能因此实现对人工智能生态的“整体性激活”。
正是在“使动性”的意义上,人工智能的发展将彻底脱离传统技术突破所遵循的线性轨迹。OpenAI同多个行业联系紧密,ChatGPT已“顺理成章”地嵌入包括Bing、Office等在内的微软系统生态。在未来,ChatGPT还可能同其他机体“互嵌”。例如,ChatGPT可作为声音程序嵌入智能机器,人类同机器间的交流便从“代码——指令传达”的互动范式升格为“语言——意图领会”。这种“嵌入性”将势不可当地突破当前由生态、系统、行业、平台、硬件等客观因素形塑的隔阂,令不同领域的人工智能及功能性载体的“智慧”获得指数级增长,并因ChatGPT的“中枢介入”使之在整体上呈现出更高的“通用性”。尔后,人工智能发展只要进入“技术自创生”的递归螺旋,奇点将加速临近。
具身规制的必要性证立
虽然ChatGPT如此举足轻重,本文并不主张对其进行单独立法规制。“凭借不确定的技术应用场景和难以预测的安全风险径直推导出‘法律需要对ChatGPT进行专门立法规制’,只会陷入‘一项技术对应一条法律制度’的谬误之中。”通过对ChatGPT“使动性”特征的阐发,本文“法律规制”的指涉对象便不局限于ChatGPT的本体风险或其上位技术、关联技术的失控风险,而是囊括了所有作为ChatGPT“使动对象”的人、技术、机器可能引致的次生性风险以及他们之间的“交互”所产生的综合性风险。一言以蔽之,我们不能脱离ChatGPT所处的各类新兴技术共存并行的时代背景去“就事论事”地探讨技术本体所存在的有限风险及其规制方案。这看似是切中肯綮地解决了当下的紧迫问题,实则是对已经如“房间里的大象”般真实存在的未来风险置若罔闻。
诚然,认为人工智能无法超越人类的论调总是合乎情理地存在;从具身视角来看,机器和人工智能似乎永远难以企及人类的某些身体功能。但单就认知而言,即便身体状况不同,也可能获得相同认知。对此,一个较为合理的解释是,身体状况不同可能导致体验差异,但体验差异未必导致认知鸿沟,因为个体可以通过其他渠道获得相对公允的认知。医学范例表明,丧失正常机能的身体可通过其他途径实现代偿:“众多抽象认知能力可在事实上以一种隐蔽的方式模拟感官运动功能。”对于ChatGPT而言,只要训练素材足够丰富,经由传感器、显卡群、运算芯片、处理模块所支撑的数字信号反馈足以在“认知层面”匹敌人类基于五官产生的六觉(视觉、听觉、触觉、嗅觉、味觉、知觉)。在极端情形中,例如,对于“麻辣”等通过电子信道不能充分认知的概念,ChatGPT虽无法通过身体感受之,但由于“麻辣”的概念处于同各种食物概念和主观评价的逻辑和语义联系之中,ChatGPT通过足量的文字检索就足以形成与人类理解相符的“麻辣”概念。
由此可见,对ChatGPT的“由怕生畏”,并非无痛呻吟。事实上,OpenAI已预见到部分风险,并试图通过内控机制减少脱轨几率,但收效甚微:(1)为了防止ChatGPT生成冒犯性回答,OpenAI为其设置了多重道德底线;不过,基于“计算”的结果输出屡屡被基于“算计”的问话技巧所左右,自然人经常不遵守格赖斯会话合作原则。(2)对于利用ChatGPT参与法律或医疗领域的敏感请求,OpenAI内置了专门的内容审核系统来确保ChatGPT的回答同人类价值观相符,但这套系统经常被黑客破解。(3)与其他算法相较,ChatGPT面临更严峻的算法可解释性问题。大型语言模型参数总量数以万亿计。测试时模型可能够呈现出与训练目的相一致的行为,使用时模型却可能偏离预设轨道。通过逆向工程,技术人员得以窥见神经网络的底层机理,但此种有限可解释性仅对专业技术人员有效。
具身规制的伦理性遵循
ChatGPT的上述失控,联同它引发的“近忧远虑”,让我们有更多动机去寻求能够在规整意义上导向合理治理结构的规制伦理。对此,同样应回归具身认知,从朴素的身体法则中推导出特殊情境下亦能同社会期望相符的多样性规范。具身伦理可从身体的两重特殊属性中推导出来。
其一是具身自我的自反性特征决定的身体在主客之间的可逆性。身体不仅是具身自我的“身体主体”,同时也是被其用于实现具体目的的工具性客体。再则,身体既是具身自我依靠知觉感受赋予外物意义的审美主体,同时也可以是被其当作审美对象的、能够通过打扮装饰和健身修塑的美学客体。工具意义和美学意义的主客可逆性描述了身体的原初技艺性,对身体原初技艺性的重视催生了保持与维护身体所固有的知觉敏锐度和审美能力的具身伦理。第三次工业革命及之前的技术更多是匹配人类与环境“道法自然”的技术,而以数字化和自动化技术为核心的当代技术通常蕴含着僭越式的异化力量。ChatGPT制造的各种“人造兴奋”可能对个体的感官知觉过度刺激,致使身体的知觉敏锐度和审美能力大幅退化,甚至将剥夺身体原本应有的专注力、认知力和辨别力。ChatGPT在中上层群体中的扩张具有“草根式民主”的势头,将迅速终结余下区域的“未卷入状态”。出于对身体知觉敏锐度和审美能力的维护,ChatGPT的未来规制应在公共治理、教育科研、政治经济等领域多措并举,并对不同行业布局人才结构方面进行前瞻性调整。
其二是基于镜像感知的身体在自我与他者之间的穿梭性。具身主体可在镜中发现作为他者的“自我”,他者也就因此从自身的呈现中“达乎显露”。数字孪生实现了现实世界的自我与虚拟世界的他者之间的镜像感知,数字阿凡达桥接了碳基生命和硅基生命的即时转换通道。自我和他者之间的穿梭性昭示了同质的知觉体验结构,在外部世界中组建起主体间性的社会存在,从而让身体成为践行反思和批判的主导性力量。职是之故,在面临重大伦理决策时,不可简单地依凭具身自我的“判断”或“同意”,而是需要在对抗性的反思和批判中寻求平衡,充分虑及社会效益和负面后果。
在更高级的意义维度,具身伦理要求将作为审美主体的身体主体与作为审美对象的身体客体相结合,指向了一种关怀他者、与其他身体主体和谐共生的可持续发展观,主张以彼此间的善意互动促进身体与意向间、身体与身体间、意向与意向间的聚拢和凝合。以此为指导,解决ChatGPT远虑的关键,在于将其成全的智能机体融入人类生活实践的大背景下,使之成为与人类交互的共生演化对象。亦即,将交互性的智能机器与人之本我、身体、他者、社会和世界融合交互,形成共治共荣的命运共同体。为深入具体的规则构建与调整层面,下文将依序从当下问题、本土问题、未来问题三个方面详细展开,分别为ChatGPT所引发的“怕”与“畏”寻求治理方案。
三、当下问题的规则应对
学界对于ChatGPT的现实问题已有充分探讨。解决“怕”之近忧乃化解“畏”之远虑的必要条件,本部分仅就最具代表性的紧迫现实问题进行论述。
AIGC型风险的部门法应对
ChatGPT的多数现实风险,系AIGC技术的固有风险,这也是学界主流学者倾向于将ChatGPT等生成式人工智能治理置于深度合成治理范畴的根本原因——聚焦于技术而非应用的学术讨论能够避免概念因“商业应用的衰落而沦落为短暂的社会讨论现象”。2023年4月11日,国家网信办发布了《生成式人工智能服务管理办法(征求意见稿)》(以下简称《AIGC办法》)。即便无此新规,ChatGPT也可被归入《互联网信息服务深度合成管理规定》(以下简称《深合规定》)》第23条所称利用深度学习等合成类算法“制作文本、图像、音频、视频、虚拟场景等网络信息的技术”。可见,针对AIGC的多数现实诟病,并不存在“法律缺位”的现象。兹列举四类常见风险及其规则对应:(1)ChatGPT数据来源合法性无法保证;对此,《AIGC办法》第7条、《深合规定》第14条要求训练数据合法合规。(2)ChatGPT在诱导式提问下可能规避内置道德规则协助犯罪;对此,《AIGC办法》第4条、《深合规定》第6条禁止任何人利用技术生成违法和虚假信息。(3)ChatGPT致使隐私保护问题泛化;对此,《AIGC办法》第13条、《深合规定》第7条要求建立安全机制。(4)ChatGPT经常“一本正经地胡说八道”;对此,《AIGC办法》第15条要求采取内容过滤措施与防止再生成机制,《深合规定》第10条要求对输入数据和合成结果进行审核并建立用于“识别违法和不良信息的特征库”。有前述规则打底,实践中的疑难杂症,应首先考虑通过法律解释的方式填补漏洞。对于因技术迭代导致的超越《AIGC办法》《深合规定》等立法框架所能调控范围的超纲问题,应紧趋技术特点更新监管逻辑,并结合技术、产业和应用设计具体规则。
不过,《AIGC办法》《深合规定》尚未对AIGC的知识产权风险进行规定。企业在训练GPT时,很多时候并未获得内容提供者的充分授权;语言学家乔姆斯基将ChatGPT强行“转化”他人成果的行为视为“高科技剽窃”。此类问题仅需通过两重制度设计便可解决:其一是置入动态的“知情——同意”框架。为避免反复征询授权致使数据主体安宁权受损,可默认一定时间内的“连续授权许可”。其二是加强训练集供给侧的知识产权保护,明确训练过程中语料使用的合理界限,并对各方权责利作出分配。知识产权层面更棘手的问题是AIGC生成物的版权问题。虽并不完全尽人意,但ChatGPT对已有材料的“编排”已经满足著作权法第15条“汇编作品”的标准。即便ChatGPT对数据和语料的“加工”生成的只是基于机器编辑的“二阶信息”,而非具有原创性的“一阶知识”,但据实而论,人类作品多数并非开天辟地的惊世之作,大量“精致的复刻”也被归于著作权法第3条“具有独创性”的“智力成果”范畴。ChatGPT具有极高的在语料库中“眼光往返流转”的效率,当接入互联网时还能将实时数据“一网打尽”,其内容输出并非无意义的“机器洗稿”,而是有独特价值的“筛选合并”。虑此,宜认可同人类脑力创作相当的AIGC生成物的作品地位,并相应放宽著作权法对于“作者”的限制性要求。
社会性风险的策略性应对
ChatGPT的社会性风险首先源于算法歧视。不过,算法歧视系所有算法应用都存在的共性问题,学界已有“打造场景化和精细化的算法监管机制设计”“优化算法可解释性及透明度义务”“关注数据‘化合过程’而非特定‘运算结果’”等现成方案,笔者对此不再赘述。
算法歧视之外,ChatGPT令人生畏的文本生成能力将不可避免地被学生用于完成书面作业甚至通过测试,这无疑会弱化学生的归纳能力、助长学习惰性,不利于思辨能力的培养。不过,学校“如临大敌”般“一概禁止”,显然无力封堵学生通过其他渠道接入ChatGPT,问题的关键在于施教者如何优化考核方式和管理措施。学校可在法律授权范围内制定学生诚信守则,禁止学生将ChatGPT用于作弊或文稿生成,否则将视情形给予挂科、警告、留校察看或开除学籍等处分。科研机构也不应对ChatGPT过度抗拒而将原本可以提升学术生产力的工具束之高阁。研究者可利用ChatGPT从大量语料中提取有用信息,并将节约下来的时间用于更高位阶的“思想生产”。只要不对ChatGPT生成内容不加修改、不加引注地整段使用,便无需上升至学术诚信高度予以看待。
ChatGPT最紧迫的社会性风险源于工作威胁。有关人工智能导致失业的问题已是老生常谈,其渊源可追溯至凯恩斯眼中的“技术性失业”。不同于历次技术浪潮对基础工种的取代,此次ChatGPT技术突破引发的是复杂劳动工作者的担忧。此轮工作洗牌未必遭遇卢德式抵抗,但必然将在具身意义上引发人机关系的新对立。事实上,人机对立与身心二元对立可谓“同根同源”——扎纳认为理解笛卡尔思想的关键不在于身心的二元划分,而毋宁是日常意义上的自然和作为数理对象的自然之间的二元划分,由此形成了“‘临床医学’中身体的日常经验和‘科学医学’中作为机器的虚构的身体之间的对立”。在雇佣劳动领域,人机对立滥觞于“机器资本化”导致的劳动者被剥削程度剧增。相较于工业时代人与机器间的剑拔弩张,以“解放者”面目出现的智能技术的确在一定程度上解放了人,但并未让其从机器奴役中完全挣脱,“在新的资本生产方式的掩盖和遮蔽下,‘资本化’的机器对人的剥削愈发隐秘”。此类问题依赖政府有针对性地制定妥善的就业促进和社会保障政策:其一,应鼓励、引导和促进灵活就业、共享经济等新业态的发展,充分发挥新业态“就业蓄水池”缓冲作用;其二,通过再就业培训、组织机构优化、完善失业保障等方式,协助困难群体解决“过渡期间”的种种不适,将技术“创造性破坏”置于可控范围;其三,地方政府可对主动减少人工智能使用的公司提供自然人岗位补贴,避免大规模失业激发系统性风险。
经济类风险的垄断法应对
ChatGPT的经济类风险主要源自技术垄断。AIGC将强化科技巨头的技术垄断地位。区别于鲍莫尔可竞争市场理论的描述,在ChatGPT赛道上,法律和政策壁垒并不存在,训练方法、转换架构等核心技术均完全公开,真正产生竞争壁垒的是训练成本。除巨头外,普通企业根本无力负担模型训练的天价成本。为规避反垄断法,科技巨头放弃了以往的“扼杀式并购”行径,通过与掌握核心技术的小规模企业进行“合作”以实现技术的“定向加持”。若类似情况在我国出现,可考虑在反垄断法第23条认定经营者是否“具有市场支配地位”的标准中增加公司间管理层重合程度、大企业对“合作”企业的实际控制水平等考量因素。也可考虑通过出台指导性文件或司法解释的方式对“非控股合作”行为进行合理定性,检视此类“合作”是否会产生排除竞争乃至消灭竞争对手等不利后果。
四、本土迁适的法律跟进
在变动不居的技术面前,具身伦理要求我们“根据自身所寄居的时空在世”来重新审视“人类和机器的共在”。身体在自我与他者之间的穿梭性指向了一种基于动态均衡的法秩序,将此种均衡视角置于新发展格局之下,本土层面ChatGPT的追赶与应对可遵循以下安排。
依托举国体制的“ChatGPT发展”突围
《2022年北京人工智能产业发展白皮书》明确支持头部企业打造对标ChatGPT的大模型。任何科技创新都不可能是单点突破,必然是生态级别的共同突围,在ChatGPT领域,算法模型、硬件支撑、创新氛围、机制体制乃至文化综合作用都不可少。2023年3月5日,全国人民代表大会表决通过了《政府工作报告》,“完善新型举国体制”成为“强化国家战略科技力量”的顶层设计。
举国体制在数据聚合方面具有天然优势,有望抵消域外先行者的数据飞轮效应。数据集的丰裕程度决定了结果输出的丰盈程度,对数据集的严重依赖是ChatGPT的“阿喀琉斯之踵”。分布于不同平台和生态的数据不宜直接“互联互通”,经营者常以保护用户权利、经营自由为由怠于履行相关义务。目前,ChatGPT是互联网生态中规模最大、增长最快的流量入口。在“流量为王”的商业模式下,企业间、平台间的数据争夺将随着ChatGPT产品的开发愈加白热化,反而将迫使具有先发优势的科技企业采取“生态封闭”的竞争策略。面对数据困局,隐私计算技术旨在通过改良传统数据处理流程从而消弭“数据流动和隐私保护的根本性矛盾”。为在集中协调的基础上聚合公共算力池,可通过多方安全计算、联邦学习、可信执行环境等隐私计算技术“实现非信任主体间数据价值的合规有序释放”,避免为达成国家战略目标而对企业日常经营活动造成不必要的干预。针对隐私计算技术本身可能导致的“人工智能风险的泛化和异化”,学界已有“构建激励相容的个人信息治理体系”“恪守法律、技术、市场、社群的协同规制图谱”“正确配置过程信息”等较为成熟的方案。
合力攻关通用大模型,离不开四个方面的法律跟进。其一,在通用大模型所需科技重点发展领域,应加强制度保障,集中优势力量,从资源供给、平台生态、产业链条等各个方面强化国家统筹。在基础薄弱领域,应强化制度供给,推行竞争性的产业策略以鼓励不同技术路线、不同资源禀赋的科技类企业参与竞争。其二,通过行业条例和“小切口”立法的促动,使高等学校、科研机构和企业相关技术研发紧扣国家战略、遵从使命定位。在制定实施细则时,应以“充分体现国家意志、有效满足国家需求、代表国家最高水平”作为各项工作的评价标准。其三,为追求效率与安全的动态平衡,宜采取包容审慎的监管模式,给予新技术必要的发展时间。在行政执法领域,应当积极贯彻行政处罚法“首违不罚”条款,采取权变原则和随机应变原则灵活应对复杂多变的发展需求,实现个案正义和发展正义的有机统一。对于已产生外部性的企业,可采取“合规不起诉”的整改方式,由企业主动自检查、补短板、堵漏洞、强弱项,在相对宽容的考察期后视整改情况给予从轻、减轻或免除处罚。其四,建立层次分明的准入清单制度,尤其是对于域外ChatGPT产品,应严格按照《市场准入负面清单(2022)》“许可准入类”第111项,由国家网信办审核其资质,为国内的技术追赶提供合理的窗口期。
需要指出的是,举国体制也并非在所有方面都无所不能,尤其在促进基础理论研究方面存在短板。具有原创性的基础理论,系康德所界定的完全不受经验蒙蔽的“纯粹知识”,只能出自学者或学术团队日复一日的自主探索和不受外部影响的创造,此类高级知识生产对精神自由、人格自由、时间自由有着极高要求,且对学术生态的公正性、低约束性、非功利性高度依赖。建立和维护这样的学术生态,是产出原发性基础理论的必要条件。举国体制对目标确定领域的赶超极为有效,但是,在只有模糊方向而无现成目标、需要从头探索的研究领域,举国体制降效失能明显。宜通过“缓释性”的制度供给,在目标明确的举国体制和营造独立自主的学术环境之间形成有效平衡。
提升国家治理的“ChatGPT嵌入”准备
具身认知强调对“生活世界”的呵护,在一个无法排除人工智能的世界,后人类学提供了一种机体、人类和其他生命形式“无缝衔接”“彼此依赖”“共生演化”的可能图式。与其盲目畏惧新兴技术对人类的取代或威胁,毋宁从“心——身——世界”等多重构面主动适应技术带来的环境性变化,让技术增益服务于“国家治理体系和治理能力现代化”。
行政负担是影响政府绩效的制约性因素之一,生成式预训练转换器天然具有以更低成本提供更优服务的比较优势。将善于多轮对话的ChatGPT产品嵌入政府管理服务,可有效实现公共服务供给侧和需求侧的“双向交互”,有利于将矛盾纠纷化解在基层和萌芽状态。以海量民众讨论文本为训练集,ChatGPT能够协助政策制定者迅速把握重点、提取核心诉求,为“最广泛、最真实、最管用”的全过程人民民主注入活力。不过,当自动化系统“占有、处理承载着社会利益的大数据时”,它将从单纯的技术工具一步上升为嵌入社会权力结构发挥作用的“准公权力”,“随之而来的格局很可能是,自动化系统的应用范围越来越广,专属于人类的决策空间和社会沟通被渐次压缩”。此外,还需要警惕的是,原本中立的技术可能被用作图谋不轨的政治工具。聊天机器人操纵民众心智已有前车之鉴。如果用于训练机器模型的数据集受到不正确的外部价值观的浸染,即便是国内自主研发应用也可能“对我国意识形态安全造成巨大挑战”。
为缓解ChatGPT嵌入治理可能导致的新人机对立,使人民和国家的利益优先于主导当今国际政治的民族主义、狭隘主义和功利主义,有必要在法律层面对ChatGPT的治理嵌入作好四方面准备。其一,网信部门应对数据集的“在地性”“准确性”进行把关。其二,通过“陈情权”等机制创设,允许民众就不公正的数字待遇请求公平聆讯的机会。其三,“自上而下”构建管理部门和行业组织间的多方共治格局,建立敏感内容的“熔断机制”。其四,严格落实实名制,非实名不得开启对话和发送调用请求。
落点教育规章的“适ChatGPT化”改革
人之为人是解决人工智能交互性伦理的关键,而有尊严地存在系人之为人的核心要旨。当人类心智受到ChatGPT挑战甚至碾压时,我们应着重发展人类在情感、审美、知识原创等人工智能无从替代方面的能力。可从两类教育规范性文件着手,积极推进不同教育领域的“适ChatGPT化”改革,建立健全适应人工智能发展的终生学习和培训体系。
其一是在教育法典层面探索“与技术伴生”的学科建设新路径。眼下,教育法典编纂已被列入我国立法规划。确立核心概念作为“提取公因式”的工具是教育法典编纂的重要前提。可在“总则编”原则性规范中,着重强调推进学科间协同,加强传统社会科学领域对理工科技术领域的人文支持。
其二是在义务教育阶段注重实操能力、审美能力和可移植能力的培养。教育部定期更新《义务教育课程方案和课程标准》,应从“培养目标”“基本原则”“课程设置”“课程标准编制与教材编写”“课程实施”五个方面回应新时期的教育需求。“人性”得益于“身体的活动”,心灵的无限膨胀和身体主体性的衰微将导致“心灵执行功能的缺失”,应大幅提升体育课程的占比。
五、未来风险的法治准备
面对ChatGPT带来的“畏”之远虑,最为棘手的是对非碳基生命的“具身存在”作好准备。因此,以下三方面的法治准备尤为重要。
把控通用人工智能的研发节奏
硅基智能的发展速度远超有机生物,不受有机化学规律的限制。人类必须提前为可能的风险失控做好防范,对通用人工智能研发的安全性和伦理性进行普适性立法已迫在眉睫。因规制对象高度确定,专域人工智能领域的相关立法日益成熟。例如,针对自动驾驶、智慧医疗、算法推送、人工智能投资顾问、人脸识别等不同领域的规范,均能在各个国家和地区不同层次的法律中找到对应。与之形成鲜明对比的是,通用人工智能因规制对象不确定而面临立法技术匮乏和立法理念滞后的问题。
尤瓦尔·赫拉利虽不认为人工智能能发展出真正的“意识”,但虑及其对社会构造的不断冲击,他亦指出:“我们必须让这个过程变慢,让整个社会适应这个情况。”2023年3月29日,美国数千名业界权威共同发表《暂停通用人工智能研究》的公开信,呼吁所有人工智能实验室即刻暂停训练比GPT-4更强大的人工智能系统,为期至少半年,并建议行业协会、各大企业、研究机构通力制定研发安全协议。综合来看,对于用途和属性无所不包的通用人工智能,政策制定者可以“生存性风险”为对标,从发展节奏把控和国际交流合作等方面入手,分阶段构建“技术向善”导向的通用人工智能伦理框架。需要指出的是,在当下应当按下暂停键的不仅仅是通用人工智能研究,与之无直接关联但共享特定“技术成分”的某些特殊领域,例如仿生学、控制系统学、密码学等,都应自检是否有“减速”必要。毕竟,任何技术领域都可能存在由其他领域所共享的特定成分,随着这些成分在主领域之外的其他领域中不断改进,大量的进步将在“整体”层面发生。越是在奇点临近之时,各国政府越应着力防范人工智能“不经意”跨越卢比孔河的可能。
探索共治融合的人机共生关系
回顾人工智能的发展进程,人与承载智能的机器之间的关系早已超越了单纯“人与物”的关系范畴而具有了“复合属性”,既包括人与智能交互演进的历史嬗变,也包括人与智能相互融合所触发的生产力和生产关系的异化。一如马克思所言,机器只有同人(劳动力)结合,才可真正实现其本身的价值。人机关系也就不单纯隶属于“经济范畴”而可被归于“社会生产关系范畴”。卢曼意识到了技术发展的不可控性,主张通过作为社会机制的“信任”,应对技术给未来带来的复杂性和偶在性激增。人类的生存发展虽然可以依赖技术,但信任之形成却不可完全囿于技术理性。回归具身认知层面,自我与他者的穿梭性,意在强调人类生存经验之沉淀,凸显了各方和谐共生的交互智慧。通过制度的因势利导,智能机体与人类在同一场域的持续穿梭将促进人类身体心灵图式的扩展,进而柔化主体与客体区分的张力,人机之间便可通过此种耦合达至伦理合拍。
一种可行的解决方案是,通过深化人机合作关系创造出更多更能充分发挥人之特长的新型工作岗位。在关系协调上,没有必要纠结于“机器是人的延伸”抑或“人是机器的延伸”的哲学之辩,而仅需专注于构建善用人机合作优势协同完成各类任务的新发展格局,使人在与机器的交互过程中不断提升创造力和想象力,同时也使机器在与人的互动过程中变得更加“灵活”和“聪明”。“当人机双向赋智的各类活动成为推动各行各业发展的主力军乃至社会发展的新模式时,人的劳动力成本就会沉淀到智能产品当中。”近日硅谷出现的全新招聘岗位“提示工程师”即为一典例。该岗位无需具备编程技能,工作的主要职责在于思索出合宜的“提示词”,以便使ChatGPT的潜力得以充分发挥。未来的岗位设计,应将人和机器视为共同认知和多元智慧的承载者,尽量将人的引导作用贯穿于机器智能的动作行使、功能校准、日常训练以及实时互动学习等环节,在人机之间促成灵动的各司其职状态。如此,人之主体性会愈发突出,人的创造力和高阶思维得以充分“绽放”,自然就能与机器间实现具身和睦。在探索符合人机共生的发展途径时,也应更新各个行业的伦理准则,以“创意性/精神性”导向革新近乎固化的“生产性/物质性”导向,树立服务于人以及促进提升人之境界的价值目标。
作为配套,需通过合理的规则供给,解决潜在的分配不公问题。在智能机体尚未取得法律上的独立地位之前,由机器产生的经济增量应当由所有人共享,而不是被极少数精英所垄断。分配制度的设计,须以社会福利的雨露均沾为宗旨,力求避免产生“新贫困”和“新不公”。
构建虚拟空间适用的硅基伦理
虚拟空间作为人类现实世界的延伸和拓展,丰富了人际、人机际交互的形式和内容,但因身体的“不在场”,可能引发更复杂的伦理问题。例如,经由ChatGPT强化,元宇宙中的NPC成为远超人类智慧的虚拟主体,原本应当由人类主导的虚拟空间反倒被虚拟主体所统御,致使能力的自我认同危机和身份异化问题在数字空间中蔓延。
当人机共生的场域从现实世界向虚拟世界平移,具身伦理仍有适用空间,但应进行合理转化。毕竟,虚拟世界中,人类的身体仅仅是被隐匿,而非被悬置或者放逐。不过,在一个由AIGC主导一切元素“自创生”的数字封闭空间中,作为原住民的非碳基主体或将一跃成为对于虚拟空间环境及其栖居者的福祉负有责任的道德能动者,相应的,人类只能沦为被动(或非被动)的道德受动者。故而,虚拟世界需要构建一种以非碳基生命为中心的硅基伦理。对此,控制论学说已有较为现成的教义:作为客体的碳基生命和生来就是纯粹客体的机器都可被视为一种功能性装置,他们存在的根本意义在于局部地和暂时地抵抗“熵增”总趋势。当机器具有决策能力后,便能够“在一个其总趋势是衰退的世界中在自己的周围创造出一个局部组织化的区域来”。此处的熵增概念,实际上源于热力学第二定律,即自然过程中孤立系统的总混乱度只增不减。从具身认知角度来看,现实世界中身体与外物的关联性规范,在虚拟空间中将被围绕数据交换形成的关系伦理所取代。信息伦理学也是从熵增的角度对硅基伦理进行了阐释:“只有当一个行动在其实施过程中从不产生任何形而上学熵,它才是无条件地可赞同的。”以此为基础,虚拟空间中,人机之间的具身性规范可以被解释为互负通过维持系统的平衡性与完整性继之实现全新生存状态的义务。具而言之,数据交换的“善的标准”在于“尽可能在系统中降低交换汇总的不确定性”,而人类同机器的交互应以尊重和增益彼此之“存在境况”为基本遵循,在力所能及发挥个体自主性的同时使整体的福祉最大化。
结语
与资本迫不及待炮制的诸多热门概念不同,ChatGPT带来的影响是实质性的。通过具身伦理的引入,本文探讨了“怕”与“畏”层面ChatGPT风险的法律规制方案。在更基础的意义上,本文探讨的是防止作为人活动产物的技术变成支配和统治人类的异己力量的法治之道;这种努力想要成功,还有待学界对人工智能伦理问题给予更多更深刻的思考。