新技术下法学的挑战与机遇:科技、法律与学科重构?

AIGC与创业7mos agoupdate lida
94 0 0

文章主题:

666ChatGPT办公新姿势,助力做AI时代先行者!

新技术下法学的挑战与机遇:科技、法律与学科重构?

来源 | 西南政法大学

一场学术沙龙

聚焦ChatGPT

由西南政法大学人工智能法学院数据法团队主办

专家学者们

围绕“法律人如何理解ChatGpt”主题

结合各自研究领域

作主题发言

关于ChatGPT

西政6位老师都谈了什么?

一起来看↓↓↓

新技术下法学的挑战与机遇:科技、法律与学科重构?

新技术下法学的挑战与机遇:科技、法律与学科重构?

教师简介:

🌟黄教授,法学界的权威✨,西南政法大学民商法学院的学术泰斗,担任博士生导师,享有“巴渝学者”和“重庆英才•创新领军人才”的崇高荣誉。他的学术贡献广受认可,是中国法学会民法学研究会的重要成员之一。📖著作丰富,如《法学方法论》、《论战争法》等深度解析法律的书籍,以及《德国流通式不动产担保物权制度研究》,这些都是法学领域的经典之作。黄教授的研究触角广泛,对国际法律有深入见解,他的译著更是为国内外学者提供了宝贵的学术资源。他的专业知识和人格魅力,无疑在提升法学教育水平和推动法治建设中发挥着关键作用。若您需要深入了解民商法或相关领域,他将是您不可多得的学术指引者。别忘了,他的存在是为了传播知识,而非推销个人信息哦!😉

新科技革命与法学认识范式的变迁

在新兴数字技术蓬勃发展的趋势下,作为一个法律人,与时俱进,思考与之相关的问题是必要的。

🌟ChatGPT:革新语言模式🔥,数据处理力飞跃!它通过深度学习的神经网络,像超快速的数据寻宝犬,在海量信息中挖掘关键点,提供即时反馈。🚀凭借算法与大数据,它的智慧在法律领域引发革命性变化,持续影响法学认知与学科进步。🌍新技术浪潮下,法学如何应对?ChatGPT正给出答案!🎓

随着互联网时代的加速演进,新兴法学领域如计算法、信息法、AI法及机器人法等应运而生,展现出法学与时俱进的熠熠光芒。然而,这股科技潮流也导致学科布局趋向分散,形成了一定的碎片化现象。法学需要深入剖析科技进步带来的挑战与变革,基于新实践提炼核心共识,以促进学科的稳健发展和深化。🚀

🌟新科技革命对法学的影响,三大路径深度剖析🌟1️⃣ 场域革新:电子商务、网络交易等虚拟空间中的法律挑战,如人格权保护和知识产权侵权,正经历一场从实体到数字的深刻转变。2️⃣ 结构微调:在系统框架不变的情况下,权利权重的微妙变化成为焦点,人工智能兴起带来的个人信息保护规则扩展,就是这一现象的生动体现。3️⃣ 范式重构:新兴技术如区块链、比特币和智能合约,对法学传统范式提出严峻挑战,分布式与自动执行的特点要求我们重新审视集中解决纠纷的方式,自治与他治的矛盾也因此更加尖锐。🚀

法学的自我调整与新理论的共生是其长久演进中的独特现象。作为一门历史悠久的学科,它形成了一个相对封闭但信息开放的体系,尽管科技的进步使其面临挑战,却也保持了内在的独立性和连贯性。法学以其特有的语言和逻辑,展现出了强大的适应力和韧性。以科技创新带来的问题为例,我们能巧妙地运用法律工具进行调整。通过深入剖析,将复杂的问题拆解为多个环节和相关方,然后对权利、义务与责任进行精准分配,确保新科技成果与既有法律体系无缝对接。这种动态的适应能力正是法学自我调适能力的体现。

🌟第四步:返本开新,深度探索法学之路🔍。在新兴法学领域的发展中,我们既要对经典法学进行批判性审视与重构,又要立足当下,灵活运用文义边界,通过案例分析和学理讨论,逐步形成独特的见解。别忘了,创新并非脱离母体,而是基于传统法律体系的稳健根基之上。新学科的成长往往伴随着旧理论的革新与深化,两者相辅相成,共同推动法学的进步。🌍

第五,面对新的科技成果相关的法律问题的时候,新的法学理论要更多地以实践为导向,保持一定的谦抑性,在实践发展环节充分展现后,累积个案规范,凝聚学理共识,提炼概念范畴,逐步建立规则体系,尤其要注重体系和系统化运用,实事求是,不必太过执着于预先设定的学科领域。

新技术下法学的挑战与机遇:科技、法律与学科重构?

教师简介:

孙宝刚,助理研究员,《人工智能前沿技术》课程负责人,西南政法大学发展规划处处长。

ChatGPT在做什么以及它如何发挥作用

ChatGPT(Chat Generative Pre-trained Transformer)是OpenAI研发的聊天机器人程序,于2022年11月30日发布。ChatGPT是人工智能技术驱动的自然语言处理工具,它能像人一样领会用户发问意图并给出合理回答,它还能根据用户建议修正给出的合理回答,甚至能完成摘要撰写、语言翻译、代码生成、论文写作等任务。

ChatGPT本质是一个应用在对话场景的语言模型,基于GPT3.5通过人类反馈的强化学习微调而来。ChatGPT内部是一个巨大的神经网络,任何给定层的每个神经元基本上都与前一层的每个神经元相连,是一个为处理语言问题而特别设置的神经网络。ChatGPT突破了功能处理模块各自为战的传统方法,统一了功能处理模块。

ChatGPT为什么能做得这么好?一是用提示学习(Prompt Learning)提升了模型的补全能力,二是用指示学习(Instruction Learning)提升了模型的理解能力,三是用强化学习(Reinforcement Learning)提升了模型的对齐(Alignment)能力。

InstructGPT/ChatGPT都是采用GPT-3的网络结构,在GPT-3上通过提示学习更新GPT-3模型,在更新的GPT-3上通过指示学习构建训练样本来训练一个反应预测内容效果的奖励模型(Reward Model),在更新的GPT-3上用奖励模型的打分通过强化学习构建InstructGPT/ChatGPT。

但ChatGPT依旧存在有一定的局限性,尽管开发设计者已经努力让模型拒绝不适当的请求,但它有时仍然会对有毒指令做出反应或者表现出偏见。而这部分内容与道德伦理密切相关,它还存在数据安全、信息安全、隐私安全等问题,如何实现价值理念引领科技活动将是指引ChatGPT良性发展与应用的关键点。

新技术下法学的挑战与机遇:科技、法律与学科重构?

教师简介:

冯子轩,西南政法大学人工智能法学院教授、副院长。兼任:中国法学会网络与信息法学研究会理事、中国法学会行政法学研究会政府规制专委会委员等。出版译著、专著《人工智能法律指南》《人工智能与法律》等。研究领域:新行政法、网络信息与人工智能法学。

ChatGPT所关涉的伦理问题

近日,香港大学发布公告,禁止所有课堂、作业和评估中使用ChatGPT或其他AI工具,否则将被视为抄袭,ChatGPT正在挑战人类社会既有的学术诚信的教育伦理观。

第一,人的主体性受挫。ChatGPT在训练过程中,为了保证正确价值观,以极低价格雇用发展中国家工人阅读负面言论并为ChatGPT做数据标签,部分工人在劳动中出现心理问题,人的劳动也在被遮蔽,联系到引发社会关注的算法霸凌等其他现象,我们需要高度关注人的主体性问题正在受到挑战,将对既有的人类社会伦理秩序产生影响。

第二,机器学习偏见和歧视问题。在ChatGPT首批用户测试中,ChatGPT出现了辱骂用户、诱导用户离婚等言论,在语料库中包含的有害言论,人工智能习得后所做出的有害行为,深刻体现了机器学习的偏见和歧视。人工智能是对人的智能的模拟与延伸,人类社会存在的偏见和歧视的问题将大概率被复制到人工智能中,需引起高度关注。

第三,AI对齐问题。“AI对齐”是AI控制问题中的一个重要问题,要求AI系统的目标要和人类的价值观与利益相对齐。若AI和人类价值观无法对齐,导致AI行为可能无法完全符合人类意图目标,甚至脱离人类控制伤害人类利益。

第四,伦理准则同一问题。社会建构意义上的伦理法则并无贯之以四海皆行的意味,而AI发展需要建构一个符合全体人类伦理价值,这对既有的国家治理体系提出挑战。

坚持价值理念引领科技活动,科技创新要考虑伦理先行。在人工智能未来风险处于不可完全认知,风险评估及成本效益分析等规制手段可能不完全有效的情况下,人工智能技术发展的风险规制应成为社会治理中重要环节。

新技术下法学的挑战与机遇:科技、法律与学科重构?

教师简介:

邬蕾,西南政法大学行政法学院讲师。个人主要理论兴趣有:儒家伦理、法哲学与政治哲学,宪法学和国际法。在《原道》《兰州大学学报》(哲学社会科学版)、《行政法论丛》《立法评论》《中国社会科学报》等刊物上发表论文十余篇。出版译著:《社会的起源与结构》《国家理性、政治宣传与三十年战争》《卢梭立宪学文选》等。

ChatGPT与人文资源的关系

从目前的实际应用看来,ChatGPT暂时还是处于弱人工智能阶段,是作为人类的辅助性工具被使用的。一方面,它简化了大量重复性和常规性的工作,提高了文书类工作的效率。但是,另一方面,也应当警惕,它可能造成人文学科的萎缩。

人文学科而不是人文科学,科学以追求普遍性、客观性为目标,其目的更多是预测,人文学科以人作为理想,以培养理想的人作为目标。科学在于发现,而人文在于创造。这种创造与语言有关,人文学科创造的是人类思想、价值、情感领域,人文学科的进展在于不断拓展和深化人类语言、个性、价值的边界。语言的边界定义了思想的边界。与人的创造力相比,ChatGPT的内在逻辑以既有的数据为基础,其输出的答案以既有数据的重新排列和组合为表现形式。尽管这些“输出”给人以类人化的感觉,然而,其自身无法避免的带有“偏见”、“平庸”、“均质”的特点。这些与人类自身的丰富的知情意的能力还还去甚远。

不过,麻烦的是,ChatGPT已经实现的类人化成就给现代教育带来巨大的挑战。传统教育体制以知识传授为方法,以水平合格为目标。换言之,教育体制以培养一般人文能力的为鹄的。然而,ChatGPT的应用可以让学生轻松过关,从而让应付现代教育变得相当容易。这对于一般的学习来说或许是个简便的法门,但是却可能让受教育者“惰性”成为“习惯”。人文的创造力往往需要刻苦钻研,沉浸其中,与文字、与历史、与语言长期共存,细心玩味,方可能有创造的“偶然性”。ChatGPT给现代人文教育体制构造了巨大的挑战。

新技术下法学的挑战与机遇:科技、法律与学科重构?

教师简介:

贺嘉,西南政法大学人工智能法学院讲师,西南大数据法律研究中心研究员,主要从事人工智能法,数据法,国际法的教学研究工作。主持省部级课题2项,主研《自由贸易港多元纠纷解决机制建构研究》等国家级、省部级课题多项。出版专著一部,参著《仲裁机构地域性困局及对策研究》等多部专著,在核心期刊等公开发表论文10余篇。

ChatGPT的数据安全问题

ChatGPT作为自然语言处理模型,拥有大量的数据资源作为其与训练的基础,而在完成预训练后,仍然需要持续数据输入才可以保障其系统更新和使用价值。因此,ChatGPT的基础在于全球海量数据,如此大量的海量数据汇集,再交由可自主学习的人工智能系统予以聚合、分析和处理,存在的数据安全风险不可小觑。

首先,ChatGPT的数据来源的合法性需要关注。从Chat GPT的模型介绍来看,其知识库数据来源于互联网中的公开数据,ChatGPT所获取的是哪些公开数据?获取公共数据的方式是否合法?是否所有公开数据都可以被商业利用?商业利用数据是否有使用限制?

其次,ChatGPT的数据处理的合法性需要关注。目前来看,Chat GPT对聊天数据进行了一定的安全处理,主要有两个措施:一是,聊天信息会在退出后被强行删除,避免形成聊天记忆;二是,不会主动摄取用户个人信息的数据,但用户告知后,会形成短暂记忆。但这样的安全措施仍然存在数据安全的担忧。从隐私政策和用户协议来看,OpenAI享有很大的数据处理权限,而且并未承诺不会对聊天信息进行处理,而且基于聊天模型的自我学习和改善的技术需求,对于聊天数据的获取是完全有能力有动机去完成的。

新技术下法学的挑战与机遇:科技、法律与学科重构?

教师简介:

霍俊阁,西南政法大学人工智能法学院讲师,《应用法学评论》副主编,主要从事人工智能法学,刑事合规研究。目前共计发表学术论文20余篇,参研国家级、省部级等各类各级课题20余项。主持《医疗人工智能刑事合规原理与实务研究》《我国西南地区跨境电信网络诈骗犯罪治理研究》等课题多项。

ChatGPT的犯罪风险问题

首先,对于ChatGPT这一新事物、新技术,我们需要知道ChatGPT是什么?ChatGPT能够做什么?在认知ChatGPT的时候,我们还需要具备一定的媒介素养,要能够从众多多元化视角的新闻报道中,探知、筛选出与其犯罪风险相关的有效信息。

其次,在ChatGPT所能够做的事项中,隐含着哪些犯罪风险?对于ChatGPT潜在的犯罪风险问题,相关学者和实务专家已经有所阐述。但大致来看,ChatGPT的犯罪风险可以分为三类:一是以ChatGPT为犯罪工具、手段引发的风险,这主要体现为借助ChatGPT实施的传统犯罪。如借助ChatGPT实施的电信网络诈骗犯罪等。二是以ChatGPT为犯罪对象的风险,这主要体现为对ChatGPT本身的侵害风险或者对其生成物的侵害风险。三是ChatGPT因技术错误而自主实施犯罪的风险,这一风险可能出现于ChatGPT的更高技术形态当中。

再次,对于ChatGPT隐含的相关犯罪风险,现行刑法中可能适用的主要治理罪名有,帮助信息网络犯罪活动罪、拒不履行信息网络安全管理义务罪、侵犯公民个人信息罪、侵犯商业秘密罪、侵犯著作权罪、非法获取计算机信息系统数据罪、破坏计算机信息系统罪等。

最后,对ChatGPT隐含的犯罪风险的防范,应当从更加综合、多元的视角展开。在刑法角度,可以从完善事后的刑罚处罚措施,建立事前的刑事合规机制予以切入。在社会角度,可以通过健全人工智能安全相关制度规范,提高ChatGPT技术的安全水平等方面来防范。在社会公众角度,可以通过提升数据素养、算法素养的方式防范ChatGPT的犯罪风险。

以上观点,对你是否有启发?

最后

大家都尝试去问ChatGPT一个问题吧!

责任编辑 | 刘卓知

审核人员 | 张文硕

本文声明 | 本文章仅限学习交流使用,如遇侵权,我们会及时删除。本文章不代表北大法律信息网(北大法宝)和北京北大英华科技有限公司的法律意见或对相关法规/案件/事件等的解读。

新技术下法学的挑战与机遇:科技、法律与学科重构?

AI时代,掌握AI大模型第一手资讯!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

扫码右边公众号,驾驭AI生产力!

© Copyright notes

Related posts

No comments

No comments...