欧洲“禁用”ChatGPT:隐私担忧还是道德恐慌?

AI与法律10mos agoupdate lida
63 0 0

文章主题:ChatGPT,欧洲,法律逻辑,AI暂停

666ChatGPT办公新姿势,助力做AI时代先行者!

ChatGPT在欧洲“被禁”的法律逻辑

⊙ 本文长约5500字,阅读需时14分钟

本文来源:科技利维坦

作者: 李汶龙,爱丁堡CDCS研究中心兼职研究员

尚博文,北京大学法学院博士研究生,北大法律信息网签约作者

感谢作者授权推送

ChatGPT在欧洲“被禁”的法律逻辑音频:进度条00:00 08:12 后退15秒倍速 快进15秒

本文只讲法律逻辑,不论国际政治。想了解欧盟监管如何整治美国企业的在这里找不到思路。

这篇小文展开四个问题:(1) 这一语境下的“禁令”是什么意思;(2) 如何看待意大利监管机关Garante的举措,随后是否会出现多米诺效应?(3) ChatGPT在GDPR合规问题上究竟面临着哪些挑战,以及 (4) ChatGPT最终是否会被禁,以及基于什么法律理由/基础?

有趣的是,说到中止令 (moratorium),冲到最前面推崇的人竟然是Elon Musk。[2]不过,这与Musk本人长期宣传AI恐惧论的商业逻辑一脉相承,只不过是一种变向的商业广告。关于大模型测试中止令的讨论很快引发了讨论。机器学习界的两大巨擎——Meta首席科学家、法国人Yann LeCun,以及斯坦福大学计算机科学系教授Andrew Ng(吴恩达)——就很快站出来,直指限制技术本身发展是本末倒置。[3][4]

意大利数据保护监管机关Garante是第一个站出来主动挑战ChatGPT,背后并没有消费者投诉等事由推动。那么,会不会有其他机关选择效仿,最终形成多米诺效应?

的确,意大利的做法引发欧洲多国的讨论和表态。包括德国BfDI、法国CNIL、西班牙AEPD、挪威Datatilsynet等国的数据保护机关都明确表达了关注、意愿甚至立场。我们基于既有公开信息对既有立场和措施进行了梳理(见表1),得出三点观察:

首先,多个国家都表示不排除进行跟进或采取措施,但相关行动不会像Garante这样匆忙。

其次,是否会选择中止令这种规制形式,不同国家表达了不同立场。德国联邦数据保护专员在表态中明确使用了 temporary blocking的概念[5],但绝大多数国家都没有意愿照猫画虎。法国监管机关CNIL表示将要求Garante提供信息共享,以进一步判断行动的方向和采取的措施。

第三,由于OpenAI未在欧盟设立机构,GDPR中相关的协同和合作机制无法生效。早在ChatGPT之前出现过“中原逐鹿”的局面:Clearview AI需要面对28个国家独立的调查和处罚。根据Politico的梳理,谷歌、TikTok也是分别在法国、荷兰受到处罚并面临后续独立监管行动,才先后在欧盟(爱尔兰)设立机构的。[6] 虽然OpenAI与Clearview AI,以及早期的Google/TikTok非常类似,但我们判断最终不会形成出现割裂执法的局面。一方面,自2022年开始EDPB已就协同和一致性问题进行了充分的反思和讨论,形成了更为明确的协同意愿和落地机制。另一方面,包括西班牙AEPD、比利时APD-GBA,以及爱尔兰DPC在内的多个机构都在表态中明确提到,ChatGPT的监管应当在欧盟层面统一展开,而不是各自为战。为此,EDPB已就相关问题形成了专门的工作组 (taskforce),以促进各成员国监管机关的联合行动。[7]

无论最终结局如何,此轮监管是欧盟第一次系统性思考GDPR如何适用于大模型,以及会产生怎样的规制效果。如未来隐私论坛VP Gabriela Zanfir-Fortuna所言,数据保护监管机关开始慢慢发现,它们本质上是AI监管者。[8]

GDPR在大模型上的合规执法是一个复杂议题,目前欧盟既有的调查、投诉、学术讨论中也只是触及棱角,并不全面。我们观察到的数据保护法律议题有如下几种。(见表3)其中,Garante向OpenAI提出的合规清单列举的问题最为丰富[9][10],其他介入的监管机关的焦点相对单一。

合法性基础(同意)是出现频率最高的一个问题。Garante在向OpenAI提出的合规指引中着重强调了算法训练的合法性基础,指出只有同意和正当利益是有效的。OpenAI为依赖的合同条款存在合规问题,需要整改。

数据权利行使是另外一个聚焦的合规问题,不同监管机关处呈现出不同的关注点。意大利Garante在数据权利问题上主要关注用户是否可以行使修正权、删除权,以及拒绝权。与此不同,非营利机构Janus International的主席Zoé Vilain向OpenAI行使访问权未果,遂向CNIL投诉。因此,法国CNIL介入之后更为关注的是访问权和透明度。 [11]

Garante明确提出了 未成年人保护的维度,指出OpenAI缺乏年龄认证机制,要求在5月31日提出方案,9月30日正式启用。年龄认证系统与前述合法性基础问题密切关联。如果个人数据的处理是基于同意,那么根据GDPR必须要求当事人或者未成年人的监护人进行同意。Garante向OpenAI提出的要求是13岁以下的未成年人不得注册,13-18岁区间的未成年人需要监护人同意。

透明度是另一个典型的数据保护合规问题,与数据权利行使,以及未成年人保护关联密切。从措辞上来看,OpenAI在信息提供上明显做得不够充分。

最后, 信息准确性也是一个潜在的合规点。GDPR列有“数据准确原则”,要求控制者或处理者对个人数据保持准确,必要情况下需及时更新,对不准确的个人数据采取合理措施(包括删除或者及时修正。Garante在合规指引中对信息准确性问题一带而过,主要是关乎模型对问题胡乱编纂的情形。但是,ChatGPT的使用不一定涉及个人数据,究竟GDPR哪一机制适用这一问题目前尚不明晰。不过,在法国CNIL接受的另一份投诉中,软件开发者David Libeau提到,当自己向ChatGPT咨询时发现处理了自己的个人信息,在进一步追问时ChatGPT开始胡编乱造。 [12]

如果真的要讨论ChatGPT在欧洲是否被禁这个议题,需要细分法域,逐个分析,不该望文生义。就目前各国数据保护监管机关的举措和表态来看,所谓禁止云云名不副实。

但是,欧盟的数字治理在2023年正式进入转折年:DSA、DMA逐步生效,AIA也正在敲定最终文本。虽说GDPR这一一种粗糙的治理工具足以引发格局变化,而更为精准、更富针对性的新数字立法将如何影响大模型的测试、应用以及发展是更为复杂的议题。这些新的法律规则是否会在事实上形成“禁令”值得更为缜密和细致的分析。

除了上述数据保护执法行动之外,全球视野下还存在若干其他的治理方向。例如Github因公开代码爬取所面临的版权集体诉讼[13]、南非竞争委员会率先针对大模型发起的(反垄断)市场调查[14]等,与数据保护议题同等重要,却未得到相同程度的重视。学界也从不同的视角开始审视大模型的法律治理难题。[15][16][17][18][19][20]未来适当时候,我们会系统展开这一全球治理议题。

[1]https://ainowinstitute.org/publication/regulating-biometrics-global-approaches-and-open-questions

在科技迅速发展的当下,人工智能(AI)的应用已经渗透到我们生活的方方面面。然而,随着AI技术的不断进步,一些大型AI实验也应运而生。这些实验在一定程度上推动了AI技术的发展,但同时也引发了关于伦理、安全等方面的担忧。为此,我们有必要暂停一下 giant AI 实验。未来生命 Institute 发起了这封公开信,呼吁人们 pause Giant AI Experiments。这封信旨在引起人们对AI技术发展过程中可能带来的风险的重视。虽然AI技术的发展给我们的生活带来了便利,但在追求科技进步的过程中,我们也应时刻关注AI技术可能带来的负面影响。在这封公开信中,作者强调了暂停巨

在科技迅速发展的当下,有人提出要暂停AI半年,这种做法实际上是对人工智能发展的一种阻碍。首先,AI的发展已经取得了显著的成果,它已经渗透到了我们日常生活的方方面面,从医疗教育到娱乐等各个领域都取得了显著的效果。因此,AI已经成为推动社会发展的重要力量,它的应用不仅没有带来负面影响,反而让我们的生活变得更加便捷。其次,AI的暂停将会导致大量的失业和社会不安。随着AI技术的广泛应用,许多传统行业的工作已经被AI取代,这无疑会加剧社会的就业压力。同时,AI的暂停也会对社会稳定造成影响,因为AI技术在社会治理、公共安全等方面也起到了重要的作用。再者,AI的暂停将会阻碍科学研究的进展。在现代科学研究中,AI已经成为了不可或缺的工具。无论是基因编辑、天文学还是材料科学,AI都在科学研究中发挥着重要的作用。因此,AI的暂停将会在一定程度上阻碍科学研究的进展。最后,AI的暂停将会错失掉未来的机遇。在全球范围内,AI技术正在快速发展,许多国家已经开始制定了自己的AI发展战略。如果我们选择暂停AI,就意味着我们要放弃未来可能带来的巨大机遇。相反,如果我们能够积极地应对AI技术的发展,就有可能在未来获得更多的机遇和发展空间。综上所述,我们认为暂停AI是不明智的选择。AI已经成为推动社会发展的关键力量,我们应该积极地应对其发展,而不是选择暂停。

在当今科技迅速发展的时代,人工智能(AI)已经成为许多公司和组织的重点投资领域。然而,最近有一些观点提出了暂停 AI 开发的可能性,这引起了广泛的讨论。事实上,这种做法可能会带来许多负面影响,从而阻碍 AI 技术的发展。在这篇文章中,我们将探讨为什么暂停 AI 开发是一个不明智的选择。首先,AI 技术的应用范围越来越广泛,从医疗保健、金融、交通到制造业等各个领域都有它的身影。它不仅能够提高生产效率,降低成本,还能为我们的生活带来更多的便利和乐趣。因此,我们有理由相信 AI 技术将会继续推动人类社会的发展。其次,暂停 AI 开发将导致已经投入使用的 AI 系统的停摆,这些系统可能无法再次启动或需要重新训练,这将造成巨大的浪费。与此同时,暂停 AI 研发也将阻碍新的 AI 技术的诞生和发展,使得我们在 AI 领域的竞争力下降。此外,AI 技术的发展也面临着诸多挑战,如数据隐私、伦理道德和安全等问题。我们需要通过合理的监管和规范来解决这些问题,而不是暂停 AI 开发。实际上,许多国家和企业已经开始在制定相应的政策和法规,以确保 AI 技术的安全和可持续发展。总之,暂停 AI 开发并不是一个明智的选择。我们应该积极面对 AI 技术带来的挑战,通过合理的监管和规范来推动 AI 技术的持续发展,以期在未来的科技竞争中立于不败之地。

在隐私问题上,德国可能会考虑封禁ChatGPT。

在当今世界,监管痛苦和保护用户隐私成为欧洲监管者面临的挑战。随着人工智能技术的不断发展,如何确保其合规性并保护用户数据安全愈发重要。欧洲通用数据保护条例(GDPR)为这一问题提供了指导方针,但实施起来仍面临诸多困难。

[7]https://www.reuters.com/technology/european-data-protection-board-discussing-ai-policy-thursday-meeting-2023-04-13/

[8]https://www.politico.eu/article/chatgpt-world-regulatory-pain-eu-privacy-data-protection-gdpr/

互联网时代,隐私保护已成为越来越多人关注的焦点。为了更好地满足用户的需求,很多网站都会提供隐私政策,以便让用户了解如何保护他们的个人信息。其中,[9]https://www.garanteprivacy.it/web/guest/home/docweb/-/docweb-display/docweb/9870832 这个链接提供了一份详尽的隐私政策,供用户查阅和学习。在这个隐私政策中,包含了有关数据收集、使用、存储、共享、转移以及安全措施等方面的内容,让用户对自己的信息权益有更清晰的认识。同时,该隐私政策还强调了网站对于用户数据的尊重和保护,承诺不会滥用用户的个人信息。总之,这份隐私政策对于那些关心自己信息安全的人来说,是一份非常有价值的参考资料。

[10]https://www.garanteprivacy.it/web/guest/home/docweb/-/docweb-display/docweb/9874751#english

[11]https://www.lemonde.fr/pixels/article/2023/04/05/chatgpt-premieres-plaintes-aupres-de-la-cnil-contre-le-logiciel-d-intelligence-artificielle_6168425_4408996.html

[12]https://www.lemonde.fr/pixels/article/2023/04/05/chatgpt-premieres-plaintes-aupres-de-la-cnil-contre-le-logiciel-d-intelligence-artificielle_6168425_4408996.html

[13]https://www.theverge.com/2022/11/8/23446821/microsoft-openai-github-copilot-class-action-lawsuit-ai-copyright-violation-training-data

[14] https://www.compcom.co.za/wp-content/uploads/2023/03/Media-and-Digital-Platforms-Market-Inquiry-Draft-Terms-of-Reference-17-March-2023.docx

[15]https://verfassungsblog.de/chatgpt/

[16]https://arxiv.org/abs/2302.02337

[17]https://policyreview.info/essay/chatgpt-and-ai-act

[18]https://www.brookings.edu/blog/techtank/2023/02/21/early-thoughts-on-regulating-generative-ai-like-chatgpt/

[19]https://techcrunch.com/2023/01/27/the-current-legal-cases-against-generative-ai-are-just-the-beginning/?guccounter=1&guce_referrer=aHR0cHM6Ly93d3cuZ29vZ2xlLmNvbS8&guce_referrer_sig=AQAAAJW3HAvJK_rDWR9_3kcHblRPaFA3zMXCdjUrVHAWJtdwBAtbZSSy0t71Awsj_WwQb8ESblnWAM3wBqJSRPYEXbqNtdArQq_XiyYMf0JNhLA5C46ewuL0P9anMLenZcbJryML4s87qnujj42CohywSjwcH1DY76dzxCniNEYiS3r7

[20] https://techmonitor.ai/technology/ai-and-automation/this-is-how-gpt-4-will-be-regulated

-END-

编辑排版丨吴晓婧

审核人员丨张文硕

本文声明丨本文章仅为交流之目的,不代表北大法宝的法律意见或对相关法规/案件/事件等的解读。

北大法宝怎么“让法律更智能”?

对话ChatGPT,人工智能如何能成为论文作者?

ChatGPT的创新与挑战

谢澍:ChatGPT到来,监督管理与技术研发应当如何互动?

法宝重磅 | ChatGPT来了,法宝人工智能研究院告诉你真相

北大法宝宣布联合百度文心一言 打造法律人工智能新生态

OpenAI独家回应|ChatGPT为何不向所有中国用户开放注册?

什么都懂的ChatGPT如何看待爱情?

ChatGPT来袭,法律人真的要失业了吗?

专访ChatGPT:2023涉外律师高度关注的十个问题,我给出了高质量回答

高绍林:ChatGPT法律智能化应用及其规制

会议综述丨“ChatGPT对法律人工智能研发和立法的影响”研讨会成功举行

点击下方公众号名片

获取更多信息返回搜狐,查看更多

责任编辑:

欧洲“禁用”ChatGPT:隐私担忧还是道德恐慌?

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!

© Copyright notes

Related posts

No comments

No comments...