人工智能在搜索引擎中的应用需要遵守相关法

AI与法律1yrs ago (2023)update lida
114 0 0

2023年2月8日凌晨,微软在官网上公布了一系列新产品,其中包括由ChatGPT支持的最新版人工智能搜索引擎Bing(必应)和Edge浏览器。此消息公布后,微软市值在短时间内迅速上涨,达到五个月来新高。这也预示着搜索引擎将迎来新时代。

01、ChatGPT是什么?

ChatGPT是由美国“开放人工智能研究中心”研发的聊天机器人程序,于2022年11月30日发布。该程序能够通过学习和理解人类的语言来进行对话,并根据聊天的上下文进行互动。ChatGPT的能力包括撰写邮件、视频脚本、文案、翻译、编写代码、法律文书等任务。特别值得一提的是,2月6日,哥伦比亚的一位法官表示在法律判决中参考了 ChatGPT提供的内容,该案是关于一名自闭症儿童是否应获得医疗保障的医疗纠纷。这也是目前已知的第一例在法律裁决中使用了人工智能文本生成器的案件。

02、ChatGPT背后的法律问题

ChatGPT除了关于网络传播、内容管理方面的常规法律法规以外,AIGC还涉及到3个特殊的有关法律监管方面,需要引起注意:

● 涉及数据有关方面法律

作为网络从业者,我们必须遵守相关的法律法规,其中包括《中华人民共和国网络安全法》、《中华人民共和国数据安全法》、《中华人民共和国个人信息保护法》、《互联网信息服务管理办法》等法律、行政法规关于网络、数据安全、信息保护等有关规定。这些规定旨在保护公民、法人和其他组织的合法权益,维护国家安全和社会公共利益,确保互联网的健康发展。

● 涉及知识产权侵权问题

ChatGPT是基于大量的样本学习来提供答案的,这些“样本”的创作者对于答案是否具备知识产权仍存在争议。在AI绘画、AI辅助编程领域,已经发生了类似的纠纷。有些画家认为一些AI绘画作品可以模仿其风格。在AI辅助编程领域,有些源代码是非开源的(或者协议有限制),那么被用于提供辅助答案,是否构成侵权?这是一个尚待厘清的领域。此外,是否适用于搜索引擎的相关法律规则,是否适用于爬虫技术的规则,也需要未来研究和关注。

● 自动生成的内容需要遵守深度合成的监管规定

有人利用AI技术制作出栩栩如生的内容、音频和视频,用于非法目的,例如用现实人物生成虚拟演讲,用于诈骗等。

2022年12月11日,国家网信办、工信部、公安部联合发布了《互联网信息服务深度合成管理规定》,该规定自2023年1月10日起施行。该《规定》明确了深度合成技术的定义,将「深度合成技术」定义为利用深度学习、虚拟现实等生成合成类算法制作文本、图像、音频、视频、虚拟场景等网络信息的技术。同时,该规定对深度合成服务提供者和技术支持者提出了一系列规范要求。

《规定》第六条规定:“任何组织和个人不得利用深度合成服务制作、复制、发布、传播法律、行政法规禁止的信息,不得利用深度合成服务从事危害国家安全和利益、损害国家形象、侵害社会公共利益、扰乱经济和社会秩序、侵犯他人合法权益等法律、行政法规禁止的活动。深度合成服务提供者和使用者不得利用深度合成服务制作、复制、发布、传播虚假新闻信息。转载基于深度合成服务制作发布的新闻信息的,应当依法转载互联网新闻信息稿源单位发布的新闻信息。”

03、人工智能在中国整体监管有待完善

人工智能的发展深刻改变了人们社会生活,但也带来了前所未有的新挑战。在个人隐私、经济安全、社会稳定等领域,人工智能技术的发展带来了前所未有的挑战。人工智能技术为商业和民生带来了巨大的机遇,但也存在着风险。例如,隐私泄露、人工智能的“智力成果”是否享有著作权,以及无人驾驶汽车致害应该如何认定等问题。因此,需要设立相关的规章制度,规范其使用,确保向用户提供高质量、有价值的信息和数据,以应对这些挑战。

在2021年,中共中央印发了《法治中国建设规划(2020-2025年)》,其中明确指出,信息技术领域需要加强立法,及时跟进研究数字经济、互联网金融、人工智能、大数据、云计算等相关法律制度,抓紧补齐短板。

人工智能是我国当前发展的重要领域之一,但由于缺乏具有前瞻性、可操作性、指引性的法律法规,人工智能的发展存在诸多问题。其中,个人信息保护、数据共享等问题也亟须立法明确。因此,有必要制定相关法律法规,规范人工智能的开发和使用,保障公众的个人信息和数据安全。

关键词:ChatGPT,人工智能,法律,数据,知识产权,深度合成,网络传播,内容管理,数据安全,个人信息保护,互联网信息服务,自动驾驶汽车,法律规范,规章制度,人工智能发展中的法律问题,缺乏前瞻性,可操作性,指引性,个人信息保护,数据共享,无人驾驶汽车,自动驾驶汽车致害,法律认定,人工智能,深度学习,虚拟现实,生成合成类算法

© Copyright notes

Related posts

No comments

No comments...