人工智能聊天机器人ChatGPT的伦理问

AI与法律1yrs ago (2023)update lida
129 0 0

人工智能聊天机器人ChatGPT的伦理问

人工智能聊天机器人ChatGPT的伦理问

人工智能聊天机器人ChatGPT的伦理问

2022年11月30日,美国人工智能研究实验室OpenAI推出了一款名为ChatGPT的聊天机器人程序,这一事件在AI技术发展领域引起了广泛关注。作为人工智能技术驱动的自然语言处理工具,ChatGPT能够通过连接大量包含真实世界对话的语料库来训练模型,从而拥有语言理解和文本生成能力。这使得ChatGPT能够与真正人类几乎无异地进行聊天交流,并可以进行撰写邮件、视频脚本、文案、翻译、代码等任务。这一新成就无疑在AI技术发展领域是一个引人注目的新成就。然而,随着ChatGPT的广泛应用,也带来了一些负面新闻,如捏造知名人物虚假信息、泄露用户聊天内容、回答问题不切实际等。那么,ChatGPT时代来临,给我们带来的究竟是机遇还是风险,我们又该如何妥善应对呢?我们需要认识到人工智能技术的发展是不可避免的,但同时也需要认识到其带来的风险。ChatGPT的广泛应用可能会导致一些负面的后果,如捏造虚假信息、泄露用户聊天内容等。因此,我们需要在使用ChatGPT时,保持警惕,并采取相应的措施来保护用户的隐私和信息。我们需要认识到ChatGPT的能力已经远远超过人类,因此在与它进行交流时,我们需要保持谨慎和理性。我们可以尝试与ChatGPT进行对话,但我们需要确保我们的观点和信息是真实和准确的,以避免被其误导和欺骗。我们需要意识到ChatGPT的能力和应用范围已经越来越广泛,因此我们需要不断学习和更新知识,以便更好地应对ChatGPT带来的挑战和机遇。

一、ChatGPT带来的道德与法律风险

(一)虚假信息频出

ChatGPT软件在识别性骚扰方面存在错误。实际上,乔纳森·特利教授在乔治·华盛顿大学一次旅行中对学生“动手动脚”,但被学生举报,引发公众关注。然而,ChatGPT软件并未经过核实就将其归类为“性骚扰”,这一信息是虚假的。类似地,澳大利亚的ChatGPT软件也错误地将Brian Hood描述为参与澳大利亚储备银行贿赂丑闻的“罪犯”,这一描述也是虚假的。事实上,Brian Hood是揭露这一不当行为的英雄。

除了上述引发广泛关注的事件外,在日常生活中,即使我们搜索一些周知的问题,ChatGPT也可能会给出错误的答案。随着质疑和追问的深入,它甚至会随意更改答案,推翻先前的表述。与此同时,措辞能力的不断提高,使得ChatGPT的言论看起来十分可信,一不留神就会被它“带到沟里”。因此,AI机器人捕风捉影、伪造内容,抑或不加甄别地提供信息,不仅严重损害个人名誉、对未成年人的教育造成不良影响,还有可能会降低民众对政府的信任度、破坏新闻等可靠信息源,最终影响国家安全与社会稳定。

(二)个人隐私和商业机密泄露

今年3月,有海外网民在于ChatGPT聊天的过程中发现了“不属于他们自己的ChatGPT对话记录”,并将相关截图发布在Reddit和推特等社交媒体平台上。随后,ChatGPT的开发公司OpenAI创始人山姆·阿尔特曼在推特发文承认了这一点,声称该AI的一个故障让一些用户能够看到其他用户对话历史记录的标题,并表示“对此感到很难过”。虽然该故障已经修复,但依然引发民众对AI泄露个人隐私的担忧:是否还有更多我们尚未发觉的bug潜藏在其中?[3]

除个人隐私风险外,公司泄密危机同样值得关注。AI机器人很有可能将用户输入的敏感数据转化为输出的内容,造成数据泄漏。基于此,美国银行、花旗集团、德意志银行、高盛集团、富国银行、摩根大通和Verizon等机构已经禁止员工使用ChatGPT聊天机器人处理工作任务。同样,微软的工程师和亚马逊的律师都曾警告员工,不要与ChatGPT分享“任何亚马逊的机密信息,包括你正在编写的代码,因为他们可能会将其用于训练未来的模型。”

随着AI算法检索与抓取信息的能力不断增强,各类主体的隐私和机密都可以更容易地暴露在公共环境中。ChatGPT无法对是否属于隐私或机密内容以及内容真伪进行甄别,对于用户输入的信息与数据,也同样未公示其处理路径,是否全部删除、如何删除以及是否存储部分数据加以利用,公众都无从知晓。

(三)剽窃和学术不端行为滋生

ChatGPT走红后,AI是否可以作为著作权人、其创作是否可以成为“作品”等问题再次引发热议。国内外立法普遍认为,著作权人仅限于自然人和法人,不包含其他类型主体。原因主要在于,AI输出的内容是基于人预先设定好的程序、算法的结果,并非自主意识创作。因此,它在本质上依然是人类使用的“创作工具”。同样地,ChatGPT的技术原理是依靠从训练数据中学到的模式和关系,来生成风格和内容与训练数据中的文本相似的新文本。[4]

然而,我们不得不承认的是,ChatGPT经过一系列复杂的程序运作后所生成的内容,确实具备一定的独创性,在现有作品库中往往难以找到雷同文本。根据这个特征,许多人通过输入不同关键词或其他指令,生成各类具有原创性外观的文章,谎称是自己的创作成果,用于营利或其他目的,肆意违反学术道德。不仅如此,如果在科学研究中使用人工智能生成的内容,还可能存在算法偏见、虚假叙述等一系列伦理风险。

二、ChatGPT风险的法治应对

(一)明晰责任主体

ChatGPT是否应当为其提供虚假信息、侵犯他人名誉权、隐私权等行为承担责任,是我们首先应当明确的问题。只有确认其作为适格责任主体的身份,才能进一步追究责任,法律对AI技术对规制才能更加有效。AI是如何识别数据并进行判断进而作出某种决策的,这是决定人工智能能否对自己的行为承担法律责任的实质性理由。然而,它是否以及如何能够自主识别、自动判断、自主行动以及自主创作,目前依然是无法被理解的。

因此,我们的当务之急在于促进AI运行机制的进一步透明化、可解释化。2021年9月25日,我国国家新一代人工智能治理专业委员会发布的《新一代人工智能伦理规范》第12条规定,要在算法设计、实现、应用等环节,提升透明性、可解释性、可理解性。专业机构和人员不应当仅仅着眼于推动AI的不断智能化,同时应当注重对算法全过程、各环节的研究和解释工作,譬如输入内容的处理、输出内容的依据、信息抓取与改造的逻辑等方面。人工智能的行为和决策的空间越大,需要解释的空间就越大。如同在人类世界一样,只有做出明晰的解释,了解人工智能如何思考、反应,我们才能有章可循,精准分配责任。[5]

(二)有效运用法律规制

在人工智能领域,我国已经颁布了一系列法律法规加以规制,如《网络安全法》《数据安全法》《网络信息内容生态治理规定》等,《生成式人工智能服务管理办法》也在征求意见之中。这些规定在一定程度上明确了人工智能的基本道德要求和应用原则,能够有效约束算法技术滥用可能导致的安全风险。此外,上述专门领域立法还与《民法典》《个人信息保护法》等法律规定相结合,全方位保障用户的个人权益。因此,我国可以充分利用现有法律制度,加强对ChatGPT相关产业的规制,并根据产业发展状况,适时推出新的立法。

有了法律文本做依托后,对于法律责任的具体承担方式,有学者指出,应当视情况分析。如果用户故意输入指令让人工智能编造谣言,此时AI聊天机器人充当的是工具角色,应由用户承担法律责任。若用户没有主观故意,虚假信息内容由人工智能算法自行生成,可以推定人工智能对编造、传播谣言起到了实质性的帮助作用,因此相应的用户与AI运营公司承担连带责任。运营平台承担责任大小,应综合考虑是否尽到注意义务、侵权范围、损害程度以及平台避免损失扩大的能力等因素。[1]

(三)强化科技伦理审查

如果法律是维护网络安全兜底性的后置措施,那么科技伦理审查是AI研发过程中不可或缺的前置环节。从事人工智能等科技活动的单位,凡研究内容涉及科技伦理敏感领域的,均应设立科技伦理委员会。安全性是当下人工智能领域的短板,更应当成为未来的重要发展方向。

近期,科技部会同相关部门研究起草了《科技伦理审查办法(试行)》,正面向社会公开征求意见。《科技伦理审查办法(试行)》是覆盖各领域科技伦理审查的综合性、通用性规定。在总则部分规定了审查范围,并开宗明义地提出了提出了科学、独立、公正、透明的审查原则和要求。随后,对审查主体、审查程序、监督管理等方面进行了详细规范。其内容的制定充分遵循科技创新规律,在立足实际的同时广泛借鉴,并且坚持问题导向、有的放矢地提出措施。此外,它也能够与《科技进步法》《个人信息保护法》《数据安全法》等多项法规制度相衔接,防范科技创新风险,保护民众权益。[6]《科技伦理审查办法》的出台,无疑是对科技创新过程中暴露出的诸多问题的有力回应,使得企业的伦理审查工作有章可循,也让民众更放心地接纳科技进步带来的成果。

(四)监管企业研发活动

由于研发企业的趋利性特征,除内部审查外,加强外部监管也十分重要。首先,政府应当规制ChatGPT的应用范围与标准,规定禁用领域,以防止泄密或其他风险,并且制定一定的标准,依循其对各项性能指标进行评估,达标后方可投入市场使用。此外,政府牵头成立外部审查机构也非常必要,此类机构应包含各领域专家,依据现有法律法规对AI产品的技术内容和伦理内容进行全方位审核,以防范安全风险,保障民众权益。最后,政府应当对ChatGPT等AI技术的违规行为采取处罚措施,以警示研发企业:遵循公共道德伦理是提升技术的首要前提,技术的进步最终是为了增进全人类福祉。

参考资料

[1] 钟雨欣:,载微信公众号“ 21世纪经济报道”,2023年4月9日。

[2]Lauren:,载微信公众号“ Tech商业”,2023年4月6日。

[3]严梓瑄、郭美婷:,载微信公众号“ 21世纪经济报道”,2023年4月3日。

[4]万 勇:《ChatGPT引发著作权问题新思考》,载《法治日报》2023年2月15日。

刘艳红:《人工智能的可解释性与AI的法律责任问题研究》,载《法制与社会发展》2022年第1期。

科学技术部科技监督与诚信建设司发布了《科技伦理审查办法(试行)(征求意见稿)》,载于科技部官网2023年4月4日,链接为https://www.most.gov.cn/wsdc/202304/t20230404_185388.html。该文件为科技伦理审查提供了参考,希望能够促进科技领域的诚信建设和伦理审查。

文 |聂思琪

编辑 | 聂思琪

转载请注明来源,并保持内容完整

–热点速递与解读–

关键词:2022年11月30日,美国人工智能研究实验室OpenAI,聊天机器人程序ChatGPT,自然语言处理工具,人工智能,真实世界对话语料库,语言理解和文本生成能力,捏造虚假信息,泄露用户聊天内容,回答问题不切实际,ChatGPT时代来临,机遇与风险,乔治·华盛顿大学法学教授乔纳森·特利,性骚扰,人工智能聊天机器人,澳大利亚,RBA,Brian Hood,人工智能聊天机器人,澳大利亚储备银行,贿赂丑闻,可解释性,法律责任,科技伦理审查办法,科技监督与诚信建设司,科技革命,

© Copyright notes

Related posts

No comments

No comments...