如果被AI“造谣”,该如何应对?
🏆【全球首例】澳洲市长怒怼ChatGPT:滥用AI造谣诽谤,我将以实际行动捍卫名誉!🔍当地时间4月6日,澳大利亚一位备受尊敬的地方行政长官——布赖恩·胡德,因遭遇OpenAI旗下人工智能聊天机器人ChatGPT的无端指控,声称其卷入了贿赂丑闻并成为有罪一方,毅然决定对这家科技巨头发起一场前所未有的法律挑战。这起诉讼若能成功,无疑将开创人工智能滥用导致诽谤行为的新先例,引起全球关注。👩⚖️ChatGPT以其强大的生成能力,一度引发公众对其言论真实性的质疑,胡德市长的行动是对这种技术滥用的有力反击,旨在保护个人名誉不受虚假信息的侵害。他决心以法律武器,揭示并纠正AI算法可能带来的道德和法律风险。📝这场诉讼不仅将考验司法对新兴科技的理解,也将推动相关法规的发展,确保人工智能在合法、公正的轨道上运行。我们期待看到一个公正裁决,为未来的AI使用设定明确的界限。🏆
🌟随着AI技术的进步,特别是AIGC和大模型的普及,关于AI生成内容的真伪问题引发了热议——面对层出不穷的虚假信息,我们是否该将责任全部归咎于智能算法呢?🔍诚然,AI生成的内容质量与准确性是当前亟待解决的关键挑战。ChatGPT等热门产品的争议并不仅限于信息的真实性,隐私安全问题也逐渐浮出水面,这无疑引发了全球监管机构的深切关注和忧虑。🛡️面对这些问题,我们需要深入探讨如何确保AI生成内容的透明度和可验证性,而非单纯地将责任推给技术本身。 kode#AI伦理与责任
👀 意大利首开禁令,ChatGPT遭遇欧洲首个”刹车”行动!随后法国、西班牙紧随其后,对这款人工智能语言模型展开调查。🌍 4月13日,EDPB紧急成立特别工作组,推动各国协同应对这一技术革新带来的挑战。全球监管步伐加速,立法者们已开始为ChatGPT的合规性设限,试图绘制未来的规则蓝图。🔥 智能时代,规则与创新并行不悖,让我们共同关注这场科技与法律的博弈!🌍 #ChatGPT规制 #欧洲数据保护 #智能未来
1 “凭空造谣”的ChatGPT
🌟前任墨市西部赫本郡领头人胡德,曾是Note Printing Australia的反腐斗士,因其勇敢揭露该公司为获取澳币印制权向海外官员行径而声名远播。在担任市长前,他以举报人的身份,对违法行为进行了坚决的指控,并亲身经历了法庭审判的严酷考验,成为反贿赂斗争中的关键证人。他的故事不仅彰显了公正,也体现了法律的力量。🌟
极简版
🌟【揭露真相】💡胡德针对网络谣言,于3月21日向创新巨头OpenAI发出了严肃警告——他已向OpenAI递交了法律信函,呼吁在接下来的28天内,该科技巨头需对错误信息进行澄清!否则,一场法律行动将随之展开。ChatGPT的信誉安全不容忽视。极坐标系中,点A(1,π/3)到直线ρcosθ=2的距离
这并不是ChatGPT第一次指鹿为马。3月底,乔治华盛顿大学教授乔纳森·特利(Jonathan Turley)收到一封同行的邮件告知,他被ChatGPT列入性骚扰名单,但事实并非如此。
这一“乌龙”是美国加州大学洛杉矶分校教授尤金·沃洛克(Eugene Volokh)使用ChatGPT做研究时发现的,当时他要求ChatGPT生成一份“对某人进行过性骚扰的法律学者”的名单,特利赫然在列。
在这起事件中,ChatGPT甚至给出错误的信息来源,称《华盛顿邮报》一篇2018年的报道指出,特利被指控在一次去阿拉斯加的旅行中对法律系学生动手动脚。可是特利从未和学生一起去过阿拉斯加,《华盛顿邮报》也从未发表过这样的文章。
如果说在这之前,人们对ChatGPT“编造论文”,或是一些“胡言乱语”也许还能一笑置之,但在这两件事上明显没那么好笑。
很显然,OpenAI也注意到内容虚假的问题,曾在公司网站发布博文上承认:“自从推出ChatGPT 以来,用户已经分享了许多他们认为有偏见、冒犯性或其他令人反感的输出。在许多情况下,我们认可了这些担忧,它们揭示了我们系统的真正局限性,我们希望解决这些问题。”
OpenAI首席执行官Sam Altman也曾表示,他对人工智能技术以及它如何影响劳动力、选举和虚假信息的传播有些“害怕”。
2 谁该为AI作假负责?
倘若胡德正式起诉Open AI,这将是全球首例针对生成式AI的诽谤诉讼,并且将带来一系列法律问题,诸如如何认定侵权行为、难点在哪、谁来为AI作假担责等等。
中国人民大学法学院教授、法语国家法制研究中心主任石佳友告诉南都·AI前哨站,在类似案件中,如果被侵权方提起诉讼,AIGC服务提供方需要对这一诽谤承担责任。人工智能作为一种科技应用,负有尊重他人人格权的义务,如果生成了虚假信息,且足以对他人的名誉造成明显的贬损评价——比如指名道姓地说别人从事一些完全没有从事的行为,这种情况下确实侵害名誉权。”
清华大学人工智能国际治理研究院副院长、人工智能治理研究中心主任梁正则提到了责任认定的难点。他认为,即使AIGC服务提供者存在一部分责任,但由于大模型的量级巨大,其内容生产过程对于服务提供者来说可能也是某种黑箱。因此,不能将责任全部归咎于OpenAI。
他进一步指出,由于大语言模型的回应生成模式,使得有关责任认定变得更为复杂,“因为这个工具现在的问题是——即使你问同样的问题,它生成内容也可能不一样,如果你的提示词不同,所生成答案也不一样。也就是说,这不是我们通常意义上理解的,只有一个标准答案。”
此外,如何使用、谁使用了ChatGPT生成的答案,对案件的责任认定也有影响。梁正认为,如果是在较为严肃的场景,比如研究或新闻生产使用ChatGPT生成的答案时,使用者有责任对其进行核查。如果未经核查使用ChatGPT的生成内容并造成广泛负面影响,那么使用者也应当承担部分责任。
面对应用越来越广泛AIGC大模型,可以想见的是,ChatGPT不会是唯一具有使用风险的大模型,那么如何防止AI传播虚假信息?
梁正建议,工具提供方应该在技术保障上尽量做到真实,如果做不到提供完全真实的信息,就应当承担明确的责任,如在生成的内容中进行明确标识。与此同时,工具的使用者也应对生成内容进行核查。
3 ChatGPT的安全隐忧
自面世以来,ChatGPT一路“狂飙”引发科技圈的狂欢,但伴随而来的风险不容忽视。除了被指“作假”外,ChatGPT也面临隐私和数据安全方面的隐忧,正在引起各国的高度关注。
率先出手的是意大利。今年3月31日,意大利宣布“封禁”ChatGPT。近期,意大利“松口”——若OpenAI公司想在4月底前恢复上线这一对话机器人需要采取一系列措施,包括告知处理数据的方法逻辑、上线年龄验证系统、更正或删除不准确的个人数据信息等。
继意大利之后,欧洲多国监管机构也跟进考虑对AI采取更严格的监管措施。这几天,西班牙、法国接连出手,宣布对ChatGPT展开调查。
当地时间4月11日,西班牙数据保护局表示,ChatGPT的全球运作模式会对个人权利产生重大影响,这需要欧洲层面协调决定。现已向欧洲数据保护委员会(EDPB)提出建议,将ChatGPT问题纳入下一次全体会议的讨论范畴,以便欧盟成员国可以在GDPR的适用框架下实施协调一致的行动。
法国数据监管机构CNIL也透露,目前正在调查有关ChatGPT的几起投诉。当地时间4月13日,欧洲数据保护委员会(EDPB)宣布成立专门的工作组,以帮助各国应对ChatGPT有关的隐私问题。
有研究人工智能学者告诉AI·前哨站,在新一代以ChatGPT为代表的生成合成类应用中,用户对话的过程就是被收集信息的过程,尤其是用户在与机器对话的过程中更可能袒露隐私。这些个人信息可被用于用户画像和训练模型,个人信息的收集、使用和传输都面临着安全挑战。
为回应这些安全质疑,OpenAI在美国当地4月5日发布了一份声明,强调致力于确保AI的安全性,并明确尊重隐私、提高事实准确性、儿童保护等多方面的举措。比如OpenAI将对被用户标记为不正确的输出数据作出反馈;通过微调模型以排除收集个人信息,并回应用户删除个人信息的请求等。
现阶段,OpenAI的这些承诺或许还很难平息质疑。面对ChatGPT带来的种种隐忧,多国立法者和监管机构正在试图给ChatGPT“立规矩”。
随着ChatGPT的爆火,今年人工智能技术发展和规范成为全球聚焦的热点。南都·AI前哨站发现,近期国产ChatGPT密集上线,包括阿里、百度在内的中国科技企业先后推出各自的大模型。这波浪潮之下,中国的监管机构也开始着手规范生成式人工智能服务。
4月11日,网信办发布的《生成式人工智能服务管理办法(征求意见稿)》,其中规定利用生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息;防止伤害他人身心健康,损害肖像权、名誉权和个人隐私,侵犯知识产权。
而随着AI时代来临,如何预防技术失控“狂飙”?又该如何治理以保障人工智能的安全性?这是人们无法绕开的课题。
出品:南都人工智能研究课题组
采写:南都记者胡耕硕
AI时代,掌握AI大模型第一手资讯!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
扫码右边公众号,驾驭AI生产力!