ChatGPT颠覆未来?技术之路与治理挑战在哪?

AIGC与游戏7mos agoupdate lida
98 0 0

文章主题:ChatGPT, OpenAI, 聊天机器人, 自然对话

666ChatGPT办公新姿势,助力做AI时代先行者!

九卦 | 祝世虎:ChatGPT的发展与治理

作者 | 祝世虎 光大信托科技部副总经理、数据中心总经理;CIC金融科技和数字经济发展专家委员会委员

来源 | 《中国银行业》杂志2023年第5期

导语:回顾人类历史,技术和伦理紧密交织,面对科林格里奇困境,笔者认为,社会伦理优先于技术创新。

在新兴技术的设计和开发过程中,应优先考虑和满足为人类服务的伦理要求,最大限度利用技术创新造福人类。结合我国国情,对于AIGC的治理分为监管治理、行业自律、企业自治、全民共治四个方面。

ChatGPT颠覆未来?技术之路与治理挑战在哪?

ChatGPT发展与治理面临科林格里奇困境

🌟ChatGPT🔥是由顶尖AI研究机构OpenAI打造的全能型聊天伙伴,它以超自然的对话体验为用户提供服务,能应对各种棘手的语义挑战。从创意写作到代码编写,无论文本还是代码,它都能轻松应对。💡自动问答、翻译和文本生成等强大功能,让日常生活与工作更为便捷。这款创新技术已渗透到各行各业,成为跨领域协作的重要工具。无论是教育医疗、科技,还是日常娱乐,ChatGPT都以其强大的适应性和广泛影响力,为用户带来前所未有的便利。🌍无论你身处何方,只需轻轻一触,就能开启这段智能对话之旅。欲了解更多关于ChatGPT如何改变世界的信息,敬请关注我们的最新动态,我们将持续分享其前沿应用和卓越性能。👩‍💻👨‍💻

本质上而言,ChatGPT是AIGC(Artificial Inteligence Generated Content)人工智能生成内容的一种。从技术角度看,AIGC的发展与应用,是一个新技术形成新生产力的问题;从治理角度看,是一个牵一发而动全身的社会问题;从哲学角度看,其中蕴藏着人类与AI边界的哲学问题。

综合来看,ChatGPT的发展与治理是一个典型的科林格里奇困境(Collingridges Dilemma),指的是一项技术如果因为担心不良后果而过早实施控制,那么技术很可能难以爆发,反之如果控制过晚,技术已经成为经济和社会结构的一部分,就可能走向失控,再来解决问题就会变得更加昂贵、更加困难。

ChatGPT的技术分析

从技术角度对ChatGPT的算法分析并不容易理解,笔者尝试从逻辑思维角度解释ChatGPT技术。OpenAI的工程师们接到的任务是:要做一个拥有人类智能的机器;工程师们的思路如下:首先,要创建一个“大脑”;其次,要整理学习资料;再次,掌握学习方法;最后,学成归来。这就是ChatGPT技术路线的逻辑框架。

第一步,构建“大脑”。工程师认为这应该是一个“通用大脑”,这就是通用人工智能AGI的构想:AGI应该是一个大系统,系统的核心是一个与任务无关的“通用”大模型,大模型依靠大算力从海量大数据中学习人类的知识,从而形成AI智能,这一步体现了工程师的系统思维,与通用复用的工程思维。

第二步,整理学习资料。人类知识的载体是文字、语言、图画等,所以,工程师选择了大型语言模型LLM(Large Language Model)。在工程师眼中,大算力、大存储、大数据使得大模型的工程实践成为可能,随着数据越来越丰富,算力越来越强,模型越来越大,效果也会越来越好,这体现了工程师们“力大砖飞”的实用思维,但并没有从算法上对“力大砖飞”进行严格论证。

第三步,掌握学习方法。在当时的NLP(Natural Language Processing)领域,深度学习模型已经遭遇瓶颈,通过增加模型层深来提升模型效果微乎其微,深度学习模型已经逐步被预训练模型所取代,预训练模型的公式为:模型性能=预训练性能(数据+任务)+微调性能(数据+任务)。

🌟BERT与GPT:深度解析中的平行世界🔍在预训练模型的大海中,BERT和GPT无疑是两颗璀璨的明珠,它们虽看似相似,实则内在运作机制大相径庭。💡源于Transformer架构的这两种技术,各自践行着自然语言处理的不同路径。十年文献的沉淀,BERT以其严谨的双向编码策略赢得了研究者们的青睐,他们倾向于循序渐进,从理解文本开始,逐步迈向生成。📚而工程师们则更偏向于直接跳过理解环节,追求一步到位的生成能力,这就是GPT所倡导的简洁高效。🚀BERT与GPT的选择,反映出研究者和实践者的思维差异:前者遵循逻辑链条,后者寻求创新简化。两者并存,共同推动着自然语言处理技术的进步。🏆

🌟🚀掌握未来文本创作!🔥下面是革新性的语言生成技术发展历程:💡GPT1凭借预训练智慧,解锁语言理解的钥匙;🔍GPT2巧妙迁移,如虎添翼,信息利用更高效;📈GPT3解决了数据小挑战,泛化能力飞跃;🛠️GPT3.5通过指令遵循与精调,打破人机交互壁垒;🚀GPT4将理论升华为实践,引领技术革命浪潮。每一代的迭代都标志着语言生成的进步,它们以独特的方式优化了信息处理和人机互动。让我们的文字创作更加精准、流畅且富有深度!🌍✨

第四步,学成归来。随着大算力、大数据的“厚积薄发”,大模型“量变突破质变”,大语言模型的智力涌现(Emergent Abilities of Large Language Models)出现了。

🚀技术革新之旅,三大里程碑引领成功之路💡从实验室的突破到产业化试错,每一步都至关重要。首先,创新理论在象牙塔中孕育,新技术在这里熠熠生辉;然后,工程师们犹如魔术师,将科技梦想转化为切实可行的成本降低策略;最后,市场如同试金石,对技术进行无情却公正的磨砺,推动其走向成熟。我们正站在这个决定性的时刻,产业应用的探索正如火如荼展开。SEO优化提示:#技术创新 #成本控制 #产业试错记得,每一次技术的进步都是对未来的预告,让我们共同期待这趟旅程带来的惊喜与变革吧!😊

ChatGPT颠覆未来?技术之路与治理挑战在哪?

ChatGPT的技术缺陷

🌟虽然ChatGPT的崛起仿佛得益于科技的日新月异,但它并非完美无瑕。🔍尽管其强大的功能让人眼前一亮,技术瓶颈的存在也不可忽视,这些限制在一定程度上制约了它的全面表现。💻尽管我们被其创新所震撼,但对其潜在的技术瑕疵也需保持清醒的认识。

应用平民化,但建模贵族化。应用平民化指的是ChatGPT提供了便捷的API接口,每个人都可以很方便地接入;建模贵族化指的是建模的成本太高了。ChatGPT的训练需要大量的训练样本、大量的算力,这些背后更是数百名工程师以及大量内容提供者。总体而言,在应用平民化的同时,ChatGPT研究却越来越贵族化。

AI“大而不便改”,使得人去适应AI。在ChatGPT的1750亿个参数中,以“某种方式”存储着人类的知识,但这些参数的逻辑关系、学习过程等从技术上却尚未完全明确。这些参数的修改主要是靠训练,而训练依赖的是昂贵的数据集,会产生“大而不便改”的缺陷。所以,这可能会产生一个“反直觉”的问题:究竟是人去适应AI大模型,还是AI大模型去适应人。以人和手机为例,从客户体验角度看,好像是手机在适应人的操作,但本质却是人去适应手机给我们带来的生活方式!

智能缺陷:感知智能而非决策智能。从技术角度智能类型可以分为三类:基于贝叶斯公式的感知智能、基于先验概率的决策智能、基于计算公式的计算智能。从前述ChatGPT的技术分析不难看出,ChatGPT是通过文本语言等训练的模型,其智能类型是受限的,是局限在文字语言领域的感知智能,而非决策智能,更不是计算智能。

智能缺陷就是ChatGPT的使用边界。例如,在金融机构中,ChatGPT不是决策智能,若用于风险决策将受到限制;ChatGPT不是计算智能,若用于资本计量也将受到限制;ChatGPT是语言领域的感知智能,是可以以文字助手的身份嵌入大部分与文本相关的工作。

AI算法固有缺陷。提起ChatGPT有人可能会有疑问,为什么ChatGPT只提供了API接口而很少开源,这就揭示了ChatGPT作为一种人工智能算法的固有缺陷:算法黑箱、算法鲁棒性、算法歧视等。算法黑箱,是指由于算法模型的黑箱运作机制,其运行规律和因果逻辑并不会显而易见地摆在研发者面前。算法鲁棒性,指的是算法运行容易受到数据、模型、训练方法等因素的干扰。算法歧视,指的是算法以数据为原料,如果初始使用的是有偏见的数据,无形中会导致生成的内容存在偏见或歧视,引发用户对于算法的公平性争议,这种歧视可能主要来自于资本对于训练数据的控制。

极简版

一是训练数据的获取,ChatGPT通过抓取互联网上的信息获得训练数据,可能存在合规问题。

二是在个人信息收集阶段,当用户使用ChatGPT时,可能会输入个人数据,根据《个人信息保护法》要求需要单独授权。

三是在个人数据的加工使用阶段,ChatGPT使用了RLHF(Reinforcement Learning from Human Feedback)的训练方法,即以强化学习方式依据人类反馈优化语言模型,用户使用过程中的输入和交互信息可能会用于持续迭代训练,进一步被用于为其他用户提供服务,从而可能构成数据共享,这时已与用户最初数据使用目的和范围相悖,根据《个人信息保护法》要求需要重新授权。

四是数据泄露,用户在使用过程中输入的信息,以及企业用户输入的各类工作信息,可能导致公司敏感信息泄露。

五是算法缺陷导致数据主体行权困难,ChatGPT的算法黑箱与算法复杂性导致数据主体的基本权利,如更改权、删除权、访问权等行权困难。

ChatGPT的潜在风险

ChatGPT所引发的潜在社会问题主要来自工作岗位、“机器宣传”、人与AI的边界等方面,以及由此可能造成的一系列社会风险。

工作岗位被取代的潜在风险。ChatGPT推出以来,不少新闻报道或文章分析其会取代一些人的工作。ChatGPT本质上是通过科技创新提高生产效率,是生产力的跃升,这与历史上的生产力提升一样,比如,蒸汽机替代马车、电力的广泛使用替代蒸汽机等,都是以更少的人力去生产商品,让节约的人力进入新兴行业,增加新的商品和服务供给。虽然会在短时间内对人类的就业结构产生冲击,但由于人力资源的稀缺性,中长期不会导致大规模失业的问题,只是就业结构发生了变化。

这种结构变化可以用一句话来概括:一群人的工作是发展AI,一群人的工作是被AI所取代,取代你的不是AI,而是先掌握AI能力的人。

“机器宣传”的潜在风险。ChatGPT为代表的AIGC的内容生成,可以在短时间内制造大量包括文字与图片在内的“新内容”,其受制于训练数据的分布。也就是说,虽然ChatGPT的技术是理性、中立、客观的,但是由于训练数据存在歧视,可能导致输出结果存在歧视,导致“机器宣传”可能存在风险,这种风险在技术中立的掩盖下具有一定的隐蔽性。所以,需要大力推动人工智能工具理性与价值理性的双向平衡,构建内容与监管的融合统一。

“资本逐利”的潜在风险。在ChatGPT之前的一个热点是元宇宙,ChatGPT火爆以后,元宇宙迅速降温,给人的感觉是二者此消彼长。但从技术角度来看,AIGC客观上为元宇宙中UGC(User Generated Content)创作提供了助力。元宇宙设想通过用户创作内容的方式来打造元宇宙,而AIGC本身就是内容创作的辅助工具,通过AI和文本、绘图、视频的结合,形成了元宇宙内容创作的新生态。之所以给人此消彼长的感觉,其原因有三,表面原因是元宇宙的应用生态没有形成,如VR游戏等依然看不到突破;次要原因是流量迁移,即元宇宙的流量向ChatGPT的迁移;根本原因是资本的短期逐利性,资本来了又走,是一个阶段的结束也是另一个阶段的开始。

潜在的法律风险。一是著作权。ChatGPT生成的文学作品、代码等存在着著作权归属不清的问题。主要包括:我国现行知识产权法律体系均规定法律主体为享有权利、负有义务和承担责任的人。

二是可能助长信息网络犯罪活动罪。所谓帮信罪,即帮助信息网络犯罪活动罪,我国《刑法》第二百八十七条明确规定,明知他人利用信息网络实施犯罪,为其犯罪提供互联网接入、服务器托管、网络存储、通信传输等技术支持,或者提供广告推广、支付结算等帮助。比如,犯罪分子使用ChatGPT的文字生成功能,形成极具说服力的钓鱼电子邮件或消息,冒充人类或者组织骗取他人信息。

三是拒不履行信息网络安全管理义务罪。ChatGPT的运营商,作为信息发布的网络内容服务提供者,需要履行信息网络安全管理义务。若被监管部门要求责令整改,而ChatGPT的运营商无法提供有效的管理措施,致使违法信息大量传播,可能涉嫌拒不履行网络安全管理义务的违法行为。而前文提及的ChatGPT“大而不便改”的缺陷,则加大了“运营商无法提供有效的管理措施”的可能性。

潜在的未知风险。人与AI能否“和谐”相处,关键是能否达成“共识”,这是一个潜在的未知风险。例如,人类认为:人具有创造性,AI无法开展创造性工作,但AI“认为”:AI使人类的创造力大幅提升。人类认为:毕加索的画是抽象的创造性,但AI“认为”:毕加索的画风不过是一个模型,通过参数调整会生成多幅毕加索的画。人类认为:人类在利用AI扩展人的智能,但AI“认为”:AI在利用人展示它的智能。所以,当“机器宣传”的能力超过了原有的信息渠道;当AIGC产生的文字超过了人类历史积累的文字;当非人类情感的思想被机器开发出来;当AI“过度智能”变得比人类更聪明;当硅基生产力超越碳基生产力,人类如何掌握对人类文明的控制,这也是一个值得深思的哲学问题。

ChatGPT颠覆未来?技术之路与治理挑战在哪?

ChatGPT的治理

回顾人类历史,技术和伦理紧密交织,面对科林格里奇困境,笔者认为,社会伦理优先于技术创新。在新兴技术的设计和开发过程中,应优先考虑和满足为人类服务的伦理要求,最大限度利用技术创新造福人类。结合我国国情,对于AIGC的治理分为监管治理、行业自律、企业自治、全民共治四个方面。

监管治理:技术与内容并重。我国正在形成相对完善的法律体系,由《网络信息内容生态治理规定》《网络数据安全管理条例(征求意见稿)》《互联网信息服务深度合成管理规定(征求意见稿)》等政策法规强调对内容的治理;《互联网信息服务算法推荐管理规定》等强调对技术的治理,这体现了技术与内容并重的治理思路。建议在上述治理成果的基础上,进一步加强对ChatGPT内容产业与应用模型的方向性引导。

行业自律:伦理先行、统筹发展。国家新一代人工智能治理专业委员会在2021年发布了《新一代人工智能伦理规范》,提出将伦理道德融入人工智能研发和应用的全生命周期。《中国关于加强人工智能伦理治理的立场文件》中明确写到,人工智能治理应坚持伦理先行,通过制度建设、风险管控、协同共治等推进人工智能伦理监管;应加强自我约束,提高人工智能在研发过程中的算法安全与数据质量,减少偏见歧视;应提倡负责任使用人工智能,避免误用、滥用,加强公众宣传教育。建议成立行业联盟,统筹龙头企业、研究机构和标准化组织等发挥协同优势,联合制定公约、标准、指南、准则等行业制度规范,建立可信赖的AIGC技术框架、标准体系、评测机制等。

企业治理:主体责任与社会职责。《关于加强互联网信息服务算法综合治理的指导意见》明确提出强化企业主体责任。同时也需要企业践行科技向善理念、积极履行社会职责,例如,社会伦理、安全底线、内容治理等职责。建议加强企业与政府部门和行业组织的治理合作,为其提供可靠的技术能力,例如,内容审核技术能力、紧急辟谣技术能力等。

全民共治:提升防范意识,营造良性发展环境。一是深化公众对于AIGC技术滥用所带来的风险和危害的认知;二是提高广大群众对于虚假信息的鉴别能力;三是鼓励广大群众主动参与内容与传播等环节的舆论监督。全面共治,共同营造良性发展的生态。

(本文原载于《中国银行业》杂志2023年第5期)返回搜狐,查看更多

责任编辑:

ChatGPT颠覆未来?技术之路与治理挑战在哪?

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!

© Copyright notes

Related posts

No comments

No comments...