ChatGPT:人工智能的崛起及其对未来的影响

AI与法律10mos agoupdate lida
178 0 0

文章主题:ChatGPT, 人工智能, 预训练, 影响

666ChatGPT办公新姿势,助力做AI时代先行者!

来源:检察日报

近期,ChatGPT的问世引发了广泛的关注和兴趣,它不仅展示了技术的巨大进步,同时也引发了人们对人工智能的深度思考。作为一名专业的技术人员,我将以自己的实践经验为基础,从科技、法律以及国家安全等角度来探讨ChatGPT所带来的深远影响。

  表现虽不完美却不能小觑

ChatGPT中的“GPT”代表了Generative Pre-trained Transformer,其基础在于预训练。简单来说,预训练是一种方法,让AI模型在未标注数据的情况下进行训练,只需依赖大量的语料库。这种方式极大地加速了数据收集的过程。我曾在代码中使用过某度的人工智能SDK的自然语言处理接口,成功识别出“被告人徐俊球犯故意上海罪,判处聚义五个月”这句话中的错误,准确率相当高。

ChatGPT在公共领域中的表现已经证明,它所展现出的能力并非完美,但也不能被忽视。作为先驱者,它将对科技企业的战略方向产生重大影响。观察微软、谷歌等科技巨头的发展战略,我们可以发现它们都在积极寻求在人工智能领域取得突破。这一趋势将推动科技产业的快速变革。其中,最为关键的要素是算力资源,因此,众多计算芯片制造商将迎来更多的市场机遇

随着算力的加强,可能会涌现出与ChatGPT竞争的产品。这对于主要依赖内容生成的行业来说,无疑是一个令人担忧的现象。在诸如内容创作、知识服务(例如智能搜索)等领域,以及许多无需严格内容审核的业务场景中,对ChatGPT等人工智能系统的过度依赖,将使人类的作用进一步减弱,最终可能导致就业和技能的流失。

ChatGPT 在专业领域表现存在诸多差距是不容忽视的事实。然而,考虑到预训练人工智能算法的基本特性,它所缺乏的可能是仅仅数据资源。

在我国人工智能领域,实战化程度较高的算法主要由国外研究机构开发,如微软的深度残差网络和谷歌的Transformer与BERT。近期推出的ChatGPT迅速吸引了全球用户的关注,短短两个月内,活跃用户数量已经超过2亿。然而,尽管这些关键技术的原理已经被公开,但实际上要复制这些技术并不容易,尤其是对于我国来说,这些关键技术基本处于“黑箱”状态。

  法律风险不可忽视

  当越来越多的人使用ChatGPT或者在产品中更多调用ChatGPT接口时,我们的交互和反馈就变成了它训练模型的一部分,成为了它提升正确率、理解率的基础,这对保护用户隐私和信息安全,维护公共利益、社会秩序,甚至对国家安全都会带来很大挑战。

  未来,OpenAI将开放ChatGPT模型调用接口,这意味着届时会有大量的企业在此基础上开发自己所需要的应用程序并服务于各行各业。通过这些产业的拓展,ChatGPT将事实上走进各个领域。

  首先将面临虚假信息泛滥的问题,这是ChatGPT基于预训练和反馈强化的算法基础所决定的。特别是在部分泛专业领域,由于基础材料积累不够,或者面临竞争者攻击时会存在虚假信息泛滥的风险。当然这里还存在一个不良信息监管的问题。

  其次,将会面临知识产权合规问题。在智能搜索和知识推送领域,系统所必需的语料积累储备以及结果推送等方面,是否需要相应知识产权授权是必须要考虑的问题。更为甚者,通过人工智能技术生成的“作品”(诗歌、小说、动画、绘画等),其著作权属该如何认定,以及滥用和侵犯后的权益保护等,都将给现有法律框架带来挑战。

  还有算法规制的风险。2022年我国出台了《互联网信息服务算法推荐管理规定》,明确要求算法应当坚持主流价值导向,积极传播正能量,不得利用算法推荐服务从事危害国家安全和社会公共利益、扰乱经济秩序和社会秩序、侵犯他人合法权益。鉴于ChatGPT目前仍属于“黑盒”模型,其算法能否披露、能否足量披露以及是否符合规定的要求都是未知数。

  笔者认为,ChatGPT的出现并不是噱头,其所体现的技术能力和计算能力都是出类拔萃的。人类能看到的冰山,只是整个冰山的一角。也许有一天,波士顿机器人穿着高仿真人皮服装,连接ChatGPT并成功地拜访了你,与此同时,有着相同“模样”的他却在另一个地方实施了一起恶性案件。于司法而言,完美的不在场证明就出现了。科技是人类解决自身存在问题的手段而非目标,科技的发展应当受到法律和伦理的规制。

  (作者单位:最高人民检察院检察技术信息研究中心)

举报/反馈

ChatGPT:人工智能的崛起及其对未来的影响

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!

© Copyright notes

Related posts

No comments

No comments...