文章标签:自然语言处理, 人工智能, 模型漂移, 模型质量指标
原标题:ChatGPT笨了,还是老了?
文|科技新知
“过去的表现并不能保证将来的结果。”这是大多数金融理财模型的小字。
在产品业务领域内,我们常常会遇到一种现象,即模型的性能随着时间推移逐渐降低,这种现象被称为模型漂移、衰退或过时。这种变化是不可避免的,因为模型需要不断地根据实际情况进行优化和调整。因此,我们需要关注的是如何保证模型质量,以满足不断变化的业务需求。在评估模型质量时,我们可以采用多种指标,如准确率、平均错误率等,同时还可以结合一些下游业务的KPI,例如点击率,从而全面地衡量模型质量。
在众多模型中,没有哪一个能够永久保持高效性,各种模型的衰退速度各有差异。然而,在特定环境下,一些产品能够长期运行而不需要进行更新,如某些计算机视觉和语言模型,以及在隔离、稳定的环境中工作的决策系统,例如在常见的实验条件下。
在确保机器学习模型精度的道路上,每日对新数据的训练是必不可少的,这也是该领域的通用原则所要求的。然而,这种模式存在一定的局限性,因为它意味着人工智能的部署无法像软件部署那样具有长期的稳定性。尽管这种方法已经被应用了几十年,但是目前最前沿的AI产品仍然在使用早期版本的软件技术。这主要是因为这些技术仍然具有实用价值,即使它们的技术已经 outdated,但它们仍然可以在每个字节中持续存在。
以ChatGPT为代表的最前沿人工智能产品,在近期经历了人气下滑的现象,引发了关于其是否已经进入衰退阶段的讨论。
在 ChatGPT 上,用户花费的时间正在持续减少。从 2023 年 3 月的 8.7 分钟下降到 2023 年 8 月的 7 分钟,这一变化反映了什么?显然,随着大型模型工具的迅速普及,生产力工具的 ChatGPT 已经无法满足主流使用群体 Z 世代的需求。他们对于更高效、更有趣的应用有着更高的期待,而不仅仅只是工具。
一时的人气不足以撼动OpenAI在AI时代应用商店领域的霸主地位。问题的核心在于,ChatGPT的生产力逐渐下滑,导致许多老用户对其信任度降低。自从今年5月份以来,OpenAI论坛上关于GPT-4性能不如以往的帖子,一直引发着广泛的讨论。
ChatGPT是否已经过时以及大模型是否会像过去的机器学习模型一样衰老,是当前人工智能领域中备受关注的问题。对于这些问题,我们需要有深入的理解。因为只有理解了这些基本问题,我们才能在大模型热潮中找到人与机器可持续发展的道路。首先,我们要明白的是,ChatGPT并不是一个孤立存在的人工智能系统,而是人工智能技术发展的一部分。就像机器学习模型一样,ChatGPT也会随着技术的进步而不断更新和完善。因此,我们不能简单地认为ChatGPT已经过时,而应该看到它在人工智能领域中的重要地位和价值。其次,我们需要认识到,大模型的衰老问题并不仅仅是一个技术问题,更是一个伦理和社会问题。随着人工智能技术的不断发展,大模型将越来越接近人类智能,这也会带来一系列新的挑战和问题。例如,如何确保大模型的安全和可控性,如何防止大模型被滥用和误用,如何平衡人类利益和技术进步等等。这些问题需要我们在技术发展的同时,也要从伦理和社会角度进行深入思考和探讨。最后,我们要看到,人工智能技术的可持续发展需要人类的参与和引导。人工智能技术虽然取得了许多突破性的进展,但仍然面临着许多挑战和难题。只有通过人类的智慧和努力,才能推动人工智能技术走向更加广阔的未来。因此,我们需要以一种更加负责任和可持续的方式来看待人工智能技术的发展,并在技术进步的同时,注重人类利益的保障和发展。综上所述,ChatGPT并没有过时,大模型也不会像过去的机器学习模型一样衰老。我们应该从技术、伦理和社会等多个角度来看待人工智能技术的发展,并寻找人与机器可持续发展的道路。
ChatGPT过时了吗?
根据Salesforce AI软件服务商最近公布的数据,我们发现,在大模型使用者中,有67%的是Z世代或千禧一代。而在生成AI或相对落后于这一领域的人群中,超过68%的人是X一代或婴儿潮一代。这表明,随着技术的不断进步,年轻一代对于AI的应用能力正在逐渐提升,而老一代表则相对滞后。
代际差异说明Z世代正在成为拥抱大模型的主流人群。Salesforce产品营销人员Kelly Eliyahu表示:“Z世代实际上是AI一代,他们构成了超级用户群体。70%的Z世代正在使用生成式AI,至少有一半的人每周或更长时间使用它。”
不过作为大模型产品的领军者,ChatGPT在Z世代人群中的表现并不出色。
根据市场调研机构Similarweb 7月份的数据显示,ChatGPT在Z世代人群中的使用占比为27%,低于4月份的30%。作为对比,另外一款可以让用户自己设计人工智能角色的大模型产品,Character.ai在18-24岁年龄段的人群中渗透率为60%。
得益于Z世代的追捧,Character.ai的iOS和Android应用程序目前在美国的月活跃用户数为420万,距离移动端ChatGPT的600万月活,日益接近。
和ChatGPT的对话式AI不一样,Character.AI在此基础上加入个性化、UGC两大核心功能,使其有了比前者更丰富的使用场景。
一方面,用户可以根据个人需求自定义AI角色,满足Z世代个性化定制的需求。同时这些用户自主创建的AI角色,也可以被平台所有用户使用,构建AI社区氛围。比如此前在社交媒体平台传播出圈的苏格拉底、God等虚拟人物,以及官方自主创建的马斯克等商业名人的AI形象。
另一方面,个性化的深度定制+群聊功能,也使得用户对于平台产生情感智能依赖。很多社交媒体平台的用户公开评价显示,因为聊天体验过于逼真,就像“自己创作的角色拥有生命,就像在与真人交谈”,“是迄今为止最接近假想朋友、守护天使的东西”。
可能是来自Character.AI的压力,2023年8月16日OpenAI在官网发布了一则简短声明,宣布收购美国初创企业Global Illumination,并将整个团队纳入麾下。这家仅有两年历史八位员工的小公司,主营业务是利用人工智能创建巧妙工具、数字基建和数字体验。
收购行为的背后,很可能意味着OpenAI将致力以丰富的方式,改善目前的大模型数字体验。
人工智能的衰老化
ChatGPT在大模型数字体验层面的老化,影响了其杀时间的效果。作为生产力工具,其生成结果准确性的飘忽不定,也正在影响其用户黏性。
此前根据Salesforce的调查显示,有近六成的大模型使用者认为,他们正在通过累计时间的训练掌握这项技术。不过目前这种技术的掌握,正在随着时间的迁移发生变化。
早在5月份,就有大模型老用户在OpenAI论坛上开始抱怨GPT-4,“在以前表现良好的事物上表现出困难”。据《Business Insider》7月份报道称,很多老用户将GPT-4与其以前的推理能力和其他输出相比,形容为“懒惰”和“愚笨”。
由于官方并未对此作出回应,人们开始对GPT-4性能下降的原因进行推测,会不会是因为此前OpenAI的现金流问题?主流猜测集中在成本优化导致的性能下降方面。一些研究者称,OpenAI可能在API后面使用了规模较小的模型,以降低运行ChatGPT的成本。
不过这个可能性随后被OpenAI的产品副总裁Peter Welinder否认。他在社交媒体上表示:“我们没有让GPT-4变得更笨,目前的一个假设是,当你更加频繁地使用它时,会开始注意到之前没有注意到的问题。”
更多的人、更长时间的使用,暴露了ChatGPT的局限性。对于这种假设,研究者试图通过更严谨的实验呈现“ChatGPT性能和时间关系的变化”。
来自斯坦福大学和加州大学伯克利分校在7月份提交的一篇题为《How is ChatGPTs behavior changing over time?》的研究论文显示:同一个版本的大模型,确实可以在相对较短的时间内发生巨大变化。
从3月份到6月份,研究者测试了GPT-3.5和GPT-4两个版本,采集了四个常见的基准任务数学问题、回答敏感问题、代码生成和视觉推理的生成结果,并进行评估。结果显示,无论是GPT-3.5还是GPT-4,二者的性能和生成结果,都有可能随时间而变化。
数学能力方面,GPT-4(2023年3月)在识别质数与合数方面表现得相当不错(84%准确率),但是GPT-4(2023年6月)在相同问题上的表现不佳(51%准确率)。有趣的是,CPT-3.5在这个任务上6月份的表现要比3月份好得多。
不过在敏感问题方面,GPT-4在6月份回答敏感性问题的意愿较3月份下降;代码能力方面,GPT-4和GPT-3.5,都在6月份表现出比3月份更多的错误。研究者认为,虽然ChatGPT的性能和时间没有明显的线性关系,但是准确性确实会飘忽不定。
这不仅是ChatGPT自己的问题,也是此前所有AI模型的通病。根据麻省理工学院、哈佛大学、蒙特雷大学和剑桥大学2022年的一项研究表明,91%的机器学习模型都会随着时间的推移而退化,研究者将这种现象称为“人工智能老化”。
例如,Google Health曾经开发了一种深度学习模型,可以通过患者的眼睛扫描来检测视网膜疾病。该模型在训练阶段的准确率达到90%,但在现实生活中却无法提供准确的结果。主要是因为在实验室,采用高质量的训练数据,但是现实世界的眼睛扫描质量较低。
受制于机器学习模型老化的情况,过去走出实验室的AI技术,以单一的语音识别技术为主,智能音箱等产品因此最先普及。根据美国人口普查局2018年对58.3万家美国公司的调查,只有2.8%使用机器学习模型来为其运营带来优势。
不过伴随着大模型智能涌现能力的突破,机器学习模型的老化速度明显减弱,逐渐走出实验室面向更广泛的受众。不过,涌现能力的黑盒下仍有不可预测性,让不少人对于ChatGPT能否长期保持AI性能的不断提升提出质疑。
黑盒下的抗衰老性
人工智能老化的本质,其实是机器学习模型的范式缺陷。
过往,机器学习模型是按照具体任务和具体数据的对应关系进行训练。通过大量的例子,先教给模型,那个领域中什么是好,什么是坏,再调节一下模型的权重,从而输出恰当的结果。这种思路下,每做一些新的事情,或者数据分布有明显变化,都要重新训练一遍模型。
新事情和新数据无穷无尽,模型就只能刷新。但是模型的刷新也会导致过去做得好的事情突然做不好了,进一步限制应用。总结来看,传统的机器学习模型中,数据飞轮本质是为了迭代模型,用新模型解决新问题的范式。
不过以ChatGPT为代表的大模型,涌现出自主学习能力,突破了这种范式。过往的机器学习,是先“吃”数据,之后“模仿”,基于的是对应关系;ChatGPT类的大模型,是“教”数据,之后“理解”,基于的是“内在逻辑”。
这种情况下,大模型本身不发生变化,理论上可以永葆青春。不过也有从业人士表示,正如大模型的智能涌现一样,是非线性发展、不可预测的,是突然就有的。对于大模型是否会随着时间发生衰老,涌现出难以预测的不可确定性也是未知的。
换句话说,ChatGPT在涌现出难以理论化推导的智能性能后,也开始涌现出难以预测的不可确定性。
对于“涌现”的黑盒性,9月6日在百川智能Baichuan2开源大模型发布会上,中国科学院院士、清华大学人工智能研究院名誉院长张钹表示:“到现在为止,全世界对大模型的理论工作原理、所产生的现象都是一头雾水,所有的结论都推导产生了涌现现象。所谓涌现就是给自己一个退路,解释不清楚的情况下就说它是涌现。实际上反映了我们对它一点不清楚。”
在其看来,大模型为什么会产生幻觉这个问题,涉及到ChatGPT跟人类自然语言生成原理的不一样。最根本的区别在于,ChatGPT生成的语言是外部驱动的,而人类的语言是在自己意图的情况下驱动的,所以ChatGPT内容的正确性和合理性不能保证。
在经历过一系列概念炒作跟风上车之后,对于致力于开发生产力基础模型的人来说,面临的挑战将是如何确保其产品持续输出结果的可靠性和准确性。
不过对于大模型相关的娱乐产品而言,正如Character.AI 联合创始人Noam Shazeer在《纽约时报》上所说:“这些系统并不是为真相而设计的。它们是为合理的对话而设计的。”换句话说,它们是自信的废话艺术家。大模型的巨浪已然开始分流。返回搜狐,查看更多
责任编辑:
自然语言处理, 人工智能, 模型漂移, 模型质量指标