文章主题:科技新知, 过去的表现并不能保证将来的结果, 模型漂移, 衰退或过时
图片来源@视觉中国
文 | 科技新知
过去的表现并不能保证将来的结果。”这是大多数金融理财模型的小字。
在产品业务领域内,我们常常会遇到一种现象,即模型的性能随着时间推移逐渐降低,这种现象被称为模型漂移、衰退或过时。这种变化是不可避免的,因为模型也需要不断优化以适应市场的变化。模型性能的衡量标准也随着变化,它可以是各种不同的指标,如准确率、平均错误率等。同时,这些指标也可以是一些下游业务的关键绩效指标(KPI),例如点击率等。因此,我们需要持续关注模型的性能,并对其进行及时的调整和改进。
在众多模型中,没有哪一个能够永久保持高效性,各种模型的衰退速度各有差异。然而,在特定环境下,一些产品能够长期运行而不需要进行更新,如某些计算机视觉和语言模型,以及在隔离、稳定的环境中运行的决策系统,例如在常见的实验条件下。
在确保机器学习模型精度的道路上,每日对新数据的训练是必不可少的,这也是该领域的通用原则所要求的。然而,这种模式存在一定的局限性,导致人工智能的部署无法像软件部署那样一劳永逸。尽管这种方法已经被创建并使用了数十年,但如今最先进的AI产品仍在依赖早期版本的软件技术。这主要是因为这些技术仍然具有实用价值,即使它们的技术已经过时,但仍可以在每个字节中持续存在。
以ChatGPT为代表的最前沿人工智能产品,在近期经历了人气下滑的现象,引发了关于其是否已经进入衰退阶段的讨论。
在 ChatGPT 上,用户花费的时间正在持续减少,从 3 月份的 8.7 分钟下降到 8 月份的 7 分钟。这一变化从侧面揭示了当大型模型工具的供应量迅速增长时,仅将其视为生产力工具的 ChatGPT 可能无法满足主流使用群体 Z 世代的需求。
一时的人气不足以撼动OpenAI在AI时代应用商店领域的霸主地位。问题的核心在于,ChatGPT的生产力逐渐下滑,导致许多老用户对其信任度降低。自从今年5月份以来,OpenAI论坛上关于GPT-4性能不如以往的帖子,一直引发着广泛的讨论。
ChatGPT是否已经过时以及大模型是否会像过去的机器学习模型一样衰老,是当前人工智能领域中备受关注的问题。对于这些问题,我们需要有深入的理解。因为只有理解了这些基本问题,我们才能在大模型热潮中找到人与机器可持续发展的道路。首先,我们要明白的是,ChatGPT并不是一个孤立存在的人工智能系统,而是人工智能技术的一个组成部分。就像机器学习技术一样,人工智能系统也会随着技术的进步而不断发展和改进。因此,ChatGPT并不会像某些人想象的那样突然“过时”。相反,它将会继续在人工智能领域中发挥重要作用,并且随着技术的不断发展,它的性能也将得到进一步提升。其次,大模型是否会像过去的机器学习模型一样衰老,取决于我们如何设计和使用这些模型。如果我们能够正确地理解和解决大模型所面临的问题,那么它们就能够在人工智能领域中发挥更重要的作用,并且为我们带来更大的价值。然而,如果我们无法有效地管理和控制这些模型,那么它们可能会像过去的机器学习模型一样出现衰退和失效的情况。综上所述,ChatGPT和大模型的衰老问题并不是简单的问题,需要我们深入理解和探讨。只有这样,我们才能在人工智能领域中实现可持续的发展,并让人工智能技术为人类社会带来更大的利益。
ChatGPT过时了吗?
根据Salesforce AI软件服务商最近公布的数据,我们发现,在大模型使用者中,有67%的是Z世代或千禧一代。而在生成AI或相对落后于这一领域的人群中,超过68%的人是X一代或婴儿潮一代。这些数据揭示了当前AI技术的广泛应用和不同代际之间的差异。
代际差异说明Z世代正在成为拥抱大模型的主流人群。Salesforce产品营销人员Kelly Eliyahu表示:“Z世代实际上是AI一代,他们构成了超级用户群体。70%的Z世代正在使用生成式AI,至少有一半的人每周或更长时间使用它。”
不过作为大模型产品的领军者,ChatGPT在Z世代人群中的表现并不出色。
根据市场调研机构Similarweb 7月份的数据显示,ChatGPT在Z世代人群中的使用占比为27%,低于4月份的30%。作为对比,另外一款可以让用户自己设计人工智能角色的大模型产品,Character.ai在18-24岁年龄段的人群中渗透率为60%。
得益于Z世代的追捧,Character.ai的iOS和Android应用程序目前在美国的月活跃用户数为420万,距离移动端ChatGPT的600万月活,日益接近。
和ChatGPT的对话式AI不一样,Character.AI在此基础上加入个性化、UGC两大核心功能,使其有了比前者更丰富的使用场景。
一方面,用户可以根据个人需求自定义AI角色,满足Z世代个性化定制的需求。同时这些用户自主创建的AI角色,也可以被平台所有用户使用,构建AI社区氛围。比如此前在社交媒体平台传播出圈的苏格拉底、God等虚拟人物,以及官方自主创建的马斯克等商业名人的AI形象。
另一方面,个性化的深度定制+群聊功能,也使得用户对于平台产生情感智能依赖。很多社交媒体平台的用户公开评价显示,因为聊天体验过于逼真,就像“自己创作的角色拥有生命,就像在与真人交谈”,“是迄今为止最接近假想朋友、守护天使的东西”。
可能是来自Character.AI的压力,2023年8月16日OpenAI在官网发布了一则简短声明,宣布收购美国初创企业Global Illumination,并将整个团队纳入麾下。这家仅有两年历史八位员工的小公司,主营业务是利用人工智能创建巧妙工具、数字基建和数字体验。
收购行为的背后,很可能意味着OpenAI将致力以丰富的方式,改善目前的大模型数字体验。
人工智能的衰老化
ChatGPT在大模型数字体验层面的老化,影响了其杀时间的效果。作为生产力工具,其生成结果准确性的飘忽不定,也正在影响其用户黏性。
此前根据Salesforce的调查显示,有近六成的大模型使用者认为,他们正在通过累计时间的训练掌握这项技术。不过目前这种技术的掌握,正在随着时间的迁移发生变化。
早在5月份,就有大模型老用户在OpenAI论坛上开始抱怨GPT-4,“在以前表现良好的事物上表现出困难”。据《Business Insider》7月份报道称,很多老用户将GPT-4与其以前的推理能力和其他输出相比,形容为“懒惰”和“愚笨”。
由于官方并未对此作出回应,人们开始对GPT-4性能下降的原因进行推测,会不会是因为此前OpenAI的现金流问题?主流猜测集中在成本优化导致的性能下降方面。一些研究者称,OpenAI可能在API后面使用了规模较小的模型,以降低运行ChatGPT的成本。
不过这个可能性随后被OpenAI的产品副总裁Peter Welinder否认。他在社交媒体上表示:“我们没有让GPT-4变得更笨,目前的一个假设是,当你更加频繁地使用它时,会开始注意到之前没有注意到的问题。”
更多的人、更长时间的使用,暴露了ChatGPT的局限性。对于这种假设,研究者试图通过更严谨的实验呈现“ChatGPT性能和时间关系的变化”。
来自斯坦福大学和加州大学伯克利分校在7月份提交的一篇题为《How is ChatGPTs behavior changing over time?》的研究论文显示:同一个版本的大模型,确实可以在相对较短的时间内发生巨大变化。
从3月份到6月份,研究者测试了GPT-3.5和GPT-4两个版本,采集了四个常见的基准任务数学问题、回答敏感问题、代码生成和视觉推理的生成结果,并进行评估。结果显示,无论是GPT-3.5还是GPT-4,二者的性能和生成结果,都有可能随时间而变化。
数学能力方面,GPT-4(2023年3月)在识别质数与合数方面表现得相当不错(84%准确率),但是GPT-4(2023年6月)在相同问题上的表现不佳(51%准确率)。有趣的是,CPT-3.5在这个任务上6月份的表现要比3月份好得多。
不过在敏感问题方面,GPT-4在6月份回答敏感性问题的意愿较3月份下降;代码能力方面,GPT-4和GPT-3.5,都在6月份表现出比3月份更多的错误。研究者认为,虽然ChatGPT的性能和时间没有明显的线性关系,但是准确性确实会飘忽不定。
这不仅是ChatGPT自己的问题,也是此前所有AI模型的通病。根据麻省理工学院、哈佛大学、蒙特雷大学和剑桥大学2022年的一项研究表明,91%的机器学习模型都会随着时间的推移而退化,研究者将这种现象称为“人工智能老化”。
例如,Google Health曾经开发了一种深度学习模型,可以通过患者的眼睛扫描来检测视网膜疾病。该模型在训练阶段的准确率达到90%,但在现实生活中却无法提供准确的结果。主要是因为在实验室,采用高质量的训练数据,但是现实世界的眼睛扫描质量较低。
受制于机器学习模型老化的情况,过去走出实验室的AI技术,以单一的语音识别技术为主,智能音箱等产品因此最先普及。根据美国人口普查局2018年对58.3万家美国公司的调查,只有2.8%使用机器学习模型来为其运营带来优势。
不过伴随着大模型智能涌现能力的突破,机器学习模型的老化速度明显减弱,逐渐走出实验室面向更广泛的受众。不过,涌现能力的黑盒下仍有不可预测性,让不少人对于ChatGPT能否长期保持AI性能的不断提升提出质疑。
黑盒下的抗衰老性
人工智能老化的本质,其实是机器学习模型的范式缺陷。
过往,机器学习模型是按照具体任务和具体数据的对应关系进行训练。通过大量的例子,先教给模型,那个领域中什么是好,什么是坏,再调节一下模型的权重,从而输出恰当的结果。这种思路下,每做一些新的事情,或者数据分布有明显变化,都要重新训练一遍模型。
新事情和新数据无穷无尽,模型就只能刷新。但是模型的刷新也会导致过去做得好的事情突然做不好了,进一步限制应用。总结来看,传统的机器学习模型中,数据飞轮本质是为了迭代模型,用新模型解决新问题的范式。
不过以ChatGPT为代表的大模型,涌现出自主学习能力,突破了这种范式。过往的机器学习,是先“吃”数据,之后“模仿”,基于的是对应关系;ChatGPT类的大模型,是“教”数据,之后“理解”,基于的是“内在逻辑”。
这种情况下,大模型本身不发生变化,理论上可以永葆青春。不过也有从业人士表示,正如大模型的智能涌现一样,是非线性发展、不可预测的,是突然就有的。对于大模型是否会随着时间发生衰老,涌现出难以预测的不可确定性也是未知的。
换句话说,ChatGPT在涌现出难以理论化推导的智能性能后,也开始涌现出难以预测的不可确定性。
对于“涌现”的黑盒性,9月6日在百川智能Baichuan2开源大模型发布会上,中国科学院院士、清华大学人工智能研究院名誉院长张钹表示:“到现在为止,全世界对大模型的理论工作原理、所产生的现象都是一头雾水,所有的结论都推导产生了涌现现象。所谓涌现就是给自己一个退路,解释不清楚的情况下就说它是涌现。实际上反映了我们对它一点不清楚。”
在其看来,大模型为什么会产生幻觉这个问题,涉及到ChatGPT跟人类自然语言生成原理的不一样。最根本的区别在于,ChatGPT生成的语言是外部驱动的,而人类的语言是在自己意图的情况下驱动的,所以ChatGPT内容的正确性和合理性不能保证。在经历过一系列概念炒作跟风上车之后,对于致力于开发生产力基础模型的人来说,面临的挑战将是如何确保其产品持续输出结果的可靠性和准确性。
不过对于大模型相关的娱乐产品而言,正如Character.AI 联合创始人Noam Shazeer在《纽约时报》上所说:“这些系统并不是为真相而设计的。它们是为合理的对话而设计的。”换句话说,它们是自信的废话艺术家。大模型的巨浪已然开始分流。
参考资料
科技新知, 过去的表现并不能保证将来的结果, 模型漂移, 衰退或过时
AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!