《AI行业百模大战:谁能在数据海中脱颖而出》

AIGC与创业11个月前更新 lida
125 0 0

文章主题:AI行业, 百模大战, GPT, 模型评测

666ChatGPT办公新姿势,助力做AI时代先行者!

AI行业的“百模大战”已经打了大半年。从上半年的火热,到下半年的渐冷,胜负难分。

GPT已经成为我国厂商的主要目标。在各大厂商推出大型模型时,他们都会将GPT作为参照对象,并且总能找到一个方面来超越GPT,如中文能力。

测评类的榜单太多了。从英文的MMLU,到中文的SuperCLUE,再到借鉴游戏排位赛机制的ChatbotArena,各种大模型榜单让人眼花缭乱。很多时候,榜单上的排名成为厂商对外宣传的工具。

有趣的是,当用户实际体验这些声称能轻易超越ChatGPT的大模型产品时,却发现其表现并不如预期。各种不同的统计排名方式,使得“第一”的称号变得如此通货膨胀,以至于我们几乎无法 handle 如此庞大的数量。

近期,我国的一些知名企业正在积极推出各自的大模型解决方案,其中昆仑万维开源的“天工”系列大模型尤为引人注目,其多榜超越Llama 2的表现令人惊叹。而李开复的零一万物公司也紧随其后,推出了开源大模型“Yi”,成功登上了全球多项榜单的榜首。除此之外,vivo公司也加入到了这个潮流中,他们发布的自研AI“蓝心”大模型,不仅成为了国内首个开源7B大模型的手机厂商,更是展现了我国在人工智能领域的强大实力。

如此之多的大模型,跑马圈地这半年,大家做得怎么样?我们又该如何评价孰优孰劣?

“刷榜”,大模型公开的秘密

就像当年手机厂商流行跑分打榜,现在的大模型厂商,也热衷于冲上各种榜单。

在众多涉及大型模型的评测榜单中,学术领域、产业界、媒体智库以及开源社区等都在今年纷纷推出了各自的评估排名。在国内厂商的参考中,SuperCLUE和C-Eval这两份榜单尤为重要,它们均由我国科学家自行研发并推出。

在5月6日,我国知名的人工智能公司科大讯飞,成功发布了其全新的星火认知大模型。仅仅三天之后,由SuperCLUE评测中心发布的最新榜单中,科大的星火认知大模型以其卓越的性能,成功占据了国产模型的榜首位置。紧接着在6月13日,国内另一家巨头360集团,也推出了一款名为360智脑的大模型。令人意外的是,仅过去了六天,SuperCLUE评测中心再次更新了榜单,这一次,360智脑大模型以其强大的实力,成功超越了科大讯飞,成为了新的第一名。这两起事件,无疑都充分展示了我国人工智能技术的快速发展和广泛应用。在科技日新月异的今天,无论是科大讯飞还是360集团,都在通过不断创新和研发,推动我国人工智能技术的发展,为我国的科技产业带来了前所未有的繁荣景象。

在接下来的7月、8月、9月以及10月,我国 native 企业的市场份额 leading the pack 分别由 Baidu, Baichuan Intelligence, Megvii, and vivo 占据。这些企业都把“登顶”、“夺冠”、“国内第一”等荣誉作为宣传重点。

有好事者发现,科大讯飞在5月9日“夺冠”时,SuperCLUE官网显示的顾问成员中,排在最前面的那位,头衔是哈工大讯飞联合实验室(HFL)资深级研究员。发榜第二天,这位专家的信息被官网删除了。

在SuperCLUE的初期阶段,由于其只是通过数百道题目进行测试,因此受到了部分人的质疑,认为其不具备足够的客观性。然而,在国外,已经存在一个名为SuperGLUE的权威评估体系,虽然其与SuperCLUE的名称十分相似,但在具体的功能和特性上,却有着明显的区别。随着SuperCLUE不断对测评标准和题目数量进行优化和完善,它逐渐在国内众多测评中脱颖而出,成为了知名度较高的一种选择。

大模型测评领域的业内人士赵小跃对“定焦”说,一些测评机构有题库,用接入各家厂商API的方式来测试,但其实测一遍之后,厂商就知道测过什么题,除非下轮测试换题,否则厂商可以用定向爆破的方式得高分。

在他眼中,一旦某个题目在一套测试中被某个模型接触过,那么这个题目就失去了其独特性,因为模型能够通过API自动获取这些题目。因此,如何在模型评测过程中确保题目的唯一性和可靠性,无疑是一项极具挑战性的任务。

C-Eval榜单刚推出时,业内是认可的。它由上海交通大学、清华大学、爱丁堡大学共同完成,有13948道题目。

但很快,大家就发现,一些原本知名度不高的大模型,突然冲到了榜首,甚至把GPT4踩在脚下使劲摩擦。

在9月初的榜单中,云天励飞大模型总分排第一,360排第八,GPT4居然排第十。再后来,拿过榜单第一的还有度小满金融大模型、作业帮银河大模型,业内公认最强的GPT4被它们无情甩在了身后。

成绩垫底,到底是GPT错了还是榜错了?

显然,榜单有问题,因为它遭遇了“不健康的刷榜”。

C-Eval团队在官网发出声明,承认评测方式有局限性,同时指出了刷榜得高分的一些方法,比如:从GPT-4的预测结果蒸馏,找人工标注然后蒸馏,在网上找到原题加入训练集中微调模型。

这三种方法,前两种可以视为间接作弊,第三种相当于直接作弊。

大模型从业者李健对“定焦”说,间接作弊,就是知道考试大概的类型,然后花较多精力把可能的题目都找出来或叫专业的人造出来,答案也给出来,用这样的数据训练模型。

他指出,业内现在常用的手段是,让GPT-4来“造答案”,然后得到训练数据。

李健分析,直接作弊,就是知道考试题目,然后稍微改改,得到新的很多份题目,之后直接拿来训练模型。

“在清楚榜单任务的情况下,很多类型的任务,很容易刷榜。”他说。

这样得到的分数是没有意义的。“直接作弊基本对提升模型的泛化能力(举一反三)没用,间接作弊有点像做题家,对提升学生真实的素质弊大于利。”

为了让“用户谨慎看待以下榜单”,C-Eval团队不得不将榜单拆分成两个,一个是模型已公开的,一个是未公开的。结果,那些得分高的基本全是未公开的大模型。而这些模型的真实表现,人们是无法体验的。

复旦大学计算机科学技术学院教授邱锡鹏说,C-Eval本身质量还挺高,但被刷榜后导致学术价值不大。现在很多企业去刷榜,但又不公开数据,也不具体说怎么做,这是一种不公平的竞争。

多位大模型从业者对“定焦”说,刷榜在大模型行业很常见。

相关从业人士王冉对“定焦”打了一个比方:“先射完箭再画靶子”。他认为今天的某些测评手段,是有一些大模型公司为了表现自己牛而专门设计的。

而相关从业人士刘迪则认为,有答案或者评分标准,就有人能钻空子。单靠数据集和问题集的评判方式,很难评出大模型在应用层面的好坏。

“一个丹一个炼法,哪个对症还得吃下去看。”他对“定焦”说。

考试拿第一,不是好学生?

大模型评测,作为评估大模型综合实力的一个手段,还有参考价值吗?

赵小跃认为,在核心的通用能力上,比如语言理解、逻辑推理等,学术数据集的榜单测评能反映七八成。这其中最大的问题是,开源的榜单结果跟大家用大语言模型的场景之间有鸿沟

“测评只能反映模型某一部分的能力,大家其实都是从不同的维度盲人摸象,很难知道它的能力边界在哪里。”他说。

对于大语言模型,首先在语言上,分为英文和中文两大语种。国外大模型的训练语料以英文为主,所以英文很强,但中文不一定比国内大模型强。这也是为什么国内很多大模型,都在“超越ChatGPT”之前加一个“中文能力”的定语。

其次在考察科目上,评测数据集通常会设置很多个方面,从百科知识到角色扮演,从上下文对话到闲聊。但这些能力只能单一评价,然后得分加总。

这跟评价一个人很像。任何一道考卷,都只能测试出这个人某方面的能力。即便是全套试卷的成绩,也不等同于这个人的能力。就像ChatGPT的榜单排名不一定能比过国内的一些大模型,但使用体验上就是更好。

王冉认为,如果将大模型比作一个人的大脑,如何评测一个人的大脑好用,如果只给他做题,其实是充满偏见的。“大模型的测评不应该用考试来做,而应该用应用来做。”

人工智能公司开放传神(OpenCSG)创始人、CEO陈冉认为,通用性的评测,看综合得分,没有一个大模型超过GPT4,但是在特定领域,可能有些指标GPT4得分不一定高。

问题在于,有些厂商拿特定领域的得分,去宣传整体超过了GPT4。“这就是以偏概全,我觉得有些厂商在对外宣传时,还是要对生态公司给到正确的指引,具体哪个指标在哪个领域得分高,要说清楚。”他对“定焦”表示。

而一旦测评成绩进入排名赛,有了功利的成分,有些厂商就会有刷榜的动机。“从刷榜的角度,不太能保证中小厂不会把这部分数据拿去训练,这是大家对公开数据集最大的顾虑。”赵小跃说。

综合多位业内人士的观点,目前国内还没有一个特别好的数据集,能综合反映大模型的能力,各方都在探索。

李健在今年做了“CLiB中文大模型能力评测榜单”,为了避免泄题,他尽量参考业界好的方案,自己出题。“主要是业界和学术界的榜单,不太让人满意,公开程度不高,都是各说各话。”

还有一些非商业性质的机构相信,测评榜单最大的意义在于,从模型演化的角度,能够帮助厂商监控模型生产过程中能力的变化,纠正训练模型的方法,有针对性提高模型能力。

比如OpenCompass,它是Meta官方推荐的开源大模型评测框架,利用分布式技术支持上百个数据集的评测,提供了大模型评测的所有技术细节,同时给大家提供了统一的测试基准,方便各家模型在公平公正的情况下开展对比。

开源:先赚吆喝再赚钱

对大模型做出全面评价是困难的。除了打榜的方式,有一些厂商通过开源,获得了巨大的关注。

开源是一种经营策略,需要对自家产品足够自信。相比之下,敢于放开注册让公众体验的闭源大模型,要比那些无法体验的强,开源大模型则又往前迈了一步。

第一个被大范围使用、好评度最高的开源大语言模型,是由Meta在今年2月推出的Llama。当时全球科技公司都盯着OpenAI,试图追赶闭源的ChatGPT。但开源让Meta坐上了牌桌,吸引了大量开发者,一时名声大噪。

国内公司很快跟上,抢抓第一波关注度。智谱AI、智源研究院、百川智能,是动作最快的三家。

在Llama开源之后,号称全面对标OpenAI、有着清华背景的智谱AI,迅速在国内第一个开源了自己的大模型ChatGLM-6B。这个时间点非常早,当时国内厂商的大模型都还没发布,百度文心一言两天后才推出,而王小川的百川智能公司还没成立。

三个月后的6月9日,跟智谱AI有着很深渊源的智源研究院,宣布开源“悟道·天鹰”Aquila。它比智谱AI更进一步——可商用,于是拿下“国内首个开源可商用语言大模型”的头衔。

是否支持商用,是判断模型能力的一个关键指标。GPT 3.5的水平,通常被认为是大模型商用的标准线。不过,智源是一个非营利机构,它更多的用意是为公用发展提供技术支持。

智源主动开源之后,开源大模型的军备竞赛正式打响。

这其中值得一提的是百川智能。作为一家今年4月才成立的初创公司,百川获得的关注度甚至超过很多互联网大厂。

从时间上来看,百川是智源之后第一家开源的创业公司,且第一个宣布可免费商用。它开源不可商用的版本时,比智谱AI早九天;后来开源免费可商用的版本时,又比智谱AI早三天。

时间点很重要。当时Llama1只被允许用作研究,但市场有传闻可商用的Llama 2即将开源。百川不仅抢在Llama 2之前,还卡在智谱AI之前宣布了免费可商用,赢得了巨大的关注度,一周之内下载量破百万。

赵小跃认为,百川在那个时间发布一个开源模型,作为自己的第一枪,是一个很对的决策。“赚了一波吆喝。”

支持商用的Llama 2比百川和智谱AI晚了一周,即便如此,它还是在全球引发巨震。在同等参数规模下,Llama 2能力超过所有的开源大模型,是目前全球公认的开源大模型的代表。

因为Llama的带动,国内厂商踩上了开源热潮的风口。它们急着秀肌肉,争夺大众注意力。但从技术角度,尚不能说明它们就跑在了前面。

有观点认为,开源模型虽多,但大多数都是从Llama派生出来。简单来说,就是用了Llama作为基模型,然后选用其它不同的训练方法微调。因为Llama原生在中文方面相对较弱,给了国产开源大模型宣传的发力点。

6月中旬百川开源第一版Baichuan-7B时,公司只成立刚两个月。当时有人质疑其模型架构跟Llama很相似。“借助已经开源的技术和方案,百川是站在了巨人的肩膀上。”一位大模型创业者评价。

本质上,开源也是一种商业模式。赚完吆喝后,厂商的目的还是赚钱。

陈冉向“定焦”举了个例子,开源就像一些化妆品品牌推出试用装,免费给用户用,但不会透露配方和成分。用户试用完如果觉得好想继续用,就得付费买商业版。另外它可能透露配方,如果有厂商想基于这个配方去创造一个新的产品,就需要交授权费。

百川在9月下旬推出了两款闭源大模型,API接口对外开放,进入ToB领域,开启商业化进程。

“它已经通过开源赚了一波吆喝,接下来一定会推闭源大模型做商业化,它最先进的模型是一定不会开源的。”赵小跃说。

大家都没有护城河?

“百模大战”发展到今天,各家厂商通过各种方式博取关注度,那么谁做到了真正的领先?

赵小跃认为,从主观感受层面来看,国内的大模型,无论是开源还是闭源,本质上没有核心的技术代差。因为无论是模型大小,还是数据质量,大家都没有飞跃式的突破。“在GPT-3.5的指引下,国内厂商只要模型容量达到一定地步,再配合一批高质量数据,大家都不会太差。”

但跟GPT-4相比,技术代差是存在的。“因为闭源,大家不知道GPT-4背后真正的技术方案是什么,如何把这么大的模型用专家结构训练出来,目前大家还都在探索。”

在陈冉看来,国内的大语言模型完全原创的较少,有些是在Transformer架构上做了一个整体调优,本质是在算子上做了调优,而没有本质上的改变。还有一些走开源路线的厂商,更多是在中文方面深入研究。

大家都有自己的大模型,但本质上没有显著的区别,这就是当前国内大模型行业的特点。

某种程度上,这是由行业阶段决定的。国内的互联网大厂、创业公司、高校科研机构,真正开始投入大量人力物力做大模型,也就在今年。行业的技术路线也还在摸索中,没有哪家公司建立起护城河。

相比纯技术实力方面的比拼,算力和数据层面的比拼更能出效果。

“大家更多的精力是花在数据和语料上,谁能花钱获得高质量的语料,同时有足够的算力,谁就能训练出一个相对好一点的模型。”陈冉说。

开源让局面变得更加不可控。去年底ChatGPT亮相后,全球冒出来上百个大模型,但今年Meta开源Llama 2之后,很多模型还没有投入市场就已经过时。就连谷歌的工程师都在内部直言称,谷歌和OpenAI都没有护城河。

大模型更新迭代太快了。“今天你推出一个大模型,花钱打了榜,有很多人用,可能明天就有个新的模型迅速替代掉。”陈冉说。

多位业内人士对“定焦”表示,大模型之间真正显著的区别,会在具体的用户场景或B端的业务中体现。

“现实世界里我们评价某个人是专家,是因为他在特定领域很厉害。大模型也一样,要在领域里建立共识,专业性一定要放到具体的场景里去体现。”王冉说。

核心的通用能力是基础,厂商会根据自己所在的领域,差异化发展。“比如我们跟医院和律所接触,他们其实更关心的是医疗或法律方面的能力。”赵小跃说。

对于互联网巨头而言,需要考量的因素相对更多。

除了要对外“接单”,巨头们已经开始在内部进行大模型的应用端部署。比如腾讯的广告、游戏、社交、会议等业务,接入了混元大模型,百度搜索、文库、百家号等产品早已接入文心大模型,阿里把AI作为各大业务板块的驱动力。

大模型对巨头内部的正面影响究竟有多大,会更难量化评估。

综合来看,国内大模型还处在起跑的混沌阶段,一切都在快速变化中。做出一个大模型的技术壁垒不高,但要做好并真的解决问题,还有很长的路要走。

应受访者要求,赵小跃为化名。

本文来自微信公众号:定焦(ID:dingjiaoone),作者:黎明,编辑:方展博

AI行业, 百模大战, GPT, 模型评测

《AI行业百模大战:谁能在数据海中脱颖而出》

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!

© 版权声明

相关文章

暂无评论

暂无评论...