AI大模型:火山引擎挑战者之路

火山引擎10mos agoupdate lida
87 0 0

文章主题:火山引擎, 中国, 人工智能, 大模型

666ChatGPT办公新姿势,助力做AI时代先行者!

火山引擎作为一家中国本土的“挑战者”型企业在AI浪潮中迅速崛起,表现出与谷歌云、Oracle等国际知名企业的竞争实力。在AI技术领域,火山引擎凭借其强大的算力、高效的算法和丰富的数据资源,成为了行业内的佼佼者。面对AI浪潮的冲击,火山引擎不仅积极应对,而且通过不断创新和完善,实现了自身的超越和发展,展现出了强烈的挑战者气质。

AI大模型:火山引擎挑战者之路

文| 吴俊宇

编辑|谢丽容

经历近半年喧嚣后,大模型狂热正在逐渐回归现实。大模型如何商业化正成为行业更关心的问题。

在今年的五月,我国科技部的中国科学技术信息研究所发布了一份名为《中国人工智能大模型地图研究报告》的文件。根据报告,截止到五月底,我国已经至少有79个基础大模型在10亿级参数规模上发布,这个数据还在不断增长。

在众多大型科技企业纷纷公布大模型战略之后,人们对于字节跳动的大模型策略充满了期待。6月底,字节跳动旗下的云业务平台火山引擎,正式推出了名为“火山方舟”的大模型服务平台。该平台主要针对企业用户,提供包括模型精调、评测、推理等一系列的云服务,这无疑是一种模型即服务(MaaS)模式的应用(MaaS,即Model-as-a-Service)。

尽管火山引擎的官方立场表示他们将不会推出自己的基础大模型,但这并不意味着字节跳动也会放弃这一领域。相反,字节跳动可能会成为火山引擎的潜在客户, if 他们决定在未来推出基础大模型。

7月初,火山引擎总裁谭待提到对大模型市场的几个关键判断。

其一,大模型商业化尚在探索期,真正的落地案例今年四季度后才会出现。大模型的参数门槛至少在百亿级别,未来会发展到千亿甚至万亿。目前,部分企业混淆了算法模型、小模型、大模型的应用案例。

其二,未来会有少数几个超级通用大模型,但不会只有这几个,同时还会存在众多中等规模大模型和垂类大模型。企业未来使用大模型,可能会是“1+N”模式。“1”是通过自研或深度合作形成1个主力模型。由于成本和场景复杂多元等原因,主力模型之外,还会有N个模型同时应用。

其三,经过良好微调训练的模型,特定工作表现会优于通用的基础大模型。很多行业并不需要非常通用的基础大模型。未来大模型的推理开销会远大于训练开销,精调后的模型会拥有更好的性价比。

基于以上的分析和判断,火山引擎致力于构建一个高效且易于使用的模型平台,旨在降低买卖双方的交易成本,从而实现更高效的交易。这一理念的实施将有助于降低大模型的使用门槛,提高智能算力的租用率和消耗量,这也是云计算商业模式的核心目标。因此,我们可以预见,通过火山引擎的努力,未来模型平台的应用将更加广泛,对人工智能技术的推广也将产生深远影响。

大模型的出现被广泛认为是推动云计算市场发展的新动力。我国云计算市场在2023年经历了巨变。在云服务提供商方面,电信运营商的云收入增长幅度高达100%,而互联网云服务商的收入增速已跌破10%。整体来看,各企业仍陷入运营亏损的境地。因此,云计算市场亟需一个全新的增长阶段。

美国企业软件市场有一条判断企业的法则,叫“Rule of 40”。这指的是,一家健康的企业软件公司,营收增速+营业利润率应该超过40%。2022年火山引擎营收增速、营业利润率高于“Rule of 40”指标。

火山引擎仍处于发展早期,但正在缩小与头部企业的差距,并期望依靠大模型进一步缩小差距。

两种商业化思路

云计算公司的大模型商业化出现了两种思路:一种倾向于垂直整合,一种倾向于平台生态。

AI大模型:火山引擎挑战者之路

垂直整合的做法是,云厂商亲自提供基础大模型和AI开发工具,让客户基于自家基础大模型和开发工具生产自己的模型、应用。

微软Azure采用了一种独特的方法。对于那些希望在Azure上建立大型模型的企业客户来说,目前有两种主要的选择:一是利用微软Azure的机器学习平台,二是选择Azure OpenAI的服务。尽管企业客户也可以使用第三方开源的大模型,但微软仍然推荐使用自家的产品。在我国,阿里云、百度智能云和华为云也倾向于采取这种策略。

平台生态的做法是,平台方搭建模型服务平台,接入多家第三方大模型,并提供模型精调、评测、推理服务。企业客户可以在模型商店自由选择。

亚马逊AWS采用了这样的策略,其机器学习中心(Amazon SageMaker JumpStart)为众多第三方大模型产品提供了支持。企业用户可以根据自身的需求,挑选适合的第三方服务提供商,这些提供商包括亚马逊AWS的Titan,以及其他如Hugging Face、Cohere、AI21 Labs、StabilityAI和Pytorch等第三方产品。

在我国市场中,当前阶段,火山引擎和腾讯云都倾向于采取上述策略。火山引擎于6月底推出的“火山方舟”大模型服务平台,已经成功吸引了包括百川智能、出门问问、复旦大学MOSS、IDEA研究院、澜舟科技、MiniMax以及智谱AI在内的多家AI科技公司和科研机构的大模型接入。尽管腾讯云还未涉足第三方大模型的接入领域,但已开放模型商店,以接纳未来来自第三方企业提供的针对特定行业场景的模型应用。

这两种思路都只是阶段性考虑,不存在绝对的界限,也不存在绝对的好坏之分。事实上,即使是倾向于垂直整合的企业,在主推自己的基础大模型时,一般也会提供第三方模型。

一般情况下,云厂商自有基础大模型通用数据多,模型参数量更大,和自家模型平台兼容更好,效果比第三方大模型更稳定。但第三方大模型有独家数据,在一些行业、场景更精准。比如,海外市场最著名的图像大模型Stable Diffusion同时出现在亚马逊AWS、微软Azure、阿里云第三方模型选项中,被公认为是目前最好的图像大模型。

垂直整合的好处是,云厂商在算力、平台、模型三层收入通吃,这在短期内会带来明显的收入增长。

微软既卖算力,也卖软件,而且软件利润率比算力更高,因此倾向于垂直整合。微软财报告显示,Azure 机器学习平台的收入连续四个季度(2021年三季度-2022年三季度)增长超过100%。Azure在2023财年三季度(2022年四季度)营收增速为27%,其中人工智能业务贡献了1个百分点的增速。

平台生态可见的好处是,容易鼓励第三方大模型容易做大生态,带来更高的算力租用率。火山引擎采取这种思路的逻辑正是如此。

采取平台生态策略更多是基于市场趋势判断。谭待表示,多模型的判断和“多云”类似。

在供给端,未来大模型生态系统中,会存在几个少数的超大规模的基础大模型、多个中等规模的大模型和更多个行业的垂直模型。

在需求端,企业通过自研或者与三方模型服务商的深度合作,形成企业自身的1个主力模型。在这个主力模型外,在不同场景中,企业还会同时应用N个外部模型。

谭待解释,火山引擎扮演的角色是,解决计算、安全、成本等通用问题。通过这种方式不断降低大模型的使用门槛,让众多企业可以更加安全、高效使用大模型。

一位头部云厂商技术人士对此评价,大模型迭代速度通常只有1年,参数量每年都会大幅度跃升。云厂商与其自己亲自下场做大量大模型,还不如只做一个基础大模型,让其他厂商基于行业、场景提供专业大模型。

在谭待看来,这一波智能算力浪潮对火山引擎有好处。火山引擎的差异化优势在于——一是性价比,内外规模足够大;二是差异化,如更理解用户增长;三是船小好掉头。

多重考量因素

大模型被认为带来了应用开发的新范式,也被称为是“AI商业化”的分水岭。

现在摆在企业面前的选择很多。其中包括传统人工标注、人工精调的小模型,包括各大云厂机器学习平台中的算法模型,也包括十亿、百亿参数的大模型,还包括动辄千亿参数的基础大模型。

一些企业把机器学习平台上的推荐算法、金融行业私有化部署的模型风控也视为大模型落地案例。其实这是上一轮AI商业化的典型案例。

决定大模型商业化速度的,仍是模型效果。在谭待看来,中国通用大模型效率目前普遍和GPT-3.5存在差距。他认为,现阶段大模型的参数门槛至少在百亿级别,未来甚至会逐渐发展到千亿甚至万亿。国内百亿级参数的落地标杆案例今年四季度后才会出现。

2016年开始的上一轮AI商业化被认为很低效。一位头部云厂商高管直言,企业研发AI应用时,需要根据应用场景做数据清洗、标注,对模型训练、推理、优化。由于实际产业环境场景碎片化,AI企业不得不做很多繁琐细碎的定制化项目。比如闸机、支付人脸识别,因为光线、环境不同,要对不同数据从头训练、应用适配。

上一轮AI商业化计费模式是,人力规模×服务天数。大模型与之本质区别是,在云上按需、按量计费。

大模型时代,企业向大模型平台上传数据集,依靠参数规模和通用能力,平台自动完成清洗、标注、建模、推理、优化等环节。过去靠人力的繁琐流程被缩短了。数据量方面,大模型也在快速进化。2022年10亿参数,就叫大模型。如今基础大模型参数动辄上千亿,具备更好的“智能涌现”效果,进而在各场景具备泛化能力。

为大模型买单的企业如何使用大模型是另一个问题。谭待的观点是,企业使用“1+N”的多个大模型,或使用基于基础大模型精调、蒸馏、剪裁的模型都被认为是可行方案。

企业可以选择“1+N”的原因是,大模型仍在应用早期,商业化尚未完全跑通。此外,大模型技术迭代速度快,并没有哪家大模型遥遥领先。“企业很焦虑,又怕错过,又怕乱投入”,谭待解释,因此暂时可以“让子弹再飞一会儿”。企业不用把业务绑定一家大模型,可以按业务场景需求,择优选用不同的模型。

谭待看来,多模型部署、管理成本不高,只需要提供标准接口。企业可以比较不同模型的优势、价格。比如知识管理用A模型、内容推荐用B模型、代码管理和生成用C模型,其他业务再用D模型。

也有云计算技术人士对这种模式的效率有所疑虑。但该云计算技术人士同时认为,过去“多云”管理成本偏高,企业仍会因为议价权等因素选择多云,大模型可能会重走这条路。

成本和效率确实是个痛点,国内多家云厂的共识是:大部分行业目前暂时不需要直接使用千亿、万亿级通用基础大模型。这既不经济,也无法带来最佳效果。

AI大模型:火山引擎挑战者之路

资料来源:微软研究院,BioGPT和其他模型的效果比较

基于基础大模型精调、蒸馏、剪裁的模型被视为可以取得更好的应用效果。比如,微软研究院2022年11月论文显示,微软基于GPT-3推出了仅有15亿参数的生物医学模型BioGPT-Large。该模型却有比1750亿参数的GPT-3有更高准确度。未来企业细分领域积累的数据集会成为宝贵资产。基于这些数据集不断持续训练和精调会让模型效果更好。

无论是多模型,还是使用基于大模型精调、蒸馏、剪裁的模型,核心考量因素都是性价比。

大模型算力成本分成训练、推理两部分。IDC在2022年12月报告显示,中国AI服务器训练负载将不足40%,推理负载将超过60%。

也就是说,企业建立模型的训练成本只是前期投入,未来日常使用模型的成本才是大头。大模型推理成本通常受参数规模、精度影响。企业使用经过良好微调训练的模型,有助于大幅降低未来的推理成本。

AI大模型:火山引擎挑战者之路

中国大型政企市场目前的偏好,还是希望部署私有化大模型。国内政务、金融、电信、制造等领域部署AI模型的做法是,采购数百枚GPU,进行算法精调、软件定制,总包价格在2000万元左右。部分企业希望加大投入开启二期工程,用这种方式部署大模型。

谭待表示,大模型太烧算力,私有化部署的成本很高。如果顾虑安全问题,企业可以通过专有云的方式来解决。如果小模型能够高性价比解决问题,企业也可以使用小模型。

火山引擎的打法

今年是字节跳动做云的第三年,承载字节云战略的火山引擎也是中国云市场“最年轻的云”(详情见7月29日报道,《最年轻的云,字节跳动为什么不着急?》)

目前,火山引擎不仅覆盖IaaS、PaaS、SaaS,产品线也已经非常完整。IDC今年4月数据显示,2022年下半年中国公有云(IaaS+PaaS)市场前五强分别为阿里云(31.9%)、华为云(12.1%)、天翼云(10.3%)、腾讯云(9.9%)、亚马逊AWS(8.6%)。

AI大模型:火山引擎挑战者之路

火山引擎市场份额暂时在五强之外,但大模型被外界认为是火山引擎缩小差距的机会。在海外市场,谷歌云、Oracle同样在摩拳擦掌,把新一轮AI浪潮视为挑战亚马逊AWS、微软Azure的机会。

大模型会带来巨大的算力消耗。在算力之上,大模型还正在降低应用开发门槛,会带来软件生态的变化。这意味着大模型将为云计算市场带来市场增长和竞争变量。不做大模型,更意味着鼓励第三方大模型容易做大生态,带来更大的算力消耗、算力租用。

尤其是Oracle,它把智能算力作为差异化打法。Oracle与英伟达结成了战略同盟,不仅在大规模采购GPU算力,而且用低廉的GPU算力价格争夺领先者的市场份额。

目前,Oracle Cloud全球市场份额约为2%。2023财年(2022年3月-2023年3月),Oracle的IaaS营收14亿美元,增速高达77%。远超过亚马逊AWS、微软Azure的10%-30%。近两个季度,其他国际云厂商营收增速下滑时,Oracle Cloud营收增速还在提升。

火山引擎在中国是最像谷歌云、Oracle这类“挑战者”型企业。作为“挑战者”,火山引擎的打法是搭建模型平台,提升智能算力租用率、消耗量,以此带来云的增长。

字节跳动本身就有智能算力的基因。火山引擎的算力、算法、数据也被认为有优势。

目前市场判断是,GPU算力资源储备最丰富的就是阿里、字节、腾讯三家公司。字节跳动本身就有抖音、今日头条等业务,其起家靠的就是推荐算法,算法需要依靠大量GPU算力做训练,无论是视频推荐、信息流推荐都需要消耗大量GPU算力。火山引擎背靠字节跳动具备算力优势。

算法、数据能力无法直接衡量,但字节跳动的抖音等To C业务依靠算法、数据获得了远超同行的流量和规模。作为国内互联网公司前三强,字节跳动被认为不可小觑。

至于大模型服务平台,在谭待看来,更重要的是把平台搭好,让买方和卖方能够以更低成本交易。

他说,大模型平台通常会收取两种费用,模型服务费和平台服务费。火山方舟平台相当长时间内将不收服务费,火山引擎还采取了很多手段优化成本,如利用技术优化基础模型的成本。也包括利用云的规模效应,如用错峰、训推一体把提升整体利用率提、降低单位价格。

降低大模型使用门槛意味着火山引擎的智能算力租用率、消耗量会提升——这也是云计算这种商业模式的本质。

一份启明创投研报显示,亚马逊AWS的AI算力,如果客户全年无休地租用毛利率可达80%,若客户租用率不足50%毛利率将仅为60%,相当于亚马逊AWS的整体毛利率。

美国企业软件市场有一条判断企业的法则,叫“Rule of 40”。这指的是,一家健康的企业软件公司,营收增速+营业利润率应该超过40%。这个法则常被用于评估成长期的SaaS企业。

谭待表示,火山引擎作为云公司,不能简单套用这个法则。不过,2022年火山引擎的营收增速、营业利润率高于“Rule of 40”指标。公司处于健康的高增长状态,且毛利水平在提升。

复盘三年来的节奏和变化,谭待说,应该在成立最初就做IaaS的云服务。火山引擎最大的变化是,在云市场初步站稳了脚跟,市场口碑正在变得更好,“不再会有人把我们混淆成火山视频”。中国的云市场渗透仍然较低,火山引擎还有很大的空间。

2022年7月,谭待谈到,组织不要过度设计,“几十亿的盘子不能按照你那几百亿的规模进行设计。”火山引擎的规模在变大,2023年谭待仍然坚持“组织不要过度设计”这个判断。

火山引擎正在缩小与云巨头的差距,并期望依靠大模型进一步缩小差距。

AI大模型:火山引擎挑战者之路

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!

© Copyright notes

Related posts

No comments

No comments...