火山引擎,要走大模型“军火商”的另一条路?

火山引擎10mos agoupdate lida
80 0 0

火山引擎,要走大模型“军火商”的另一条路?

在大模型这个热潮中,中国已经出现了“百模大战”的雏形,如果再加上各个细分领域的行业大模型,这场面堪比当年团购兴起时的“千团大战”。

在这场竞争中,百度率先发起进攻,随后的阿里巴巴、360、华为、京东等迅速跟进。在一众互联网巨头中,反而是字节跳动显得有点姗姗来迟,存在感不高。火山引擎作为字节跳动To B的核心载体,无疑承担着关键角色。

真有七成大模型用户都在火山引擎上?

在不久前火山引擎的一场发布会上,火山引擎总裁谭待抛出一番“七成大模型用户都在火山引擎上”的言论,这一石激起千层浪。火山引擎这么厉害么?百度、阿里、腾讯都白忙活了?

上次激起这么大争议的,还要追溯到几年前,当时的阿里CTO张建锋扬言,“中国有两朵云,一朵是阿里云,一朵叫其他云。”未免让人感觉有点狂妄。

“七成大模型用户都在火山引擎上”是怎么算出来的,谭待给出的算法是“把火山引擎上的大模型客户统计出来,拉一个目前市面上的大模型名单做分母,就是70%。”

即使这个数据有很大水分,打个对折,30%的大模型用户都在用火山引擎,也已经是一个很惊人的数据了。要知道,在云计算这个修罗场,火山引擎还是一个新玩家,阿里云、腾讯云、百度云这些年构建的壁垒就那么容易被击穿?况且,这些云巨头在大模型领域可是异常激进,一手发布自己的大模型,另一手则是云服务大降价。降价对于大模型玩家可是有致命吸引力的,当其他几朵云价格战正酣时,火山引擎可没听说有什么大动作。

不管怎样,只要谭待没有撒谎,那火山引擎在这场大模型军备竞赛中,貌似已经提前拿下一城了,可以算做阶段性成功。那火山引擎为什么能够俘获近七成的大模型用户?这就值得好好分析一下了。

火山引擎走了一条不一样的道路

在笔者看来,火山引擎跟其他云厂商走相比,走了一条完全不同的路。正是这一路径差异,让大部分第三方大模型企业选择火山引擎。

这个关键差异就是,火山引擎没有主打自身的大模型。反观百度、阿里巴巴等巨头,都有自家大模型,并将其作为其拳头产品。大模型会带来巨量的云计算资源消耗,是否将自家大模型作为主引擎,将带来很关键的区别。

火山引擎,要走大模型“军火商”的另一条路?

云厂商与大模型的两种商业模式对比

以百度为例,其推出了文心一言大模型,其他企业先是接入文心一言,然后通过调用文心一言的能力,来间接的调用百度智能云的算力资源。相比而言,火山引擎目前并没有大张旗鼓的主推自家大模型,把大模型这一层空出来,给第三方大模型企业腾出位置。据悉,目前已经有百川智能、出门问问、复旦大学MOSS、IDEA研究院、澜舟科技、MiniMax、智谱AI等多家大模型与火山引擎合作。

对于百川智能、出门问问、MiniMax这类大模型企业而言,火山引擎没有自己的大模型,会带来一个关键的优势,那就是中立性。例如,MiniMax如果要上百度智能云,其可能会忌惮跟其自身业务强竞争的文心一言,要上阿里云,则可能顾忌通义千问。而上火山引擎的云平台,则没有这个顾虑。

对于提供基础设施的平台而言,不“与民争利”是很重要的一个原则。要想搭一个平台来当裁判,你则不能同时还做一个运动员。这个规律在很多领域都适用,例如:在手机芯片领域,如果一个芯片厂商同时也做手机,那其他手机厂商就不太可能采购他的芯片;云计算领域,IaaS厂商,如果也做SaaS产品,那其他SaaS厂商就会有所顾忌。

同样的,当一个云厂商没有自己的大模型时,其他大模型厂商才能放心与你合作。

大模型是云计算的黄金机会,哪种模式好还未可知

当然,目前来看,只能说火山引擎走出了一条跟百度智能云、阿里云等不同的道路,到底哪一种模式更好,现在还无法下定论。但有一点是可以确定的,那就是大模型将是云计算产业的一个黄金机会。

首先,大模型的计算需求将大大增加。这些模型通常需要大量的计算资源进行训练和推理,而云计算平台恰好可以提供强大、灵活和按需分配的计算资源。其次,大模型的存储需求也将大大增加。这些模型通常需要处理大量的数据,而云计算提供的大规模、分布式、安全可靠的存储服务能很好地满足这一需求。此外,云计算平台还能提供数据的快速访问和高效处理,进一步提高了大模型的运行效率。大模型的规模化商用也将带来对分布式计算、自动化管理、数据安全等更高级的云计算服务的需求。此外,云计算平台还可以提供自动化的资源管理、高效的数据处理、强大的安全防护等服务。

进一步的,随着大模型的商用逐渐普及,云计算平台的专业服务需求也随之增加。这些服务包括但不限于模型的优化、自动化调参、模型的部署等。这不仅能帮助用户更好地利用大模型,提高其商业价值,同时也为云计算服务商提供了更多的增值服务的机会。

例如,优化模型的过程可能包括减少模型的大小、提高模型的运行速度、降低模型的能耗等。云计算服务商可以利用他们的专业知识和丰富的经验,为用户提供模型优化的服务;调参是训练模型的重要步骤,但这个过程通常需要大量的时间和精力。通过自动化调参,可以大大简化这个过程,提高效率。云计算服务商可以开发出自动化调参的工具和服务,帮助用户快速地找到最优的参数设置。

在模型训练完毕后,需要将模型部署到生产环境中,以便在实际场景中使用。模型部署的过程可能包括模型的转换、容器化、集群部署等。云计算服务商可以提供一键部署的服务,简化部署过程,同时也可以提供故障排查、性能监控等服务,确保模型在生产环境中的稳定运行。

总的来说,大模型的规模化商用将对云计算产业产生深远影响,极大地拉动其发展。火山引擎作为一个“后进生”,要想赶超一众前辈,就需要另辟蹊径。

正如上面所说,我们可以将大模型+云服务划分为两种商业模式:自有模型+云服务模式(如百度智能云和文心一言)以及第三方模型+云服务模式(如火山引擎)。在实际运作中,这两种模式都有各自的特点和优劣。

自有模型+云服务模式能实现品牌的联动效应,同时由于模型和云服务都由同一企业控制,可以保证模型在云平台上的最优运行,实现云服务性能的最大化。此外,一体化服务也能极大提升用户体验。然而,这种模式的挑战在于需要较大的资源投入以维护和优化云服务和大模型,同时如果模型出现问题,可能会影响到云服务的声誉和业绩。

相比之下,第三方模型+云服务模式则能让云服务平台更专注于优质云服务的提供,同时可以引入多种第三方大模型以满足不同用户的需求,增加了平台的吸引力。此模式风险分散,即使某个模型出现问题,也不会直接影响到云平台的声誉和业绩。然而,由于模型由第三方控制,平台可能无法保证模型在其平台上的最优运行,从而影响云服务的性能和效率。此外,服务链条较长可能导致用户体验下降。

文章最开始提到,火山引擎总裁谭待给出了一个数据——“七成大模型用户都在火山引擎上”。这个数据其实有迷惑性,我们需要分清楚三个指标——大模型企业、大模型应用企业,以及大模型的最终用户。

OpenAI(ChatGPT)、百度(文心一言)、阿里巴巴(通义千问)、出门问问、MiniMax是大模型企业,每个大模型企业又可以接入大量的应用型企业,比如接入百度文心一言的智能客服企业。目前,无论是百度文心一言还是阿里巴巴的通义千问,对外披露的数据,都显示有几十万家企业等着接入其大模型。而每一个应用大模型的企业,又有大量的终端用户。

在计算最终的算力消耗时,要分清上面三个指标的差异。我们来做一些简单的计算,假如,中国有100个大模型,其中有70个大模型部署在火山引擎的云平台上。但是如果要计算调用这些大模型的企业数量,可能这70家大模型的客户还没有百度文心一言一个模型的客户多。再来看最终用户,ChatGPT的用户规模超过10亿,远远超过中国所有大模型用户。所以,ChatGPT一个模型可能需要几十万个GPU,而火山引擎的云平台上纵然部署了几十个大模型,但其云资源消耗要远远小于ChatGPT。

火山引擎的策略,成功的关键在于,与其合作的大模型厂商中,至少要有几个能够成长起来,甚至在客户规模上成为媲美百度文心一言、阿里通义千问的巨头。从目前情况来看,这有很大的难度。

当然,火山引擎采用这个策略有一定的合理性。毕竟,无论是在云计算还是大模型领域,火山引擎都很难跟阿里巴巴、百度、腾讯“硬拼刺刀”。通过战略性放弃自研大模型,主打中立性,“招安”一众第三方大模型厂商,走“农村包围城市”的道路,也不失为一个好办法。不管怎样,火山引擎为中国的大模型和云计算市场提供了一个独特的样本。

此外,火山引擎对于大模型的策略,其实与华为针对智能汽车的策略相近。华为一直宣称不造车,只帮助车企造车,以此来打消其他车企的顾虑。但是,业界对于华为不造车一直是有疑虑的,现在不造车,不代表以后永远不造车。而且,即使华为坚持不造车,但他在与汽车伙伴合作时十分强势,这也引来诸多诟病。对于车企而言,当然不想华为来当“灵魂”,自己沦为一个“躯壳”。同样的,火山引擎的中立性能维持多久,也需要打一个问号。会不会过一段时间,火山引擎推出自己的大模型,来与平台上一众第三方大模型厂商竞争?即使火山引擎不推出大模型,那字节跳动集团不可能不推出自己的大模型吧?那火山引擎还能维持中立么?

一切都才刚刚开始,还有很多的不确定性。至于最终结果如何,就让子弹先飞一会吧,我们拭目以待吧!

文:一蓑烟雨 / 数据猿

© Copyright notes

Related posts

No comments

No comments...