近年来,ChatGPT的崛起引发了AI大模型技术的广泛应用热潮。诸如百度、阿里巴巴、360、华为、昆仑万维等国内外企业纷纷跟进,相继推出了自家的一个大模型产品。与此同时,云市场的变革也正在加速推进。
在4月18日的“原动力大会”上,火山引擎公司发布了一系列自研云产品,其中包括DPU等新品,同时推出了最新版机器学习平台。该平台能够支持万卡级大模型的训练,并且提供微秒级的延迟网络,使得大模型的训练更加稳定和快速。这一创新性的技术升级,再次证明了火山引擎在云计算领域的领先地位和强大实力。
火山引擎总裁谭待明确指出,人工智能大模型具有巨大的潜力和广阔的创新空间。火山引擎将致力于服务客户,与各方携手打造优秀的大模型,助力各行各业的智能化升级。与一些云服务商仅专注于推广自家大模型不同,火山引擎将积极接入多家大模型,实现深度合作,从而为企业和个人提供更加丰富多样的AI应用场景。
让大模型训练更快更便宜
但火山引擎不做大模型
ChatGPT作为一款消费级互联网应用,其用户数量公开信息显示已经突破了亿级别。而最新版本的GPT-4大模型在法律、数学、生物学等多个领域中的表现更是超过了90%的人类水平。这一成果的取得,不仅彰显了人工智能技术的巨大潜力,也预示着未来可能在更多领域实现突破和应用。
许多我国科技公司在大型模型建设领域投入巨大,拥有出色的技术团队和深厚的行业背景以及创新思维,然而却常常在系统工程能力方面存在不足。为此,火山引擎应运而生,致力于为大模型客户提供稳定且高效的AI基础设施,以满足他们的需求。
据报道,经过抖音等大量用户业务的长时间磨砺,火山引擎机器学习平台已经具备了支持单任务万卡级别的超大规模分布式并行训练场景的能力。该平台可以灵活调度GPU弹性计算实例,根据实际需求随时调用,从而最大限度地节省客户的算力成本,最高可以降低70%。
字节跳动副总裁杨震原分享抖音的机器学习实践
在接受红星新闻记者的采访时,谭待透露了火山引擎的大模型云平台所获得的众多企业良好反馈。他还指出,尽管在国内大模型领域,已有超过70%的企业成为火山引擎的客户,但火山引擎本身并不会直接开发大模型。
大模型不会一家独大
“未来将是‘多云多模型’时代”
谭待指出,当前大模型正处于起步阶段,其面临着包括数据安全、内容安全、隐私保护以及版权保护在内的诸多挑战。然而,我们可以预见,随着大模型的不断壮大,云上AI算力将会呈现出急剧的增长趋势,使得AI算力的工作负载与通用算力的差距逐渐缩小。这一变化无疑将为各云服务提供商带来新的机遇,与此同时,也将给数据中心、软件硬件架构以及PaaS平台带来前所未有的挑战。
以数据中心的算力结构为例,谭待表示:“大模型需要大算力,虚拟化会带来资源损耗。规模越大,损耗就越多。未来3年内,大规模的算力中心,都将形成‘CPU+GPU+DPU’的混合算力结构,CPU负责通用计算,GPU负责AI计算,DPU负责资源卸载、加速和隔离,提升资源效率”。
此次原动力大会上,火山引擎发布了新一代自研DPU,实现计算、存储、网络的全组件卸载,释放更多资源给业务负载。基于自研DPU的各类计算实例性能也有显著提升。例如:适用于大模型分布式并行训练场景的GPU实例,相较上一代实例集群,性能最高提升3倍以上。
谭待表示,在大模型及下游应用发展推动下,无论传统企业还是初创企业,对AI算力都有迫切需求,企业使用多家云服务将成为常态。同时,各行业有自己高质量的私有语料,大模型不会一家独大,而是会在千行百业生长,形成多模型共生甚至协作的生态。“未来将是‘多云多模型’的时代”,谭待称。
AI大模型的爆发
或成为众多云厂商的超车机会
据公开数据显示,目前公有云服务市场的市场份额排名前五名分别为:阿里云、腾讯云、华为云、中国电信天翼云以及AWS,前五名总共占据了74.6%的市场份额,其余云服务厂家的份额有限。
对此,业内人士表示:AI大模型对算力的需求不同于以往,大模型的爆发或许将成为云厂商弯道超车的机会。火山引擎依托于字节跳动,资金与技术没有明显短板,但因入场时间较晚,在竞争中略显乏力。但针对大模型训练云服务发力,或许将成为火山引擎发展的一个重要拐点,同时也给AI市场的硝烟添了一把“火”。
红星新闻记者 胡沛 李星龙
AI大模型, 火山引擎, 云市场, 机器学习平台
AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!