“火山引擎:抢占大模型风口,实现算力优化”

火山引擎10个月前更新 lida
84 0 0

文章主题:AI大模型, 火山引擎, 云市场, 多云多模型架构

666ChatGPT办公新姿势,助力做AI时代先行者!

眼下AI大模型技术应用吹起来的风口,国内云市场的“后来者”火山引擎不想错过。

4月18日,火山引擎在“原动力大会”上发布了自研DPU等系列云产品,并推出新版机器学习平台。

在当前的AI技术领域中,火山引擎以其独特的自身判断,提出了多云多模型架构将逐渐成为主流的观点。这一观点与当前chatGPT引发的“大模型热”趋势形成了紧密的契合,而火山引擎则可以作为解决方案,有效提升大模型训练的稳定性和速度。

作为火山引擎的总裁谭待,在接受《每日经济新闻》的采访时,明确表示火山引擎不仅自身在不断敏捷迭代,更是在抓住大模型风口的关键时刻,抢先布局。他进一步阐述道,为大型模型制造商提供服务,已经成为了火山引擎未来业务发展的重要方向之一。

AI大模型的关键在于其算力。谭待在接受采访时指出,火山引擎目前所使用的芯片已经足够满足需求,而且他们还在努力通过降低资源损耗来提高现有资源的效率。

自研DPU是火山引擎“敏捷迭代”的一部分,也是提升资源效率的方式之一。

“火山引擎:抢占大模型风口,实现算力优化”

自研DPU是火山引擎“敏捷迭代”的一部分 图片来源:每经记者 王紫薇 摄

作为字节跳动副总裁,杨震原近日在接受《每日经济新闻》记者采访时表示,他们公司自研发的DPU技术能够实现在不同场景和事物中,选择更为高效且节省算力的技术设计方案。换言之,DPU本身并不产生算力,但它却能提供更加精确的算力分配解决方案。

火山引擎进一步宣布与我国字节跳动公司国内业务合作,以实现更高效资源利用。据记者报道,火山引擎计划将旗下抖音等业务的闲置计算资源调配给其客户,其中包括离线业务资源每分钟10万核CPU的调度,以及在线业务资源的潮汐式复用。

自2020年起,火山引擎正式亮相并投入实际应用,至今刚好满三年。在其升级成为字节跳动六大核心业务版块之一的历程中,火山引擎的商业化进程可以说进展迅速。仅仅一年多的时间,它就先后拓展到了IaaS服务领域,推出了涵盖金融等多个领域的云上增长方案,同时发布了全系列云产品。

最近,火山引擎成功迎头赶上大模型风口的热潮,并公开宣布其当前的主要任务是为大模型制造商提供服务。一旦大模型达到成熟阶段,他们将深入挖掘合作机会,开发AI应用,但公司本身不会直接推出大模型产品。

在商业领域中,拥有先手优势的企业能够占据主动地位。近期,大模型的成功应用被视为云计算服务提供商的新机遇。那么,火山引擎是否能够借助这一机遇实现“超车”呢?

并池提效

敏捷迭代,数据驱动、体验创新一直是火山引擎强调的“底盘三要素”。在这次会上,敏捷迭代成了谭待强调的重点。他认为,企业数字化革新的浪潮随着大模型面世,已经从上云、用云,到了云上创新时代。

谭待认为,用云不是最终目标,在云上致力于更敏捷、更前沿的场景化创新才是敏捷迭代的果实。

总结来说,敏捷迭代包括了云IaaS、PaaS能力,特别是多云、分布式云,以及怎样管理好在多云上的负载。

首先,火山引擎选择与字节国内业务大规模“并池”。

杨震原在会后的采访中表示,并池的“池”,是计算池,包括计算、存储、服务器、容器这样的单元;并池之后,意味着火山引擎与字节的内外服务可以在共享资源池里去调度,字节内部服务也上到云服务上面来。这样做的好处是,可以提高整体资源利用率。

“资源的混合分布能够更好地降低云计算的成本。比如,抖音在火山引擎上使用资源调度有波峰和波谷,这种资源就很适合科学计算的能力。”杨震原说。

目前那些迫切希望入局大模型的厂商们,最亟需的需求之一就是算力。算力的获取可以向云服务商购买,也可以从高端芯片中获取,后一方式对厂商来说参与成本更高,而机器学习既复杂又贵——复杂在于硬件、系统、框架、平台都必须要做对,而无论是硬件、数据、还是人力,都很贵。

因此,选择与云服务商合作是目前的主流方式。

杨震原在会上分享了抖音推荐系统的机器学习实践:工程师用15个月的样本训练,某个模型5小时就能完成训练,成本只有5000元。火爆全网的抖音“AI绘画”特效,从启动到上线只用了一周多时间,模型由一名算法工程师完成训练。

自研DPU

在敏捷迭代部分,谭待还强调了全栈自研,并在会上发布的基于自研DPU的弹性计算实例、对象存储升级,云数据库升级,函数服务等产品。

谭待表示,大模型需要大算力,虚拟化会带来资源损耗,规模越大就损耗越多。目前谈及AI很多是代表的是GPU,而不是CPU异构计算的负载。这部分的负载占比会越来越大。“以前可能GPU:CPU是1:10或1:9,未来这个占比会越来越高。对于火山引擎来说,这部分肯定是重点关注的方向之一。”谭待说。

而DPU的作用是,把计算机网络协议用专用芯片、专用组件卸载掉,这样就能把CPU和GPU释放出来,放到更关键的业务中去。谭待说,火山引擎自研了DPU,“因为这是值得优化的最大的问题。虚拟化占到成本的10%—20%。”

“对于云来说,这是持续降低成本的一个非常重要的方式,对于客户来说,他也能享受到降低成本带来的好处。”谭待说。

谭待认为,在未来三年内,大规模的算力中心将形成‘CPU+GPU+DPU’的混合算力结构。其中,CPU负责通用计算,GPU负责AI计算,DPU负责资源卸载、加速和隔离,提升资源效率。

除了敏捷迭代之外,在数据驱动、体验创新部分,谭待表示,提升数据消费的一部分是构建数据应用能力,这其中包含AB测试、CDP、GMP等应用;另一部分是构建数据平台的闭环,包括大数据的组件。

体验创新则是通过更好的互动技术打造视频、游戏的升级体验。其中,更高清、更沉浸、更互动是消费者视频体验提升的三个关键方向。谭待表示,体验创新既要关注外部对用户的创新,也要关注内部运营、内部员工的体验,包括未来企业越来越多采用混合办公模式之后,如何构建相应的IT基础设施。

服务大模型能否弯道超车?

大模型的热度不减。IDC在《2022中国大模型发展白皮书》中预测,2026年中国人工智能软件及应用市场规模将达到211亿美元,未来各行各业都会被AI所推进。大模型的投资热度也因此不断升温,字节跳动、百度、阿里巴巴、华为、商汤等企业都宣布了相关产品和投资。

从数字化变革,到智能化,云服务的赛道变宽,玩家也在“军备竞赛”。百度“百度人工智能体系”于2020年提出。今年3月27日,百度“文心一言”云服务上线;不久在阿里云峰会上,宣布阿里巴巴所有产品都将接入“通义千问”大模型。在此之前,阿里云已在与达摩院逐步融合。

谭待认为,大模型将带动云上AI算力激增,AI算力的工作负载与通用算力的差距会越来越小,这会为各家云厂商带来新的机会,同时也会对数据中心、软硬件栈、PaaS平台带来新的挑战。

从此次发布会来看,比起通用大模型,火山引擎更聚焦于垂直领域中参与大模型厂商的业务需求。

比如在智能驾驶领域,火山引擎与智能驾驶服务商、造车新势力、主机厂合作,推动各方在公有云大算力中心进行更灵活、更大规模的智能驾驶训练;在生物科技领域,火山引擎进行了生信PaaS—BioOS探索,推动生信科研创新的基础设施统一、数据存储统一、开发模式统一,降低创新成本。

谭待告诉《每日经济新闻》记者,“ChatGPT让大家关注到了大语言模型,其实视觉、图象、语音,包括自动驾驶等垂直领域序列,将来也可以构建出circles模型。对火山引擎来说,这(些业务)肯定是将来很重要的不断增长的负载来源,是火山引擎的重要方向之一。”

CIC灼识咨询经理陈一心向每经记者表示,使模型在应用中更加切中企业经营重点,同时借此将模型的规模与TCO合理化,提升性价比、控制成本,进而普及大规模B端应用,这将是未来的发展方向之一。

当然,大模型的发展机遇与挑战并存。行业认为,大模型在发展过程中仍存在多个关键问题,谭待对此表示,目前其发展还在初期,并面临数据安全、内容安全、隐私保护、版权保护等许多问题需要努力解决。

“大模型百花齐放,将深刻改变人与人、人与机器的协作方式,对内容生产、办公协作、商业、教育、传媒等不同领域产生影响。未来将是多云多模型的时代。”谭待说。

每日经济新闻

举报/反馈

AI大模型, 火山引擎, 云市场, 多云多模型架构

“火山引擎:抢占大模型风口,实现算力优化”

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!

© 版权声明

相关文章

暂无评论

暂无评论...