4月18日,火山引擎在其举办的“原动力大会”上发布自研DPU等系列云产品,并推出新版机器学习平台,持万卡级大模型训练、微秒级延迟网络,让大模型训练更稳更快。火山引擎总裁谭待表示,AI大模型有巨大潜力和创新空间,火山引擎会服务客户做好大模型,共同推动各行业的智能化升级。
在我国,有众多公司在大型人工智能模型领域崭露头角,其中大部分已经选择了火山引擎云作为他们的合作伙伴。然而,谭待并不认为这些大模型将会被任何一家公司独自垄断。相反,火山引擎云的独特之处在于,它不仅会积极推广自身的大模型,还将与多家大模型展开深度合作,从而为企业和个人提供更加丰富多样的AI应用场景。
借助于内外统一 cloud native 基础架构,抖音等业务的闲置计算资源得以快速调配至火山引擎客户手中。针对离线业务需求,我们实现分钟级调度 10 万核 CPU 资源;而对于在线业务,资源则可以实现潮汐式复用。此外,弹性计算抢占式实例的价格最高可享有 80%以上的优惠。
据报道,火山引擎机器学习平台在抖音等大量用户业务的长时间打磨中,已经具备了支持单任务万卡级别的超大规模分布式并行训练场景的能力。该平台中的GPU弹性计算实例能够根据实际需求灵活调度资源,随时调用,随时释放,从而帮助客户最高节约70%的算力成本。
作为字节跳动副总裁杨震原指出,业务创新的过程中,我们必须勇于尝试错误,并且尽可能地做到快速敏捷地试错。然而,试错的成本也需要得到有效的控制。我们成功实现了这一目标,通过采用潮汐、混部等策略,让火山引擎实现了资源的高效利用和极低成本。以抖音推荐系统为例,我们的工程师仅用15个月的样本训练出了一个模型,训练时间仅为5小时,成本更是仅有5000元。此外,抖音上火爆的“AI绘画”特效,从启动到上线的时间只需一周多的时间,这个模型的训练则由一名算法工程师轻松完成。
字节跳动副总裁杨震原
在最近的一次原动力大会上,火山引擎推出了最新一代自研DPU,实现了计算、存储、网络的全组件解耦,从而为业务负载提供了更多的资源释放。尽管作为“年轻”的云服务商,火山引擎的自研DPU已经在业界达到了领先水平,其网络性能高达5000万pps,延迟低至20us。此外,基于自研DPU的各种计算实例的性能也得到了显著的提升,例如适用于大模型分布式并行训练场景的GPU实例,其性能相较于上一代的实例集群最高提升了3倍以上。
火山引擎总裁谭待
杨震原进一步阐述,火山引擎为内外部客户提供一致的产品服务,包括抖音、今日头条等APP的开屏广告都加入了“火山引擎提供计算服务”的标识。他强调:“在数字化时代,机器学习能够智能且高效地解决目标问题。而数字化的下一阶段就是智能化,我们将在机器学习领域的技术积累与经验,通过火山引擎对外部客户开放,助力更多企业实现智能化发展。”
国内, 大模型, 火山引擎, AI应用
AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!