北京日报客户端记者赵语涵
AI大模型技术应用爆发,云市场也在加速变革。
在4月18日的“原动力大会”上,火山引擎公司发布了一系列自研云产品,其中包括DPU等新型云设备以及全新版机器学习平台。该平台能够支持万卡级大模型的训练,同时实现微秒级的延迟网络,从而使得大模型的训练更加稳定和高效。火山引擎的总裁谭待在会上强调,拥有巨大潜力和创新空间的人工智能大模型将在服务客户的过程中,共同推动各行各业的智能化升级。
在我国,有数十家企业致力于开发大型人工智能模型,并且超过七成的企业已经在腾讯的火山引擎云上部署了自己的模型。据谭待透露,大型人工智能模型的发展并不会是一家独大。与一些云服务商仅推动自己的大模型不同,我们的平台将会与多家大模型展开深度合作,从而为企业和个人提供更加丰富多样的AI应用场景。
在会议上,平台宣布了一项重要合作——与字节跳动在国内业务上实现整合。这一举措将依托于一个统一的基础设施,即云原生基础架构。借助这一架构,抖音等业务的闲置计算资源能够迅速调配给平台的客户使用。此外,对于离线业务资源,可在分钟级别实现10万核CPU的调度;而对于在线业务资源,则可以实现潮汐式的复用。值得一提的是,弹性计算的抢占式实例价格最高可获得80%以上的优惠。
自2022年12月以来,ChatGPT作为一款消费级互联网应用,其用户数量迅速增长并成功突破亿级别,创下了历史之最。而随着GPT-4大模型的推出,其在法律、数学、生物学等领域的表现更是超越了90%的人类水平,展现了强大的智能实力。
在我国,众多科技企业纷纷投身于大模型建设领域。这些企业拥有卓越的技术团队和深厚的行业背景以及独特的创新思维。然而,它们普遍面临着一个挑战,即在大规模场景实践方面缺乏系统工程能力。因此,为了满足这些大模型客户的需求,我们需要为他们提供稳定且高效的AI基础设施,从而确保其能够在实践中发挥出最大的价值。
据报道,火山引擎机器学习平台在抖音等大量用户业务的长时间打磨中,已经具备了支持单任务万卡级别的超大规模分布式并行训练场景的能力。该平台中的GPU弹性计算实例能够根据实际需求灵活调度资源,随时调用,随时释放,从而为客户最高可以节省70%的算力成本。
杨震原,字节跳动副总裁,坚信业务创新离不开试错。他主张勇敢、敏捷地尝试新事物,同时严格控制成本。借助潮汐、混部等策略,该平台实现了资源的高利用率和极低成本。以抖音推荐系统为例,仅需15个月样本训练,工程师便可完成模型训练,成本仅为5000元。而备受瞩目的抖音“AI绘画”特效,从启动到上线仅花费一周多时间,模型则由一名算法工程师迅速完成训练。
MiniMax公司在国内AI领域独树一帜,成为少数成功研发出大模型产品的AI技术公司。他们具备文本、视觉和声音三种通用大模型引擎的能力。据了解,MiniMax与火山引擎携手打造了超大规模实验平台,实现了千卡级常态化的训练。同时,他们的超大规模推理平台拥有万卡级算力池,能够支持单日超过一亿次的调用。在云计算领域,MiniMax的大模型业务也取得了快速的突破。
AI大模型, 火山引擎, 云市场, 智能化升级
AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!