文章主题:Apple Vision Pro, 诺基亚, 手机游戏, 贪吃蛇
时间是残酷游戏,比如当惊艳的Apple Vision Pro终于出场,早已无人惦记遥远的诺基亚。
🎉📱回忆起那个里程碑时刻,1997年的诺基亚不仅革新了手机体验,更引领了全球移动游戏的革命。他们的创新举措——将《贪吃蛇》内置,犹如一盏明灯,照亮了智能手机游戏之路,开启了无数玩家的掌上冒险之旅。就像游戏开发者Ryan McLeod所言,今天的所有手机游戏,无论未来走向何方,都应铭记这份遗产,感恩那段由《贪吃蛇》开启的辉煌篇章。🏆
🎉贪吃蛇游戏玩法📚:简单易懂,一触即发!吞食果实得分,但身体随之变长需巧妙操控。边界边缘小心绕行,别让自我吞噬困扰。虽然诺基亚已淡出视线,但这款经典小游戏的热度不减,至今仍是开发者们的热门探讨议题——如何用最少代码勾画贪吃蛇世界?🌟代码挑战,智慧与趣味并存!🚀无论年代如何变迁,这款简单却富有策略的游戏,始终在数字世界的角落闪烁着独特的光芒。
🌟🎨游戏进化论:古典美学遇上AI魔力🚀曾经的经典之作,如今在科技的浪潮中焕发新生——它不仅是艺术与技术交融的象征,更是衡量AI智慧精度的不二神器。.baidu.ai智能云的重量级人物施恩,借助创新代码助手Comate的力量,引领我们踏上了一场从零到一的编程之旅。从画布上的第一笔开始,每一行代码都见证着AI智慧的跃动。它犹如一位技艺精湛的建筑师,搭建起《贪吃蛇》的框架,而那条灵活扭动的蛇身,则是AI智慧精准运作的生动展现。无需繁复的手动操作,大模型的力量让这段代码编写变得轻松且高效。这样的转变,无疑是对传统编程理念的一次革新,它揭示了AI如何在艺术与功能之间找到平衡,让我们看到了科技如何赋予经典新的生命力。不论是热爱游戏的你,还是对技术感兴趣的我,都应感受到这个时代的魅力——古典美学与未来科技的完美碰撞! 若要了解更多,探索更多这样的AI创新应用吧!🌍💻
整个过程不到5分钟。
开发者的Comate
🎉🔥 大模型竞赛热度未减,神秘面纱依旧难揭!🔍外界焦点悄然转移,从宏大的设想转向实际应用的探索。💡如今,生成式AI正以其独特魅力,引领行业探寻创新生产力的新路径。它如何赋能各行各业,释放前所未有的效能?让我们一探究竟!💼🌟
🎉【技术盛宴】🎉 6月6日,成都文心大模型交流会上,百度重磅发布代码神器——Comate!🚀这款创新代码助手,犹如GitHub Copilot的升级版,专为中文开发者定制,训练数据丰富至极,用中文注释和文档筑起智慧之墙。💡它能深度理解你的编码思路,预测并协助你编写下一行代码,让你编程效率直线上升。🔥Comate不仅提升了开发体验,更是智能协作的新里程碑,让代码编写不再孤单。👩💻开发者们,准备好迎接这个智能化的编程新时代吧!🌟SEO优化提示:#百度Comate #代码助手 #智能开发工具 #中文注释训练 #编程效率提升
文心大模型是宏大的,Comate是具体的。
snake_game_dev是一项网页版游戏制作之旅,开发者首先绘制基础蓝图,接着定义键盘导航与游戏退出机制的规则。环境要素,如行进速度,也需精细调控。对于Comate,这简化至轻触一步:输入”canvas”和”centered layout”,Comate会自动生成游戏画布代码。然后通过简洁指令,如”color param”, “left direction”, 和”food location”,它能理解并填充代码细节,快速在多选方案间切换,最终生成无需额外操作的活生生的《贪吃蛇》游戏。snake_game_dev的流程便捷高效,只需轻轻一触,创意即可成真!🎉snake_on!
据百度介绍,目前Comate能力已经率先集成在百度所有业务线中并实现了很好的使用效果:核心研发部门中50%的代码可通过Comate生成。从去年开始Comate已经在百度内部进行了大量测试。测试结果显示,在“Comate”辅助编写的代码中,近50%的建议代码被开发者采纳,目前在百度内部已经广泛应用到各类产品开发中。
Comate深度学习的对象除了百度内部的代码库也包括高质量Github代码库。现在这个代码助手可以实现代码自动生成、代码自动补全、代码智能搜索、高质量代码推荐、测试代码自动生成等多种智能功能。推理速度上单请求可实现300ms左右,这意味着开发者不需要停下来等待代码生成,Comate完全可以匹配上开发者的编码速度。
当前Comate代码助手支持主流开发语言/框架30余种,对于C/C++、Java、Python等主流语言Comate专门做了数据优化,可达到更好的代码推荐效果。此外,Comate还支持前后端、软硬件不同场景、以及程序员常用的多种IDE。
从这个角度来看,《贪吃蛇》是一次直观却并不充分的演示。施恩也表示,《贪吃蛇》的代码开发其实已经可以完全依靠大模型来不加干涉的自动生成。只不过有趣的是,Comate从原本百度内部智能工作平台推出的一个“代码推荐工具”到现在的“代码生成助手”,本身也得益于大模型的能力加持。
百度智能云AI平台副总经理施恩 图源:百度
Comate的孵化开始于2018年左右,百度内部在寻找提升开发效能的办法时已经提到了代码生成。但技术不够成熟,所以先选择通过检索算法并做算法推荐的方式来提效。“那时候技术探索已经在尝试了。但在文心大模型出现之后,我们才把真正的代码生成在更广泛的场景应用起来”,百度智能云AI平台副总经理李景秋对品玩表示。
Comate从搜索逻辑过渡到生成逻辑,大模型的能力开始在开发环节呈现出生产力变革的姿态。而如果说Comate是文心大模型对开发者的一次回答,那“文心一言- Turbo”则是文心一言上线两个月后,百度给产业交出的一个新方案。藏于其后的,是文心千帆大模型平台在两个月后逐渐清晰的迭代路线。
文心千帆的迭代方向:效果+效率
百度将文心千帆定义为全球首个一站式的企业级大模型平台。具体来看,文心千帆不仅提供包括文心一言底层模型(Ernie bot)在内的大模型服务,还提供了各种AI开发工具链和整套开发环境。此外,大模型平台还支持各类第三方的开源和闭源的大模型。自3月27日首次启动内测开始,在文心千帆的支撑下,文心一言在两个月内完成了四次技术迭代。
在4月25日的一场技术交流会上,百度集团副总裁侯震宇透露自内测以来,通过算法和模型的持续优化,文心一言推理效率提升10倍,推理成本降为原来十分之一。一个半月后,文心一言的高性能模式“文心一言- Turbo”作为文心千帆第一阶段迭代的结语成果出现。在一些高频、核心场景,在满足同样客户需求的情况下,推理服务的整体性能总共提升了50倍。
多次迭代后,文心千帆的两个进化方向也已经显现出来:效果和效率。
在效果上,除了推理性能的大幅提升外,“文心一言- Turbo”支持SFT训练,同时针对不同场景和效果提供多种训练方式,Bloom7B(70亿参数)第三方大模型可支持 P-tuning、SFT、Lora等不同训练方式。并且由于企业对于大模型再训练的需求以及私有化部署的考虑,文心千帆将开放插件协议,能够让第三方企业基于插件协议共享插件,通过插件的方式,把内部的数据完全接入,同时实现更好的大模型效果。
除此之外,文心千帆将会提供一部分预制的Prompt模板,同时支持Prompt模板的增删改查以及支持参数插值的调用模板,支持通过服务接口形式调用Prompt模板,用于获得更好的推理效果。
与效果并行的则是效率,或者也可以理解成性价比。
“文心一言- Turbo”推理效率的50倍增长意味着大模型推理成本的大幅下降,这将是文心一言大模型内测仅一个月后,大模型推理成本降为原来1/10之后的又一次提升。并且在数据标注方面,“文心一言- Turbo”未来能够批量生成标注数据并快速用于后续训练,相比于此前手动的数据标注形式将会大大降低数据标注成本。
在部署方式上,文心千帆也在逐步增加应对客户的灵活度。
文心千帆对外提供“3+3”的交付方式。在公有云服务侧提供推理(直接调用大模型的推理能力)、微调(通过高质量精标业务数据,高效训练出特定行业的大模型)、托管(将模型发布在百度智能云,以实现更加稳定高效的运行)三种服务来降低企业部署大模型的门槛。
而在颇受关注的私有化部署侧,文心千帆支持软件授权(提供在企业环境中运行的大模型服务)、软硬一体(提供整套大模型服务及对应的硬件基础设施)以及租赁服务(提供机器和平台的租赁满足客户低频需求)。其中最新加入的租赁服务意在满足预算有限,或对模型训练需求更低频的客户。
文心千帆大模型平台在两个月内急速的迭代脚步,以及在效果和效率两端清晰的路线规划,并不只是算力的优势作用,背后体现出更多的是百度AI四层架构的整体优势。
李彦宏 图源:搜狐
李彦宏曾公开表示,百度是全球唯一在芯片、框架、模型和应用这四层进行全栈布局的人工智能公司。昆仑芯作为百度在底层芯片上的布局,已经有两代产品实现数万片的部署,第三代预计在明年年初量产;飞桨已经是国内综合市场份额第一的深度学习框架;文心大模型家族中除了文心一言,还有包括NLP、CV、跨模态等通用大模型及11行业大模型,并与应用层的丰富积累互为羽翼卷起数据飞轮。这个完整布局也让当下文心千帆在面对300家生态伙伴以及400多个企业内部场景时有了灵活进化的前提条件。
文心千一言每一次技术演进都是从芯片层到框架层、到模型层以及应用层多个团队的共同努力。“我们内部会拉一个工作群,这里有昆仑芯片的人,有飞桨框架团队的人,有大模型NLP算法策略的人,也有我们大模型平台工具链的人,还有终端应用智能客服的人。每个月会设定共同的目标,比如这个月性能必须提升到什么样的水平。”李景秋表示。
也如百度集团副总裁侯震宇在5月初的一次闭门会上所说,“大模型时代下,企业的创新要脱颖而出,不但需要智能的算力、灵活的框架平台、丰富的大模型体系以及优质的应用方案,还需要这四者之间端到端的适配与优化,这是一个‘既要、又要、还要’的端到端创新工程。”
而几乎所有人都能感觉到,百度在大模型这一仗上,开始显出后劲了。