【亿邦原创】8月25日,我国知名云计算服务商阿里云正式推出了一款全新的视觉语言模型——Qwen-VL。该模型基于通义千问70亿参数模型Qwen-7B,以其强大的多模态信息理解能力和图形图像输入支持,为广大用户提供了更为智能化的服务。
Qwen-VL是一款具备多元语言支持的视觉语言(Vision Language, VL)模型。相较于先前的VL模型,Qwen-VL不仅拥有基本的图文识别、描述、问答以及对话功能,还进一步拓展了其视觉定位和图像中文字理解的能力。这意味着Qwen-VL能够更好地理解和处理多种语言的视觉信息,为相关应用提供了更为全面和高效的解决方案。
在医疗环境中,例如一个不精通中文的外国游客在面对医院的各种部门时可能会感到困惑。这时,他们可以借助一些智能工具来获取所需的信息。其中,图像识别技术就是一个有效的解决方案。通过拍照并上传楼层导览图,游客可以向人工智能助手Qwen-VL询问诸如“骨科位于哪一层”或“耳鼻喉科位于哪一层”等问题。为了实现这一目标,Qwen-VL能够根据所提供的图片信息,提供精准的文字回答,这体现了其强大的图像理解能力。另一方面,当需要在照片中寻找特定的物体,如上海的东方明珠时,Qwen-VL同样表现出了出色的视觉定位能力。用户只需上传一张包含东方明珠的照片,Qwen-VL便能迅速准确地检测出并圈出该建筑,为用户提供明确的指引。这种能力在处理复杂环境或大规模场景时尤为重要,它不仅可以帮助用户快速找到目标,还可以提高搜索效率,节省用户的时间和精力。
Qwen-VL是一款基于Qwen-7B语言模型的产品,它在模型架构上进行了创新性的改进,引入了视觉编码器,从而赋予了模型处理视觉信号的能力。这种设计使得模型能够对视觉信号进行细粒度的感知和理解,这是传统语言模型所不具备的。Qwen-VL所支持的图像输入分辨率为448,远高于通常的开源LVLM模型的224分辨率。在Qwen-VL的基础上,通义千问团队利用对齐机制,开发出了基于LLM的视觉AI助手Qwen-VL-Chat。这款产品的出现,使得开发者可以快速构建出具备多模态能力的对话应用,大大提升了工作效率。
多模态被视为通用人工智能的关键技术进步路径之一。业内普遍观点认为,相较于仅支持单一感官和文本输入的单一语言模型,“五官全开”的多模态模型,它能够接收并处理多种信息输入,如文本、图像和音频等,这预示着大型智能系统实现巨大飞跃的可能性。多模态技术的应用可以提高大型智能系统对世界的理解能力,同时也能充分扩展其使用场景。
视觉是人类的第一感官能力,也是研究者首先想赋予大模型的多模态能力。继此前推出M6、OFA系列多模态模型之后,阿里云通义千问团队又开源了基于Qwen-7B的大规模视觉语言模型(Large Vision Language Model,LVLM)Qwen-VL。
Qwen-VL是业界首个支持中文开放域定位的通用模型,开放域视觉定位能力决定了大模型“视力”的精准度,也即,能否在画面中精准地找出想找的事物,这对于VL模型在机器人操控等真实应用场景的落地至关重要。
在主流的多模态任务评测和多模态聊天能力评测中,Qwen-VL取得了远超同等规模通用模型的表现。
在四大类多模态任务(Zero-shot Caption/VQA/DocVQA/Grounding)的标准英文测评中,Qwen-VL取得了同等尺寸开源LVLM的最好效果。为了测试模型的多模态对话能力,通义千问团队构建了一套基于GPT-4打分机制的测试集“试金石”,对Qwen-VL-Chat及其他模型进行对比测试,Qwen-VL-Chat在中英文的对齐评测中均取得了开源LVLM最好结果。
Qwen-VL及其视觉AI助手Qwen-VL-Chat均已上线ModelScope魔搭社区,开源、免费、可商用。用户可从魔搭社区直接下载模型,也可通过阿里云灵积平台访问调用Qwen-VL和Qwen-VL-Chat,阿里云为用户提供包括模型训练、推理、部署、精调等在内的全方位服务。
8月初,阿里云开源通义千问70亿参数通用模型Qwen-7B和对话模型Qwen-7B-Chat,成为国内首个加入大模型开源行列的大型科技企业。通义千问开源模型刚一上线就广受关注,当周冲上HuggingFace趋势榜单,不到一个月在GitHub收获3400多星,模型累计下载量已突破40万。
阿里云, 大规模视觉语言模型, Qwen-VL, 多模态信息理解能力