近日,阿里云宣布推出一款强大的视觉语言模型Qwen-VL,该模型基于通义千问70亿参数的基座语言模型Qwen-7B进行研发,能够处理图文输入并具备多模态信息理解能力。
Qwen-VL是一款具备多元语言支持的视觉语言(Vision Language, VL)模型。相较于先前的VL模型,Qwen-VL不仅拥有基本的图文识别、描述、问答以及对话功能,还进一步拓展了其视觉定位和图像中文字理解的能力。这意味着Qwen-VL能够更好地理解和处理多种语言的视觉信息,为相关应用提供了更为全面和高效的解决方案。
在医疗环境中,例如一个不精通中文的外国游客在面对医院 various科室的位置时可能会感到困惑。这时,我们的 Qwen-VL 系统可以发挥它的图像识别和问答功能。具体来说,当游客拍下楼层导览图并询问“骨科在哪层”或“耳鼻喉科去哪层”时,Qwen-VL 会根据图片信息提供精准的文字回复,这就体现了我们强大的图像问答能力。另一方面,当我们将一张上海外滩的照片输入到系统中时,Qwen-VL 可以立即找到并准确圈出东方明珠这一目标,这充分展示了我们的视觉定位能力。通过这些例子,我们可以看到 Qwen-VL 系统在处理图像识别和问答任务方面的强大实力。
Qwen-VL是一款基于Qwen-7B语言模型的产品,其独特的设计在于融入了视觉编码器,从而赋予了模型处理视觉信号的能力。这种创新性的架构设计,使得Qwen-VL能够对视觉信号进行细粒度的感知和理解,这是传统语言模型所不具备的。值得一提的是,Qwen-VL支持的图像输入分辨率为448,远高于通常的224分辨率,这无疑为其在视觉领域的发展提供了更大的可能。为了进一步拓展其应用范围,通义千问团队在Qwen-VL的基础上,利用对齐机制,开发出了基于LLM的视觉AI助手Qwen-VL-Chat。这一产品的出现,使得开发者可以快速构建出具备多模态能力的对话应用,大大提升了其在实际应用中的便捷性和效率。
多模态被视为通用人工智能的关键技术进步路径之一。业内普遍观点认为,相较于仅支持单一感官和文本输入的单一语言模型,“五官全开”的多模态模型,它能够接收并处理多种信息输入,如文本、图像和音频等,这预示着大型智能系统实现巨大飞跃的可能性。多模态技术的应用可以提高大型智能系统对世界的理解能力,并为其扩展更广泛的使用场景提供了可能。
视觉是人类的第一感官能力,也是研究者首先想赋予大模型的多模态能力。继此前推出M6、OFA系列多模态模型之后,阿里云通义千问团队又开源了基于Qwen-7B的大规模视觉语言模型(Large Vision Language Model,LVLM)Qwen-VL。
Qwen-VL是业界首个支持中文开放域定位的通用模型,开放域视觉定位能力决定了大模型“视力”的精准度,也即,能否在画面中精准地找出想找的事物,这对于VL模型在机器人操控等真实应用场景的落地至关重要。
在主流的多模态任务评测和多模态聊天能力评测中,Qwen-VL取得了远超同等规模通用模型的表现。
在四大类多模态任务(Zero-shot Caption/VQA/DocVQA/Grounding)的标准英文测评中,Qwen-VL取得了同等尺寸开源LVLM的最好效果。为了测试模型的多模态对话能力,通义千问团队构建了一套基于GPT-4打分机制的测试集“试金石”,对Qwen-VL-Chat及其他模型进行对比测试,Qwen-VL-Chat在中英文的对齐评测中均取得了开源LVLM最好结果。
Qwen-VL及其视觉AI助手Qwen-VL-Chat均已上线ModelScope魔搭社区,开源、免费、可商用。用户可从魔搭社区直接下载模型,也可通过阿里云灵积平台访问调用Qwen-VL和Qwen-VL-Chat,阿里云为用户提供包括模型训练、推理、部署、精调等在内的全方位服务。
8月初,阿里云开源通义千问70亿参数通用模型Qwen-7B和对话模型Qwen-7B-Chat,成为国内首个加入大模型开源行列的大型科技企业。通义千问开源模型刚一上线就广受关注,当周冲上HuggingFace趋势榜单,不到一个月在GitHub收获3400多星,模型累计下载量已突破40万。
阿里云, 大规模视觉语言模型, Qwen-VL, 多模态信息理解能力