阿里云开源通义千问多模态大模型 Qwen-VL
阿里云推出大规模视觉语言模型Qwen-VL,并宣布直接开源。
开源地址
ModelScope魔搭社区:
- Qwen-VL:https://modelscope.cn/models/qwen/Qwen-VL/summary
- Qwen-VL-Chat:https://modelscope.cn/models/qwen/Qwen-VL-Chat/summary
- 模型体验:https://modelscope.cn/studios/qwen/Qwen-VL-Chat-Demo/summary
HuggingFace:
- Qwen-VL:https://huggingface.co/Qwen/Qwen-VL
- Qwen-VL-Chat:https://huggingface.co/Qwen/Qwen-VL-Chat
GitHub:
技术论文地址:
Qwen-VL以通义千问70亿参数模型Qwen-7B为基座语言模型研发,支持图文输入,具备多模态信息理解能力。在主流的多模态任务评测和多模态聊天能力评测中,Qwen-VL取得了远超同等规模通用模型的表现。
Qwen-VL是支持中英文等多种语言的视觉语言(Vision Language,VL)模型,相较于此前的VL模型,Qwen-VL除了具备基本的图文识别、描述、问答及对话能力之外,还新增了视觉定位、图像中文字理解等能力。
用户可从魔搭社区直接下载模型,也可通过阿里云灵积平台访问调用Qwen-VL和Qwen-VL-Chat,阿里云为用户提供包括模型训练、推理、部署、精调等在内的全方位服务。
Qwen-VL可用于知识问答、图像标题生成、图像问答、文档问答、细粒度视觉定位等场景。
比如,一位不懂中文的外国游客到医院看病,不知怎么去往对应科室,他拍下楼层导览图问Qwen-VL“骨科在哪层”“耳鼻喉科去哪层”,Qwen-VL会根据图片信息给出文字回复,这是图像问答能力;再比如,输入一张上海外滩的照片,让Qwen-VL找出东方明珠,Qwen-VL能用检测框准确圈出对应建筑,这是视觉定位能力。
Qwen-VL是业界首个支持中文开放域定位的通用模型,开放域视觉定位能力决定了大模型“视力”的精准度,也即,能否在画面中精准地找出想找的事物,这对于VL模型在机器人操控等真实应用场景的落地至关重要。
Qwen-VL以Qwen-7B为基座语言模型,在模型架构上引入视觉编码器,使得模型支持视觉信号输入,并通过设计训练过程,让模型具备对视觉信号的细粒度感知和理解能力。Qwen-VL支持的图像输入分辨率为448,此前开源的LVLM模型通常仅支持224分辨率。在Qwen-VL 的基础上,通义千问团队使用对齐机制,打造了基于LLM的视觉AI助手Qwen-VL-Chat,可让开发者快速搭建具备多模态能力的对话应用。
在四大类多模态任务(Zero-shot Caption/VQA/DocVQA/Grounding)的标准英文测评中,Qwen-VL取得了同等尺寸开源LVLM的最好效果。
为了测试模型的多模态对话能力,通义千问团队构建了一套基于GPT-4打分机制的测试集“试金石”,对Qwen-VL-Chat及其他模型进行对比测试,Qwen-VL-Chat在中英文的对齐评测中均取得了开源LVLM最好结果。
8月初,阿里云开源通义千问70亿参数通用模型Qwen-7B和对话模型Qwen-7B-Chat,成为国内首个加入大模型开源行列的大型科技企业。

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
OpenSumi:搭建本地及云端 IDE 产品的底层框架
OpenSumi 是用于快速搭建本地和云端 IDE 的框架。 OpenSumi 框架旨在解决阿里经济体内部 IDE 产品研发的重复建设问题,满足 IDE 在更多垂直场景的定制能力,同时实现 Web 与本地客户端共用底层,让 IDE 研发从早期的“刀耕火种”时代向“机器化大生产”时代迈进。 整体架构 为了保证框架可以同时在Web和Electron环境下运行,OpenSumi 采用了一套前后端分离、通过一层抽象的通信层进行相互调用的项目结构。 在Web上,我们使用WebSocket来作为通信的实现。 在Electron上,我们则是IPC通信。 每一个通信的连接对应前后端一个独立的DI (Dependence Inject)容器,所以OpenSumi 的后端实现是无状态的,不同连接之间是严格隔离的。 在 OpenSumi 内主要有三个核心进程: 插件进程 (Extension Process) 后端进程 (Node Process) 前端进程 (Browser Process) 为了保证插件的问题不会影响 IDE 的性能表现,插件能力上 OpenSumi 采用了跟VS Code类似的方案,通...
- 下一篇
Kitex:微服务架构下的高性能优化实践
前言 2019 年,字节跳动服务框架组针对大规模微服务架构下遇到的功能和性能痛点,以及吸收历史上旧框架下积累的经验与教训,着手开发了 RPC 框架 Kitex 以及周边一系列相关基础库,并在 2021 年正式在 Github 上开源。 从 2019 年走到如今的 2023 年,内部微服务规模经历了巨大的扩张,Kitex 框架也在此过程中,经历了一次又一次的性能优化与考验。这篇文章希望分享在此过程中我们所积累的一些性能优化实践,也为我们过去几年的优化工作做一个系统性的梳理总结。 Kitex 的前世今生 为什么需要 RPC 框架 虽然 RPC 框架的历史由来已久,但真正被大规模作为核心组件广泛使用,其实与微服务架构的流行是分不开的。所以我们有必要回顾下历史,探究为什么我们需要 RPC 框架。 单体架构时代 这段时期系统服务的主要特点有: 通过函数分割不同业务逻辑 性能压力主要集中在数据库,于是产生了数据库层面从分库分表这种手动分布式到真正的自动分布式架构演进过程 常见的业务代码如下: func BuySomething(userId int, itemId int) { user :...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- Docker使用Oracle官方镜像安装(12C,18C,19C)
- Docker安装Oracle12C,快速搭建Oracle学习环境
- CentOS7安装Docker,走上虚拟化容器引擎之路
- Linux系统CentOS6、CentOS7手动修改IP地址
- Docker快速安装Oracle11G,搭建oracle11g学习环境
- CentOS7编译安装Cmake3.16.3,解决mysql等软件编译问题
- CentOS关闭SELinux安全模块
- CentOS7编译安装Gcc9.2.0,解决mysql等软件编译问题
- Hadoop3单机部署,实现最简伪集群
- CentOS6,7,8上安装Nginx,支持https2.0的开启