挑战GPT-4V!清华唐杰&智谱开源多模态14边形战士,在线可玩

人工智能 新闻
CogVLM由清华和智谱AI合作开发,通讯作者为唐杰和丁铭,论文和开源代码已上传到GitHub。

看看这张图中有几个房子?如果你回答3个,就和GPT-4V的答案一样。

但是最新开源的国产多模态模型CogVLM-17B,就能看出另有玄机。

图片

甚至能区分在图中完整可见的有3个和部分可见的有1个。

图片

CogVLM由清华和智谱AI合作开发,通讯作者为唐杰和丁铭,论文和开源代码已上传到GitHub。

图片

除这个单独案例之外,CogVLM-17B还在10项权威跨模态基准上取得了SOTA性能。

另外在VQAv2, OKVQA, TextVQA, COCO captioning取得第二,超越或匹配谷歌的PaLI-X 55B。

与之前的开源多模态大模型相比,可以算是14边形战士。

图片

雷达图中包含13个基准,最后一个TDIUC单独展现。

图片

CogVLM可以回答各种类型的视觉问题,比如从马斯克的阴阳怪气中推理出小扎假装去旅行了,回避约架。

图片

认出照片中的C罗,并回答他在2018年世界杯中有多少进球。

图片

带图的编程题也能给出代码了。

图片

甚至能完成复杂的目标检测,并打上标签,自动数据标注成了。

图片

从浅层对齐到深度融合

CogVLM模型包含4个基本组件

  • ViT编码器
  • MLP适配器
  • 大型预训练语言模型
  • 视觉专家模块

图片

其中,每层中都添加了可训练的视觉专家模块,以实现图像特征和文本特征的深度对齐,而不会牺牲任何NLP任务的性能。

之前主流的浅层对齐方法,如BLIP-2,图像特征和语言模型之间缺乏深度融合,导致性能不佳。

但微调语言模型的全部参数又会损害其NLP能力。

CogVLM的方法可以说是改变了视觉语言模型的训练范式,从浅层对齐转向深度融合

另外值得注意的是,CogVLM训练数据中没有专门的OCR数据,但表现出了很强的文字识别能力。

CogVLM开源并给出了在线试玩。

图片

不过目前仅支持英文,后续会提供中英双语版本支持,可以持续关注。

试玩地址:http://36.103.203.44:7861

开源及论文地址:https://github.com/THUDM/CogVLM

责任编辑:张燕妮 来源: 量子位
相关推荐

2023-10-17 12:34:04

2023-10-12 09:28:17

2024-02-06 09:00:00

GPT-4VLLaVA大型语言

2024-01-03 12:56:39

2024-04-14 19:53:44

2023-10-19 09:32:45

自动驾驶技术

2024-02-02 21:53:58

AI训练

2023-10-17 13:36:00

人工智能数据

2023-02-23 13:35:27

模型任务

2023-10-12 13:05:00

谷歌AI

2023-03-10 13:03:09

人工智能模型

2023-12-22 12:41:01

模型训练

2023-10-08 13:43:00

模型数据

2024-04-07 13:39:55

2023-11-06 10:40:47

GPT-4V大模型

2024-01-29 06:55:00

模型数据

2023-12-27 18:01:51

2023-10-30 07:42:12

2023-06-02 13:39:00

GPT-3开源GPU

2024-01-30 21:18:57

语言模型图像序列机器人
点赞
收藏

51CTO技术栈公众号