AI看图说话首超人类!微软认知AI团队提出视觉词表预训练超越Transformer

人工智能 新闻
能看图会说话的AI,表现还超过了人类?最近,Azure悄然上线了一个新的人工智能服务,能精准的说出图片中的内容。

 能看图会说话的AI,表现还超过了人类?最近,Azure悄然上线了一个新的人工智能服务,能精准的说出图片中的内容。而背后的视觉词表技术,更是超越了基于Transformer的前辈们,拿到nocaps挑战赛冠军。

有没有发现,搜索出来的图片有时相关性很差?

现在很多搜索引擎都是基于图片的文本标签,但是我们的世界每天产生不计其数的照片,很多都没有标记直接传到了网上,给图片搜索带来了很多混乱。

如果系统能自动给图片加上精准的描述,图像搜索的效率将大为提高。

看图说话的AI:基于模板和Transformer都不尽如人意

看图说话(或者叫图像描述),近年来受到了很多关注,它可以自动生成图片描述。但是目前无论是学术界还是工业界,做的效果都差强人意。

看图说话系统一方面需要计算机视觉进行图像的识别,另一方面需要自然语言来描述识别到的物体。带标签的图片可以针对性训练,那如果出现了从未标注的新物体,系统是不是就失效了?

这个问题困扰了人们很久,即描述清楚一个新出现的东西。

人工智能领域验证一个模型的好坏,通常会用一个基准测试。比如NLP方向会用GLUE、SuperGLUE等,图像识别会用ImageNet等。

[[346957]]

为了测试模型能否在没有训练数据的情况下完成看图说话,nocaps应运而生。nocaps可以衡量模型能否准确描述未出现过的物体。

传统的看图说话方法主要有两种:一种是模板生成,一种是基于 Transformer 的图像文本交互预训练。

模板生成方法,在简单场景下可以使用,但无法捕捉深层次的图像文本关系,而基于Transformer的模型又需要海量的标注数据,所以不适合nocaps。

为解决这些问题,微软认知服务团队的研究人员提出了一种名为视觉词表预训练(Visual Vocabulary Pre-training,简称VIVO)的解决方案。

无需配对图文数据,VIVO看图说话夺冠nocaps首次超越人类

VIVO可以在没有文本标签的数据上进行文本和图像的多模态预训练,摆脱了对配对图文数据的依赖,可以直接利用ImageNet等数据集的类别标签。借助VIVO,模型可以学习到物体的视觉外表和语义之间的关系,建立视觉词表。

这个视觉词表是啥呢?其实就是一个图像和文本的联合特征空间,在这个特征空间中,语义相近的词会聚类到一起,如金毛和牧羊犬,手风琴和乐器等。

预训练建好词表后,模型只需在有少量共同物体的配对图文的数据上进行微调,模型就能自动生成通用的模板语句,使用时,即使出现没见过的词,也能从容应对,相当于把图片和描述的各部分解耦了。

所以VIVO既能利用预训练强大的物体识别能力,也能够利用模板的通用性,从而应对新出现的物体。

Azure AI 认知服务首席技术官黄学东解释说,视觉词表的预训练类似于让孩子们先用一本图画书来阅读,这本图画书将单个单词与图像联系起来,比如一个苹果的图片下面有个单词apple,一只猫的图片下面有个单词cat。

视觉词表的预训练本质上就是训练系统完成这种动作记忆。

目前,VIVO 在 nocaps 挑战中取得了 SOTA效果,并首次超越人类表现。

VIVO取得成功可不仅仅是挑战赛的SOTA,目前已经有了实际应用。

看图说话SOTA已上线,AI不能一直处于灰色的迭代

据世界卫生组织统计,各年龄段视力受损的人数估计有2.85亿人,其中3900万人是盲人。

实力受损的用户想要获取图片和视频中的信息,就要依靠自动生成的图片描述或字幕(或者进一步转化为语音),他们非常相信这些自动生成的描述,不管字幕是否有意义。

「理想情况下,每个人都应该在文档、网络、社交媒体中给图片添加描述,因为这样可以让盲人访问内容并参与对话。」但是,这很不现实,很多图片都没有对应的文本。

Azure AI 认知服务公司首席技术官黄学东说: 「看图说话是计算机视觉的核心能力之一,可以提供广泛的服务」。

现在VIVO看图说话的能力已经集成到了Azure AI中,任何人都可以将它集成到自己的视觉AI应用中。

[[346958]]

黄学东认为, 把VIVO的突破带到 Azure 上,为更广泛的客户群服务,不仅是研究上的突破,更重要的是将这一突破转化为 Azure 上的产品所花费的时间。

基于VIVO的小程序Seeing AI在苹果应用商店已经可以使用了,Azure也已经上线了免费API,供盲人或者视障人士免费使用。如果再加上Azure的翻译服务,看图说话可以支持80多种语言。

的确,有太多的实验室SOTA技术倒在了灰色的不断迭代中,没能完成它最初的使命。

看图说话只是认知智能的一小步,受古登堡印刷机启发开创新魔法

近年来,微软一直在寻求超越现有技术的人工智能。

作为 Azure 认知服务的首席技术官,黄学东所在的团队一直在探索,如何更全面、更人性化地来学习和理解这个世界。

他认为要想获得更好的认知能力,三个要素至关重要,单语言文本(X)、音频或视觉等感觉信号(Y)和多语言(Z)。

在这三者的交汇处,有一种新魔法ーー XYZ-Code,可以创造出更强大的人工智能,能够更好地听、说、看和理解人类。

「我们相信 XYZ-Code正在实现我们的长期愿景: 跨领域、跨模式和跨语言学习。我们的目标是建立预先训练好的模型,这些模型可以学习大范围的下游人工智能任务的表示,就像今天人类所做的那样。」

黄学东团队从德国发明家约翰内斯·古登堡那里获得灵感,他在1440年发明了印刷机,使人类能够快速、大量地分享知识。作为历史上最重要的发明之一,古登堡的印刷机彻底改变了社会进化的方式。

古登堡和他发明的印刷机

在今天的数字时代,认知智能的愿景也是开发一种能够像人一样学习和推理的技术,对各种情况和意图做出精准推断,进而做出合理的决策。

在过去的五年里,我们已经在人工智能的很多领域实现了人类的平等地位,包括语音识别对话、机器翻译、问答对话、机器阅读理解和看图说话。

这五个突破让我们更有信心实现人工智能的飞跃,XYZ-Code将成为多感官和多语言学习的重要组成部分,最终让人工智能更像人类。

正如古登堡的印刷机革命性地改变了通信的过程,认知智能将帮助我们实现人工智能的伟大复兴。

看图说话体验链接:

https://apps.apple.com/us/app/seeing-ai/id999062298

 

责任编辑:张燕妮 来源: 新智元
相关推荐

2022-01-06 09:57:02

数据计算机神经网络

2021-12-06 09:53:09

自然语言神经网络人工智能

2021-01-07 14:56:55

AI 数据人工智能

2024-04-01 07:00:00

模型AI

2021-07-13 17:59:13

人工智能机器学习技术

2014-09-02 10:54:20

架构设计权限系统

2022-04-18 15:56:49

AI模型系统

2023-09-05 15:09:31

人工智能

2023-07-04 10:11:28

数据模型

2017-08-10 10:51:58

云AI服务微软

2021-12-01 10:05:12

模型人工智能计算

2010-05-14 10:05:37

至强7500刀片服务器

2021-07-06 10:39:52

AI 数据人工智能

2019-10-23 19:30:23

AI 数据人工智能

2018-11-19 12:27:09

2023-04-06 10:36:04

谷歌人工智能

2023-02-09 10:15:23

AIChatGPT

2021-01-27 14:24:17

人工智能AI国际象棋AI

2023-04-07 13:51:00

Midjourneyprompt工具

2023-09-01 13:36:24

点赞
收藏

51CTO技术栈公众号