处处是“垃圾”:人工智能太缺高质量数据了!

人工智能
某种程度上讲,人工智能已经超越了我们过去最大胆的想象;但再看实际中,Siri甚至无法告诉用户今天天气如何。

本文转载自公众号“读芯术”(ID:AI_Discovery)。

某种程度上讲,人工智能已经超越了我们过去最大胆的想象;但再看实际中,Siri甚至无法告诉用户今天天气如何。

问题在于什么呢?创建高质量的数据库来训练和测量我们的模型仍然是件无比困难的事情。我们本应能在一天内收集到20000个标签来训练Reddit分类器,但实际相反,我们等待了三个月并得到了一个满是垃圾邮件的训练集。

[[355008]]

四年前,AlphaGo打败了世界围棋专家们,大型科技公司们对每一个能接触到的机器学习创业公司进行了人才收购,《纽约时报》宣称道“机器学习将对计算机技术进行彻底改造”。

[[355009]]

2016年,DeepMind开始建造一个人工智能来玩《星际争霸2》,到2019年底,名为“AlphaStar”的人工智能程序达到了大师级成就。

好像不用几年,Alexa就将会占领我们的家园,而Netflix会比我们的朋友更好地提出电影建议。

在那之后发生了什么?

更快的GPU放弃了训练神经网络的消耗,并允许越来越大的模型得到训练。新型工具们使基础建设工作更加的简单。

能够学习运行更主观的任务的新型神经网络结构也得到了发展。比如说OpenAi的GPT-3模型,这是一个语言生产器,能够撰写博客文章且拿下黑客新闻网站的头条。

一个关于生产效率的GPT-3写的博文拿下了黑客新闻的头条。

那么改革发生在何处?

所以为什么人工智能还没占领世界?为何人们虽然能用GPT-3来生成博文,但是社交媒体公司很难将煽动性的内容从订阅源中剔除?为何有了超人类的星际争霸算法,但电商们仍在推荐我再买一个吐司机?为何模型们能够合成现实的图片(和电影)但却无法面目识别?

模型正在进步,而数据仍止步不前。模型们在数据集上受到训练,而这些数据集仍存在有错误,且和创作者真正想表达的鲜少相符。

现在的数据怎么了?来也垃圾,去也垃圾

在某些情况下,数据是在基于类如链接和用户协议的代理商上进行训练。

比如说,社交媒体推文不是为了提供用户最佳体验而得到训练;相反,它们只是对链接和协议充分利用,这是最简单的数据获取途径。

但是点赞量与数量无关,骇人听闻的阴谋论非常捉人眼球,但是你真的想在你的推文中看到他们吗?这样的错误匹配导致了许多意料之外的副作用,包括有点击诱饵的激增,政治上的虚假信息广泛传播,充满恶意的、煽动性的内容广泛存在。

在另一些时候,模型在这样的数据集上进行训练:由非母语使用者或由那些知道低质量的结果永远不会被检测到的工作者创立的数据集。以下面推文为例:

一个典型的标记器会识别到“bitches”,“fucking”和“shit”并将此推文标记为有害的,不管这些谩骂其实是基于一个正向的,向上的态度。在训练集中这样的情况出现过无数次。数据定义模型。如果数据是错误标记的垃圾,没有一位机器学习专家能够防止模型也同样无用无效。

我们需要怎样的进步?

数据集问题引起了一大堆问题。

当遇到运行不佳的模型时,工程师们花费数月的时间来修补产品特征和新的算法,未曾意识到问题存在于他们的数据当中。本应用来凝聚亲情和友情的算法,相反之下,带来了炽热的情绪和愤怒的评论。如何解决这些问题呢?

(1) 熟练且高质量的,能够理解你正尝试去解决的问题的标记器

虽然AI系统越来越复杂,我们需要先进巧妙的人类标记系统来教导和测量它们的性能。想想那些对世界有足够了解的模型,可以对误导的信息进行分类,或者那些可以增加时间而不是点击的算法。

这种复杂程度不会因为多用低技能工人而提高。为了让我们的机器了解仇恨言论,并识别算法的偏见,我们需要高质量的、它们自己也了解这些问题的标签力量。

(2) 给机器学习小组和识别器交流的空间

机器学习模型在不断变化着。今日被识别为垃圾邮件的信息明天可能不会如此,而我们永不可能对标记口令的每一个边边角角都有所掌握。

正如构建产品是用户和工程师之间反馈驱动的过程一样,创建数据集也应该如此。当数一张图片中的脸时,卡通人物算吗?当标记仇恨言论时,引号在哪里?标记器在浏览了成千上万的例子后发现了歧义和见解,为了最大化数据质量,我们需要双方进行沟通。

(3) 目标功能与人类价值观一致

模型常常是在数据集上训练的,而这些数据集仅仅是它们真实目标的近似值,从而导致了意想不到的分歧。

例如,在人工智能安全的辩论中,人们担心机器智能发展到威胁世界的程度。另一些人则反驳说,这是一个在遥远的未来才会出现的问题——然而,看看今天科技平台面临的最大问题,这不是已经发生了吗?

例如,Facebook的使命不是获得“赞”,而是将我们与朋友和家人联系起来。但是通过训练其模型来增加喜好和互动,他们学会了传播那些高度吸引人的内容,但也会带来伤害和误导。

如果Facebook能将人类价值观注入到其培训目标中会怎样?这并不是一个幻想:谷歌搜索已经在其实验过程中使用了人类评估,我们正在构建的人工智能系统也致力于这样做。

一个数据驱动的AI未来

从核心而言,机器学习是关于教导计算机按照我们所想的方式工作,而我们通过示以正例的方法来实现目标。所以为了构建高质量的模型,一个机器学习工程师需要掌握的最重要技能不应该是构建高质量的数据集,并确保他们与手头的问题相符吗?

最终,我们关心的是AI能否解决人类的需求,而不是它是否超过了人工基准。

如果你在处理内容调节,你的数据集是检测到了恶意言论,还是也捕捉到积极向上、振奋人心的谩骂?

如果你正在建设下一代的搜索和推荐系统,你的数据集是在设置模型的相关性和质量,——还是令人入迷的误导和引诱点击?

创建数据集不是学校里教的东西,对于那些花了数年时间研究算法的工程师来说,专注于arXiv中最花哨的模型是很容易的。但如果希望人工智能能够解决自己的现实需求,我们需要对定义模型的数据集进行深度思考,并赋予它们一定的人文色彩。

 

责任编辑:赵宁宁 来源: 读芯术
相关推荐

2022-08-25 16:46:29

人工智能AI

2020-02-17 07:00:20

人工智能AI经济

2020-12-30 15:14:46

人工智能数据技术

2024-03-08 12:10:27

软件测试AI

2022-11-03 15:10:24

前端数据结构算法

2023-12-06 14:14:15

2015-06-19 16:28:28

InformaticaCRM广州银行

2020-03-07 22:06:22

人工智能心理健康软件

2024-01-12 13:51:00

数据训练

2010-07-06 11:52:59

数据库RationalJazz

2023-10-30 09:15:00

AI智能

2015-08-03 10:40:59

程序员代码质量Quora

2017-06-19 07:58:40

2022-08-01 16:36:50

算力

2020-06-08 09:36:48

人工智能AI数据
点赞
收藏

51CTO技术栈公众号