ChatGPT风头正盛,但生成式AI有十大缺陷值得担忧

人工智能
ChatGPT和DALL-E这样的AI模型的惊人表现,让很多人感受到越来越聪明的AI系统正在赶超人类。

经过科技人员几十年的不懈努力,现实世界中的人工智能现在终于达到了一个临界点。ChatGPT和DALL-E这样的AI模型的惊人表现,让很多人感受到越来越聪明的AI系统正在赶超人类。

生成式AI的功能如此多样和独特,以至于人们很难相信它们来自机器。但是一旦奇迹感消退,生成式AI的明星效应也会消失。AI在一些应用中也显示了其场景感知或常识的局限性, 如今也有很多人正在关注或担心生成式AI的缺点或缺陷。 

以下是人们所担心的生成式AI的10个缺点或缺陷。

1.抄袭内容

当研究人员创建DALL-E和ChatGPT等生成式AI模型时,这些实际上只是从训练集中的数百万个示例中创建的新模式。其结果是从各种数据来源提取的剪切粘贴合成的,而人类这种行为被称为“抄袭”。

当然,人类也是通过模仿来学习的,但在某些情况下,这种抄袭并不可取,甚至违法。而生成式AI生成的内容由大量文本组成,或多或少抄袭了一些内容。然而,有时其中涉及到足够多的混合或合成,即使是大学教授也可能难以检测到真实来源。无论怎样,其生成的内容缺少的是独特性。尽管它们看上去功能强大,但并不能生产出真正的创新产品。 

2.版权问题 

虽然抄袭是学校尽力避免的问题,但版权法适用于市场。当某人窃取他人的知识产权或工作成果时,那么可能会被人起诉,或者会被处以数百万美元的罚款。但是AI系统呢?同样的规则适用于它们吗? 

版权是一个复杂的主题,生成式AI的法律地位将需要数年时间才能确定。但需要记住的是,当AI开始取代人类的一些工作的时间,那么就会有人根据版权法规提起诉讼。 

3. 无偿获取人类的劳动

生成式AI引发的法律问题不仅仅是抄袭和侵犯版权,一些律师已经AI引发的道德发起诉讼。例如,一家制作绘图程序的公司是否收集有关用户绘图行为的数据,然后将这些数据用于AI培训目的?人类是否应该为这种创造性劳动的使用获得补偿?AI的成功很大程度上源于对数据的访问。那么,生成数据的人类想要从中获利会发生什么呢?那么什么是公平的?什么是合法的? 

4.利用信息而不创造知识 

AI擅长模仿人类需要数年才能发展出来的那种智能。当一位人类学者介绍一位不知名的17世纪艺术家,或者一名艺术家用一种几乎被人遗忘的文艺复兴时期的音调创作出新的音乐时,人们对他们具有高深的知识和技能感到钦佩,因为这需要多年的学习和练习。当AI只经过几个月的训练就能做同样的事情时,其结果可能会非常精确和正确,但总是感觉缺少了什么。 

训练有素的AI系统机器通过获取大量信息了解某一事物,甚至可以破译玛雅象形文字。AI似乎在模仿人类创造力中有趣和不可预测的一面,但它们并不能真正做到这一点。与此同时,不可预测性是创造性创新的驱动力。像时尚行业不仅沉迷于变化,而且被变化所定义。事实上,AI和人类都有各自擅长的领域。 

5.智能增长受限 

说到智能,AI本质上是机械的和基于规则的。一旦AI系统通过一组数据进行训练,就会创建了一个模型,而这个模型并没有真正改变。一些工程师和数据科学家设想,随着时间的推移,逐步重新训练AI模型,这样AI就能学会适应。

但是,在大多数情况下,这个想法是创建一组复杂的神经元,以固定的形式编码特定的知识。这可能适用于某些行业。AI的危险在于,其智能增长将永远被其训练数据的局限性所困。当人类变得依赖生成式AI,以至于无法再为训练模型提供新的材料时,将会发生什么? 

6.隐私和安全性有待提高 

AI的训练需要大量数据,人类并不总是那么确定神经网络的结果是什么。如果AI从训练数据中泄露个人信息怎么办?更糟糕的是,控制AI要困难得多,因为它们的设计非常灵活。关系数据库可以限制对具有个人信息的特定表的访问。然而,AI可以通过数十种不同的方式进行查询。

网络攻击者将很快学会如何以正确的方式提出正确的问题,以获取他们想要的敏感数据。假设网络攻击者锁定了某一特定设施的纬度和经度,可能会询问AI系统那个地点的确切时间,而尽职的AI系统可能会回答这个问题。因此,如何训练AI保护隐私数据也是一件困难的事情。 

7.产生偏见

即使是早期的大型机程序员也理解计算机问题的核心,他们创造了“垃圾输入,垃圾输出”(GIGO)这一概念。AI的许多问题来自于糟糕的训练数据。如果数据集不准确或有偏见,就会反映在其输出结果中。 

生成式AI的核心硬件由逻辑驱动,但建造和训练机器的人类却不是。偏见和错误已经被证明可以进入AI模型。也许有人使用了有偏见的数据来创建模型,也许他们只是覆盖了防止AI回答特定的热点问题,也许他们输入了一些固定的答案,而这些将让AI系统产生偏见。 

8. AI也会犯错 

人们很容易原谅AI模型犯的错误,因为它们在很多其他事情上都做得很好,只是许多错误很难预测,因为AI的思维方式与人类不同。例如,许多使用文本转图像功能的用户发现,AI在相当简单的事情上都会犯错,例如计数。

人类从小学就开始学习基本的算术,然后用各种各样的方式使用这项技能。例如让一名10岁的孩子画一只章鱼,他通常会确定它有8条腿。当涉及到数学的抽象和场景应用时,当前版本的AI模型往往会陷入困境。如果模型构建者对这个错误给予一定的关注,这种情况很容易改变,但还会有其他错误。机器智能不同于人类智能,这意味着机器犯的错误也会有所不同。

9.欺骗人类

有时,人类往往会在没有意识到错误的情况下被AI系统所欺骗。例如,如果AI告诉人类,英国国王亨利八世杀死了他妻子,他们通常会相信,因为他们也可能不了解这段历史。人们往往假设AI提供的答案是真实和正确的。 

对于生成式AI的用户来说,最棘手的问题是知道AI系统何时出错。人们认为,机器不会像人类那样撒谎,这让它们变得更加危险。AI系统可以写出一些完全准确的数据,然后转向猜测,甚至变成谎言,而人类通常不知道发生了什么。二手车经销商或扑克玩家往往知道他们什么时候在撒谎,而且大多数人都会说出在哪里撒谎,但AI不能做到这一点。 

10.无限的复制性

数字内容具有无限的复制性,这让许多围绕稀缺性建立的AI模型不堪重负。生成式AI将进一步打破这些模式。生成式AI将会让一些作家和艺术家失业,它还颠覆了人们遵循的许多经济规则。

当广告和内容可以不断地重新组合和更新时,广告支持的内容还会有效吗?互联网的免费部分是否会陷入“机器人点击网页广告”的世界,而所有这些都是由生成式AI生成的并且无限复制的? 

无限丰富性可能会破坏数字经济。例如,如果不可替代的代币可以被复制,人们还会继续为它们付费吗?如果艺术创作如此简单,它还会受到尊重吗?它还会是独特的吗?当一切都被视为理所当然时,一切都会失去价值吗?

不要试图自己回答这些问题,可以向生成式AI寻求一个有趣而奇怪的答案。

责任编辑:庞桂玉 来源: 极客网
相关推荐

2019-11-22 22:59:28

AI人工智能教育

2018-03-09 08:56:58

AI平台物联网自动配置

2013-07-28 23:04:20

ChinaJoy201甲骨文微软Windows A

2013-11-25 09:36:15

100G超100G

2023-07-24 12:11:37

人工智能

2023-04-10 10:28:33

2020-04-01 16:42:16

5G人工智能技术

2023-02-28 11:19:35

CHATGPT人工智能

2011-05-11 13:04:26

Android谷歌iPhone

2023-03-01 16:29:51

ChatGPT人工智能

2023-05-08 15:21:41

2009-12-12 11:01:30

LinuxWindows系统特性

2016-01-15 10:07:54

Ubuntu操作系统

2022-12-30 12:11:33

2024-01-10 16:03:03

2010-10-28 11:22:45

开源项目

2009-12-07 09:26:00

LinuxWindows

2017-01-05 15:06:23

2013-07-24 09:20:39

大数据创业公司大数据

2020-10-28 09:37:08

React代码数据
点赞
收藏

51CTO技术栈公众号