OpenAI的ChatGPT带来的八大问题

人工智能
从安全漏洞到隐私问题,再到未经披露的训练数据,人们对人工智能聊天机器人的应用有很多担忧,但这项技术已经被整合到应用程序中,并被大量用户使用,从学生到公司员工。

ChatGPT是一款功能强大的人工智能聊天机器人,在推出之后很快就给人留下了深刻的印象,但很多人指出它有一些严重的缺陷。

从安全漏洞到隐私问题,再到未经披露的训练数据,人们对人工智能聊天机器人的应用有很多担忧,但这项技术已经被整合到应用程序中,并被大量用户使用,从学生到公司员工。

由于人工智能的发展没有放缓的迹象,了解ChatGPT的问题就显得更加重要了。随着ChatGPT将改变人们的未来,以下介绍了ChatGPT的一些最主要的问题。

什么是ChatGPT?

ChatGPT是一个大型语言模型,旨在生成自然的人类语言。就像与某人交谈一样,人们可以与ChatGPT交谈,它会记住人们在过去说过的话,同时也能够在受到挑战时自我纠正。

它接受了来自互联网的各种文本的训练,例如维基百科、博客文章、书籍和学术文章。除了以类似人类的方式回应,它还可以回忆当今世界的信息,并从过去提取历史信息。

学习如何使用ChatGPT很简单,而且很容易被愚弄,认为人工智能系统没有任何麻烦。然而,在它发布后的几个月里,隐私、安全及其对人们生活的更广泛影响(从工作到教育)出现了一些关键的问题。

1、安全威胁和隐私问题

在2023年3月,ChatGPT出现了一个安全漏洞,一些用户在其侧边栏中看到了他人的对话标题。对于任何一家科技公司来说,不小心分享用户的聊天记录都是一个严重的问题,考虑到很多人都在使用这个流行的聊天机器人,这种情况尤其糟糕。

据路透社报道,仅在2023年1月,ChatGPT的月活跃用户就达到1亿。虽然导致数据泄露的漏洞很快得到了修补,但意大利数据监管机构要求OpenAI公司停止处理意大利用户数据的所有操作。

该机构怀疑ChatGPT违反了欧洲隐私法规。在调查了这个问题后,要求OpenAI公司满足几项要求才能恢复聊天机器人的使用。

OpenAI公司最终通过做出几项重大改变解决了这个问题。首先,添加了年龄限制,只有18岁以上或13岁以上的人在监护人的许可下才能使用该应用程序。它还使其隐私政策更加明显,并为用户提供了一个选择退出的表单,以排除他们的数据用于训练ChatGPT,如果他们愿意,可以完全删除这些数据。

这些变化是一个很好的开始,但是这些改进应该扩展到所有ChatGPT用户。

这也不是ChatGPT造成安全威胁的唯一方式。与用户一样,员工不小心共享机密信息也很容易。一个很好的例子是三星公司的员工多次与ChatGPT共享公司信息。

2、对ChatGPT训练和隐私问题的担忧

在ChatGPT大受欢迎之后,许多人质疑OpenAI公司最初是如何训练其模型的。

即使在意大利发生数据泄露事件之后,OpenAI公司的隐私政策有所改善,但难以满足《通用数据保护条例》的要求,这是一项覆盖欧洲的数据保护法。正如TechCrunch报道的那样:“目前尚不清楚如何采用意大利民众的个人数据训练GPT模型,即从互联网上抓取公共数据时的个人数据是否得到了有效的合法处理。或者,如果用户现在要求删除他们的数据,以前用于训练模型的数据是否会被删除或可以被删除。”

OpenAI公司很有可能在训练ChatGPT时收集了个人信息。虽然美国的法律没有那么明确,但欧洲的数据法规仍然注重保护个人数据,无论他们是公开还是私下发布这些信息。

艺术家们也提出了类似的反对用作训练数据的论点,他们表示,他们从未同意让自己的作品训练人工智能模型。与此同时,盖蒂图片社起诉了Stability.AI公司使用其受版权保护的图像来训练其人工智能模型。

除非OpenAI公司公布其训练数据,否则缺乏透明度,很难知道是否合法。例如,人们根本不知道ChatGPT训练的细节,使用了什么数据,数据来自哪里,或者系统架构的细节是什么样子。

3、ChatGPT生成错误答案

ChatGPT在基本的数学方面不擅长,似乎不能回答简单的逻辑问题,甚至会争论完全错误的事实。正如社交媒体上的人们所证明的那样,ChatGPT在很多场合都可能出错。

OpenAI公司了解这些限制。该公司表示:“ChatGPT有时会写出听起来似乎合理但不正确或无意义的答案。”这种对事实和虚构的幻觉,正如该公司所提到的那样,对于医疗建议或对关键历史事件的事实的正确理解等事情来说尤其危险。

与Siri或Alexa等其他人工智能助手不同,ChatGPT并不使用互联网来查询答案。与其相反,它逐字逐句地构建句子,根据训练选择最可能出现的“标记”。换句话说,ChatGPT通过进行一系列猜测得出答案,这就是它可以争论错误答案的原因,就好像它们是完全正确的一样。

虽然它很擅长解释复杂的概念,使它成为一个强大的学习工具,但重要的是不要相信它所说的一切。ChatGPT并不总是正确的,至少现在还不是。

4、ChatGPT的系统中存在偏见

ChatGPT是根据过去和现在世界各地人类的写作进行训练的。不幸的是,这意味着现实世界中存在的偏见也可能出现在人工智能模型中。

事实证明,ChatGPT会产生一些歧视性别、种族和少数群体的糟糕答案,该公司正在努力减少这些问题。

解释这一问题的一种方法是指出数据是问题所在,将互联网内外的偏见归咎于人类。但部分责任也在于OpenAI公司,该公司的研究人员和开发人员选择用于训练ChatGPT的数据。

OpenAI公司再次意识到这是一个问题,并表示它正在通过收集用户的反馈并鼓励他们标记糟糕、冒犯或根本不正确的ChatGPT输出来解决“偏见行为”。

由于ChatGPT有可能对人们造成伤害,人们可能会认为,在研究和解决这些问题之前,不应该向公众发布ChatGPT。但是,致力于成为第一家创建最强大人工智能模型的公司,已经足以让OpenAI公司把谨慎抛到脑后。

相比之下,谷歌母公司Aalphabet公司于2022年9月发布了一款名为“Sparrow”的类似人工智能聊天机器人。然而,出于类似的安全考虑,该机器人被放弃。

大约在同一时间,Facebook公司发布了一种名为Galactica的人工智能语言模型,旨在帮助学术研究。然而,在许多人批评它输出了与科学研究有关的错误和有偏见的结果后,它迅速被召回。

5、聊天技术可能会替代人类的工作

ChatGPT的快速发展和部署尚未尘埃落定,但这并没有阻止底层技术被整合到许多商业应用程序中。集成了GPT-4的应用程序包括Duolingo和Khan Academy。

前者是一款语言学习应用,而后者是一款多元化的教育学习工具。两者都提供了本质上的人工智能导师,或者以人工智能驱动的角色的形式,用户可以用其正在学习的语言与之交谈。或者作为一名人工智能导师,可以为其学习提供量身定制的反馈。

这可能只是人工智能取代人类工作的开始。其他面临颠覆的行业工作包括律师助理、律师、文案人员、记者和程序员。

一方面,人工智能可以改变人们的学习方式,可能更容易获得教育和培训,学习过程更容易一些。但另一方面,大量的人类工作职位也将消失。

据英国《卫报》报道,教育机构在伦敦和纽约证券交易所出现巨额亏损,凸显出人工智能在ChatGPT推出仅6个月后就对一些市场造成了破坏。

技术进步总是导致一些人失业,但人工智能的发展速度意味着多个行业领域同时面临快速变化。不可否认,ChatGPT及其底层技术将彻底重塑人们的现代世界。

6、聊天技术成为教育行业面临的挑战

用户可以要求ChatGPT对其文章进行校对,或者指出如何改进段落。或者用户可以把自己其中完全解放出来,让ChatGPT为其完成所有的写作。

很多教师已经尝试过在ChatGPT上布置作业,并收到了比许多学生做得更好的答案。从撰写求职信到描述著名文学作品的主要主题,ChatGPT可以毫不犹豫地完成所有任务。

这就引出了一个问题:如果ChatGPT可以为人们写作,学生将来还需要学习写作吗?这似乎是一个存在主义的问题,但当学生开始使用ChatGPT来帮助他们写论文时,学校必须尽快提供应对措施。

不仅是以英语为基础的科目有风险,ChatGPT可以帮助人们完成任何涉及头脑风暴、总结或得出明智结论的任务。

毫不奇怪,一些学生已经开始尝试采用人工智能。据《斯坦福日报》报道,早期的调查表明,很多学生使用人工智能来帮助完成作业和考试。作为回应,一些教育工作者正在重写课程,以应对使用人工智能浏览课程或考试作弊的学生。

7、ChatGPT可能会造成现实世界的伤害

在发布不久之后,有人试图破解ChatGPT,导致人工智能模型可以绕过OpenAI公司的安全护栏,该护栏旨在防止它产生攻击性和危险的文本。

ChatGPT Reddit上的一群用户将他们的无限制人工智能模型命名为DAN,这是“Do Anything Now”的缩写。可悲的是,做任何喜欢做的事情已经导致黑客增加了网络诈骗。根据Ars Technica的报道,黑客正在出售无规则的ChatGPT服务,这些服务可以创建恶意软件并产生网络钓鱼邮件。

通过人工智能生成的文本,试图发现旨在从人们身上提取敏感信息的网络钓鱼电子邮件要困难得多。语法错误曾经是一个明显的危险信号,而现在可能不是了,这因为ChatGPT可以流利地写各种各样的文本,从散文到诗歌到电子邮件。

虚假信息的传播也是一个严重的问题。ChatGPT生成文本的规模,再加上让错误信息听起来令人信服的能力,使互联网上的一切都变得可疑,并加剧了深度伪造技术的危险。

ChatGPT产生信息的速度已经给Stack Exchange带来了问题,Stack Exchange是一家致力于为日常问题提供正确答案的网站。在ChatGPT发布后不久,大量用户要求ChatGPT生成答案。

如果没有足够的人类志愿者来整理这些信息,就不可能提供高水平的高质量答案。更不用说,一些答案根本就不正确。为了避免网站被破坏,Stack Exchange禁止使用ChatGPT生成所有答案。

8、OpenAI公司具有掌控一切的力量

权力越大,责任越大,而OpenAI公司拥有很大的权力。它是首批真正用包括Dall-E 2、GPT-3和GPT-4在内的多个生成人工智能模型的人工智能开发商之一。

作为一家私营公司,OpenAI公司选择用于训练ChatGPT的数据,并选择推出新开发项目的速度。因此,有很多专家对人工智能带来的危险发出了警告,但几乎没有迹象表明这种危险会减缓。

与其相反,ChatGPT的流行刺激了大型科技公司之间的竞争,竞相推出下一个大型人工智能模型;其中包括微软的必应AI和谷歌的Bard。由于担心快速发展会导致严重的安全问题,世界各地的一些科技领袖联合签署了一封信函,要求推迟人工智能模型的开发。

虽然OpenAI公司认为安全是重中之重,但对于模型本身的工作方式,人们还有很多不知道的地方,无论是好是坏。最终,大多数人可能盲目地相信OpenAI公司将负责任地研究、开发和使用ChatGPT。

无论人们是否同意它的方法,值得记住的是,OpenAI公司是一家私营公司,该公司将根据自己的目标和道德标准继续开发ChatGPT。

解决人工智能的最大问题

ChatGPT有很多令人兴奋的地方,但除了它的直接用途之外,还有一些严重的问题。

OpenAI公司承认,ChatGPT可能会产生有害的、有偏见的答案,他们希望通过收集用户反馈来缓解这个问题。但即使事实并非如此,它也能产生令人信服的文本,这很容易被坏人利用。

隐私和安全漏洞已经表明,OpenAI公司的系统可能是脆弱的,将用户的个人数据置于危险之中。更麻烦的是,有些人正在破解ChatGPT,并使用不受限制的版本以前所未有的规模制造恶意软件和骗局。

对工作岗位的威胁和对教育行业的潜在颠覆是日益严重的问题。有了全新的技术,很难预测未来会出现什么问题,不幸的是,ChatGPT已经为人们带来了相当多的挑战。

责任编辑:姜华 来源: 企业网D1Net
相关推荐

2009-06-28 22:56:00

虚拟化桌面虚拟化问题

2013-02-18 09:41:45

云存储云服务

2014-02-10 09:22:41

2012-05-05 09:28:50

三星

2009-06-22 14:07:46

JSF优势

2023-12-27 11:45:09

2012-05-10 16:45:54

linux系统

2011-04-29 09:15:16

Servlet

2015-07-27 11:13:41

MySQLMySQL安全数据库安全

2013-04-02 10:37:53

2022-05-07 11:13:58

苹果汽车技术

2011-12-19 09:35:53

2011-04-14 18:03:49

2023-06-07 16:21:16

2020-06-28 14:01:50

漏洞管理漏洞攻击

2011-07-11 14:01:12

JAVA

2012-05-11 11:53:36

虚拟化

2023-02-07 10:21:33

2009-01-08 09:46:44

2011-04-11 16:15:18

点赞
收藏

51CTO技术栈公众号