美媒:别被AI的智能吓到,真正可怕之处是它被高估被滥用

人工智能
对聊天机器人的恐惧并不在于它们的智能,而在于它们被滥用的可能性。如果人们认为AI越强大,他们和企业就越有可能将其无法胜任的任务委托给它,导致更多人失业。

4月5日消息,过去六个月以来,强大的人工智能(AI​)新工具正在以惊人的速度扩散,从能够进行类似真人对话的聊天机器人,到自动运行软件的编码机器人,再到无中生有的图像生成器,所谓的生成式人工智能(AIGC)突然间变得无处不在,并变得越来越强大。

但是在上周,针对这股AI热潮的反弹开始出现。特斯拉、推特首席执行官埃隆·马斯克(Elon Musk)为首的数千名技术专家和学者签署了一封公开信,警告“人类面临的严重风险”,并呼吁暂停AI语言模型的开发六个月。

与此同时,一家AI研究非营利组织提出申诉,要求美国联邦贸易委员会(FTC)调查ChatGPT的创建公司OpenAI,并停止其GPT-4软件的进一步商业化发布。

意大利监管机构也采取行动,以数据隐私侵犯为由,彻底封杀了ChatGPT。

有人呼吁暂停或放缓AI研究,或许这是可以理解的。几年前看起来不可思议甚至深不可测的AI应用程序现在正在迅速渗透到社交媒体、学校、工作场所甚至政治领域。面对这种令人眼花缭乱的变化,一些人发出了悲观预测,认为AI最终可能导致人类文明消亡。

好消息是,对全能AI的炒作和恐惧可能被夸大了。虽然谷歌的Bard和微软的必应给人留下深刻印象,但它们和成为“天网”相差还很远。

坏消息是,人们对AI快速进化的担忧已经成为现实。这不是因为AI将变得比人类聪明,而是因为人类已经在利用AI,以现有组织没有准备好的方式来压制、剥削和欺骗彼此。此外,人们认为AI越强大,他们和企业就越有可能将其无法胜任的任务委托给它。

除了那些令人悲观的末日预言之外,我们可以从上周发布的两份报告初步了解AI对可预见未来的影响。第一份报告由美国投行高盛发布,主要评估AI对经济和劳动力市场的影响;第二份报告由欧洲刑警组织发表,主要讲述AI可能被刑事滥用的情况。

从经济角度来看,最新的AI潮流主要是将曾经只能由人类完成的任务自动化。就像动力织布机、机械化装配线和自动取款机一样,AIGC有望以比人类更便宜、更高效的方式完成某些类型的工作。

但是,更便宜、更高效并不总是意味着更好,任何与杂货店自助结账机、自动电话应答系统或客户服务聊天机器人打交道的人都可以证明这一点。与之前的自动化浪潮不同,AIGC能够模仿人类,甚至在某些情况下冒充人类。这既可能导致广泛的欺骗,也可能诱使雇主认为AI可以取代人类员工,即使事实并非如此。

高盛的研究分析估计,AIGC将改变全球约三亿个工作岗位,导致数千万人失业,但也会促进显著的经济增长。然而,高盛的评估数字也不一定准确,毕竟他们曾经有过预测失误的历史。在2016年,该行曾预测虚拟现实头戴设备可能会变得像智能手机一样普及。

在高盛的AI分析报告中,最有趣的是他们对各个行业进行了细分,即哪些工作可能被语言模型增强,哪些工作可能被完全取代。高盛的研究人员将白领任务的难度分为1到7级,其中“审查表格的完整性”为1级,可能被自动化的任务为4级,“在法庭上就一项复杂的动议做出裁决”为6级。据此得出的结论是,行政支持和律师助理工作最有可能被AI取代,而管理和软件开发等职业的生产效率将会提高。

该报告乐观地预测,随着企业从掌握AI技能的员工那里获得更多好处,这一代AI最终可能会使全球GDP增长7%。但高盛也预计,在这个过程中,大约7%的美国人会发现他们的职业会被淘汰,更多的人将不得不学习这项技术以维持就业。换句话说,即使AIGC带来了更积极影响,其结果也可能导致大批员工失业,办公室和日常生活中的人类将逐渐被机器人取代。

与此同时,已经有许多公司急于走捷径,以至于将AI无法处理的任务自动化,比如科技网站CNET自动生成错误百出的财经文章。当AI出现问题时,已经被边缘化的群体可能会受到更大的影响。尽管ChatGPT及其同类产品令人兴奋,但当今大型语言模型的开发商还没有解决数据集存在偏见的问题,这些数据集已经将种族歧视偏见嵌入到人脸识别和犯罪风险评估算法等AI应用中。上周,一名黑人男子再次因为面部识别匹配失误而被错误监禁。

更令人担忧的是,AIGC有些情况下可能会被用于故意伤害。欧洲刑警组织的报告详细说明了AIGC如何被用于帮助人们实施犯罪,比如进行欺诈和网络攻击等。

举例来说,聊天机器人能够生成特定风格的语言,甚至模仿某些人的声音,这可能使其成为钓鱼诈骗的有力工具。语言模型在编写软件脚本方面的优势可能会使恶意代码的生成大众化。它们能够提供个性化、情境化、循序渐进的建议,对于那些想要闯入民宅、勒索某人或制造管状炸弹的罪犯来说,它们可以成为万能指南。我们已经看到合成图像如何在社交媒体上散布虚假叙事,再次引发人们对深度造假可能扭曲竞选活动的担忧。

值得注意的是,使语言模型容易受到滥用的原因不仅仅是它们拥有广泛的智慧,还有它们在知识方面存在根本缺陷。当前领先的聊天机器人经过训练后,当检测到有人试图将它们用于邪恶目的时会保持沉默。但正如欧洲刑警组织指出的那样,“只有在模型理解它在做什么的情况下,防止ChatGPT提供潜在恶意代码的安全措施才有效。”正如大量记录在案的技巧和漏洞所表明的那样,自我意识仍然是这项技术的弱点之一。

考虑到所有这些风险,你不必担心世界末日的场景,就会看到AIGC的发展步伐放慢,让社会有更多时间来适应。OpenAI本身是作为非营利性组织成立的,前提是AI可以采用更加负责任的方式构建,而不会有实现季度收益目标的压力。

但OpenAI现在正在一场势均力敌的竞赛中领先,科技巨头正在裁减他们的AI伦理学家,而且无论如何,这匹马可能已经离开了马厩。正如学术AI专家萨亚什·卡普尔(Sayash Kapoor)和阿尔文德·纳拉亚南(Arvind Narayanan)所指出的那样,现在语言模型创新的主要驱动力不是推动越来越大的模型,而是将我们拥有的模型集成到各种应用和工具中。他们认为,监管机构应该从产品安全和消费者保护的角度来看待AI工具,而不是试图像遏制核武器一样遏制AI。

也许短期内最重要的是让技术专家、商业领袖和监管机构抛开恐慌和炒作,更加深入地理解AIGC的优点和缺点,从而在采用它时更加谨慎。如果AI继续发挥作用,无论发生什么,它的影响都将是颠覆性的。但过高估计其能力将使其危害更大,而不是更小。

责任编辑:姜华 来源: 网易科技
相关推荐

2024-04-03 10:55:18

人工智能AI开发算法

2020-02-18 13:46:18

人工智能技术Google

2018-01-31 15:05:49

2010-09-10 09:12:49

私有云

2015-08-18 13:25:12

PaaS服务架构动态扩展

2021-02-16 23:19:05

人工智能数据美国

2020-05-14 14:54:00

GitHub星级开源

2021-04-15 22:17:57

人工智能技术自动识别

2012-04-20 14:44:11

JavaScript

2013-08-28 10:58:55

操作系统

2018-11-22 10:53:30

程序员技能开发者

2018-10-10 20:22:12

人工智能AI无人驾驶

2014-01-21 08:56:10

人物管理

2022-04-28 13:08:51

架构师软件

2020-05-09 09:11:02

疫情人工智能AI

2021-03-17 15:08:34

人工智能程序机器学习

2023-03-30 10:47:38

AI训练OpenAI

2018-08-09 18:10:20

2024-01-16 10:20:30

网络安全OpenAIAI

2021-03-23 14:36:18

物联网智能交通IOT
点赞
收藏

51CTO技术栈公众号