开源人工智能语言模型的 10 个正面和负面影响

译文
人工智能 深度学习
由于开源语言模型有很多优点和缺点,并且会对人工智能行业产生积极和消极的影响,因此我们总结了您应该了解和理解的要点。

虽然 GPT 和 PaLM 等专有软件占据了市场主导地位,但是仍旧有很多开发人员看到了开源语言模型的价值。由于开源语言模型有很多优点和缺点,并且会对人工智能行业产生积极和消极的影响,因此我们总结了您应该了解和理解的要点。

开源语言模型的 5 个积极影响

开源语言模型集合了来自世界各地的开发人员的意见、评论和用例,通过多方协作,能够更快地推进项目落地。

1、人工智能开发人员使用开源模型节省资源

采用专有语言模型需要花费数百万甚至数十亿的资源。以OpenAI为例。Business Insider报道称,该公司必须筹集约 300 亿美元才能有效运营 ChatGPT。对于大多数公司来说,获得这么多资金是不可能的。处于早期阶段的科技初创公司即使能达到七位数就已经很幸运了。

考虑到高昂的开销,许多开发人员转而使用开源语言模型。他们通过利用这些系统的架构、神经结构、训练数据、算法、代码实现和训练数据集节省了数百万美元。

2、开源模型可以让进步更快

许多技术领导者比较重视社区贡献和协作,因此他们认为开源语言模型比专有语言模型进步得更快。数以百万计的熟练开发人员正在开发开放项目——理论上,他们可以更快地实现无错误、复杂的迭代。

使用开源人工智能也可以更快地弥补知识空白。公司可以分析和利用社区贡献,而不是培训团队寻找错误、测试更新和探索实施。为此,知识共享使用户能够更有效地工作。

3、开发人员将更快地发现漏洞

开源语言模型鼓励同行评审和协作社区的积极参与,开发人员可以自由访问代码库更改。由于有如此多的用户分析开放项目,他们可能会更快地发现安全问题、漏洞和系统错误。

同样,错误解决也得到简化。开发人员无需手动解决系统问题,而是可以检查项目的版本控制系统是否有以前的修复。虽然有些条目可能已经过时,然而他们仍然会为研究人员和人工智能培训师提供一个有用的起点。

4、人工智能技术领导者向开源模型学习

开源语言模型受益于反馈循环。正反馈循环共享有效的算法、数据集和函数,鼓励开发人员模仿。这个过程为他们节省了大量时间。另请注意,用户随意复制的积极反馈可能会出现错误——错误往往会被忽视。

5、开源人工智能平台在新系统上获得优先权

科技公司共享价值数十亿美元的语言系统并不是出于善意。虽然开源许可证授予第三方用户修改和销售系统的自由,但它们也有局限性。经销商经常创造条件来确保他们保留一些权威。所以,你会在开源程序的许可协议中找到这些规则 - 最终用户很少获得 100% 的权限。

假设 Meta 希望控制 LLaMA 支持的产品。其法律团队可以指定 Meta 保留投资任何基于其语言模型构建的新系统的权利。但请不要误解——第三方开发商和发行商仍然会达成互惠互利的协议。后者提供价值数十亿美元的技术和系统。与此同时,初创公司和独立开发人员正在探索将它们实现到不同应用程序中的方法。

开源语言模型的 5 个负面影响

开源语言模型本质上是公正的,但人类却不然。具有恶意的消费者、开发者和公司可能会利用这些系统的开放性来谋取个人利益。

1、企业随意加入人工智能竞赛带来的负面影响

目前,企业面临着加入人工智能竞赛的巨大压力。随着人工智能系统的普及,许多公司担心如果不采用人工智能,它们就会被淘汰。结果,企业随意地加入了这股潮流,他们将开源语言模型集成到他们的产品中,以便销售产品并跟上竞争,即使它们没有提供任何有价值的东西。

虽然人工智能是一个快速新兴的市场,但是不小心发布复杂但不安全的系统会损害整个行业并损害消费者的安全。开发者应该用人工智能来解决问题,而不是搞营销噱头。

2.、消费者能够接触到他们几乎不了解的技术

各种技术工具基于人工智能的变体,从在线图像编辑器到健康监测应用程序。随着人工智能的发展,品牌将不断引入新系统。人工智能模型帮助他们提供更加定制化、以用户为中心的现有平台迭代。

虽然科技行业欢迎创新,但人工智能的快速发展超过了用户教育。消费者正在获得他们几乎不了解的技术。教育的缺乏造成了巨大的知识差距,使公众容易受到网络安全威胁和掠夺性行为的影响。

为此,企业应该像产品开发一样优先考虑培训。他们必须帮助用户了解如何安全、负责任地使用强大的基于人工智能的工具。

3、并非所有开发者都有良好的意图

并非每个人都将人工智能工具用于其预期目的。例如,OpenAI 开发了 ChatGPT 来回答工作安全的常识问题并复制自然语言输出,但犯罪分子利用它进行非法活动。自 2022 年 11 月 AI 聊天机器人推出以来,已发生多起ChatGPT 诈骗事件。

因此,即使人工智能实验室实施严格的限制,骗子仍然会找到绕过它们的方法。再次以 ChatGPT 为例。用户通过使用ChatGPT 越狱提示来绕过限制并执行禁止的任务。

4、机构可能难以监管开源人工智能

监管机构正在努力跟上人工智能的发展步伐,而开源模型的激增只会让监控变得更加困难。人工智能的进步已经超过了监管框架。甚至埃隆·马斯克、比尔·盖茨和萨姆·奥尔特曼等全球科技领袖也呼吁加强人工智能监管。

私营部门和政府部门都必须控制这些系统。否则,恶意者将继续利用它们来违反数据隐私法、实施身份盗窃、诈骗受害者以及其他非法活动。

5. 降低进入壁垒会影响质量

由于能够在网上找到数千种基于人工智能的工具,因此开源语言模型的激增降低了加入人工智能竞赛的准入门槛。

看到公司采用机器和深度学习可能看起来令人印象深刻,但很少有公司提供任何实际价值。大多数人只是复制竞争对手。随着时间的推移,复杂的语言模型和训练数据集的可访问性可能会使毫无意义的人工智能平台商品化。

开源语言模型对人工智能行业的整体影响

虽然开源语言模型使人工智能技术更容易使用,但它们也带来了一些安全风险。开发商应制定更严格的限制。否则,骗子将继续利用这些系统的透明架构。

也就是说,消费者对于人工智能骗局并非完全毫无防御能力。熟悉骗子利用生成式人工智能工具的常见方式并研究警告信号。当然,我们可以通过保持警惕来打击大多数网络犯罪。

原文标题:10 Positive and Negative Impacts of Open-Source AI Language Models

原文作者:JOSE LUANSING JR.

责任编辑:张诚
相关推荐

2020-05-11 19:11:09

物联网酒店行业IOT

2021-03-01 10:53:54

安防行业COVID-19物理安全

2022-09-13 14:52:09

云迁移数据资产数据中心

2011-09-13 11:16:28

2022-02-13 23:10:35

机器学习医疗技术

2012-02-12 14:43:29

2022-07-31 23:46:57

人工智能语言模型感知力

2011-05-24 13:18:55

SEO网站改版

2017-09-19 14:54:14

人工智能克隆授权

2019-11-29 07:45:16

数据泄露攻击黑客

2010-08-17 10:32:31

SEO搜索引擎

2022-11-03 15:16:27

人工智能

2015-12-25 09:34:29

2010-07-06 10:40:33

2022-04-28 08:52:40

懒加载Web

2011-12-20 09:02:24

云计算

2023-09-27 10:23:06

人工智能语言模型

2023-08-04 09:00:00

2020-11-09 09:56:15

Windows 10Windows微软

2018-11-07 22:18:58

点赞
收藏

51CTO技术栈公众号