如果当前的 AI 炒作是死胡同怎么办?

人工智能
尽管如此,炒作的感觉并没有错。有很多善意但不是很技术的评论员只是在做他们的工作要求,相当多的嫁接者,而不是少数绝望的企业和投资者,他们都抓住每一个主张,无论多么投机或未经证实的。

如果我们面对人工智能的死胡同,网络安全行业将继续严重依赖传统方法,尤其是人为驱动的方法。不过,这不会像往常一样。

正如我在之前关于初学者网络安全未来主义的专栏中所讨论的那样,我们正在应用未来研究中常用的方法和方法,尤其是水平扫描和场景规划,以探索未来场景,了解 AI(例如 LLM)如何影响未来的安全操作。

快速重申一下,地平线扫描严格来说并不是预测未来。相反,它是关于及早发现微弱信号以识别新兴趋势的驱动因素。我们并不是要确定一个单一的预期未来。相反,我们描述了一系列可能的未来(四种未来模型)。然后,规划人员可以使用这些未来来进一步开发场景,以帮助进行风险评估、战略规划或类似任务。

AI 未来 #1:死胡同 AI

炒作人的工作是让每个人都离开座位,在舞池里尽情享受。

风味风味

本周我们设想了一个我们称之为“死胡同 AI”的未来,其中 AI 无法实现围绕它的炒作。我们考虑了这种未来的两种可能情况。两者都有相似的近期和中期结果,因此我们可以一起讨论。

场景 #1: AI 结束了另一种炒作,如加密货币、NFT 和Metaverse。

场景 #2: AI 被过度炒作,由此产生的失望导致资金撤出和新的 AI 寒冬。

在一个死胡同的人工智能未来,目前围绕人工智能的炒作最终被证明是没有根据的。随着技术局限性现实的出现,对 AI 的热情和投资逐渐减少。AI 社区经历了幻灭,导致新的 AI 寒冬,资金和研究显着减少。

请注意,未来并不意味着例如机器学习根本没有有益的应用,或者人工智能在理论上是不可行的。这意味着由于各种限制和制约,当前的人工智能进步浪潮不会逐步过渡到成熟的通用人工智能 (AGI),也就是技术奇点。

分析

我们将讨论可能导致 AI 走向死胡同的关键外部因素。我们将在可能的情况下引用强信号和弱信号。您可能会注意到许多因素是多么紧密地交织在一起,并且您还将开始看到在我们整个系列中有些因素将如何在略有不同的环境中重新出现。

支持死胡同的 AI 未来的信号

我们将在下面分析一些可能表明 AI 走投无路的信号和趋势。

经济因素

投资者正涌入生成式人工智能,早期创业投资者在 2022 年投资了 2.2B 美元(相比之下,整个欧洲为 5.8B 美元)。  但是,如果 AI 无法提供预期的投资回报,那么对 AI 研发的进一步资助将是灾难性的。

例如,风险投资公司 Andreessen-Horowitz (a16z) 发布了一份报告,指出一家典型的使用大型语言模型的初创公司将 80% 的资本用于计算成本。报告作者还指出,单个 GPT-3 培训成本在 50 万美元到 460 万美元之间,具体取决于硬件假设。

矛盾的是,投资这些登月计划的资金并不一定能保证经济上的成功或可行性,谷歌最近泄露的一份报告称,没有护城河可以阻止普遍和开源采用这类模型。其他公司,如 Snapchat,过早地推出产品并匆匆上市,结果却一败涂地。

如此高昂的开发成本,加上缺乏盈利的应用,不会让投资者或股东高兴。它还导致大规模的资本破坏,只有少数云和硬件供应商高兴。

与此同时,相当一部分企业领导者对积极采用人工智能的呼声很高,中国蓝光标智能通信集团公司计划用生成式人工智能全面取代外部文案和编辑,IBM 估计高达 50% 的常规工作可以自动化。如果这些假设被证明是错误的,许多企业将被识破并面临痛苦的调整。

一些批评家已经敦促谨慎行事,因为存在相当大的尚未量化的风险,例如关于生成艺术作品的版权。生成人工智能经济的现实世界经验也参差不齐。fiverr 或 Upwork 等自由职业服务的客户报告说,使用生成模型公然创建的低质量工作 激增。

最后,对于最近刚刚向我们出售加密货币、NFT 和 Metaverse 的同一企业的另一项新的、革命性的技术创新,存在相当大的怀疑和可以理解的疲劳。

实际应用进展有限

虽然我们在狭义人工智能应用方面取得了重大进展,但我们还没有看到真正的通用人工智能 (AGI) 取得进展,尽管毫无根据地声称它可能以某种方式突然出现。生成式 AI 模型显示出不可思议的现象,但它们是完全可以解释的,包括它们的局限性。

在大量关于人工智能如何使营销、开发和设计中的一切自动化的文章之间,也有越来越多的证据表明,这类模型的应用领域可能非常狭窄。现实场景中的自动化需要高度的准确性和精确性,例如,在阻止网络钓鱼尝试时, LLM 并非为此而设计。

一些技术专家已经表达了对当前模型实际功能与描述方式以及更重要的是销售方式的巨大差异的担忧,并且已经对新的 AI 寒冬敲响了警钟。

人工智能在理论上拥有巨大的前景。但由于可行性问题、缺乏明确的用例或无法有效扩展解决方案,实际应用可能达不到炒作的程度。

隐私和道德问题

另一组不断增长的信号是对隐私、道德和人工智能系统的潜在滥用的担忧日益增加。令人惊讶的是,有很多声音主张更严格的监管,这可能会阻碍 AI 的开发和采用,从而导致 AI 陷入死胡同。

Geoffrey Hinton 是人工神经网络的先驱之一,最近辞去了他在谷歌的工作,以便能够在没有任何利益冲突的情况下警告世界他认为不受控制的人工智能的风险和危险。白宫召集谷歌、微软、OpenAI 和 Anthropic 的高管开会,讨论人工智能的未来。最大的惊喜可能是 CEO 要求接受监管,OpenAI 的 Sam Altman 敦促美国国会这样做。一篇文章甚至主张我们需要评估控制此类技术的人们的信念,表明他们可能更愿意接受存在的风险。

我们场景中的悲剧是,围绕人工智能的夸张实际上可能会得出关于人工智能潜在滥用的伦理和社会影响的结论,从而导致扼杀其发展的严格监管。隐私问题、工作岗位流失和“deepfake”技术等问题可能会引发强烈反对,促使政府实施严格限制,尽管实际上该技术的影响很小或反复出现。 

如果 AI 系统被视为不可信,无论决策制定中引人注目的失败和偏见是真实的还是想象的,公众的看法都可能会反对 AI。

对环境造成的影响

AI 的前景不仅仅基于自动化——它还必须价格低廉、随时可用且越来越可持续。人工智能在技术上可能是可行的,但它可能不经济,甚至对环境有害。

大量可用数据表明,像法学硕士这样的人工智能技术对环境有相当大的影响。最近的一项研究“让 AI 不那么“渴”:揭开和解决 AI 模型的秘密水足迹”计算得出,一次包含 20-50 个问题的典型对话会消耗 500 毫升水,并且可能需要多达 700,000 升水水只是为了训练 GPT-3。

斯坦福大学以人为本的人工智能研究所 (HAI) 2023 年人工智能指数报告得出的结论是,GPT3 的单次训练排放了相当于 502 吨的二氧化碳,即使是最节能的模型 BLOOM,排放的碳也高于平均水平美国人每年使用量(BLOOM 为 25 吨,而人类为 18 吨)。

我们才刚刚开始 LLM 的时代,毫无疑问,效率会有所提高,但必须是实质性的。预计较新的模型将变得更大,而采用虽然在历史上是无与伦比的,但仍才刚刚开始。如果要实现超自动化和按需虚拟助手的承诺,能源消耗将不可持续地增长。问题是高耗能人工智能模型将如何在低碳经济中蓬勃发展?

对安全运营的影响

如果当前的 AI 技术浪潮被严重夸大并被证明是死胡同,那么对安全运营的影响可能如下:

传统方法将重新成为人们关注的焦点。

由于人工智能未能兑现其智能自动化和分析的承诺,网络安全运营将继续依赖人为驱动的流程和传统的安全措施。

这意味着安全专业人员将不得不不断完善现有技术,例如零信任和网络卫生。他们还必须继续创建和策划源源不断的最新检测、行动手册和威胁情报,以跟上不断变化的威胁形势。

安全运营管理能力,尤其是跨异构基础设施的检测和响应等工作流程的编排,仍然很难做好,而且成本很高。

中型组织尤其需要更多地依赖服务来缩小由此产生的技能和人员差距。新的服务产品和模型将会发展,尤其是在自动化和分析需要专业知识和技能的情况下。

从好的方面来说——至少威胁形势也只会按照人类的步伐发展。

自动化将趋于平稳。

如果没有更多的智能机器自动化,组织将继续与网络安全领域的人才短缺作斗争。对于分析师来说,手动工作量仍然很高。组织将需要寻找其他方法来简化操作。

像 SOAR 这样的自动化方法将仍然非常手动,并且仍然基于静态和预配置的剧本。无代码和低代码自动化可能有助于使自动化更容易和可访问,但自动化本质上仍将是脚本化和愚蠢的。

然而,即使是今天的 LLM 能力水平也足以自动化基本的日志解析、事件转换和一些分类用例。到 2024 年底,这些功能将在几乎所有安全解决方案中无处不在。

威胁检测和响应将保持缓慢

在没有人工智能驱动的解决方案的情况下,威胁检测和响应时间只能略有改善。减少黑客必须利用漏洞并造成损害的机会窗口将意味着在操作上变得更加有效。组织将不得不专注于增强其现有系统和流程,以最大程度地减少检测和响应时间缓慢的影响。自动化将更有选择性但更积极地集成。

威胁情报将继续难以管理。

由于缺乏 AI 驱动的分析,供应商将继续难以收集和管理威胁情报,并且对于大多数最终用户而言,更具战略性地使用威胁情报仍然具有挑战性。安全团队将不得不依靠手动流程来收集、分析威胁信息并将其背景化,这可能会导致对新威胁和不断演变的威胁的认识和响应出现延迟。必须使用更简单的方法来增强传播和分析大量威胁情报的能力,例如可视化和图形分析。集体和协作情报共享也需要重新审视和修改。

重新强调人类的专业知识

如果人工智能无法交付,人类专业知识在网络安全运营中的重要性将变得更加关键。组织将需要继续优先考虑招聘、培训和留住熟练的网络安全专业人员,以保护他们的资产并将风险降至最低。安全专家的竞争将继续激烈。需要开发新的方法和框架,以更好地捕捉和维护稀有的团队专业知识,改进知识管理,并更好地跨团队和跨领域合作。

结论

如果我们面对人工智能的死胡同,网络安全行业将继续严重依赖传统方法,尤其是人为驱动的方法。不过,这不会像往常一样。

即使是我们听到的一些不太令人印象深刻的用例也已经解决了一些艰巨的挑战。从将人类语言查询即时翻译成 SQL 语法,加快经验丰富的开发人员编码的速度,或对网络事件进行分类,LLM 的影响已经显现。这是一股能托起所有船只的浪潮——既包括防御者,也包括攻击者。

 但更重要的是进展是否会继续。除了技术限制和局限性之外,一系列其他驱动因素和趋势也会影响我们是否会经历一个新的 AI 寒冬。仅凭对人工智能可能带来的风险的认识,从社会不稳定到自主 Killbots,就足以引发监管打压,从而扼杀任何进一步的进展。过早设定过高的期望也可能导致足够的失望和幻灭,从而迎来 AI 寒冬。

炒作所造成的损害远不止烦人。它可能导致 FOMO 并导致经济损失。它还可以过早地扼杀其他有前途的技术。

概率:0.25 不太可能

虽然在考虑 AI 和网络安全运营的未来时出现的问题有很多未知数,但我相信目前围绕 AI 和生成 AI 的炒作至少有一些事实依据。

也有很多有识之士看好生成式人工智能,其他人工智能方法仍然是主流。我们已经在一些地方看到了好处。有足够多的萌芽表明这是一个真正的突破。但我认为这是进化,而不是革命。如果您一直在使用 Grammarly、一个 AI 写作助手、大多数编程 IDE 甚至只是您的手机来发送消息,您就会体验到这种缓慢的进化趋势。不同之处在于它首次准备好生产。我们现在可以开始构建真正有趣的东西,看看当我们停止尝试构建更快的马时会发生什么,正如亨利福特打趣说如果他问他的客户他会怎么做。

尽管如此,炒作的感觉并没有错。有很多善意但不是很技术的评论员只是在做他们的工作要求,相当多的嫁接者,而不是少数绝望的企业和投资者,他们都抓住每一个主张,无论多么投机或未经证实的。

所以我的估计是,这两个未来,即围绕生成人工智能的炒作没有真正的基础,或者炒作将导致新的人工智能冬天,不太可能发生。

作者:奥利弗·罗奇福德

责任编辑:武晓燕 来源: 祺印说信安
相关推荐

2013-01-06 15:40:57

2011-11-03 10:57:31

IT资产开源软件

2022-04-22 10:30:07

框架JavaScript前端

2022-02-25 08:28:10

身份验证无密码登录密码

2021-11-16 07:02:05

函数Python返回值

2018-09-04 16:01:33

工作挑战性技术

2021-01-23 23:18:21

Windows 10Windows微软

2021-05-26 17:26:09

人工智能通用智能

2021-02-24 08:38:48

Kafka消息Consumer

2011-07-18 09:05:46

虚拟化

2017-12-08 11:14:21

2020-02-10 13:36:30

人工智能深度学习技术

2019-03-25 09:59:58

人工智能深度学习技术

2017-06-30 13:23:59

SaaS供应商破产

2017-02-08 08:46:39

开发性能优化数据存储

2010-06-28 17:00:47

SilverlightFlash

2015-10-28 17:09:13

技术创业

2023-04-04 07:22:22

NVIDIAAI厂商

2015-10-10 10:42:03

企业级云服务AWS

2022-02-17 08:57:18

内存设计进程
点赞
收藏

51CTO技术栈公众号