
从“人”开始,AI 大模型高效转型指南 原创 精华
本文将讲述莱拉(Leila)的故事。她是一位 AI 领军人物,成功克服了诸多与人相关的挑战,最终引领公司走上了 AI 落地的正确道路。我们将围绕以下要点展开讨论:
- 选择 AI 计划:从一开始就挑选合适的 AI 计划,将空谈转化为实际行动。
- 理解 AI 思维模式:探究员工在听到“AI”时的真实想法。
- 沟通:将 AI 确立为一种不可避免的技术,并赋予用户自主权和控制权。
- 教育:确保员工具备使用 AI 并为企业创造价值的技能。
希望这个故事能够激励你,不仅在个人层面使用 AI,还能将 AI 打造成推动企业业务转型的积极力量。
从“人”开始,AI 大模型高效转型之路
1、从明智的选择开始:选对第一个 AI 项目
AeroLogix 是一家物流公司,领导层已经花了整整一年的时间在高层讨论 AI。顾问们来了又走,留下一堆幻灯片。竞争对手已经在行动了——部署预测工具、优化路线、尝试 AI 智能体。董事会希望看到实际行动。
值得称赞的是,团队没有急于让 IT 部门去实施一个“革命性的”聊天机器人。相反,他们花时间探索更相关的方向:
- 机组人员排班优化
- 地面设备的预测性维护
- 延误缓解建模
- 备件需求预测
他们关注的是执行和进展,所以选择了备件需求预测。这并不性感,但问题显而易见——有些计划员为了防止停机,总是过度储备,浪费资金和存储空间;另一些人储备不足,导致延误。这种绩效差距每年给公司带来数百万美元的损失,而一点点 AI 驱动的优化就能显著改善结果。
深入研究后,更多事实支持了这个项目。数据已经以相对干净和集中的形式存在。AI 可以融入现有的工作流程,根据初步估计,一个可运行的 alpha 版本可以在不到 90 天内交付。
综合来看,这使它成为一个很好的第一个 AI 项目,可以让 AeroLogix 建立初步经验,并开始塑造更广泛的 AI 战略。
🎯 行动计划:选择能最大化学习、最小化摩擦的 AI 项目
在选择第一个 AI 项目时,寻找那些:
- 容易理解且容易解释
- 对用户和领导层都能带来可见的价值
- 避免重大的合规或集成障碍
- 让人们体验到 AI 是有用且可控的
- 能够快速启动并逐步改进
2、绘制人员“地形”图
一个跨职能团队聚集在一起规划这个项目,参与者表现出对 AI 非常不同的态度。根据 Reid Hoffman 的说法,大多数人对 AI 有四种心态——Zoomers(乐观者)、Gloomers(悲观者)、Doomers(末日论者)和 Bloomers(平衡者)。这种情况也在会议中出现了。
Tom 代表 IT 部门,表现出了热情:
“这不就是供应链版的 ChatGPT 吗?我们自己就能搞定。”
Tom 体现了Zoomer 心态——热衷于使用 AI,但也有点天真。他低估了 AI 带来的风险和复杂性。这很容易导致乐观的估计,以及在项目“最后一公里”时出现的巨大、往往是不可逾越的问题。
Andrea 是一位有二十年经验的资深计划员,她表达了她的保留意见:
“我做了几十年的预测。现在,要让机器来帮我做这个?”
Andrea 的怀疑源于 Gloomer 观点。她承认 AI 的不可避免性,但对其对工作安全和人类专业知识价值的影响感到担忧。
Mark 来自合规部门,他保持谨慎的立场。他参加会议,提出关于文件和可解释性相关的恰当问题,但没有明确表态。虽然没有明确表示,但 Mark 是一个Doomer——他担心 AI 对人类的潜在风险,并主张进行严格的监管。
然后是 Leila,一位中层运营转型经理。她不是声音最大的人,但却是最了解情况、最客观的人。Leila 一直在悄悄探索 AI,尝试用原型来简化她的工作流程。她提出有洞察力的问题,避免技术术语,并鼓励同事们参与。Leila 体现了Bloomer 心态——既乐观又谨慎,热衷于使用 AI,并寻找降低其风险的方法。她是领导这个项目的天然人选。
🧭 应对 AI 心态
让我们总结一下你可能会遇到的四种 AI 心态:
🛑 Doomers(末日论者):认为 AI 是一个重大威胁,主张严格控制或完全停止进展。
☁️ Gloomers(悲观者):承认 AI 的潜力,但更关注其风险,尤其是对就业和社会的影响。
⚡ Zoomers(乐观者):对快速采用 AI 热情高涨,有时以牺牲彻底的风险评估为代价。
🌱 Bloomers(平衡者):保持平衡的方法,拥抱 AI 的可能性,同时倡导负责任的实施。
识别并应对这些态度,可以让你量身定制沟通和培训策略,确保更协调、更有效的 AI 采用过程。
3、关于 AI 的沟通
Leila 在最初的会议中仔细观察了团队动态,并相应地调整了她的信息传递方式。
设定新的基准
厌倦了讨论公司是否真的需要 AI,她首先通过明确的信息重置了基准:
“AI 总会到来,不管你是否参与。真正的问题不是我们公司是否使用它,而是你选择如何与它互动。”
对有些人来说,这是一个严厉的警钟,但它为公司创造了必要的压力,因为公司已经落后于更有决断力的竞争对手。为了应对工作被替代的恐惧,Leila 说:
“你的工作不会被 AI 替代,但会被使用 AI 的人替代。确保那个人是你。”
🧭 要点:建设性 AI 对话的三条信息
三条减少 AI 抵触情绪、支持采用的信息:
- 不可避免:AI 总会到来,不管你是否参与。
- 赋能:AI 不会取代你,但会改善和提升你的工作。
- 可控:不要害怕它——掌握它,让它为你工作。
4、针对不同利益相关者的沟通
在第二步中,Leila 关注于引导相关利益相关者。她根据每个群体的价值观和关注点调整了她的信息传递方式,如表 1 所示。
表 1:针对不同 AI 利益相关者的沟通策略
让我们深入探讨每个群体的典型态度,以及你可以如何量身定制沟通来应对他们。
高管和投资者
高管和投资者对于建立正确的文化和为 AI 分配适当资源至关重要。在这里,对话必须聚焦于投资回报率和战略相关性。通常,他们对技术细节不感兴趣,但他们需要理解 AI 如何与收入、增长和竞争定位相关联。由于 Leila 的公司正处于削减成本的过程中,她将 AI 描述为一个放大器,既能节省成本,又能促进更好的决策:
“AI 不是一个成本中心,而是一个智能放大器。那些更快学习和采用 AI 的公司将在成本上节省开支,并超越那些不采用的公司。”
运营人员和用户
运营人员和用户是成功采用 AI 的关键。毕竟,再好的 AI 系统,如果没人使用,也是毫无用处的。这些人最接近 AI 的日常影响:计划员、分析师、服务代理、物流协调员。他们的担忧可能没有说出来,但却是深切感受到的:这个系统会取代我吗?我能信任它吗?它会让我的工作更难还是更容易?
Leila 没有等待这些恐惧浮出水面并传播开来。她围绕这些担忧构建了她的沟通,主动应对技术影响和情感潜流。她保持简单、直接和人性化:
- “这会对我的工作产生什么影响?”——“这不是一个黑盒子。你仍然掌控一切。把它当作一个副驾驶——你仍然坐在驾驶座上。”
- “我有什么好处?”——“更少的手动报告,更少的重复检查,更快地获取你需要的信息——它是为了让你的工作更轻松。”
- “它到底是怎么工作的?”——“它会随着时间学习模式。我会向你展示它看到了什么,它是如何学习的,以及它的局限性在哪里。”
- “我能塑造或影响它吗?”——“当然可以。你可以调整阈值,提供反馈,帮助我们在你的实际工作环境中改进系统的工作方式。”
通过满足用户的需求,她逐渐将不确定性转化为好奇心和参与感,让 AI 感觉不是被强加的,而是赋予力量的。
IT 和基础设施团队
对于 IT 和基础设施团队,对话必须聚焦于稳定性、集成和长期可持续性。这些人将在聚光灯褪去、真正的工作开始时,承担起在生产环境中运行系统的责任。
但 Leila 还必须应对一个更深层次的挑战:IT 团队认为他们可以包办一切的假设。对于工程师来说,AI 看起来就像另一个软件部署——一些数据、一些 API、几个模型端点。有些人对新项目真诚地充满热情,而另一些人则认为 AI 是通往职业相关性的快车道。
他们显然低估了 AI 带来的范式转变。与通常的确定性工作流程不同,AI 带来了不确定性,并且允许定期犯错。如果这些问题没有得到妥善解决,它们很容易在现实世界中引发有害的决策和行动。如果你想知道一个将 AI 视为另一个开发项目的 IT 团队的真实故事。
Leila 解决了团队的过度自信:
“AI 不是照常营业。我们正在构建一个在不确定性下做出风险预测的系统。要把它做好,我们需要专业的 AI 专业知识、数据科学的严谨性以及与深度领域的对齐。让我们诚实地评估我们内部能带来多少这样的能力。”
虽然公司内部已经具备了一些技能,但显然存在差距。最终,他们同意采用一种与外部供应商合作的智能方式,这不仅能带来专业的 AI 专业知识,还能将部分知识传授给公司。
治理和风险团队
最后,与治理和风险团队合作时,信息必须围绕保障措施、可审计性和责任展开。这些利益相关者并不关心用户满意度或预测准确性。他们在考虑监管审查、声誉风险和伦理风险。这个群体的信任来自于严谨和透明——而不是承诺。
“我们不仅仅是构建模型,”她告诉合规负责人,“我们正在构建你可以向审计师和监管机构解释的系统。”
她让他们尽早参与,邀请他们参与设计决策,并为他们提供明确的升级和监督杠杆。信息不是说 AI 是安全的,而是它被设计得安全且可解释。
在每种情况下,Leila 并没有改变项目的本质,而是改变了人们看待它的视角。
5、教育——建立 AI 熟练度
在她的对话中,Leila 意识到 AI 周围充满了噪音——误解、炒作和半真半假的说法。尤其是在 Zoomers 中,热情超过了理解。他们大声但往往是错误的想法传播得很快,增加了不确定性和困惑。为了建立能力和信心,Leila 与领导层合作,建立了一个简单但有效的学习框架。
第一步:评估 AI 技能
Leila 引入了一项公司范围内的技能评估,将员工分为三个层次:
图 1:三个层次的 AI 熟练度
- AI 用户构成了基础。他们能够自信地将 AI 整合到他们的工作流程中——有效地提示词,解释输出,并知道何时信任或质疑结果。但评估显示,公司有一半的人还没有达到这个水平。这个差距拖慢了动力和积极性。在做任何雄心勃勃的事情之前,必须提高基线。
- AI 协同创造者已经在日常工作中依赖 AI。他们理解其模式和限制,深思熟虑地进行实验,并将角色和领域特定的见解融入其中。他们可以作为团队和技术之间的桥梁,将他们的领域专业知识嵌入到 AI 系统中。
- AI 战略家在系统层面运作,从组织而非个人的角度看待 AI。他们能够识别机会,将 AI 项目与业务目标对齐,并指导长期方向。Leila 是其中之一,但公司范围的转型需要更多这样的人。
这项评估提供了一个清晰的现状视图。它还展示了个人员工如何参与 AI 项目,并可以用来监测 AI 熟练度随时间的变化。
第二步:让每个人成为 AI 用户
为所有低于用户门槛的员工推出了一个强制性的、自我节奏的基础课程。内容集中在实际的、动手的技能上:
- AI 是什么(不是什么)
- 如何有效使用 ChatGPT 或 Perplexity 等标准工具
- 如何应对 AI 的不确定性和错误
很快,情况发生了变化。AI 开始出现在会议、咖啡聊天和项目简报中。它不再是一个酷炫但抽象的流行语。人们开始交换提示,分享快捷方式,并开始说一种共同的语言。
第三步:将 AI 融入日常工作
接下来是部门级别的深入探讨。这些由各部门的 AI 热衷者和协同创造者领导,专注于特定的用例,例如:
- 运营团队完善 AI 预测模型
- 营销团队探索内容个性化
- 人力资源团队测试 AI 驱动的招聘流程
通常,特定的用例会从用户反复使用的提示中产生——例如,一位营销人员收集了一个他用来完善内容的提示组件库。就像 Leila 一样,他也是公司中最早的 AI 热衷者之一,他的库被用来为其他部门构建一个方便的工具。
第四步:通过合作伙伴关系成长
Leila 知道内部人才只能走这么远。为了建立动力和深度,公司引入了外部 AI 合作伙伴,他们将支持实施和学习。这些专家共同开发用例,指导内部团队,并展示最佳实践。这种“合作成长”策略也为新兴战略家提供了空间,让他们能够拓展思维并连接各个点。
第五步:使学习社交化和持续化
最后,Leila 帮助建立了一种持续学习的文化。而不是集中培训,团队分享他们的发现:
- 提示派对和模型即兴创作会
- “我最糟糕的 AI 失败”分享会
- 内部演示和如何操作的渠道
这些轻松的仪式使实验变得正常化,降低了风险,并帮助人才在三个 AI 熟练度层级中自然成长。
🎯 行动框架:建立可扩展的学习文化
- 从核心课程开始——让每个人掌握 AI 基础,包括提示词、信任校准和工具意识。
- 设计部门特定的研讨会——使用真实的工作流程和真实的数据。避免抽象的讲座。
- 创造社交学习仪式——提示派对、模型即兴创作会和失败分享会可以建立社区和信心。
- 将学习与所有权联系起来——让用户参与反馈循环。认可他们输入推动的改进。
6、你就是 AI 协作的交互界面
当然,所有这些与人相关的工作都是与技术建设同时进行的——数据准备、与领域专家共同创造,以及与数据科学的一些健康辩论。经过一次发布和几次迭代后,模型的预测准确性比人工预测提高了 15%。
这是一个惊人的进步,领导层和董事会都很高兴。但对于 Leila 来说,真正的胜利在其他地方:
- 一位资深计划员向新员工展示如何阅读置信区间
- 一位合规官员起草了一份 AI 治理手册(并且乐在其中)
- 一位分析师用无代码工具为供应商创建了一个“副驾驶”
人们不仅仅是采用 AI,还在根据自己的需求塑造它。他们探索、适应并共同创造,将不确定性转化为代理感和控制感。最终,任何 AI 系统中最强大的接口不是模型或仪表板,而是那些充满好奇心、公开实验、在需要时挑战系统并带领他人一起前进的人类用户。
记住——AI 无论如何都会改变你的公司。真正的问题是何时以及如何发生这种变化,以及你将如何参与其中。
本文转载自玄姐聊AGI 作者:玄姐
