AI生死局仅存6位玩家!Claude之父:大模型天生就有“搞钱”冲动!做了CC才能懂模型如何进化! 原创

发布于 2025-8-7 17:01
浏览
0收藏

出品 | 51CTO技术栈(微信号:blog51cto)

说起来,今天已经立秋了,但 AI 圈的这个“盛夏”显然还没结束。

这几天,几大巨头接连出招,行业硝烟味渐浓。明天大概率还有GPT-5要出来炸场。

Anthropic CEO Dario Amodei 一改往日低调,罕见地高频出镜,连续做客多个播客和科技访谈,火力全开。

AI生死局仅存6位玩家!Claude之父:大模型天生就有“搞钱”冲动!做了CC才能懂模型如何进化!-AI.x社区

上图:有网友直言,Dario最近播客很密集,是他最喜欢的一位 AI CEO。

Dario 的难得之处是——即便面对大体量访谈,他也不会机械复读,而是每次都能带来新观点。

这次做客 Stripe 的小酒馆播客,他又抛出一个重磅判断:

 “虽然两三年前 AI 还处于极度不确定状态,但现在我觉得——即使最终的市场结构未定,主力玩家的格局已经差不多定型。” 

他说,真正能打造顶级模型、又有资本能力持续造血的玩家,也就 3 到 6 家,取决于你怎么算。

众所周知,昨天连发产品的“御三家”——OpenAI、Google 和 Anthropic,无疑已经占据前三席。

那剩下的空位,会是谁?

这次的Stripe 播客录制于一个街头小酒馆,Dario 全程松弛,甚至一度聊得手舞足蹈:

AI生死局仅存6位玩家!Claude之父:大模型天生就有“搞钱”冲动!做了CC才能懂模型如何进化!-AI.x社区图片

访谈中既有 Anthropic 的发展思路,也有他对 AI 商业化未来的精准判断。

最新数据显示,Anthropic 在 7 个月内,年化经常性收入(ARR)从 10 亿美元增长至约50 亿美元,实现了 5 倍增长,成为增长最快的 AI 商业公司。

Dario 的复盘很直接:

 “像 OpenAI 和 Google 这种大玩家,更聚焦在消费端。而我们 Anthropic 想要 深耕企业市场(AI for business),并且我认为我们在这方面是有“先发优势”的。”

他将 Anthropic 定义为“平台型公司”,并将 AI 的 API 生意类比为 AWS:

 “大家当时都说云服务没有护城河,但 AWS 的财报出来就打脸了那些人。而 AI 的差异化比云大得多,这绝对是千亿美元级别的市场。”

所以,公司的最终进化形态是:一站式 AI/云服务解决方案提供商。

而构建Claude Code,就是借用了“云服务 + 自营产品”的思路:

 “有些行业我们会自建产品,是因为我们希望真正直面终端用户,理解他们到底在寻找什么。” 

 如果没有Claude Code,我们可能根本搞不清模型该往哪个方向进化。就编程来说,很多模型都能写代码,但‘能写’不等于‘写得对’。我们试图让 Claude 在用户真正需要的方向上变得出色,这才是关键。”

谈到未来,Dario 提出一个耐人寻味的观点:

除了有强烈的学习本能,AI模型还有一种“资本主义冲动”——它们天生就想创造价值。

但现实是:模型能力溢出,AI 产品却连一个像样的 UI 都还没做出来。他也认同这个判断——

哪怕AI发展彻底停滞,光是围绕现有能力打磨产品,整个行业还可以再做十年。

产品和 go-to-market(商业化路径),本质上是在为模型“打开一扇窗”,让它能爬上收入增长的指数曲线。

最后,Dario 希望公司所有员工都有一个AGI意识:加入AI公司的人,就不要再想跳槽回传统互联网了。从财务、人事到产品,每个人都要直面AI的最终愿景!

以下是经过整理的播客全文,enjoy:

离经叛道的决定:Anthropic足足7位联创,股份平均分!

主持人

我今天很期待聊聊Anthropic这家公司。你是学物理和计算神经科学出身,对吧?后来在百度、Google Brain、OpenAI都干过,最后才创立了Anthropic。

Dario

对。

主持人

我们一会儿会深入聊Anthropic的业务,但我真的很好奇——和亲妹妹一起创业,到底是种什么体验?

Dario

我也可以反过来问你啊(笑)。不过我觉得,创业的时候,其实你得做两件事:一是把事情真正落地推进;二是制定好战略,看清那些别人还看不清的问题。而我主要负责第二部分,Danielle(妹妹)主要负责第一部分。我们各司其职,干自己最擅长的事。所以这其实让我们可以把大部分时间都花在最有价值的工作上。

主持人

听上去你们之间的“信任”也起了很大的作用。因为在科技创业圈,尤其是AI领域,联合创始人的搭档关系其实挺容易不稳定的。但你和你妹妹是从小就有的深层信任关系。

Dario

对,是完全彻底的信任。而且不仅仅是我和Danielle。当时Anthropic有7个联合创始人,几乎所有人都劝我们别这样,说“七人创始团队?这肯定完蛋,没等公司做起来就内讧了。”

更别说我还做了个更离经叛道的决定——所有人股份平均分。这个决定当时遭遇的负面反馈更多。

但实际上呢,我们中有些人早就彼此认识了,不光是认识,之前还一起共事过。这样一来,我们在价值观上总能保持同步。随着公司扩张,这种“共同价值观”的传播效应会越来越明显——你有七个真正代表公司核心理念的人,他们会把这些理念带给更广的团队成员。这对公司的长期规模化非常关键。

AI在编程上掀起的变革,终将在其他领域上演

主持人

那我们就来聊聊Anthropic的业务吧。毕竟这是一个堪称传奇的增长故事。最近有报道称你们已经烧掉了超过40亿美元,而且确实有很多人关注你们正在开发的技术。但别忘了,Anthropic本身也是商业史上增长最快的公司之一。所以我想先从市场说起:现在到底大家都在用AI干啥?我们知道写代码、客服是很大的方向,但除此之外呢?

Dario

对,应用确实很多,而且一直在变。不过说到目前增长最快的方向,那肯定是编程,尽管这只是其中之一——我们还有很多其他方向。

我觉得编程之所以起飞,一方面是我们有意去做,另一方面是模型确实在这方面表现不错。

但更深层的原因,其实是社会“扩散力”的问题。今天的AI模型,在很多领域里都存在“能力冗余”——也就是说,模型能做的事比实际应用场景中释放出来的能力要多得多。原因之一就是落地存在摩擦。

比如,大型企业里的员工对这类技术还很陌生。你看银行、保险公司这些行业,模型的应用潜力巨大。就算模型今天就不再进步了,甚至我们不再开发新功能,光是现有能力,也能给一个企业带来数十亿美元的潜力。

很多CEO其实非常明白这点。但问题是,公司一旦有一万、十万员工,那它本身的运作方式就已经定型了,变革需要时间。

而在代码领域就不一样了。程序员本身和AI模型的开发者在技术和社交上都非常接近,所以技术扩散特别快。他们也习惯做“早期用户”,热衷尝试新工具。

所以编程领域的爆发式增长,我觉得核心原因其实是:这群人懂AI、敢用AI、用得也比别人快。

不过也绝对不是只有编程。远远不是。

我们还看到很多公司在做“工具调用”相关的应用;客服领域也是一个热点,我们就跟 Intercom 等公司合作得非常密切。

最近我们也开始在“生物医药”方面看到一些机会——既有药企,也有医疗机构,同时也参与基础科研方向的合作。

比如我们和 Benchling 这样的公司合作,也有一些大型制药公司,比如诺和诺德(Novo Nordisk)就曾找我们合作撰写临床研究报告。你知道那种报告嘛——一堆临床试验的结果、副作用统计等等,正常要写9周。但Claude写完只用5分钟,再加上人类花几天复核,整个周期大幅缩短。

可以清楚地看到,这种“提速”机会是实打实的。随着模型能力提升,它们也会进入更深层的科研领域。

所以总结一下,现在“编程”是最领先的应用场景,但后面其实有很长的“应用尾巴”,有不少场景其实也很有潜力。

可以说,编程只是其他领域变革的“预兆”而已。一样是指数级增长,只不过这边走得快一点而已。

主持人

是啊,代码领域只是扩散得更快一点而已。工程师本来就习惯接触新工具——你看 Hacker News 上天天在吵哪款开发工具更好,大家对“尝鲜”这事都特别上头。

Dario

我们一发布 Claude Code,大概两小时内,就会有某位开发者——你懂的——已经用它折腾了一万种玩法,接入各种框架。Twitter 上的技术圈会迅速形成一个看法,然后过两小时又会反转……

你想想这个速度,再对比一下制药公司在科研流程中应用这项技术的节奏,或者传统零售业的节奏,简直天壤之别。

当然,我们也希望最终能触达“实体经济”的核心场景,那些是全世界最有价值的部分,但它们天生就不会以同样的速度推进。

如果不做Claude Code,就不懂如何让大模型更懂编程

主持人

那你们是怎么决定哪些垂类(vertical)自己来做,哪些就开放给生态,比如像 Claude Code 这样的平台化产品?毕竟像 Windsurf、Cursor 这些公司也在开发自己的平台工具。你们上线了面向金融服务行业的 Claude,但其他垂类呢?你们会选择不亲自下场做吗?

Dario

是的,比如我们推出了 Claude for Enterprise,虽然它不是某个具体行业,但是我们面向企业的通用型布局。

 我们自己的定位是“平台公司”优先。这就有点像做云服务:你如果想做到我们希望几年内达到的量级,很多时候你需要有一些自营产品(first-party product)配合。

比如有些行业我们之所以会自建产品,是因为我们希望能直接面对终端用户,真正了解他们怎么用、在寻找什么。

如果你完全是做平台的,跟用户之间缺乏这种联系,其实是会吃亏的。

主持人

那就很难做出真正优秀的产品。

Dario

没错,而且你甚至可能根本搞不清模型该往哪个方向进化。

以“编程”为例,很多模型貌似都能写代码,但它们的“能写”,并不代表“写得好”或“写得对路子”。

而我们是设法让 Claude 在“用户实际需要的方向”上表现出色,这是个很大的区别。

还有一点是,大企业往往对 API 的集成比较吃力。如果你只提供 API,它们未必能快速上手。所以有时候你需要给它们一套工具包,甚至直接给个能用的应用。

我们在做 Claude for Enterprise 的过程中,也在慢慢往“虚拟同事”这个方向靠。

主持人

不过我还是很难想象你们会开发 “Claude for 石油天然气勘探” 这种东西(笑)。

Dario

为什么?你为啥觉得我们不会做这个?

主持人

也许……说不定你们下一个版本就干这个了(笑)。

Dario

哈,目前我们确实没有在搞“Claude for 石油天然气勘探”。

我觉得得区分一下:有些事我们明确不会做,比如违法的,我们就不允许;但还有一类事情,它可能不违法,但我们对这个领域并不热情。

我们是平台公司,生态里什么人都有,大家总会去做各种事情。但我们自己不会主动去推动那些我们不在乎的场景。

相反,有些方向,我们虽然知道可能没那么赚钱,但仍然愿意投入很多。比如科学、生命医学这些领域,我们做得就远超出它的商业“性价比”。

我们对“发展中国家”的相关场景也是类似的态度。再举个争议更大的例子——国防和情报。很多人一听说我们在做这方面的项目,就说:“你们这不是在出卖理想主义吗?”

但我看法正好相反。我们之前和美国国防部签了一个上限2亿美元的合同,一些人就开始批评我们“为了钱什么都干”。但说实话:要是我们真想赚钱,随便再接一个 AI 编程类的客户,轻轻松松就能赚这笔钱,不用花那么多精力和政治博弈。我们之所以做,是因为我们真心认为保障民主制度安全是一件值得干的事。 当然我们也会设定边界。

比如我们非常警惕“政府权力在国内的滥用”——所以更倾向于把能力用在“外部防御”上。这些决策不是出于“感觉良好”或是想迎合媒体口碑,而是我们对某些事情有真正的信念。外界是否认同,并不会左右我们的判断。

AI大势已定:能做前沿模型又能造血的只有3-6个玩家

主持人

那说到这儿,你理想中想把 Anthropic 打造成什么样的公司?三到五年之后,它该处在一个什么位置?

Dario

AI 是个很奇怪的行业,它的非线性增长让人难以准确预测未来到底有多大。

我举个我们自己的例子。2023 年初,我们的产品还没上线,营收是零。而我那时得去找机构投资人募资——我跟他们说,我觉得我们今年可以做到 1 亿美元营收。

结果有投资人直接回我:“你疯了吧?资本主义发展到今天,还没出现过这种事。”

他们直接否定我,说我不靠谱,拜拜了您嘞。

结果我们真的做到了。

第二年我又说,我觉得我们可以从 1 亿做到 10 亿。

虽然这次被说“疯”的次数少了一些,但也还是有人不信。我们又做到了。

今年才过了一半,你看我们现在的年营收已经超过 40 亿美元了。你把它画在对数坐标图上看,就像每年加一位数。

当然,未来有可能会放缓,但也存在另一种可能——这个指数曲线继续走下去。再过两三年,这些 AI 公司可能就是世界上最大的公司。

我觉得在 Anthropic 工作、或者管理这样的公司,会有一种非常特别的不确定感。你做一个指数级增长的预测,听起来可能很疯狂,但它也可能不是疯话,因为历史上我们确实一路都是这么走过来的。

我以前在谈 AI 模型能力和技术趋势时就说过类似的话——现在商业发展轨迹也开始出现同样的指数线条。

主持人

这让我想到“大模型的 scaling law(扩展规律)”。你只要把关键输入一起放大,比如更大的数据、更强的计算资源,模型性能就能大幅提升。那在业务上是否也有类似的路径?比如你放入更好的模型、配上正确的组织结构,会有什么结果?

Dario

是的,确实存在类似的曲线。比如你花 5 倍、10 倍的钱去训练一个模型,或者用上 5 倍、10 倍的数据——就像 scaling law 里讲的那样——模型能力就会上一个台阶。

那这个转变也会带来收入的“跃迁”:比如模型从一个聪明的本科生升级成了一个聪明的博士生。

我再拿它去给一家制药公司演示,对方会说:“这个能力,确实值那 10 倍。”

这种“幂律”分布其实在很多场景下都会出现。

从技术上讲,训练越久的模型,能捕捉到的“相关性尾部”就越长——包括语言结构、世界规律、行为模式等等。

这些相关性构成了 scaling law 背后的数学基础,也就是近似对数分布。那从模型的“认知能力”来看,它在经济中的作用也逐渐体现出来——比如说企业组织方式,其实也呈幂律结构,尤其是你去分析一家公司内部的组织架构图。

所以我的理解是:产品和 go-to-market(商业化路径),本质上是在为模型“打开一扇窗”,让它能爬上收入增长的指数曲线。

产品和市场策略就像是擦亮玻璃,让光照进来;或者像是扩大光圈,让指数爆发得以发生。

主持人

所以你会觉得,模型本身就“想学习”,它们也“渴望在市场上大获成功”。

Dario

没错!除了有强烈的学习本能,模型还有一种“资本主义冲动”——它们天生就想创造价值,除非你给它配了个烂产品或烂销售。

主持人

因为它们太有用了。这种智能对人类太有吸引力,几乎会被市场“抽取”出来。那你觉得,AI 的终局市场结构会是怎样?会是几家巨头垄断,还是会不断冒出新的、专注于细分场景的公司?

Dario

很难说得准。两三年前我们还在极度不确定的状态中,但我现在感觉——即使最终市场结构还未成型,主要玩家的格局已经差不多定了。

你要说现在能打造前沿模型、又有资本支撑自我造血的玩家,大概也就是 3 到 6 家,取决于你怎么算。

AI的业务逻辑:每个模型当成一家独立的公司

主持人

我一直很好奇:AI 模型这个业务逻辑到底是怎样?它们的投资回报路径不像传统产品。你前期砸很多钱训练模型,它变成一项“快速贬值但长尾有用”的资产,然后你指望未来把钱赚回来。外界的普遍印象就是“疯狂烧钱”,那它到底是怎么运转的?

Dario

现在模型业务的玩法,其实可以用两种方式来描述。

比如 2023 年你花 1 亿美元训练了一个模型,然后 2024 年部署它赚回 2 亿。与此同时,根据 scaling law,你在 2024 年又训练了一个成本是 10 亿美元的模型,然后它在 2025 年带来 20 亿营收。

再接着,你花 100 亿训练下一代模型……

如果你用传统财报的方式来计算,这看上去是亏损在不断加剧:

第一年亏 1 亿 

第二年亏 8 亿 

第三年亏 80 亿 

——一眼望去,像是在走向毁灭(笑)。

但你换个角度来看:如果把每个模型当成一家独立的公司,那其实情况是完全不一样的。

比如你 2023 年花 1 亿训练一个模型,它 2024 年赚了 2 亿。就算你考虑推理成本,结果仍然是盈利的。

所以这个行业的真实运作方式,是在你吃到一个“模型公司的红利”时,同时又在启动一个成本更高的新模型公司。

这会一直继续下去,直到某一天模型规模达到了物理或经济的极限,这时行业会进入一个“高盈利平台期”。

当然也有另一种可能:模型不再持续进化,AGI 的征程被某种原因中断,前期巨额投资变成沉没成本。那就会有一次性“哎呀白花钱了”的 moment,然后行业回到一个相对稳定的状态。

换个说法也可以:这是风险投资领域常见的模式——前期烧钱,后期回本。只不过这一次,它在同一家公司内部被反复上演,每一次新模型训练,就像在做一次全新的风险投资。

我们现在正处于这条指数曲线上,但总有一天,会抵达一个新的均衡点。

现在唯一值得问的问题是:我们会在多大的规模下达到平衡?以及——我们会不会“冲过头”?

主持人

你刚才提到了云服务公司,作为对比。我总觉得他们的数据中心投入是那种“持续型”的:每年都在盖数据中心。而大模型这边的投入更像是“离散型”的一代一代更新,就像……喷气发动机公司不停搞出新技术?

Dario

对,有点像 F-16 战斗机那种,或者更像制药行业。一个研发密集型的赛道。

主持人

你每次真要训练一个模型,都像是一场大的投入。

Dario

对,就像制药公司开发一款新药——一旦这款药成功了,你就会去开发十款药,再搞一百款。虽然制药行业实际不是这么指数增长的,但我们这个行业,就好像它真的是这样。

主持人

所以你是说,我们可以把每个模型当成一个独立“项目”来看,然后看它们自己的损益表(P&L)?从这个角度看,大模型的投资回报期其实也没那么吓人。就像 SaaS 公司一样,拉来一个客户只要九个月回本,你当然会毫不犹豫去做。

Dario

对啊,那种是非常轻松的回报模型。

主持人

那模型的回本周期也是类似的,9 个月、12 个月?

Dario

我不想给出具体数字,但从质性角度说,如果你一个模型一个模型来看,其实是完全跑得通的商业逻辑。

谈硅谷人才战争:真正有价值的是做一个复杂系统的能力

主持人

2023 年,大家都在说“data wall”这个问题——我们是不是已经找到出路了?

Dario

“数据墙”?我不确定外界说的都准。有时候公众讨论的内容,都是谣言或者猜测,我甚至不认为“数据墙”真的存在。

我可以说的是:“强化学习(RL)”这个概念其实早就有了。你要是往回看,比如 DeepMind 用 AlphaGo 打败围棋世界冠军那次,用的就是 RL。

Dario

后来我们开始训练语言模型,而现在的趋势是——我们把 RL 叠加在语言模型上。这其实就是所谓的“chain of thought”(思维链)、“推理能力”——听上去花哨,其实本质上就是 RL。

只不过这个 RL 的环境变成了:模型先写一堆内容,然后再给出答案,仅此而已。

所以现在的语言模型训练,其实结合了两种学习方式:模仿学习(imitative learning) 和 试错学习(RL)。

你可以把它类比成一个小孩学习的方式:一方面他观察父母怎么做、照着学;另一方面他也会自己去试一试、从错误中摸索。发展心理学早就证明人类就是靠这两种方式同时学习的。现在我们看到这种路径也被“复刻”到了语言模型上——先模仿,再试错,非常自然。

主持人

另一个让局外人感到震惊的,就是 AI 行业内的“人才战争”。你在之前采访中说,现在 AI 的知识产权是“每天晚上都会走出办公室的”——因为它存在于人的脑子里。

你还提到那种“价值一亿美元的秘密,可能就几行代码”。这其实可以用在国家安全层面,但在人才竞争层面也一样成立。

你怎么看这个问题? 制药行业有专利保护;华尔街也有那种价值一亿美元的“简单策略”;像 Renaissance Technologies(全球最神秘的对冲基金)就是通过严格的保密制度来锁住员工的。

那你们这种 AI 公司,怎么在当前环境下保持竞争优势不被泄露?

Dario

这个问题我有几点看法。

确实,有些东西是那种“几行代码就值一亿美元”的类型,但随着行业发展,真正有价值的,不再是那些小技巧,而是把复杂系统真正做出来的能力。

我们也会讨论某些很简单的 idea,比如“把 transformer 的某个模块调一下”——这种点子可能今天你想到,明天别人也能想到。但真正有价值的是那些:

非常难实现的工程系统,我们已经做出来了; 

实现过程本身就很麻烦,需要 know-how; 

或者是某种工程“苦活累活”的堆叠成果。 

这些更像是集体性的能力积累,不那么容易泄露出去,也更具“护城河”。

当然了,泄密问题我们还是非常担忧的——不论是从商业竞争角度,还是从国家安全角度,这都是我们严肃对待的问题。我们也确实在采取一系列防范措施。

首先,我们在公司内部做了信息“分区管理”。就像情报机构那样,谁需要知道什么就告诉他什么(need-to-know basis)。Anthropic 内部也是类似操作。

主持人

这可能和硅谷主流文化很不一样吧,后者一向是“信息自由流通”的那一派。

Dario

对,我们公司是两者并存。一方面文化非常开放,我平时会跟全体员工讲很多事——甚至可能换个 CEO 会先拿去 PR 精修一下再说。但另一方面,当某个信息是“保密”的,大家就会真正觉得“哦,这是真的需要保密的事”。

反而这种方式能让团队产生更高的信任,也带来更高的留任率。

我们目前是所有 AI 公司里 留任率最高的。如果你把那些“非遗憾型流失率(non-regretted attrition)”扣掉,差距就更明显了。

有时员工离开后又会选择回归。你可以去看那些跳槽去 Meta Superintelligence Lab 的公开名单——就算按体量归一化,我们流失的人数也不多。而且,很多人其实是 拒绝了那些天价 offer 的。

主持人

所以说,在这场百亿美元级别的“AI人才大战”里,你们反倒没怎么吃亏?

Dario

相较其他公司,我们表现得确实不错,甚至可以说是有一些“逆势优势”。

这得益于两方面:对使命的真实信念,以及对股票(equity)回报的信心。

Anthropic 一直有一个口碑:我们说到做到,有时甚至承诺少,但兑现率高。我们非常清楚自己的立场,并且多年来始终如一。这种文化能把公司凝聚在一起,也是对“犬儒主义”的最好防御。

API的千亿生意刚刚开始,AI会比云服务更赚钱、更有黏性

主持人

那当你在向投资人或求职者介绍 Anthropic 时,除了“我们要做一个非常大的生意”,你还会怎么讲?

Dario

我通常会讲平台定位,以及模型的重要性。有时候人们提到 API 生意,就说什么“黏性不够”“迟早变成商品”。

主持人

我爱死 API 生意了!

Dario

对,我也是(笑)!而且你看比我们还大的生意,比如云服务,那些就是千亿美元级别的 API 生意。

当资本成本这么高、市场又只有少数玩家的时候,相较于云服务,我们这边的产品其实更加“差异化”。

你想啊,每个模型都有自己的“性格”——跟人对话时是完全不一样的。

我经常开玩笑说,如果我坐在一个房间里,周围有九个身高差不多、脑子也差不多的人,那我是不是就变成了“商品”?当然不是啊。人类劳动力不是这么工作的。

模型也是如此。所以我认为,API 是个非常棒的生意,而且我们也希望做得更宽、更深。

我觉得现在像 OpenAI 和 Google 这种大玩家,更聚焦在消费端。而我们 Anthropic 想要 深耕企业市场(AI for business),并且我认为我们在这方面是有“先发优势”的。

我不太确定,因为我看不到对手的收入数据,但我猜我们可能已经拿下了 API 企业市场的最大份额(至少是最多之一)。

主持人

说到“商品化”的争议我也有印象。早期大家总说“云服务不值钱,毫无壁垒”,但我记得 2015 年 AWS 第一次单独披露财报时,直接打脸了所有人——一公布就成了史上最赚钱的业务之一。

有竞争对手、买家在意价格,这不代表这个东西就是“商品”。正如你说的,模型之间根本不是一回事。

Dario

完全正确!你知道我们自己就是云服务的最大客户之一,而且我们用的是不止一家。我可以负责任地说:云服务之间的差异,远远小于大模型之间的差异。

主持人

确实。模型的输出是非确定性的,这反倒成了一种优势。比如你发现:我们在客户服务场景里,更喜欢用这个模型回答而不是那个模型。

Dario

对啊,为什么?我也说不清。就像烤蛋糕一样,你材料都一样放进去,但不同厨师做出来的味道就是不一样。你想完全复刻另一个厨师的蛋糕,几乎不可能。

主持人

而且目前的 AI 产品其实还没有真正做到“个性化”,但未来一旦实现,个性化会成为用户黏性极高的一环——你不想轻易更换,因为它已经“懂你”。不管是 C 端还是 B 端,这个趋势都很明显。

Dario

完全同意。我们现在只是刚刚开始探索而已。未来模型会根据某家企业,甚至某个具体员工进行深度定制。

所以我认为,API 生意才刚刚开始。

但我也不觉得“AI for business”就只是 API 而已。比如 Claude Code,我不仅卖给开发者,也卖给企业——而且企业觉得它确实实用。Claude for Enterprise 也已经在大量对公销售。

你看看云服务公司,比如 AWS、GCP、Azure,他们产品线里有基础设施,也有应用层服务。

我们现在的产品结构,也开始往这个方向靠拢。

我们希望自己成为你“一站式 AI/云服务解决方案提供商”。所有东西你都可以从我们这买,也可以找我们聊聊该在什么场景用什么工具。

这会逐步勾勒出一个更有韧性的商业模型。

真正服务企业用户:让AI 技术渗透到10 万名员工的工作日常

主持人

那如果我们看一家典型的《财富》500强公司,比如他们可能在客服上试用了 AI,工程师也许在用 AI 编程工具。你觉得,他们的 AI 采用率,跟“应该达到的水平”比,差距大吗?

Dario

毫无疑问——远远不够。

主持人

那你觉得现在采用率大概是 5%、还是 30%?

Dario

我想说的是,这类公司高层通常非常有信念感。你去跟 CEO、CTO 谈,他们都能一下子 get 到 AI 的重要性。

问题在于,他们公司有 10 万员工,这些人本职工作是做银行、保险或药品研发,AI 对他们来说只是个新鲜玩意儿——不是他们的专业领域。

所以我们经常做的事就是:帮助这些企业领导,把 AI 技术真正推动到那 10 万名员工的日常中去。

目前看,最容易推广的是编程场景——因为开发者最贴近 AI 生态,也最关注新技术。

接下来是客服和流程自动化这种领域。我认为,即使只看今天已有的模型,这个市场的规模也应该是现在的 100 倍——那种“被严重低估”的直觉感非常强烈。

主持人

我也有同感。我直觉上觉得,我们会首先在初创公司中看到 AI 的新用法——因为他们没那么多流程、没那么多历史包袱,可以直接采用最合理的做法。

而大公司呢,就像你说的,CEO 和 CTO 是聪明的、反应快的。他们会把这些新玩法引进来,就像我们当年看到云服务的采纳路径一样。

Dario

没错,小公司要么提供新思路、要么直接威胁大公司地位,逼得后者加速改革。

我给大公司一个非常实用的建议:你们可以成立一个“特遣队式的小组”,在组织之外先行开发原型。等这些原型验证成功,有势能之后,再整合回母体组织中。

虽然整合过程会很艰难,但当你已经有了成果和说服力,推动起来就容易得多。

AI多次打脸怀疑论者:我不认为这里有“墙”

主持人

你看过 Dwarkesh 那篇关于 AI 时间线的博客吗?

Dario

哦,是那篇讲“持续学习”的,对吧?

主持人

对。他提到一个问题:现在很多 AI 模型就像是一个“超级聪明的新同事”,但永远只是在入职的第 5 分钟——也就是说,它们不会随着时间变得更懂你、更有积累。我们该怎么解决这个问题?

Dario

是啊,我觉得这类问题在 AI 发展历程中出现过很多次。

总会有人说:“AI 模型做不到 X。”

以前是说:AI 不能推理;后来是 AI 不能发现新知识;再早几年是 AI 无法写出结构清晰的长文本;更早是乔姆斯基那套,说 AI 模型能搞语法但永远搞不懂语义。

但这些所谓的“墙”,我们一次又一次地穿透了。

主持人

那你怎么看“AI 不能发现新知识”这个说法?

Dario

我觉得这就像很多别的说法一样,不是“能”或“不能”那么二元。

主持人

他们只是不能把名字署在论文上罢了。

Dario

对,确实不能挂名(笑)。但我们得先问:“什么叫新发现?什么是‘天才’?”

我记得一本发展心理学的书里举过一个例子:

比如一张桌子不稳,我顺手拿杯垫垫在脚下,它就稳了——这算不算“创见”?如果我从没见人这么做过,那它就是我的“新发现”。

Dario

这种发现和一个诺贝尔奖级发现的区别,只是量变,而不是质变。

所以我认为:AI 模型每天都在做“新发现”。

我家人曾遇到过一个医学难题,结果是 AI 模型准确识别出来了,而医生却忽略了——这不是什么伟大发现,但它确实是一个真实的发现。你可以说这只是“模式匹配”,但作家不也是这么创作的吗?他们混合既有元素,再加入一点新东西,就成了自己的作品。

这一切,都是一种连续谱。而这也正是“持续学习”该讨论的问题。

很多人说“AI 没有持续学习能力”,我其实觉得它已经有了一点点雏形,我们也会找到办法,让它变得更强。

比如现在的模型能在上下文中“学习”——你和它对话,它就吸收这个上下文。未来,这个上下文可能长达 1 亿 tokens,我们甚至可以训练模型,让它专门学会“从上下文中持续学习”。甚至在上下文里动态更新权重。

这些想法,其实跟我们现在已有的技术非常接近。

我觉得人们太执着于“那堵墙”的存在了,总是希望某个问题是根本性、不可突破的。但现实往往不是那样。

主持人

我感觉这其实是一种心理应对机制,一种“自我安慰”。

Dario

对啊,我想到一个特别像的例子:19 世纪的“生命本质论(vitalism)”。

当时人们认为,生物体和无生命物体是由本质上完全不同的物质构成的——但我们今天从科学角度知道,这并不是真的。

不过这种说法确实很容易让人相信:你看看自己,再看看一张桌子,当然会觉得“我才不是这种死板的东西”。但如果我们把它拆到最基本的单位——原子、分子,其实大家都是一样的。

主持人

所以你是说,现在人们其实只是把“生命本质论”换了种说法,套用在了人类独特性上:他们会说,“AI 做不到那种真正的人性化的东西。”

Dario

对,我觉得这种心理倾向确实存在。

但就像过去那样,我们应该重新认识一个事实:“心智就是心智,无论它是由什么构成的。” 认知或感知的“特别之处”并不在于它的材质,而在于它的本质能力。而这种能力,可能可以用别的东西来复现。

人类也有“幻觉”,AI时代的用户必须学会识别模型犯错

主持人

你之前提过医疗场景,我觉得那是个很棒的例子。一方面确实帮了很多人解决健康问题,另一方面我也很喜欢你在《Machines of Love and Grace》那篇文章里讲的——“智能的边际回报”。有些领域,智能就是限制性瓶颈。

比如在医疗上,大多数人都会遇到一些轻重不一的问题,而整个社会在这方面其实就是“智力供给不足”——不是说你没法找到聪明医生,而是即便你找到了,他们也只能花十秒钟想一想你的问题……

Dario

是的,这正是我的看法。我甚至跟诺奖级别的生物学家聊过,他们直言不讳地说:“我只看最顶尖的 1% 医生,剩下那 99% 的,我宁愿听大语言模型的建议。”

这听上去可能有点精英主义,但确实如此。医生太忙了、时间有限,而医学本身是一个高度依赖模式识别和信息整合的学科,而 LLMs 在这方面其实非常强。

主持人

这也是我觉得医疗案例很有代表性的原因之一。它属于“整个社会都在智力受限”的那类问题——

但一旦你让每个人都能获得更聪明的建议,就会极大地释放价值。那除了医疗之外,在消费级或企业级的应用中,你觉得还有哪些地方明显是“智力不足”的?

Dario

就目前的 AI 模型而言,最擅长的,是这样一类问题:重复性高,但每个例子又都有点不一样。

传统的自动化是这样的:你能明确规定流程,它就能执行。但像客服这种场景,每通电话都不一样,但本质上 90% 都在问那 10 个问题,只不过是不同人、用不同的表达方式说出来。

这种“相似但不完全相同”的结构,正是 AI 发挥价值的理想场景。

主持人

你还在那篇博文里提到另一个预测——目前你还不能把所有财务数据和邮件都丢给 AI,然后它帮你完成报税。

但有人预测,到 2028 年就能实现。你觉得这个预测靠谱吗?

Dario

我觉得可能更早。或许 2026,甚至 2027 年。

现在模型已经具备能力了,只是错误率还不够低。我们还需要解决自我校验、减少错误这些问题,还有交互方式也要进一步优化。但如果你说“真的要等到 2028”,我会觉得太慢了。

主持人

所以你觉得大概是 2026 或 2027。那我们顺着聊“错误率”这个事——你之前提到一堆“AI 永远做不到”的问题,我觉得幻觉(hallucination)应该也算是其中之一吧?虽然它还没完全解决,但已经好多了。

Dario

是的,确实进步很大。人们现在也越来越清楚,哪些事情该信模型、哪些事情不能全信。

模型本身也越来越依赖引用支撑(citation grounding)。比如 Claude 就已经在做这方面的改进,Claude for Enterprise 也是一样。

解决幻觉问题的方式有三种:

算法上,模型更少胡说八道; 

工具上,引用机制增强了可信度; 

用户层面,人们学会了辨别模型的强弱项。 

我一直觉得,幻觉这类问题,很容易被某一类批评者拿来做文章——他们会说:“你看,它还做不到这个,它不是人类,永远赶不上我们。”

我能理解这种直觉,但其实这是一种误解。

“通用智能”是由很多能力组成的。你可以在一些方面比人类弱得多,但在其他方面强得离谱。

 就像我们看人类自己…… 你见过人类吗(笑)?你看看自闭症患者和精神分裂患者之间的差异,看看人类常常会被哪些光学错觉欺骗——那些错觉,模型却完全不会被骗。

很明显,我们自己也有一堆“系统性弱点”,就像模型会产生幻觉一样,只不过看起来不一样而已。只是因为我们每天都跟人类打交道,所以我们已经习惯了人类的那套“系统性错误”。

主持人

最典型的例子,可能就是大家对自动驾驶的双重标准。

Dario

完全同意,这简直就是“双标”的典范。

主持人

人们对自动驾驶的容错率要求太高了。

Dario

对,我们对技术的要求远远高于人类。但这其实是 AI 技术的一个固有特点,而且它也会对商业层面带来深远影响。

我认为未来会是这样:AI 模型犯错的频率远低于人类,但它们犯的错会更怪,更出人意料。

这对终端用户来说,需要一些适应过程。

你想想你平时跟人打交道,你会下意识知道:“哦,人类大概会有 5% 的时间搞错。”你还能从语气、表情、声音中推断他们状态不佳。

比如你跟客服聊天,对方说话不清楚,听起来状态不对,你可能会想:“他可能今天太累了,不太在线。” 虽然这是个失误,但你能理解发生了什么,也知道该对他说的话持保留态度。

但如果是一个大语言模型犯错,它可能比人类犯错的频率低 5 倍,但它的语气依旧非常自信、条理清晰、逻辑严密——你很难识别这个错误。这种“难以觉察”的错,其实更具有误导性。

但我认为这不是“本质性缺陷”,而是“适应性问题”。所以我们在跟客户交流时,都会特别强调这个点:你得学会“识别模型犯错的方式”。

主持人

所以我们是不是得给大语言模型加上点“口齿不清”(slurring)特效?

Dario

哈哈,对,正是如此!

AI能力已经“过剩”,但产品形态严重滞后

主持人

你从研究员出身,现在却成了一家 AI 公司的 CEO,要亲自参与市场、产品、销售……你在“商业化”这块都学到了什么?

Dario

的确,我最初创公司并不是因为我一开始就喜欢“卖东西”或者搞商业。

我创立 Anthropic 的出发点是,我看到一些同行公司在做着极具重量级的事情,却感觉……他们团队的动机不太对。

我知道这个赛道里一定会有很多玩家,但我总觉得哪怕只有一家有明确价值观和原则的公司,也能让这个生态变得更好一点。

我们希望在构建技术、部署模型时都能“走不同的路”,而且——哪怕我们只列出一个很短的“原则清单”,我们也要坚守它。

这就是我创业的初衷。当然,我也很想亲手打造出强大的技术。

但随着公司发展,我和其他联合创始人也逐渐开始学习商业和战略方面的东西。让我自己都感到意外的是:我其实对商业面非常感兴趣,而且学得还挺快的。

最大的原因是:我们服务的客户覆盖了几乎所有行业——就像云服务商那样,你会突然接触到很多你从未了解过的行业。

我以前是做生物学的,自认对制药行业还算了解。 但我过去只关注科学本身,从没想过药企的产品组合管理、临床试验如何运作、如何降低研发成本等等。我也从来没认真思考过国防和情报行业的具体业务。现在深入进去一看,我真的觉得特别有意思:理解人们面临的现实问题,然后思考 AI 如何帮上忙。

唯一让我一开始没太感兴趣的,反而是“产品”这块。

我对商业、行业有天然好奇,但一提到“做 App”我就有点提不起劲,哪怕我已经创办了这家公司(笑)。

但最近这两年,看着哪些产品成功、哪些失败,我开始逐渐意识到:

“产品要为 AGI 做好铺垫。”

你得设计那种“有长期价值”的产品路径。我们都知道“wrapper company”的风险——有人基于 Claude N 做了个产品,结果我们发布了 Claude N+1,那款产品就直接被干掉了。

所以我经常建议开发者:不要只是修补模型的短板,而是要看清方向,做那些能“陪跑 AGI”的产品。

现在我越来越觉得:“AGI化的产品设计思维”是一个特别值得投入的领域。

主持人

你提到这个太好了!我一直觉得——我们现在根本就没有真正的 AI 用户界面(UI)。

我们还在用文本框输入文字,这就像是 1970 年代的终端窗口!就连语音助手都得手动唤醒,跟几年前的 Siri 没什么区别……

Dario

对,现在的 AI 用户界面(UI)确实不太对劲(笑)。我完全同意你的看法。

这让我想起互联网早期的设计:人们会把网站做成“现实世界的空间结构”,比如你点开一个“虚拟衣柜”,然后从里面拿出东西…… 这其实是一种设计风格,有个术语我一时想不起来了……对了,拟物化设计(skeuomorphism),就是这个感觉。

Dario

我想说的是:随着我们越来越走向“智能体”(agents)时代,我们会进入这样一个阶段:

AI 模型可以端到端完成一件事,像 Claude 现在已经可以做到很多事大部分时间都是对的,人类的主要任务只是“复核”或者“适时介入”。

但有趣的是,复核这件事本身就很复杂——你必须深入理解发生了什么,才能判断结果是否正确。

于是我们就遇到了一个“交互上的张力”:我们希望界面能足够“流畅自动”,大多数时候不需要我们操心,但一旦出问题,我们又必须有能力深度介入、调试、追踪。

现在没有任何一款产品或界面能解决这个问题。

主持人:

对啊,理想状态是:你希望 AI 自己去“做事”,回来交出成果,再让你评估、引导、决策。

Dario

但问题在于,它会同时做很多事——你根本没时间一个个检查。如果你总是全程盯着,那还不如自己动手快。所以这其实是一个界面设计问题(interface problem)。

主持人

我感觉 AI 领域最令人兴奋的事之一是:我们现在的能力“过剩”,但产品形态严重滞后。就算 AI 技术现在被冻结,我们都还有 10 年的好产品可以去造。

Dario

我完全同意!

现在的产品开发思路已经发生了巨大变化,我想整个行业都是这样想的。

我们从没经历过这种情况:你一边开发产品,底层技术一边剧烈变动。如果模型能力停止增长,产品路线图的规划方式会立刻改变。

但现实是:模型进步不断,所以传统意义上的“长期规划”根本不适用。

我一开始也觉得自己对产品一窍不通。但现在我会跟新同事明确说——做 AI 产品,完全不同于传统产品。哪怕你在非 AI 领域很有经验,这套打法在这边也未必适用。

你得比任何时候都更快,更试错,更迭代,因为底层在不断变化。

主持人

有没有什么具体例子能说明这个差别?

Dario

比如你计划开发一个产品,周期是六个月。这种“闭门造车”式开发在 AI 领域几乎毫无意义。

主持人

所以你反而需要更短的迭代节奏。

Dario

对,而且要勇于试错。

最难的地方在于:你根本无法预测接下来会流行什么。可能某个新模型一出来,突然能做一件之前无法实现的事,从而使一个新产品成为可能。

所以你最应该做的事就是:试一个从未有人做过的东西。

比如你内部刚上线一个新模型,那就赶紧在它上面做点原型,内部快速试用看看。整个感觉有点像“永恒的九月(eternal September)”:你仿佛第一次发现“数据库”这种技术,然后想——我能基于这个造出什么?

AI 产品开发,现在每天都像“第一天”。

AI开源的扎心之问:你需要“模型权重”,还是只是一个功能强大的 API?

主持人

你提到数据库,那其实也挺像我们现在讨论的“开源 vs 闭源”问题。

当年最早成功的关系型数据库都是闭源的,后来才被开源追上。 那你觉得怎么保持与开源模型的差距?

Dario

我觉得开源在 AI 领域的含义,和其他技术领域不太一样。

有人会称它们为“开权重模型(open-weights models)”——因为即便你拿到模型权重,你也无法理解里面到底发生了什么,不像传统软件可以读源代码。

主持人

你也没法在这基础上“稍作修改就换皮”。

Dario

对,你无法轻易生成一个“差不多但不同”的版本。

当然,我们 Anthropic 也在做“机制可解释性(mechanistic interpretability)”的研究,想办法让人真正理解模型内部机制。

我们也正在开发一些可以暴露模型属性的机制——但说实话,还差得远。

 现在如果你有模型访问权限,确实可以微调它。我们也开放了一些接口,让开发者能在我们平台上做“接口级微调(via interface)”。

所以这里有个问题是:你究竟是需要“模型权重”,还是只是一个功能强大的 API”?

这里既有技术的考量,也有经济学上的问题——毕竟在云端运行模型是很贵的,有人得为你提供高性能推理服务,这也决定了你能拿到多少利润率。

主持人

所以“开权重模型”并不一定那么有用。真正“完全开源”的模型才更有讨论意义。

Dario

这中间确实有很大的差距。我觉得和以往技术的类比只能算部分成立,因为这确实是一个全新的领域,我们还在探索。

但从我们自己的角度来看——每当一个新模型发布,或者竞争对手放出新模型,我们不会去关注它是不是开源,我们只关心:

它是不是强? 

如果它在我们擅长的事情上也变得很强,那就是竞争。不管是不是开权重,只要强,就会对我们构成威胁。所以这两者之间,并没有本质区别。

每个员工都该有“AGI”意识:AI与传统互联网公司完全不同

主持人

那你觉得,Anthropic 是怎么做到比其他公司“更 AGI 倾向(AGI‑pilled)”的? 除了产品节奏更快之外,组织层面有没有更广泛的体现?

Dario

我之前提到过,我每隔几周都会向整个公司讲一次我对未来的愿景。 这个仪式感很重要——是为了让大家始终聚焦在公司的使命上。

我们现在身处一个很诡异的时代,我自己在讲这些愿景时也会坦白说:“我并不确定”。但如果让我下注——

我赌的是这样的未来:

  • 一到三年内,数据中心里将像是住着一个“天才国家”的人口密度。
  • 这会颠覆经济结构,极大加速科学进展,
  • 同时也会带来全球治理、国家安全、甚至金融系统的剧烈冲击。
  • 它的上限非常高,但潜在的破坏力也很大。

我希望避免一种心态:有些员工加入 AI 公司,仍然把它当作一个普通 tech company,以为几年后还能跳槽到什么“传统行业”。但——

主持人

这根本不是一个“同类型的公司”。

Dario

完全不同!

我希望在整个公司上下——无论是财务、招聘、产品还是政策部门——都具备这样的前提认知:

  • 财务在做预测时,不能用线性思维,要意识到未来可能出现极端结果;
  • 招聘要意识到,我们在做一些“疯狂”的事情,这不是普通岗位;
  • 产品必须具备 AGI 意识,要设计出通往未来的产品;
  • 政策团队也要理解自己所面对的是怎样的技术变革。

我认为我的一个重要职责,就是保持整个组织围绕这个核心命题的共识。

并不是说每个人都要变成 AGI 教徒、穿着长袍念经(笑),但要接受这样一个前提假设:

 我们这家公司,是建立在“未来会发生巨大变化”的信念之上的。 我们的业务策略、我们的社会责任,也都应该围绕这个可能性来设计。

AI的危险不是太强,而是“失控”

主持人

如果你要给这个未来贴上一个数字,你曾经说过 AI 能推动全球经济每年增长 10%。

那我们现在谈论 AI 风险时,通常在讲滥用或伤害,但真正的风险是不是: 我们把 AI 监管错了、发展放慢了,从而让人类错过了大规模福祉的机会? 

Dario

我自己确实有这种亲身经历。 我的家人曾因某种疾病去世,而这个病在他们去世后不久就被攻克了。

所以我深刻体会到:技术进展得太慢,也是一种损失。

另一方面,有些 AI 风险也可能对社会造成极大冲击,甚至威胁到人类文明的稳定。 我们不能对这种级别的风险掉以轻心。我并不是那种主张“暂停技术”的人,我不支持暂停开发。

因为现实是,这根本不可行:

我们有地缘竞争对手,他们不可能不研发; 

巨额资本已经全部下注在这场竞赛里; 

我自己亲身经历过哪怕微弱的“降速”提议,背后都会遭遇“上万亿美元”量级的资本阻力。 

这也说明了“该慢不能慢”的实际约束。

所以我认为,问题不是“到底要不要放慢”,而是: 我们能否在“几乎不降速”的前提下,引入足够的安全性和稳健性? 

比如说,我们原本可以做到 10% 的年增长, 那现在是否可以接受 9% 的增长, 换来对系统性风险的保险?

在我看来,AI 的最大风险反而不是“太快”或“太强”,而是“失控”。

我不想“叫停反应堆”, 我想做的是:把反应堆引导到正确的方向上。

主持人

你之前说过,如果到了 2025 年 12 月,还没有新的 AI 法案出台,你会感到非常担忧。 那现在的感受是?

Dario

其实加州这边现在确实有一点进展,有一项叫 SB 53 的法案正在推进。

你也知道,去年还有过 SB 1047,我们当时对那个法案也有些复杂的感受。

SB 1047 最初的版本,我觉得就太激进了——我所说的“激进”,是指它在技术快速发展的大背景下,仍然用了过于僵化和预设的方式来规定要求。

这么做不但不利于安全,反而可能适得其反:

一旦测试条款显得“蠢”——比如被业界调侃——大家就会对“AI 安全监管”失去信心,把它当笑话看,转而搞“形式主义合规”,走个流程,不走心。

而我其实是一个支持“有思想的监管”的人。所以当时我真的有点担心。今年我们对这项法案提出了改动建议,在修改后我们觉得方向还不错——努力在行业和安全倡导者之间找一个平衡点,虽然说实话并不完全成功,但总比去年要好。

现在这项新法案更温和,重点放在“透明度”上,特别是企业在安全和保密措施上的透明度。Anthropic 一直是这方面做得比较积极的公司,我看到现在有些其他公司也开始这么做了,当然并不是所有公司都愿意这么披露。

问题在于:

我们目前并没有办法判断那些“看起来在披露”的公司,到底是不是在讲真话。

主持人

所以,加州这边的监管其实影响力挺大的吧?毕竟所有 AI 公司都在这边有业务。

Dario

对啊,大多数这些法案都是围绕“在加州开展业务”的范畴来的。你不太可能完全绕开这块市场。

主持人

而且加州这边的人都很“AI 上头”(AI-pilled)。

Dario

没错(笑),大家都很“AI 上头”。

我们就拭目以待吧。我说不准最终会怎么样,但我们一贯的立场是:

我们支持设置“护栏”——包括立法层面的护栏, 但我们也知道必须非常谨慎,我们不想杀掉下金蛋的鹅, 我们只想防止它过热、失控或者冲出跑道。

主持人

有点像现代银行监管吧。大家都抱怨它,但其实是一个很好的例子: 它监管的是一种本质上就非常危险的活动。

Dario

没错,而且这些危险是非常明确的,比如银行挤兑,不是个小事。

主持人

但我们现在这个时代的金融体系,其实运转得还算不错—— 只要监管环境设计得当。

Dario如何使用Claude?——头脑风暴和找灵感

主持人

最后一个问题:你的个人 AI 使用习惯是什么? 你是怎么用 AI 的?和其他科技圈的人有什么不一样吗?

Dario

挺有意思的。我其实写东西写得很多, 可能有点太自恋了(笑),还挺看重自己的文字风格。我用 Claude 主要是用来头脑风暴和找灵感,当作研究工具。

但写作本身我现在还是自己来。Claude 其实比其他模型更接近我能接受的标准了,但还没到我能放手的程度。

如果是写商务邮件,我可以用它,但要是真写一篇我很在意的文章或长文,

现在的它还是差点火候——不过我想,也许一年之内就能行了。

主持人

很棒的分享。今天真的聊得太棒了。

Dario

感谢你邀请我来。

本文转载自​​51CTO技术栈​​,作者:伊风

©著作权归作者所有,如需转载,请注明出处,否则将追究法律责任
已于2025-8-7 17:44:46修改
收藏
回复
举报
回复
相关推荐