
刚刚!AI 圈顶流 Karpathy 三连击:开源、泼冷水、AI 教育~
总结一下 10 月「Karpathy 三连」
- nanochat开源 → 100 美元复刻 ChatGPT,全民 LLM 时代降临
- AGI 十年论→ 给行业泼冷水,Agent智能体道阻且长
- Eureka 教育→ 把复杂 AI 拆成「斜坡」,让普通人也能一路滑进核心
代码我开源,冷水我泼完,课我也准备好了。下一步,轮到你上场。——Andrej Karpathy
1. nanochat:「贫民窟版」ChatGPT 开源了!
前 OpenAI 联合创始人、特斯拉 AI 总监 Andrej Karpathy 在 10 月 13 日深夜扔下一颗炸弹:
nanochat —— 一个只用 100 美元、4 小时、8000 行代码 就能从头训练出你自己的 ChatGPT 的全栈项目,正式开源!
🎯 GitHub目前已经25.7K star ,太牛了!
演示效果
⚡ 性能速览
阶段 | 耗时 | 成本 |
预训练 + 微调(SFT) | 3h51m | $92.4 |
强化学习(RL) | 可选 | 暂不计入 |
推理部署 | 即时 | 零额外开销 |
> 是的,剩下的 8 美元还能请你吃冰淇淋 🍦
2. 但在昨天,他给 AGI 泼了盆 10 年冷水
开源炸弹余温未散,Karpathy 又在 10 月 18 日放出万字访谈:
- 根本没有「智能体元年」
概念炒作大于实质突破:当前“智能体”技术尚未实现质的飞跃,更多是资本与媒体的叙事包装,缺乏标志性技术节点(如iPhone时刻)。现有产品仍受限于场景碎片化、泛化能力弱等问题,难以支撑“元年”叙事。
行业共识缺失:技术路径(符号主义/连接主义/混合架构)与商业落地模式均未形成统一标准,所谓“元年”仅是营销话术,而非技术临界点。
- AGI 还需至少 10 年
技术瓶颈未破:常识推理、因果建模、小样本学习等核心能力与人类差距显著,当前范式(如大模型)仅是“高阶统计模拟”,缺乏真正的理解力。算力与数据的边际效益递减,需等待架构级创新(如世界模型、具身智能)
- 强化学习虽糟,但非做不可
“糟糕”源于现实复杂性:样本效率低、奖励设计难、仿真鸿沟等问题在开放环境中暴露无遗(如机器人抓取任务成功率<60%),但它是目前唯一支持序贯决策优化的通用框架。
不可替代的底层价值:从AlphaGo的“自我博弈”到ChatGPT的RLHF,强化学习是连接“感知智能”与“决策智能”的桥梁。未来AGI需通过环境交互持续进化,舍此无他途——“做不可”本质是“别无选择”。
📈 AGI 到来那天,全球 GDP 只会增 2 %
「别把智能体当万能螺丝刀,它们现在连电脑都不会用。」——Karpathy
机器之心对演讲内容进行了整理:Andrej Karpathy最新演讲内容
3. Eureka Labs:AI 教育的「星际舰队学院」
离开 OpenAI 后,Karpathy 全力投入的新教育项目 Eureka :
愿景?打造 AI 时代的「斜坡」(Ramps to Knowledge)——让「每秒顿悟数」(Eurekas per Second)最大化!nanochat 正是其 LLM101n 课程的「毕业设计」
https://github.com/karpathy/LLM101n
课程培养目标颠覆, 从“知识传递”转向“AI协同能力”——课程核心变为“如何向AI提出好问题”“如何验证AI结论的因果性”,传统学科边界消失
教育范式重构,出现“AI导师-人类助教” hybrid 模式,
本文转载自PaperAgent
