
比Claude好用10倍,便宜10倍!世界上最快的Agentic编程模型!刚刚,xAI发布全新模型,免费用!网友:抽卡任 原创
编辑 | 云昭
出品 | 51CTO技术栈(微信号:blog51cto)
8月29日凌晨,马斯克之前预告的全新编程模型终于发布了!
距离 xAI 推出 Grok Code 不到三天,马斯克又带着一款大杀器来跟奥特曼的 GPT-5 来打(抬)擂(杠)了!
“感觉比 Claude 好用 10 倍,速度也快 10 倍!”
这款模型一经放出,就收获了一个荣誉称号:「最快的 agentic 编程模型」。
Grok Code 这是要接管所有 Cline 的工作空间呀!
手快的网友当然不会放过这款新编程模型,从 X 、Hackernews、Reddit 上的网友的来看,绝对的闪光点多于吐槽点。
图片
昨天用 Cline 测试了一下。速度很快,与代理流配合良好,并且能生成不错的代码。
我觉得它达到或超过了 GPT5-mini 的水平,这在我看来已经很棒了。
还有一位 X 网友比较客观的对新模型的亮点做出了总结: “感觉比 Claude 好用 10 倍,速度也快 10 倍”、“ Grok Code 成本最低,性能最高。”
才过了三天,它就已经成为许多人的明显选择 它不仅速度更快,而且功能更强大,结果也非常有希望。
节省大量成本:
- 比 Sonnet 4 或 Gemini 2.5 Pro 便宜 11 倍
- 每次会话可节省 85–91% 的成本,使用缓存可节省 93–97% 的成本,尤其适用于原型设计和调试等高频任务
> 与 Sonnet-4 的Diff Edit水平相当,并且有所改进
图片
这位热心的网友直接放出来实际使用的 Diff Edit 的失败率,Grok Code Fast已经达到了 Clade 4 Sonnet 的水平,性能已经超过了 Gemini 2.5 Pro。
1.关注点:主打“快”与“省”
这次 xAI 给它定位的非常另类。可以说,它和 GPT-5、Claude Sonnet 4 的定位完全不同:不但没有费力气证明自己能推理多复杂的问题,反而致力于成为工程师日常写代码的「快手助手」。
这款全新的推理模型 Grok Code Fast 1,主打 “快”与“省”。它不仅专为 agentic coding(代理式编程) 打造,并在官网博文中号称是目前市面上响应速度最快的模型。
小编耐心看完了他们的测试图例后,只能说心情是这样婶的——
(声明:仅用于本文章,侵删)
简直就如同《唐人街探案1990》中,秦福与阿鬼街上初遇时,对阿鬼功夫的吼破喉咙的称赞:“豹的速度啊啊啊啊~”
才过了三天,它就已经成为许多人的明显选择 它不仅速度更快,而且功能更强大,结果也非常有希望。
为什么值得关注?小编认为,主要有三个点。
- 速度爆表:在你还没读完模型的第一段推理日志时,它可能已经调用了几十个工具。
- 缓存优化:在部分合作平台上,prompt 缓存命中率可超过 90%。
- 价格便宜得没话说:输入 $0.20 / 百万 Token,输出 $1.50 / 百万 Token,缓存输入更是只要 $0.02。
对比一下 GPT-5 的各版本模型的 API,谁便宜高下立见~ Grok 较标准版的GPT-5 简直便宜了一个数量级!(可以说对标的是 GPT-5 mini,但据网友反馈,要比mini 更快更省!)
图片
下图,是 Grok Code Fast 1的表现,可以说跟编程模型几大巨头相比,吐 token 最快、价格却最省的仔仔,遥遥领先!
图片
- 吞吐速度(TPS):190
- SWE-Bench-Verified 得分:70.8%
- 实测价格 / 性能比优于 GPT-5、Claude Sonnet 4 等同类模型。
2.开发者实测反馈
在 Cursor 上,开发者 Danny Limanseta 仅用一天就做出了一个“战斗模拟器”原型,非常魔性:
“它快到让我改变了写代码的方式。分解任务、小步快跑迭代,比一次性丢个大 prompt 要高效得多。”
GitHub Copilot 产品负责人 Mario Rodriguez 也表示,Grok Code Fast 在早期测试中同时展现了速度与质量,是开发者的有力新选择。
图片
3.免费!如何体验?
目前限时免费(据说截止到美时间9月10日),可在以下平台试用:
GitHub Copilot、Cursor、Cline、Roo Code、Kilo Code、opencode、Windsurf
同时,xAI 还发布了 Prompt 工程指南,帮助开发者用更高效的方式调用模型。
对于提示词/缓存优化技巧的朋友,小编也扒下来了地址:
https://docs.x.ai/docs/guides/grok-code-prompt-engineering
4.xAI 为什么剑走偏锋?
那么,为什么 xAI 要推 Grok Code Fast 1?小编认为主要还是 GPT-5/Gemini 2.5 Pro/Claude4 Sonnet 本身面临着一个巨大的现实缺口:
- 顶级模型(GPT-5、Claude Sonnet 4、Gemini Pro):强大,但昂贵、延迟高。适合做战略级任务,不适合日常高频调用。
- 轻量模型(GPT-4o-mini、Claude Haiku):便宜、快,但经常「不靠谱」,复杂代码逻辑或多轮修复就容易翻车。
然而,绝大多数程序员的日常任务,并不总是需要 GPT-5 的「满功率大脑」。
更多时候,我们的日常其实是:加个函数、修个 bug、解读 pull request……这些更需要的是 稳定 + 快速响应。
所以,这一块的市场就短暂的被忽视掉了: “不一定最聪明,但够快、够稳、够便宜” 的模型。
多说一嘴,xAI 还透露了下一步计划,称 Grok Code Fast 系列将持续快速迭代,新版本会支持:
- 多模态输入
- 并行工具调用
- 更长上下文
大家可以进一步期待下。
5.网友炸锅了:谁是世界上最好的编程模型
国外的 GPT-5、Claude 4、Gemini 2.5 Pro,国内的 Qwen、Kimi K2 很多编程模型都在今年涌现了出来。这次 xAI 的 Fast 1 推出后,迅速在各个社区引发了最好的编程模型的争论。
正如这个引战帖子:
我预算紧,开发经验也有限。做 Kotlin 安卓开发的话,你会推荐 grok code、gpt5 还是 qwen?
不少网友丝毫不给Grok Code留情面,直接建议了GPT-5:
就我的经验,GPT-5 是最好的,Grok 连 Opus 4.1 都比不上。
自从用了 GPT-5,我很少需要在代码改动后再让它修复错误。而 Claude 的任何版本对我来说几乎都是相反体验。
最省钱的用法是:复杂逻辑我用 GPT-5 来写,比如应用的核心运行机制;
而细节打磨、组件增删、字符串处理、一些不涉及复杂推理的地方,我就用 Grok Code Fast 1。
我试过 Qwen3 Code,它在 Python 上还行,但对整个代码库上下文的理解很弱。
GPT-5 Mini 也能用,大概和 Sonnet 3.5 一个水平,不差但也不算强。考虑到价格,我还是更偏向 Grok Code Fast 1,它略胜一筹。
另一位网友则表示同意:表示 Grok 在测试中并未达到顶级编码模型的可信度。
图片
那么到底怎么用 Grok Code Fast 1 呢?
有几位网友发现,对于“编排”类任务,还是非常给力的。
我用它做 Orchestrator,效果不错。但写代码的时候就不太行了,失败挺多,代码也容易搞坏。
还有朋友说在抽卡逻辑的游戏代码任务中,表现出来自我调适的能力
我在做一个带复杂「抽卡、出牌」逻辑的游戏,前后端之间出现了一些竞态条件。Grok 提了调试点,还自己找到了错误。我挺惊讶的!
此外,一位网友还对 Grok Code 输出的代码质感提出了质疑。“和大多数 xAI 的产品一样,它还不够精细。”
感觉有点仓促上线了,功能是有,但不够“优雅”,不像 Claude 或 GPT 那样有品质感。Grok Web 和他们其他项目也是一样的。很酷,但一旦日常使用,就能感受到它是在高压下做出来的,打磨不足。
所以综合看来,复杂的工程任务,还是选择 GPT-5 吧,如果追求质感,Sonnet 4 可能更有感觉。
但,对于日常的任务,Grok Code 绝对有一席之地。
本文转载自51CTO技术栈,作者:云昭
