
Web 开发 AI 就选它?V0复合架构无错误率 93.87% 远超 Claude 4 Opus 单体!
Vercel 最近在 v0.dev 和 API 里都上了新的 AI 模型:v0-1.5-md、v0-1.5-lg 和 v0-1.0-md。
今天,他们把 v0 模型背后的"复合模型架构"给扒了。
简单说,这套架构就是把 RAG (检索增强生成) 的专业知识、SOTA 大模型的推理能力、再加上一个定制的流式后处理模型来修 bug,给缝合到了一起。
Vercel 说,这么搞能让 v0 生成代码的质量高出一大截。而且,以后基础大模型升级了,他们也能快速换上最新的,其他部分保持稳定。
🌱 v0 为啥要搞这么一套"复合模型架构"?不直接用现成大模型吗?
现在市面上的 AI 模型,基本就两种:要么是头部厂商的闭源大模型,要么是第三方托管的开源模型。
Vercel 在做 v0 和 AI SDK 这些产品时发现,这两种路子都有坑:
- 模型知识过时快:特别是对那些快速迭代的技术,大模型很快就跟不上了。
- 当然以前也聊过一些解决方法:
AI 写代码总是翻车?Upstash 创始人怒推 Context7:给 LLM 喂上最新鲜的官方文档。
DeepWiki MCP:免费、远程、一行命令,Agent即刻拥有Github代码库知识! - 头部厂商不care特定场景:人家没那么多精力也没那心思去专门优化"写 Web 应用"这种具体场景。
v0 是专门搞快速、漂亮的全栈 Web 应用的。这就得用上 React、Next.js 这些 不断 进化的框架。闭源大模型几乎是一出来就落后于框架更新了。
开源模型微调倒是灵活点,但目前来看,在 v0 关心的任务上 (尤其是带多模态输入的代码生成),闭源大模型还是吊打开源模型。
而且,头部大模型也没啥动力去专门优化像"自动修 bug"、"快速编辑代码"这种 Web 应用开发特有的需求。结果就是,就算改个小地方,你也得把需求仔仔细细地喂给它。
Vercel 这套"复合模型架构",就是要把这些活儿从基础模型里拆出来。
他们能把一个 SOTA 基础模型,跟专门的数据检索、优化的快速编辑流程、还有定制的 AutoFix 模型组合起来,提升输出质量。
这样一来,就算基础大模型换代了,他们也能无缝升级,不用把整个流程推倒重来。用户通过 API 用 v0 模型,实际上就是在用这整套流水线。
(v0 复合模型架构图)
🌲 v0 的"复合模型"具体咋工作的?
1. 预处理 (Pre-processing)
你给 v0 发消息后,它会先做好几步准备工作:
- 系统提示 (System Prompt):定义 v0 的响应格式和能力范围。
- 上下文维护:把最近的聊天记录带上,保证对话连贯。老的聊天记录会做个总结,优化上下文窗口。
- RAG 检索:根据你的问题,从 Vercel 自己的数据集里捞相关信息 (文档、UI 示例、你上传的项目代码、内部知识库等等) 来增强输出。
2. SOTA 基础模型 (State of the art base models)
新内容生成或者大改动,就靠基础模型了。这一般是从当前最顶尖的那波大模型里挑一个,具体用哪个看你选的 v0 模型型号。
小修小改,比如改文字、修语法错误、调整组件顺序,会交给专门优化过速度的 Quick Edit 模型 处理。
因为是复合架构,基础模型可以随时升级替换,整个流程不用重构。比如,v0-1.0-md 现在用的是 Anthropic 的 Sonnet 3.7,而 v0-1.5-md 用的是 Sonnet 4。
3. 定制 AutoFix 模型 (Custom AutoFix model)
基础模型输出代码的时候,v0 会实时检查有没有错误、不一致或者不符合最佳实践的地方。Vercel 定制的 AutoFix 模型 会在输出过程中就把很多这类问题给修了,进一步提升质量。
等模型输出完了,还会再过一遍,把之前没发现的问题也给逮出来。最后还会跑个 linter,修复风格不一致和小错误。
🌿 v0 模型表现到底怎么样?
Vercel 主要看模型生成代码的出错率。他们搞了套针对常见 Web 开发任务的评估集,测下来,v0 模型比它们用的那些基础模型出错率低得多。
(模型错误率对比)
v0-1.5-lg 虽然比 v0-1.5-md 模型更大,但有时候犯错会更多点,这是 AI 模型规模化常见的取舍。
不过,虽然它俩错误率差不多,但 Vercel 发现 v0-1.5-lg 在处理一些超专业领域 (比如 three.js 里的物理引擎) 和多步骤任务 (比如数据库迁移) 时,推理能力更强。而且 v0-1.5-lg 支持的上下文窗口也大得多。
🌲 训练自己的 AutoFix 模型
大模型都有些自己的小毛病,有的喜欢过度用 Markdown 格式化,有的会搞错文件位置或者引入一些隐蔽的 bug。Vercel 用一套全面的评估集,加上 v0.dev 用户的反馈,来追踪这些问题,找到输出需要改进的地方。
所以他们搞了个流水线,把确定性规则和基于 AI 的修正结合起来,在生成过程中就修复常见错误。早期这套流水线用的是 Gemini Flash 2.0。
为了速度和可靠性,他们跟 Fireworks AI 一起,用强化微调 (RFT) 的方法,训练了自家的定制 AutoFix 模型:vercel-autofixer-01。经过多轮迭代优化,这个模型在各种错误类型上的出错率都降到了最低。
(AutoFix 模型训练迭代过程中的性能优化)
vercel-autofixer-01 的设计目标就是快速修复错误,同时降低整体出错率。在错误发生率评估中,它的表现跟 gpt-4o-mini 和 gemini-2.5-flash 差不多,但速度快了 10 到 40 倍。
(AutoFix 模型与其他模型性能对比)
🌱 下一步呢?
v0 模型家族现在可以通过 API 和 v0.dev 使用。你可以把 v0 模型用到你喜欢的编辑器里,或者构建自定义工作流。比如,用 v0 写自动化代码迁移脚本。
Vercel 表示,他们会继续改进模型输出,未来几个月还会发布新的模型类别。
本文转载自AI进修生,作者:Aitrainee
