
大模型时代,如何跟上节奏?
大模型时代已经到来,随着基础模型越来越卷,可预见的未来我们会看到 token 越来越便宜、性能越来越强、速度越来越快,甚至是端侧运行的大模型。
就当下的时间节点,基础模型的质量、速度和价格已经是完全可用的程度,正处于大模型应用爆发的前夜。
为什么是 JavaScript?
我们先从观察者的视角来看:什么是大模型时代的语言?
我们打开 OpenAI API 的官方网站,其官方支持的 API 只有 Python 和 JavaScript,包括像大模型流行的应用框架 LangChain、dify 等等,都是只提供了 Python 和 JavaScript 版本,前者的地位不言而喻,但为何是 JavaScript?
因为随着各种 SaaS/PaaS 平台的建设,传统开发中的服务器、数据库等基础设施的复杂度被隔离,通过简单的 API 我们就能完成服务器和数据库的全球部署。也就是,开发者可以将目光转到真正对用户有价值的领域,也就是直接跟用户产生交互的前端部分。
这也就是为何全栈工程师越来越流行,借助 Node.js 和各种云服务,我们可以利用好前后端同构的优势,迅速部署应用。
而大模型时代的到来更加速了这一趋势,创意成为一个应用能否流行的核心,技术成为工具,我们可以迅速搭建有趣的大模型应用呈现给用户,然后收集反馈、持续迭代,这都离不开唯一的全栈语言 —— JavaScript。
为什么是 LangChain?
首先是我们为什么需要一个大模型的应用框架?
因为 LLM 的 API 只是提供了一个非常基础的调用方式,当我们要构建一个复杂的 Chat Bot 时,就需要考虑如何保存聊天的上下文、如何进行网络搜索、如何加载 pdf 等等工程问题,这些都是应用框架可以帮助我们解决的。
那为什么是 LangChain?
首先是足够的流行度和认可度,目前已经在 Github 获得 83k star,并且其上升速度非常恐怖:
CleanShot 2024-04-25 at 22.49.57@2x.png
从 LangChain 一经推出,就成为大模型应用框架领域的明星,star 数多意味着生态活跃,我们需要的各种集成工具都能轻易获得。
而 LangChain.js 并不是 Python 版本的套壳,而是一个完整的团队从 0 开始构建的生态,足以看出官方对 JavaScript 生态的重视:
CleanShot 2024-04-25 at 22.57.47@2x.png
所以,作为前端程序员,我们想抓住大模型的浪潮,需要的就是动作够快。
我们从熟悉的语言 JavaScript 入手,去使用大模型领域最流行的框架去构建应用,在第一线去感受大模型的发展和能力特点。从实战中得到的经验更有价值,我们不只是看技术文章对大模型应用的分析,而且直接参与到大模型应用的开发中,尝试自己一些想法,落地一些应用,这可以让我们跟上大模型时代的浪潮。
写在最后
我希望大家在每一章的结束,不止局限于教程中的例子,可以去发散想象自己之前的开发中有哪些任务可以通过大模型来优化甚至是取代,动手去做一些 Toy Projects,并尝试不同的 Prompts 方式去激发大模型的能力,可能就会迸发出下一个独角兽级的 idea。
本文转载自爱学习的蝌蚪,作者:hpstream
