
超强 RAG 工作流实战:LangGraph + Elasticsearch 强强联手,让 AI 检索效率飙升 300%!
还在为海量数据检索效率低下而头疼?本文将手把手教你用 LangGraph 和 Elasticsearch 搭建一套 智能 RAG 工作流,5 步实现精准文档问答! 无论你是开发者还是技术决策者,都能快速构建企业级 AI 解决方案。
为什么选择 LangGraph + Elasticsearch?
Elasticsearch 原生集成主流生成式 AI 工具,而 LangGraph 检索代理模板 是由 LangChain 开发的开源 RAG 应用框架。两者结合,不仅能快速构建基于多模态检索的问答系统,还能通过可视化流图显著提升开发效率。
快速搭建指南(5 步上手)
前置条件
- Elasticsearch 8.0+(支持本地或云端)
- Python 3.9+
- LLM 接入密钥:如 中 Cohere 中、中 OpenAI 中、中 Claude 中
Step 1:安装 & 初始化项目
pip install --upgrade "langgraph-cli[inmem]"
mkdir lg-agent-demo && cd lg-agent-demo
langgraph new lg-agent-demo
选择模板: 👉 Retrieval Agent(选项 4)+ Python(选项 1)
模板选择界面
若遇 SSL 错误,可运行安装证书命令(Mac):
/Applications/Python\ 3.9/Install\ Certificates.command
Step 2:环境与依赖配置
python3 -m venv lg-demo
source lg-demo/bin/activate
pip install -e .
cp .env.example .env
编辑 .env
配置文件(示例):
ELASTICSEARCH_URL=https://your_elastic_url
ELASTICSEARCH_API_KEY=your_elastic_key
COHERE_API_KEY=your_cohere_key
Step 3:模型参数设置
修改 src/retrieval_graph/configuration.py
文件,配置使用的嵌入与生成模型:
embedding_model = "cohere/embed-english-v3.0"
query_model = "cohere/command-r-08-2024"
response_model = "cohere/command-r-08-2024"
Step 4:启动 LangGraph 服务
langgraph dev
成功后访问 Studio,默认包含两个流程:
- Indexer Graph:用于文档向量化与注入
- Retrieval Graph:用于检索文档并生成回答
工作流界面
🛠 Step 5:文档注入 + 实时问答
注入测试数据(以 NoveTech Q1 财报为例):
[
{"page_content": "NoveTech Q1 2025 Revenue: $120.5M..."},
{"page_content": "AI 市场份额增长 15%,开设两家新办公室..."}
]
在 Retrieval Graph 中执行查询:
What was NovaTech Solutions total revenue in Q1 2025?
系统将精准返回答案,并展示引用文档:
增强功能:预测用户接下来会问什么
通过添加 predict_query
节点与提示词,系统可预测用户可能的后续提问,形成更连贯的交互体验。
提示词样例(位于 prompts.py
):
PREDICT_NEXT_QUESTION_PROMPT = """
根据用户最近一次提问与返回文档,预测用户可能会继续提出的 3 个自然问题...
"""
界面效果如下:
为什么值得一试?
价值点 | 描述 |
🧠 开发提效 | 可视化流程图 + 模板化配置,最快 30 分钟构建 RAG 应用 |
🚀 快速部署 | 本地/云端灵活切换,支持多种 LLM 与向量库接入 |
🔁 持久记忆 | 支持状态保持、上下文追踪,提高问答一致性 |
🧩 高度可扩展 | 自定义 Node、增加预测模块、轻松迭代升级 |
📦 完整代码 | 开源模板:GitHub 地址 |
本文转载自AI小智,作者: AI小智
