
搭建Dify+Ollama本地聊天机器人
Dify 是一款功能强大、易于使用的开源 AI 平台,它为开发者提供了一个构建、部署和管理 AI 应用的便捷方式。 凭借其可视化界面、多模型支持和可扩展性,Dify 正在成为越来越多开发者和企业的首选,本篇我们一起来看看如何快捷方便地搭建Dify+Ollama本地聊天机器人。
一、安装部署
Dify有两种安装方式,一种是Docker Compose部署,另一种是本地源码编译后再安装,为了方便快捷,本次选择在Ubuntu下用Docker Compose部署,Dify也支持Windows 或macOS系统。还要确保电脑有足够的硬件资源来运行Ollama大模型,建议配备一个GPU。
1.安装docker
在Ubuntu终端中运行:
# 添加 Docker 的官方 GPG 密钥:
sudo apt-get update
sudo apt-get install ca-certificates curl
sudo install -m 0755 -d /etc/apt/keyrings
sudo curl -fsSL https://download.docker.com/linux/ubuntu/gpg -o /etc/apt/keyrings/docker.asc
sudo chmod a+r /etc/apt/keyrings/docker.asc
# 将存储库添加到 Apt 源:
echo \
"deb [arch=$(dpkg --print-architecture) signed-by=/etc/apt/keyrings/docker.asc] https://download.docker.com/linux/ubuntu \
$(. /etc/os-release && echo "${UBUNTU_CODENAME:-$VERSION_CODENAME}") stable" | \
sudo tee /etc/apt/sources.list.d/docker.list > /dev/null
sudo apt-get update
安装 Docker 软件包:
sudo apt-get install docker-ce docker-ce-cli containerd.io docker-buildx-plugin docker-compose-plugin
安装验证:
sudo docker run hello-world
如出现连接错误,可尝试添加docker镜像源:
创建文件 :/etc/docker/daemon.json,添加以下内容:
{
"registry-mirrors": [
"https://docker.hpcloud.cloud",
"https://docker.m.daocloud.io",
"https://docker.unsee.tech",
"https://docker.1panel.live",
"http://mirrors.ustc.edu.cn",
"https://docker.chenby.cn",
"http://mirror.azure.cn",
"https://dockerpull.org",
"https://dockerhub.icu",
"https://hub.rat.dev",
"https://proxy.1panel.live",
"https://docker.1panel.top",
"https://docker.m.daocloud.io",
"https://docker.1ms.run",
"https://docker.ketches.cn"
]
}
保存文件后,重新启动 Docker 服务:
sudo systemctl daemon-reload
sudo systemctl restart docker
2.安装Dify
克隆 Dify 源代码至本地环境。
git clone https://github.com/langgenius/dify.git
启动 Dify
cd dify/docker
cp .env.example .env
docker compose up -d
正确启动后,打开管理员初始化页面以设置 admin 账户:
http://localhost/install
填入邮箱,用户名和密码后,点设置,即可进入。
3.安装Ollama
Linux用如下指令安装:
curl -fsSL https://ollama.com/install.sh | sh
我们这里选Goolge的gemma3:12b模型,下载大模型 gemma:12b
ollama run gemma3:12b
也可以选deepseek-r1或者qwen3,完成后,即可与大模型对话了。
至此,安装完成。
二、配置
1.创建管理员账号
这里需要输入一个邮箱地址和密码。
2.登录后如下图,进行配置
模型设置页:
3.填入Ollama模型信息
如果用docker部署Dify,Ollama的本机地址不能填127.0.0.1或localhost,必须填入本机真实地址,比如:https://192.168.1.30:11434,否则会出现连接错误。
还要配置系统模型,本次只需添加系统推理模型
4.创建一个应用
应用配置:
这里可以看到已经自动创建了对话工作流,点发布完成配置。
三、应用的运行
创建并发布新应用后,就可以在探索页面中打开了
输入问题就可以跟模型对话了。
四、总结
本次我们在本地电脑上安装部署了Dify应用开发工具, 总体来说它能为我们带这些便捷:
- 可视化工作流设计:Dify 提供了一个直观的可视化界面,允许你通过拖放节点的方式来设计和构建 LLM 应用的工作流程。这大大降低了开发门槛,即使没有编程经验的人也能快速上手。
- Agent 工作流:Dify 强调 Agent 的概念,允许你创建具有自主决策能力的 AI 代理。这些代理可以执行任务、调用工具、并与外部系统进行交互。
- 数据连接:Dify 提供了与各种数据源的连接器,例如数据库、文件存储、API 等,方便你将 LLM 应用与你的数据集成。
- 工具集成:你可以在 Dify 中集成各种工具,例如搜索引擎、计算器、代码执行器等,扩展 LLM 应用的功能。
- 记忆功能:Dify 支持记忆功能,允许 LLM 应用记住之前的交互和上下文信息,提供更个性化的体验。
- 开源和可扩展:Dify 是一个开源项目,你可以自由地使用、修改和扩展它。
- 支持多种 LLM:Dify 支持多种大型语言模型,例如 OpenAI 的 GPT 系列、Google 的 PaLM、Deepseek,Qwen等开源模型等。
我们搭建的这个对话机器人暂时不具备联网搜索功能,还需要加入一些工作流的配置,感兴趣的同学可以先行了解一下,后续我会陆续在Dify中加入不同的功能,比如RAG,Agent,联网搜索等等...
参考网址:
1. Ollama官网:https://ollama.com/
2. Dify官网:https://dify.ai/zh
3. Dify Github:https://github.com/langgenius/dify/
本文转载自码农随心笔记,作者:码农随心笔记
