搭建Dify+Ollama本地聊天机器人

发布于 2025-6-24 06:49
浏览
0收藏

Dify 是一款功能强大、易于使用的开源 AI 平台,它为开发者提供了一个构建、部署和管理 AI 应用的便捷方式。 凭借其可视化界面、多模型支持和可扩展性,Dify 正在成为越来越多开发者和企业的首选,本篇我们一起来看看如何快捷方便地搭建Dify+Ollama本地聊天机器人。

一、安装部署 

Dify有两种安装方式,一种是Docker Compose部署,另一种是本地源码编译后再安装,为了方便快捷,本次选择在Ubuntu下用Docker Compose部署,Dify也支持Windows 或macOS系统。还要确保电脑有足够的硬件资源来运行Ollama大模型,建议配备一个GPU。

1.安装docker

在Ubuntu终端中运行:

# 添加 Docker 的官方 GPG 密钥:
sudo apt-get update
sudo apt-get install ca-certificates curl
sudo install -m 0755 -d /etc/apt/keyrings
sudo curl -fsSL https://download.docker.com/linux/ubuntu/gpg -o /etc/apt/keyrings/docker.asc
sudo chmod a+r /etc/apt/keyrings/docker.asc
# 将存储库添加到 Apt 源:
echo \
  "deb [arch=$(dpkg --print-architecture) signed-by=/etc/apt/keyrings/docker.asc] https://download.docker.com/linux/ubuntu \
  $(. /etc/os-release && echo "${UBUNTU_CODENAME:-$VERSION_CODENAME}") stable" | \
  sudo tee /etc/apt/sources.list.d/docker.list > /dev/null
sudo apt-get update

安装 Docker 软件包:

sudo apt-get install docker-ce docker-ce-cli containerd.io docker-buildx-plugin docker-compose-plugin

安装验证:

sudo docker run hello-world

如出现连接错误,可尝试添加docker镜像源:

创建文件 :/etc/docker/daemon.json,添加以下内容:

{
   "registry-mirrors": [
  "https://docker.hpcloud.cloud",
  "https://docker.m.daocloud.io",
  "https://docker.unsee.tech",
  "https://docker.1panel.live",
  "http://mirrors.ustc.edu.cn",
  "https://docker.chenby.cn",
  "http://mirror.azure.cn",
  "https://dockerpull.org",
  "https://dockerhub.icu",
  "https://hub.rat.dev",
  "https://proxy.1panel.live",
  "https://docker.1panel.top",
  "https://docker.m.daocloud.io",
  "https://docker.1ms.run",
  "https://docker.ketches.cn"
   ]
 }

保存文件后,重新启动 Docker 服务:

sudo systemctl daemon-reload
sudo systemctl restart docker

2.安装Dify

克隆 Dify 源代码至本地环境。

git clone https://github.com/langgenius/dify.git

启动 Dify

cd dify/docker
cp .env.example .env
docker compose up -d


搭建Dify+Ollama本地聊天机器人-AI.x社区

正确启动后,打开管理员初始化页面以设置 admin 账户:

http://localhost/install

搭建Dify+Ollama本地聊天机器人-AI.x社区

填入邮箱,用户名和密码后,点设置,即可进入。

3.安装Ollama

Linux用如下指令安装:

curl -fsSL https://ollama.com/install.sh | sh

我们这里选Goolge的gemma3:12b模型,下载大模型 gemma:12b

ollama run gemma3:12b

也可以选deepseek-r1或者qwen3,完成后,即可与大模型对话了。

至此,安装完成。

二、配置

1.创建管理员账号

这里需要输入一个邮箱地址和密码。

搭建Dify+Ollama本地聊天机器人-AI.x社区

2.登录后如下图,进行配置

搭建Dify+Ollama本地聊天机器人-AI.x社区

模型设置页:

搭建Dify+Ollama本地聊天机器人-AI.x社区

3.填入Ollama模型信息

搭建Dify+Ollama本地聊天机器人-AI.x社区

如果用docker部署Dify,Ollama的本机地址不能填127.0.0.1或localhost,必须填入本机真实地址,比如:https://192.168.1.30:11434,否则会出现连接错误。

搭建Dify+Ollama本地聊天机器人-AI.x社区


还要配置系统模型,本次只需添加系统推理模型

搭建Dify+Ollama本地聊天机器人-AI.x社区


4.创建一个应用

搭建Dify+Ollama本地聊天机器人-AI.x社区

应用配置:

搭建Dify+Ollama本地聊天机器人-AI.x社区


这里可以看到已经自动创建了对话工作流,点发布完成配置。

搭建Dify+Ollama本地聊天机器人-AI.x社区


三、应用的运行

创建并发布新应用后,就可以在探索页面中打开了

搭建Dify+Ollama本地聊天机器人-AI.x社区

输入问题就可以跟模型对话了。

搭建Dify+Ollama本地聊天机器人-AI.x社区

四、总结

本次我们在本地电脑上安装部署了Dify应用开发工具, 总体来说它能为我们带这些便捷:

  • 可视化工作流设计:Dify 提供了一个直观的可视化界面,允许你通过拖放节点的方式来设计和构建 LLM 应用的工作流程。这大大降低了开发门槛,即使没有编程经验的人也能快速上手。
  • Agent 工作流:Dify 强调 Agent 的概念,允许你创建具有自主决策能力的 AI 代理。这些代理可以执行任务、调用工具、并与外部系统进行交互。
  • 数据连接:Dify 提供了与各种数据源的连接器,例如数据库、文件存储、API 等,方便你将 LLM 应用与你的数据集成。
  • 工具集成:你可以在 Dify 中集成各种工具,例如搜索引擎、计算器、代码执行器等,扩展 LLM 应用的功能。
  • 记忆功能:Dify 支持记忆功能,允许 LLM 应用记住之前的交互和上下文信息,提供更个性化的体验。
  • 开源和可扩展:Dify 是一个开源项目,你可以自由地使用、修改和扩展它。
  • 支持多种 LLM:Dify 支持多种大型语言模型,例如 OpenAI 的 GPT 系列、Google 的 PaLM、Deepseek,Qwen等开源模型等。

我们搭建的这个对话机器人暂时不具备联网搜索功能,还需要加入一些工作流的配置,感兴趣的同学可以先行了解一下,后续我会陆续在Dify中加入不同的功能,比如RAG,Agent,联网搜索等等...

参考网址:

1. Ollama官网:https://ollama.com/

2. Dify官网:​​https://dify.ai/zh​

3. Dify Github:​​​https://github.com/langgenius/dify/​

本文转载自​​码农随心笔记​​,作者:码农随心笔记

收藏
回复
举报
回复
相关推荐