Dify
Dify
1 安装
1 部署 dify
1.1 CentOS Stream 快速部署 dify
注意版本迭代很快,注意操作系统和 dify 版本,不匹配可能会部署失败,当前部署版本如下。
- CentOS Stream 9、10。
- docker 28.3.3。
- dify 1.8.0。
快速部署步骤如下。
# 下载 dify
wget https://github.com/langgenius/dify/archive/refs/tags/1.8.0.tar.gz
# 解压、配置
mkdir /opt/dify
tar -zxvf 1.8.0.tar.gz -O /opt/dify
cd /opt/dify/dify-1.8.0/docker
cp .env.example .env
# 配置插件加速源,不配置安装插件时间久,还经常会遇到网络问题,插件即使安装上也无法正常使用
vim .env
# 修改环境变量
PIP_MIRROR_URL=https://mirrors.aliyun.com/pypi/simple/
# 安装,注意若安装失败考虑版本不兼容,换版本再去尝试
docker compose up -d
# 验证,浏览器进入 dify 页面:http://localhost/,配置邮箱密码即可
# 如配置 admin@admin.com admin 11aass22!
# 查看 dify 插件环境变量
docker exec -it docker-plugin_daemon-1 env|grep PIP_MIRROR_URL
1.2 dify 容器常用命令
# 安装,注意安装失败考虑版本不兼容,换版本再去尝试
docker compose up -d
# 停止容器
docker compose stop
# 停止容器并移除卷
docker compose down
2 部署 ollama
2.1 Window 快速部署 ollama
2.1.1 安装 ollama
快速部署步骤如下。
- 下载 ollama window 安装包,并解压。
- 配置环境变量。
# Path 环境变量中追加 D:\devProgram\ollama-windows-amd64
# 验证
ollama --version
# 再配置模型存储位置环境变量 OLLAMA_MODELS: D:\data\ollamaModels
# 配置以下环境变量
# OLLAMA_HOST:0.0.0.0
# OLLAMA_ORIGINS: *
- 允许外部访问配置,新增
C:\Users\Admin\.ollama\config.json
文件,加入以下配置。
{
"host": "0.0.0.0"
}
- 启动
ollama.exe serve
。 - 验证
netstat -ano | findstr 11434
,看到对应的 0.0.0.0:11434 即可。
2.1.2 运行模型
可以在 ollama search 搜索模型。
# 运行 deepseek 模型
ollama run deepseek-r1:1.5b
ollama run deepseek-r1:7b
# 验证,浏览器打开 http://localhost:11434
# 验证模型
Invoke-RestMethod -Uri "http://192.168.37.1:11434/api/generate" -Method Post -Body '{
"model": "deepseek-r1:1.5b",
"prompt": "你好"
}' -ContentType "application/json"
2.2 CentOS Stream 10 快速部署 ollama
2.2.1 安装 ollama
使用 VMVare 虚拟机安装的最新版 ollama。
- 官网地址,该方式下载较慢,不使用。
快速部署步骤如下。
# 1 下载并安装,ollama-linux-amd64 实际上是兼容 Intel 和 AMD 的 64 位 CPU 的
wget https://github.com/ollama/ollama/releases/download/v0.11.3/ollama-linux-amd64.tgz
mkdir /opt/ollama
tar -zxvf ollama-linux-amd64.tgz -C /opt/ollama
# chmod +x ollama
sudo ln -s /opt/ollama/bin/ollama /usr/local/bin/ollama
# 验证
which ollama
ollama --version
# 2 启动服务(如果未自动启动)
OLLAMA_HOST=0.0.0.0:11434 ollama serve
# 或者用 nohup 后台运行
nohup OLLAMA_HOST=0.0.0.0:11434 ollama serve > ~/ollama.log 2>&1 &
# 验证,浏览器打开 http://192.168.37.201:11434
# 3 卸载 Ollama,即删除原文件、软链接、模型存储。
2.2.2 配置 ollama
下载模型加速,现有 dify cdn 挺快,忽略。
# 设置环境变量:
vim /etc/profile
# 使环境变量生效
source /etc/profile
设置模型保存位置。
# 不改变原配置
mkdir -p /data/ollama/models
mv ~/.ollama /data/ollama/models
ln -s /data/ollama/models ~/.ollama
2.2.3 运行模型
可以在 ollama search 搜索模型。
# 运行 deepseek 模型
ollama run deepseek-r1:1.5b
# 验证,浏览器打开 http://localhost:11434
curl http://localhost:11434/api/generate -d '{
"model": "deepseek-r1:1.5b",
"prompt": "你好,你是谁?"
}'
2.3 ollama 常用命令
ollama serve # Start ollama
ollama create # Create a model from a Modelfile
ollama show # Show information for a model
ollama run # Run a model
ollama stop # Stop a running model
ollama pull # Pull a model from a registry
ollama push # Push a model to a registry
ollama list # List models
ollama ps # List running models
ollama cp # Copy a model
ollama rm # Remove a model
ollama help # Help about any command
3 Dify 关联 Ollama
进入 http://192.168.37.201/apps -> 右上角用户名下的【设置】 -> 找到模型供应商 -> 找到 Ollama -> 安装。耐心等待,看首页安装进度图标。 安装好 Ollama 后,刷新下,在已安装的 Ollama 模型里面找到添加模型,说明如下。
# 模型名称: 我们安装的 deepseek-r1:1.5b
# 基础 URL: http://192.168.37.201:11434
2 大模型
1 豆包大模型
1 注册豆包大模型
以下是激活大模型的步骤:
- 官网为 火山引擎,在上面注册自己的账号。
- 登录,打开大模型网站,如 doubao-1-5-thinking-pro-250415,页面左下角有所有可用的大模型,以及试用 API Key。
- 按照步骤激活所有大模型,个人每天的免费额度够用了。
以下是管理地址:
2 dify 配置豆包大模型
dify 首页进入 设置/模型供应商
,添加 Volcengine 大模型,然后添加 API_KEY,其核心配置项配置说明:
- 模型名:doubao-seed-1-6-vision-250815。
- API_KEY:配置个人的 API_KEY。
- 接入点:doubao-seed-1-6-vision-250815,也是具体对应的接口 token 消耗。
- 基础模型:doubao-seed-1-6-vision,这里可以下拉选择对应模型。
- 视觉模型:豆包是混合模型,无此配置,直接支持。
插件也安装 Doubao Image and Video Generator
,API_KEY 和大模型的一致。
2 插件概述
- 绘图工具
- 豆包
- 不推荐
- stablity:国外付费工具
- dalle:国外付费工具
- 搜索工具
- DuckDuckGo API:完全免费。
- 不推荐
- SerpAPI:谷歌搜索引擎的 API KEY,付费,有免费额度。
- yahoo finance:搜索股票信息,付费。
- news:搜索公司新闻。
- analytics:搜索公司的财务数据和分析。
- 爬虫
- webscraper:不稳定、维护性高、可能违反网站条款,不使用。
- crawlbase: 官网,有免费额度。
- wikipedia:维基百科,免费。
- MCP Server:免费,需要自定义配置端点。
- 客户端需要额外使用 MCP SSE 插件配合使用。
- 通用工具
- Markdown 转换器,本地部署 dify 安装插件免费。
3 Agent 参数
这里不再详细描述大模型插件配置说明("1 大模型" 中介绍),重点是配置模型智能体使用。 以下参数都使用默认配置。
- 温度。
- Top P。
- Top K。
- 最大迭代次数 1。
3 拓展
3.1 dify echarts 图表生成
echarts 使用
- 新建 "ChatFlow",只保留开始节点和直接回复节点。
- 直接回复节点回复 sys.query。
- 输入以下 json 测试,即可生成饼图,数据来源为 echarts 官方示例数据。
注意:不要将数据直接转为 html 给回复节点,dify 会将 html 数据转义,比较麻烦。 测试数据如下:
{
"title": {
"text": 'Referer of a Website',
"subtext": 'Fake Data',
"left": 'center'
},
"tooltip": {
"trigger": 'item'
},
"legend": {
"orient": 'vertical',
"left": 'left'
},
"series": [
{
"name": 'Access From',
"type": 'pie',
"radius": '50%',
"data": [
{"value": 1048, "name": 'Search Engine'},
{"value": 735, "name": 'Direct'},
{"value": 580, "name": 'Email'},
{"value": 484, "name": 'Union Ads'},
{"value": 300, "name": 'Video Ads'}
],
"emphasis": {
"itemStyle": {
"shadowBlur": 10,
"shadowOffsetX": 0,
"shadowColor": 'rgba(0, 0, 0, 0.5)'
}
}
}
]
}
小技巧:
- echarts 的示例 json 数据没有双引号(json5 格式),可以借助以下功能补全:
- IDEA(新建 json 文件,按提示自动补全)
- VSCODE 的插件补全双引号
- 用
https://jsonformatter.curiousconcept.com/
转(外网打开有点慢)。
ECharts Chart Generator 插件使用
dify 先安装好 ECharts Chart Generator
插件。
- 1 新建 "ChatFlow" 智能体。
- 2 编排节点
- 2.1 开始节点默认配置即可
- 2.2 新增插件节点,配置好插件节点属性
- 2.3 回复节点配置好输入变量位插件节点输出变量
/text
- 3 输入任意数据测试,显示输出 echarts 图表。
chart: linear chart
title: 柱状图测试
data: 1;2;3;4;5
X Axis: A;B;C;D;E
3.2 dify 安裝 python 拓展
dify 安裝 python 拓展
如果用 pyecharts 则需要安装,手动安装步骤如下:
docker exec -it docker-sandbox-1 sh
pip install pyecharts -i https://mirrors.aliyun.com/pypi/simple/
# 注意安裝完后,需要重启 docker-sandbox-1
docker restart docker-sandbox-1