以下是关于 Dify 部署 的详细指南,包括 服务器要求、部署步骤 和 大模型选型建议:
一、Dify 的部署方式
Dify 支持多种部署模式,适用于不同场景:
部署方式 | 适用场景 | 复杂度 | 推荐用户 |
---|---|---|---|
Docker Compose | 快速本地测试或小型生产环境 | ⭐⭐ | 个人开发者/小团队 |
Kubernetes | 企业级高可用部署 | ⭐⭐⭐⭐ | 中大型企业 |
云服务一键部署 | AWS/Azure/GCP 快速启动 | ⭐⭐ | 云服务用户 |
裸机安装 | 深度定制化需求 | ⭐⭐⭐ | 高级用户 |
二、服务器最低要求
1. 基础配置(测试/小型应用)
- CPU: 4 核 (x86-64)
- 内存: 8 GB(纯文本应用)→ 16 GB(含 RAG 知识库)
- 存储: 50 GB SSD(模型文件需额外空间)
- 网络: 公网 IP(如需对外服务)
- 操作系统: Linux (Ubuntu 22.04/CentOS 7+)
2. 生产环境建议
- CPU: 8 核+
- 内存: 32 GB+(大型知识库需 64 GB)
- GPU: 如需本地运行大模型(如 Llama 2-13B),需至少 1×NVIDIA A10G(24GB 显存)
- 存储: 200 GB+ NVMe SSD(向量数据库占用大)
📌 注意:
- 如果仅调用云端 API(如 OpenAI/GPT-4),无需高配置服务器。
- 本地运行模型时,显存要求:7B 模型需 12GB+,13B 模型需 24GB+。
三、详细部署步骤(以 Docker Compose 为例)
1. 前置准备
bash
# 安装 Docker 和 Docker Compose
sudo apt-get update && sudo apt-get install -y docker.io docker-compose
sudo systemctl start docker
# 安装 Docker 和 Docker Compose
sudo apt-get update && sudo apt-get install -y docker.io docker-compose
sudo systemctl start docker
2. 下载 Dify
bash
git clone https://github.com/langgenius/dify.git
cd dify/docker
git clone https://github.com/langgenius/dify.git
cd dify/docker
3. 配置环境变量
编辑 .env
文件:
ini
# 启用 OpenAI 兼容 API
OPENAI_API_KEY=sk-your-key # 如调用 GPT-4
MODEL_PROVIDER=openai # 或设置为 local(本地模型)
# 如需本地模型(示例:Llama 2)
LOCAL_MODEL=llama-2-13b-chat
VOLUME_PATH=/data/dify # 数据持久化目录
# 启用 OpenAI 兼容 API
OPENAI_API_KEY=sk-your-key # 如调用 GPT-4
MODEL_PROVIDER=openai # 或设置为 local(本地模型)
# 如需本地模型(示例:Llama 2)
LOCAL_MODEL=llama-2-13b-chat
VOLUME_PATH=/data/dify # 数据持久化目录
4. 启动服务
bash
docker-compose up -d
docker-compose up -d
访问 http://localhost:80
即可进入 Dify 控制台。
四、大模型选型建议
1. 云端 API 模型(无需本地计算资源)
模型 | 适用场景 | 成本/性能平衡 |
---|---|---|
GPT-4-turbo | 高精度复杂任务 | $$$ |
Claude 3 | 长文本分析 | $$ |
Mistral-7B | 开源替代,性价比高 | $ |
2. 本地部署模型(需 GPU)
模型 | 显存要求 | 适用场景 |
---|---|---|
Llama 2-7B | 12GB | 通用问答/代码生成 |
Llama 2-13B | 24GB | 更高精度需求 |
ChatGLM3-6B | 16GB | 中文优化 |
Gemma-7B | 12GB | 轻量级英文任务 |
💡 选择建议:
- 优先云端 API:快速验证业务场景(如 GPT-4)。
- 本地模型:数据敏感行业(金融/医疗)或长期成本优化。
五、关键配置优化
知识库检索性能
- 使用
pgvector
替代默认 SQLite,提升 RAG 速度:yaml# docker-compose.yml 修改 services: db: image: ankane/pgvector:v15
# docker-compose.yml 修改 services: db: image: ankane/pgvector:v15
- 使用
GPU 加速(本地模型)
- 在
docker-compose.yml
中为worker
服务添加 GPU 支持:yamldeploy: resources: reservations: devices: - driver: nvidia count: 1
deploy: resources: reservations: devices: - driver: nvidia count: 1
- 在
横向扩展
- Kubernetes 部署时,通过
HPA
自动扩缩容worker
节点。
- Kubernetes 部署时,通过
六、常见问题
Q1: 部署后无法访问控制台?
- 检查防火墙:
sudo ufw allow 80/tcp
- 查看日志:
docker-compose logs -f web
Q2: 如何升级 Dify?
bash
cd dify/docker
git pull origin main
docker-compose down && docker-compose up -d --build
cd dify/docker
git pull origin main
docker-compose down && docker-compose up -d --build
Q3: 本地模型加载失败?
- 确认显存足够,尝试更小模型(如
Llama-2-7B
)。 - 使用
vLLM
加速推理:ini# .env 文件 INFERENCE_ENGINE=vllm
# .env 文件 INFERENCE_ENGINE=vllm
七、总结
- 测试环境:4C8G + Docker Compose + GPT-4 API。
- 生产环境:8C32G + Kubernetes + 本地 Llama 2-13B(需 GPU)。
- 模型选择:优先云端 API 验证,再逐步迁移到本地优化成本。
通过 Dify 的灵活部署选项,无论是个人开发者还是企业团队,都能快速构建符合需求的 LLM 应用。