Dify 是一个低代码开发平台,旨在帮助用户快速构建应用程序。以下是一个简单的 Dify 快速上手指南:
### 1. 注册账号
1. 访问 Dify 官网(https://www.dify.ai/)。
2. 点击注册按钮,填写必要信息(如邮箱、密码等)。
3. 完成注册并登录。
### 2. 创建应用
1. 登录后,点击“创建应用”按钮。
2. 选择一个模板或从零开始创建。
3. 为应用命名并选择一个图标。
### 3. 设计工作流
1. 进入应用后,点击“创建工作流”。
2. 拖拽所需组件(如触发器、条件、动作等)到工作流设计区。
3. 配置每个组件的属性,如触发条件、动作类型等。
### 4. 添加触发器
1. 选择一个触发器(如 HTTP 触发器、定时触发器等)。
2. 配置触发器的参数,如 URL、时间间隔等。
3. 保存触发器配置。
### 5. 添加条件
1. 在工作流中添加条件组件。
2. 配置条件判断逻辑,如变量比较等。
3. 根据条件分支执行不同的动作。
### 6. 添加动作
1. 选择一个动作(如发送邮件、调用 API 等)
相关内容:
Dify 介绍
Dify 是一个开源的 LLM 应用开发平台,其核心理念是让 AI 应用开发变得更加简单和高效。它不仅提供了可视化的工作流编排,还集成了 RAG 管道、智能体能力、模型管理和可观测性等功能,让开发者能够快速从原型迁移到生产环境。Dify 一词源自 Define + Modify ,指的是定义并持续改进你的 AI 应用,它也可以当做 Do it for you 的缩写。它的核心功能包括:
- 全面的模型支持 :无缝集成包括 OpenAI 与 A #技术分享nthropic 等数十个商业模型,支持 Hugging Face、OpenRouter 等 MaaS 供应商接口以及任意 OpenAI 兼容的接口,并提供了本地模型推理 Runtime 的支持;
- 灵活的工作流 :在可视化画布上构建和测试强大的 AI 工作流,分为 Chatflow 和 Workflow 两种类型;
- 直观的提示词编排 :用于制作提示词的直观界面,比较模型性能,并为基于聊天的应用添加文本转语音等附加功能;
- 高质量的 RAG 管道 :广泛的 RAG 功能,涵盖从文档摄取到检索的所有内容,支持从 PDF、PPT 和其他常见文档格式中提取文本;
- 稳健的智能体框架 :可以基于 LLM 的 Function Calling 或 ReAct 定义智能体,并为智能体添加自定义工具;
- 丰富的工具系统 :Dify 提供了 50 多个内置工具,如 Google Search、WolframAlpha 等;并支持轻松导入自定义的 API 工具或 MCP 工具;
- 强大的插件生态 :支持模型、工具、Agent 策略、扩展等插件类型,开发者可以根据需要方便的扩展 Dify 的功能;
- LLMOps :随时间监控和分析应用日志和性能,你可以基于生产数据和注释持续改进提示词、数据集和模型;
- 后端即服务 :Dify 的所有功能都提供相应的 API,因此你可以轻松地将 Dify 集成到你自己的业务逻辑中;
本地部署准备工作
Dify 提供了多种部署方式,最简单的方式是使用 Docker Compose。在开始之前,请确保你的机器满足以下最低系统要求:- CPU >= 2 Core
- RAM >= 4 GiB
$ LATEST_TAG=$(curl -s https://api.github.com/repos/langgenius/dify/releases/latest | jq -r .tag_name)
$ git clone --branch "$LATEST_TAG" https://github.com/langgenius/dify.git
上面的命令会自动获取最新的稳定版本并克隆到本地,我在写这篇文章时最新版本是 v1.8.1。然后进入 docker 目录:$ cd dify/docker
这个目录包含了 Dify 部署所需的所有配置文件,其中 docker-compose.yml 文件定义了 Dify 的完整架构,包括以下核心组件:- api - Dify API 服务
- worker - Celery 后台任务处理器
- worker_beat - Celery 定时任务调度器
- web - 前端 Web 应用
- db - PostgreSQL 主数据库
- redis - Redis 缓存和消息队列
- sandbox - Dify 代码执行沙盒
- plugin_daemon - 插件守护进程
- ssrf_proxy - SSRF 代理 (Squid)
- nginx - 反向代理和负载均衡器
- weaviate - Weaviate 向量数据库
- qdrant - Qdrant 向量数据库
- pgvector - pgvector 扩展的 PostgreSQL
- pgvecto-rs - pgvecto-rs 向量数据库
- chroma - Chroma 向量数据库
- milvus - 包括 etcd、minio、milvus 三个组件
- etcd - Milvus 的 etcd 配置存储
- minio - Milvus 的 MinIO 对象存储
- milvus-standalone - Milvus 向量数据库
- opensearch - 包括 opensearch 和 dashboards 两个组件
- opensearch - OpenSearch 向量数据库
- opensearch-dashboards - OpenSearch 仪表板
- elasticsearch - 包括 elasticsearch 和 kibana 两个组件
- elasticsearch - Elasticsearch 向量数据库
- kibana - Kibana 可视化界面
- certbot - SSL 证书自动管理
- unstructured - 非结构化文档处理
$ cp .env.example .env
这个 .env 文件包含了 Dify 运行所需的所有环境变量,包括数据库连接信息、加密密钥、模型配置等。默认配置已经可以正常运行,我们暂时不用改。C Docker Compose 本地部署
然后使用 Docker Compose 启动所有核心服务:$ docker compose up -d
或者指定特定的 Profile 启动:$ docker compose --profile qdrant up -d
这个命令会下载所有必要的镜像并启动服务,首次运行可能需要一些时间,因为需要下载各种 Docker 镜像。等待所有容器启动完毕后,如果一切正常,各服务状态如下所示:这些服务之间的依赖关系如下图所示:源码安装
除了使用 Dify 官方构建好的 Docker 镜像启动服务之外,我们也可以直接通过源码来启动,不过还是需要 Docker Compose 来安装中间件:$ cp middleware.env.example middleware.env
$ docker compose -f docker-compose.middleware.yaml up -d
启动成功后各服务状态如下:相比于之前的 Docker Compose 部署,这里少了 nginx 、web 、api 、worker 和 worker-beat 这 5 个服务,因此需要通过源码启动,包括两个后端服务和一个前端服务:- API 服务 :为前端服务和 API 访问提供 API 请求服务
- Worker 服务 :为数据集处理、工作区、清理等异步任务提供服务
- Web 服务 :启动用于前端页面的 Web 服务
$ uv venv --python 3.12
前端服务需要 Node.js v22 (LTS) 和 PNPM v10 版本,安装方法参考官方文档:- nodejs.org/
- pnpm.io/installatio…
启动 API 服务
我们首先进入 api 目录:$ cd api
复制环境变量文件:$ cp .env.example .env
然后使用 openssl 命令生成一个随机密钥:$ openssl rand -base64 42
该命令的意思是生成 42 字节的随机数据并用 Base64 进行编码。将该值替换 .env 文件中的 SECRET_KEY 值:
SECRET_KEY=xxx
也可以使用下面的 awk 命令一句话搞定:$ awk -v key="$(openssl rand -base64 42)"
'/^SECRET_KEY=/ {sub(/=.*/, "=" key)} 1'
.env > temp_env && mv temp_env .env
这里的 awk -v key="$(...)" 表示将生成的密钥存储在 key 这个变量中, /^SECRET_KEY=/ 表示匹配以 SECRET_KEY= 开头的行, {sub(/=.*/, "=" key)} 表示将等号后的所有内容替换为新密钥,后面的 1 是 awk 的默认动作,表示打印所有行,然后将输出重定向到临时文件 temp_env ,最后成功后再将临时文件重命名为原文件。注意这里不能直接输出到原文件,会导致原文件被清空!然后运行 uv 命令安装所需依赖:
$ uv sync
在启动前,我们还需要初始化数据库:$ uv run flask db upgrade
这个命令会按顺序执行 migrations/versions/ 目录下的迁移脚本,更新数据库结构,包括创建或修改表、列、索引等。最后启动 API 服务:$ uv run flask run --host 0.0.0.0 --port=5001 --debug
启动 Worker 服务
如果要从队列中消费异步任务,我们还需要启动 Worker 服务:$ uv run celery -A app.celery worker
-P gevent
-c 1
--loglevel INFO
-Q dataset,generation,mail,ops_trace
Celery 是一个基于 Python 的 分布式任务队列(Distributed Task Queue) ,主要用于处理异步任务和定时任务。它可以让你把一些耗时的操作(比如发送邮件、处理图片、数据分析等)放到后台去执行,而不会阻塞主程序的运行。Celery 通过 消息中间件(Broker) 来传递任务,常用的有 Redis、RabbitMQ、Amazon SQS 等。这里的 -Q dataset,generation,mail,ops_trace 表示监听的队列:- dataset : 数据集相关任务(数据处理、索引等)
- generation : 内容生成任务(大模型调用等)
- mail : 邮件发送任务
- ops_trace : 操作追踪任务
启动 Web 服务
后端服务启动好之后,我们最后再来启动前端 Web 服务。首先进入 web 目录:$ cd web
安装依赖:$ pnpm install --frozen-lockfile
再准备环境变量文件:$ cp .env.example .env.local
构建 Web 服务:$ pnpm build
启动 Web 服务:$ pnpm start
成功启动后,在浏览器中访问 http://localhost:3000/install 设置管理员账户:设置管理员账户后,你就可以访问 http://localhost:3000 进入 Dify 的主界面了:
小结
从今天起,我们开始学习 Dify 这个开源的 LLM 应用开发平台。今天主要介绍了它的核心功能,并演示了两种主要的部署方式:- Docker Compose 部署 :这是最简单快捷的方式,适合快速体验和小规模部署,只需几条命令就能启动包含所有组件的完整 Dify 环境;
- 源码安装 :提供了更大的灵活性和控制权,适合需要深度定制或开发调试的场景,也方便我们更好地理解 Dify 的架构;
欢迎关注
如果这篇文章对您有所帮助,欢迎关注我的同名公众号:日习一技,每天学一点新技术 。我会每天花一个小时,记录下我学习的点点滴滴。内容包括但不限于:- 某个产品的使用小窍门
- 开源项目的实践和心得
- 技术点的简单解读