当前位置: 首页 > news >正文

DIFY教程第一集:安装Dify配置环境

一、Dify的介绍

https://dify.ai/

Dify 是一款创新的智能生活助手应用,旨在为您提供便捷、高效的服务。通过人工智能技术, Dify 可以实现语音
助手、智能家居控制、日程管理等功能,助您轻松应对生活琐事,享受智慧生活。简约的界面设计,让操作更加便
捷;丰富的应用场景,满足您多样化的需求。 Dify ,让生活更简单!

二、Dify的安装方式

1. 在线体验

速度比较慢。不推荐

2. 本地部署

2.1 Docker 安装
安装 Docker 环境
bash <(curl -sSl
https://cdn.jsdelivr.net/gh/SuperManito/LunuxMirrors@main/DockerInstallation.sh)
安装 Docker Compose
curl -L "https://github.com/docker/compose/releases/latest/download/docker-compose-$(uname -
s)-$(uname -m)" -o /usr/local/bin/docker-compose && chmod +x /usr/local/bin/docker-compose
执行查看 Docker-compose 版本
docker-compose --version

说明安装成功了
docker-compse 拉取镜像很慢
sudo tee /etc/docker/daemon.json <<-'EOF'
{
"registry-mirrors": [
"https://do.nark.eu.org",
"https://dc.j8.work",
"https://docker.m.daocloud.io",
"https://dockerproxy.com",
"https://docker.mirrors.ustc.edu.cn",
"https://docker.nju.edu.cn"
]
}
EOF
执行上面的代码
sudo systemctl daemon-reload # 重新加载 systemd 的配置文件
systemctl restart docker # 重启docker
然后去 GitHub 上拉取 dify 的代码。解压后进入到 docker 目录中
docker-compose up -d
执行即可
2.2 DockerDeskTop
Windows 环境下我们可以通过 DockerDesktop 来安装。直接去官网下载对应的版本即可。同样的我们需要拉
dify GitHub 的代码。然后进入到 Docker 目录,同样的执行这个代码
docker-compose up

然后在地址栏中输入 http://localhost/install 就可以访问了我们先设置管理员的相关信息。设置后再登录

3. Ollama

https://ollama.com/
我们已经把 Dify 在本地部署了。然后我们可以通过 Ollama 在本地部署对应的大模型,比如 deepseek-r1:1.5b
种小模型
Ollama 是一个让你能在本地运行大语言模型的工具,为用户在本地环境使用和交互大语言模型提供了便利,具有以下
特点:
1 )多模型支持: Ollama 支持多种大语言模型,比如 Llama 2 Mistral 等。这意味着用户可以根据自己的需求和场
景,选择不同的模型来完成各种任务,如文本生成、问答系统、对话交互等。
2 )易于安装和使用:它的安装过程相对简单,在 macOS Linux Windows 等主流操作系统上都能方便地部署。
用户安装完成后,通过简洁的命令行界面就能与模型进行交互,降低了使用大语言模型的技术门槛。
3 )本地运行: Ollama 允许模型在本地设备上运行,无需依赖网络连接来访问云端服务。这不仅提高了数据的安全性
和隐私性,还能减少因网络问题导致的延迟,实现更快速的响应。
搜索 Ollama 进入官网 https://ollama.com/download ,选择安装MAC版本的安装包,点击安装即可
下载完成后直接双击安装即可
命令:ollama,出现下面内容,说明安装成
启动 Ollama 服务
输入命令【 ollama serve 】,浏览器打开,显示running,说明启动成功
安装 deepseek-r1:1.5b 模型
https://ollama.com/library/deepseek-r1:1.5b 搜索 deepseek-R1, 跳转到下面的页面,复制这个命令,在终端执
行,下载模型 cmd中执行这个命令

4.Dify关联Ollama

Dify 是通过 Docker 部署的,而 Ollama 是运行在本地电脑的,得让 Dify 能访问 Ollama 的服务。
Dify 项目 -docker- 找到 .env 文件,在末尾加上下面的配置:
# 启用自定义模型
CUSTOM_MODEL_ENABLED=true
# 指定 Olama 的 API地址(根据部署环境调整IP)
OLLAMA_API_BASE_URL=host.docker.internal:11434
然后在模型中配置
Dify 的主界面 http://localhost/apps ,点击右上角用户名下的【设置】 在设置页面--Ollama--添加模型,如下: 添加成功后的
模型添加完成以后,刷新页面,进行系统模型设置。步骤:输入 http://localhost/install 进入 Dify 主页,用户名 -- 设 置--模型供应商,点击右侧【系统模型设置】,如下: 这样就关联成功了!!!
下一集:DIFY搭建知识库
Dify教程目录
一、Dify的介绍
二、Dify的安装方式
1. 本地部署
2. Docker安装
3.Ollama
4.Dify关联Ollama
三、Dify应用讲解
1. 创建空白应用
2. 创建本地知识库
3.知识库应用
4. AI图片生成工具
5. 旅游助手
6. SQL执行器
7. 科研论文翻译
8. SEO翻译
9. 标题覚文案生成
10.知识库图像检索和展示
11.自然语言生成SQL
12. Echarts可视化助手
.........
持续更新中,如需DIFY全流程文档可关注博主,查看私信获取哦
http://www.xdnf.cn/news/171217.html

相关文章:

  • 广度优先搜索(BFS)算法详解
  • 23种设计模式-行为型模式之命令模式(Java版本)
  • 鸿蒙系统应用开发全栈指南
  • HarmonyOS Next~鸿蒙系统流畅性技术解析:预加载与原生架构的协同进化
  • 神经编译革命:如何用脑机接口直接编程量子计算机?
  • 用Function Calling让GPT查询数据库(含示例)
  • 【Git】初始Git及入门命令行
  • 03.使用spring-ai玩转MCP
  • IdeaVim 配置与使用指南
  • 【Part 2安卓原生360°VR播放器开发实战】第二节|基于等距圆柱投影方式实现全景视频渲染
  • 位置差在坐标系间的相互转换
  • C++类和对象(上)
  • Spark SQL开发实战:从IDEA环境搭建到UDF/UDAF自定义函数实现
  • 《TVM模式匹配实战:从DFPatternNode到DFPattern的高级用法》
  • OceanBase数据库-学习笔记2-C#/C++程序如何访问
  • C++如何使用调试器(如GDB、LLDB)进行程序调试保姆级教程(2万字长文)
  • 使用 Autofac 实现依赖注入
  • 嵌入式软件--stm32 DAY 4 中断系统
  • Linux日志处理命令多管道实战应用
  • Python爬虫实战:获取网yi云音乐飙升榜的歌曲数据并作分析,为歌单推荐做参考
  • Spark SQL核心概念与编程实战:从DataFrame到DataSet的结构化数据处理
  • 《一键式江湖:Docker Compose中间件部署108式》开篇:告别“配置地狱”,从此笑傲云原生武林!》
  • python+adafruit_pca9685 测试舵机存储当前角度
  • 知识体系_数据量纲化处理方式
  • PWN基础-利用格式化字符串漏洞泄露canary结合栈溢出getshell
  • 神经网络笔记 - 神经网络
  • 东田数码科技前端面经
  • 运算符分为哪几类?哪些运算符常用作判断?简述运算符的优先级
  • 电池的寿命
  • 参数规模:衡量大语言模型体量的标尺