当前位置: 首页 > news >正文

基于DeepSeek搭建Dify智能助手国产化架构运行arm64

基于DeepSeek搭建Dify智能助手国产化架构运行arm64

  • 基于DeepSeek搭建Dify智能助手
    • 案例介绍
    • 案例内容
    • 1 概述
      • 1.1 背景介绍
      • 1.2 适用对象
      • 1.3 案例时间
      • 1.4 案例流程
      • 1.5 资源总览
    • 2.启动 Docker 容器没有的安装
      • 2.1没有Docker安装
    • 3 云主机部署DeepSeek
      • 3.1 安装Ollama
    • 4.安装Dify
      • 4.1Docker安装 Dify
      • 4.2进入 Dify 复制环境配置文件
      • 4.3复制环境配置文件
      • 4.4最后检查是否所有容器都正常运行:
    • 5.Dify+Ollama本地智能助手
      • 5.1启动Ollama容器
      • 5.2下载模型deepseek-r1:1.5b 版本,执行命令:
      • 5.3在 Dify 中接入 Ollama
      • 5.4在 设置 > 模型供应商 > Ollama 中填入:
    • 6添加智能助手

基于DeepSeek搭建Dify智能助手

案例介绍

通过本案例,让大家熟悉如何通过本地部署的DeepSeek搭建属于自己的Dify智能助手。

免费领取开发者空间云主机
pc端
移动端

案例内容

1 概述

1.1 背景介绍

DeepSeek是一家创新型科技公司,长久以来专注于开发先进的大语言模型(LLM)和相关技术。该公司推出了比较出名的模型有 DeepSeek-V3 和 DeekSeek-R1。
本案例通过在云主机部署DeepSeek搭建Dify智能体,进行智能助手的设定实现。与普通的对话系统不同,案例中通过提示词来设立Dify的角色和行为模式,Dify不仅仅是一个简单的问答工具,Dify 是一个生成式 AI 应用创新引擎,提供了健全的应用模板和编排框架,帮助开发者快速构建大型语言模型驱动的应用。它有两个版本:社区版和商业版,用户可以根据需求选择。Dify 还支持多个模型的接入,适用于不同的场景。此外,Dify 提供了完整的生产解决方案,经过精良的工程设计和软件测试,确保其可靠性。它运用智能化流程自动化与数据管理技术,帮助企业优化业务流程,提高工作效率。

1.2 适用对象

  • 企业
  • 个人开发者
  • 高校学生

1.3 案例时间

本案例总时长预计60分钟。

1.4 案例流程

在这里插入图片描述

说明:

① 云主机安装Ollama;
② 使用Ollama部署DeepSeek;
③ 云主机调用本地部署DeepSeek;
④ 下载Dfiy框架,创建Dfiy智能角色。

1.5 资源总览

本案例预计花费总计0元。

资源名称云主机
规格ARM 4vCPU 8GB
操作系统Ubuntu 24.04 Server 定制版
单价免费
时长180小时

在这里插入图片描述

2.启动 Docker 容器没有的安装

2.1没有Docker安装

1安装docker

sudo snap install docker 

在这里插入图片描述
2.docker compose version 命令检查版本

sudo docker compose version

在这里插入图片描述

3 云主机部署DeepSeek

3.1 安装Ollama

Ollama 是一个强大的开源工具,旨在帮助用户轻松地在本地运行、部署和管理大型语言模型(LLMs)。它提供了一个简单的命令行界面,使用户能够快速下载、运行和与各种预训练的语言模型进行交互。Ollama 支持多种模型架构,并且特别适合那些希望在本地环境中使用 LLMs 的开发者和研究人员。
在云主机桌面右键选择“Open Terminal Here”,打开命令终端窗口。
在这里插入图片描述
执行安装命令如下:
方式一(官方安装链接时间较慢)本地执行

curl -fsSL https://ollama.com/install.sh | sh

在这里插入图片描述
方式二docker镜像拉取(推荐,安装速度快):

docker pull swr.cn-north-4.myhuaweicloud.com/ddn-k8s/docker.io/ollama/ollama:latest-linuxarm64
docker tag  swr.cn-north-4.myhuaweicloud.com/ddn-k8s/docker.io/ollama/ollama:latest-linuxarm64  docker.io/ollama/ollama:latest

在这里插入图片描述

4.安装Dify

4.1Docker安装 Dify

方法一
克隆 Dify 代码仓库
克隆 Dify 源代码至本地环境。
当前版本为 0.15.3

git clone https://github.com/langgenius/dify.git --branch 0.15.3

方法二(推荐使用)通过百度云盘下载后上传到我的云空间
通过网盘分享的知识:Dify
链接: https://pan.baidu.com/s/5mjetRwc6gMTZgcRTBXHu8A
上传我的云空间
在这里插入图片描述
进入云服务机器从云空间下载文件包
在这里插入图片描述

4.2进入 Dify 复制环境配置文件

1.进入目录

cd dify/docker

2.重命名文件,并启动docker服务

#重命名
sudo mv .env.example   .env
sudo mv  middleware.env.example  middleware.env
#启动服务并查看docker服务
sudo systemctl start docker
sudo systemctl status docker

在这里插入图片描述

4.3复制环境配置文件

1.根据你系统上的 Docker Compose 版本,选择合适的命令来启动容器。你可以通过 docker compose version 命令检查版本

 docker compose version

在这里插入图片描述
2.如果版本是 Docker Compose V2,使用以下命令:

sudo docker compose up -d

3.如果版本是 Docker Compose V1,使用以下命令:

sudo docker-compose up -d

4.替换dify/docker/docker-compose.yaml文件(如果安装官网的执行docker-compose up -d 是会出现因为没有FQ很多组件无法正常下载的情况)
在这里插入图片描述
5.打开此文件全选删除里面的内容并复制或者删除源文件替换本文件
在这里插入图片描述
6.替换完执行执行相对应代码更新结束即完成
我的版本是V2

sudo docker compose up -d

在这里插入图片描述在这里插入图片描述

4.4最后检查是否所有容器都正常运行:

docker compose ps

1.在这个输出中,你应该可以看到包括 3 个业务服务 api / worker / web,以及 6 个基础组件 weaviate / db / redis / nginx / ssrf_proxy / sandbox 。
在这里插入图片描述
2.通过这些步骤,你可以在本地成功安装 Dify。

访问 Dify第一次启动较慢等待一段时间刷新一次就可以正常访问了
你可以先前往管理员初始化页面设置设置管理员账户:
本地环境

http://localhost/install

服务器环境

http://your_server_ip/install

在这里插入图片描述

5.Dify+Ollama本地智能助手

5.1启动Ollama容器

启动 Ollama 容器
要启动 ollama 容器,需要运行以下命令:

docker run -d -p 11434:11434 \-v ollama:/root/.ollama \docker.io/ollama/ollama:latest serve

在这里插入图片描述
这个命令会启动一个后台运行的容器,将容器内的 11434 端口映射到主机的 11434 端口,并创建一个名为ollama的卷来持久化存储模型。

5.2下载模型deepseek-r1:1.5b 版本,执行命令:

方法1:通过docker exec命令在容器内运行ollama pull
docker exec -it <container_id> ollama pull llama2

docker exec -it 5dd0308c7df47019b7cb230dd61de4b5e64028a40b1e4d42a434bd9e109413d6 ollama run deepseek-r1:1.5b
#简化id前三个 3-4个字符
docker exec -it 5dd0 ollama run deepseek-r1:1.5b

在这里插入图片描述
启动成功后,ollama 在本地 11434 端口启动了一个 API 服务,可通过 http://localhost:11434 访问。
在这里插入图片描述
如需运行其它模型,访问 Ollama Models 了解详情。

5.3在 Dify 中接入 Ollama

1.进入目录dify-0.15.3/docker/并修改.env没有此文件打开文件设置解除隐藏文件
在这里插入图片描述
2.在文件最后两行添加(参考官方开发文档)

# 启用自定义模型
CUSTOM_MODEL_ENABLED=true
# 指定 Ollama 的 API 地址(根据部署环境调整 IP)
OLLAMA_API_BASE_URL= host.docker.internal:11434

若 Dify 为 Docker 部署,建议填写局域网 IP 地址,例如:http://192.168.1.100:11434 或 Docker 容器的内部 IP 地址,例如:http://host.docker.internal:11434。

若为本地源码部署,可填写 http://localhost:11434。
在这里插入图片描述

5.4在 设置 > 模型供应商 > Ollama 中填入:

查询ip地址找到自己服务器的enp3s,里的inet 后面的IP地址。

1.模型名称

docker exec -it 8a55 ollama list

在这里插入图片描述
2.基础URL

ip addr

在这里插入图片描述
在这里插入图片描述
出现修改成功
在这里插入图片描述

6添加智能助手

1.工作室创建空白应用
在这里插入图片描述
2.选择聊天助理应用名称随便起
在这里插入图片描述
3.调试完成后发布Dify智能助手搭建完成。
在这里插入图片描述
在这里插入图片描述
开发者空间官网
开发者空间活动专题

http://www.lqws.cn/news/548641.html

相关文章:

  • 【LeetCode】滑动窗口相关算法题
  • leetcode.2014 重复k次的最长子序列
  • Deformable Transformer 详解
  • 本地缓存Caffeine详解(含与Spring Cache集成)
  • Java 工程智能化升级:飞算科技重构软件开发的技术范式
  • 电子电气架构 --- 涵盖“诊断与 ECU 平台”领域特有项目要求(上)
  • go写前端打包的自动化工具
  • 图像分割模型中的空间信息、上下文信息、空间路径、上下文路径到底是什么?有什么作用?
  • 大事件项目记录5-用户接口开发-更新用户头像
  • 未来已来:Deepoc大模型驱动的人机智能革命
  • ELK监控jar
  • 电商数据开发实践:深度剖析1688商品详情 API 的技术与应用
  • java中对象可达性分析 + 自动回收算法
  • Linux基本指令篇 —— tac指令
  • 导出docker-compse.yml中docker镜像成tar文件
  • 麒麟系统使用-运用VSCode运行.NET工程
  • swift 对象转Json
  • 分布式系统ID生成方案深度解析:雪花算法 vs UUID vs 其他主流方案
  • Hyperledger Fabric 入门笔记(二十)Fabric V2.5 测试网络进阶之Tape性能测试
  • Ubuntu 20.04 系统上运行 SLAM卡顿是什么原因
  • 免安装一键修复网络诊断 + 权限修复!打印机共享错误工具适配 Win7/10/11
  • Spring Boot 项目实训 - 图书信息网站
  • 移动端测试——如何解决iOS端无法打开弹窗式网页(Webkit)
  • canvas面试题200道
  • C++:string类(1)
  • 临床项目计划框架
  • java代码规范
  • 机器学习2——贝叶斯理论下
  • 【Linux手册】进程终止:进程退出和信号的响应机制
  • 微软全新开源的Agentic Web网络项目:NLWeb详解