当前位置: 首页 > news >正文

DeepSeek08-ollama使用

Ollama 完全指南:本地运行大模型的终极方案

本教程适用于 Windows/macOS/Linux 系统,最后更新于 2025年6月7日
官方文档:https://ollama.com

一、Ollama 简介

Ollama 是一个开源的 本地大模型运行框架,支持:

  • ✅ 一键下载运行 1000+ 模型(Llama3、Mistral、DeepSeek 等)
  • ✅ 完全离线运行,保护隐私
  • ✅ CPU/GPU 自动优化
  • ✅ 简单易用的命令行和 API
  1. 下载地址:
    • https://github.com/ollama/ollama/releases
    • https://ollama.com/download
  2. 官网地址:
    • https://ollama.com/
    • https://github.com/ollama/ollama
    • https://ollama.com/search

二、安装 Ollama

Windows 安装

# 1. 下载安装包(右键以管理员身份运行)
https://ollama.com/download/OllamaSetup.exe# 2. 验证安装
ollama --version
# 应显示:ollama version 0.1.36

macOS 安装

# 方法1:Homebrew(推荐)
brew install ollama# 方法2:直接下载
curl -fsSL https://ollama.com/install.sh | sh# 启动服务
brew services start ollama

Linux 安装

# 自动安装脚本(支持 Ubuntu/Debian/CentOS)
curl -fsSL https://ollama.com/install.sh | sh# 手动安装(适用于所有发行版)
sudo curl -L https://ollama.com/download/ollama-linux-amd64 -o /usr/bin/ollama
sudo chmod +x /usr/bin/ollama
ollama serve

三、基础使用

1. 下载运行模型

# 查看可用模型
ollama list# 下载运行模型(以 Llama3 8B 中文版为例)
ollama run llama3:8b-chinese# 首次运行会自动下载(约 4.8GB)

2. 交互式对话

模型运行后直接输入问题:

>>> 用Python写一个快速排序函数
def quick_sort(arr):if len(arr) <= 1:return arrpivot = arr[len(arr) // 2]left = [x for x in arr if x < pivot]middle = [x for x in arr if x == pivot]right = [x for x in arr if x > pivot]return quick_sort(left) + middle + quick_sort(right)

3. 常用命令

# 查看运行中的模型
ollama list# 停止模型
ollama stop llama3# 删除模型
ollama rm llama3:8b-chinese# 更新所有模型
ollama update

四、高级功能

1. 自定义模型配置

创建 Modelfile:
FROM llama3:8b-chinese
# 高级参数设置
PARAMETER num_ctx 4096
PARAMETER temperature 0.7# 添加系统提示
SYSTEM """
你是一位资深Python工程师,回答需包含可执行代码和详细解释
"""
构建自定义模型:
ollama create my-llama -f ./Modelfile
ollama run my-llama

2. 使用 Python API

##需要 pip install ollama
import ollama# 流式响应
response = ollama.chat(model='llama3.2:3b',messages=[{'role': 'user', 'content': '解释量子纠缠'}],stream=True
)for chunk in response:print(chunk['message']['content'], end='', flush=True)

3. 文件内容问答

from ollama import Clientclient = Client(host='http://localhost:11434')# 上传并分析PDF
response = client.generate(model="llama3.2:3b",prompt="总结这篇论文的核心观点:",files=["/path/to/paper.pdf"]
)print(response['response'])

五、热门模型推荐

模型名称大小特点下载命令
Llama3 8B 中文版4.8GB中英文均衡ollama run llama3.2:3b
DeepSeek-Coder6.7GB编程专用ollama run deepseek-coder
Mistral 7B4.1GB英语最强小模型ollama run mistral
Qwen:7b-chat5.3GB阿里通义千问ollama run qwen:7b-chat
Phi-3-mini1.8GB微软超轻量模型ollama run phi3

六、性能优化技巧

GPU 加速配置

# 查看可用GPU
ollama list# 指定GPU运行(NVIDIA)
OLLAMA_GPU_LAYERS=50 ollama run llama3:8b-chinese# AMD显卡用户
OLLAMA_GPU_LAYERS=50 OLLAMA_RUN_PRECISION="q4_0" ollama run mistral

内存优化

# 使用量化版本(4-bit)
ollama run llama3:8b-chinese-q4_0# CPU模式专用参数
OLLAMA_NUM_THREADS=8 ollama run mistral

硬盘优化

OLLAMA_MODELS=/path/to/ollama/models/path ollama serve

七、常见问题解决

1. 下载速度慢

# 使用国内镜像源
export OLLAMA_MODELS_SOURCE="https://ollama.mirrors.ustc.edu.cn/models"
ollama run llama3:8b-chinese

2. 显存不足

# 减小GPU层数
OLLAMA_GPU_LAYERS=20 ollama run deepseek-coder# 使用小量化模型
ollama run phi3:mini-4k

3. 端口冲突

# 修改默认端口
ollama serve --port 8080# 客户端连接
import ollama
client = ollama.Client(host='http://localhost:8080')

八、进阶资源

  1. 官方模型库
  2. Python API文档
  3. 自定义模型指南
  4. 硬件加速配置

提示:运行 ollama help 获取完整命令列表,使用 Ctrl+D 退出交互模式

# 启动Web UI(社区项目)
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v ollama-webui:/app/backend/data --name ollama-webui ghcr.io/ollama-webui/ollama-webui:main

访问 http://localhost:3000 使用图形界面管理模型

九、本人常用模型

ollama pull sam860/deepseek-r1-0528-qwen3:8b
ollama pull llama3.2:3b
ollama pull llama3.2:1b
ollama pull wangshenzhi/llama3-8b-chinese-chat-ollama-q8
ollama pull bge-m3:567m
ollama pull phi4-mini:3.8b
ollama pull quentinz/bge-large-zh-v1.5
ollama pull bge-large:335m
ollama pull nomic-embed-text
ollama pull qwen3:8b
ollama pull qwen3:4b
ollama pull qwen3:1.7b
ollama pull qwen3:0.6b
ollama pull huihui_ai/qwen3-abliterated:8b
ollama pull huihui_ai/qwen3-abliterated:4b
ollama pull huihui_ai/qwen3-abliterated:1.7b
ollama pull huihui_ai/qwen3-abliterated:0.6b
ollama pull rockn/DeepSeek-R1-0528-Qwen3-8B-IQ4_NL

© 著作权归作者所有

http://www.lqws.cn/news/201457.html

相关文章:

  • Linux编程:2、进程基础知识
  • MCP和A2A实战教程:构建智能客服系统
  • SQLMesh实战:用虚拟数据环境和自动化测试重新定义数据工程
  • 【K8S系列】Kubernetes 中 Pod(Java服务)启动缓慢的深度分析与解决方案
  • 文档极速转换器 - 免费批量Word转PDF工具
  • 【软件工具】批量OCR指定区域图片自动识别内容重命名软件使用教程及注意事项
  • Xilinx IP 解析之 Block Memory Generator v8.4 ——01-手册重点解读(仅 Native R
  • 注意力热图可视化
  • Java 8 Stream API 入门到实践详解
  • 【高效开发工具系列】Blackmagic Disk Speed Test for Mac:专业硬盘测速工具
  • CMS、G1、ZGC、Shenandoah 的全面对比
  • 前端模块化
  • Node.js: express 使用 Open SSL
  • 十、【ESP32开发全栈指南: TCP客户端】
  • TDengine 支持的平台汇总
  • 微软PowerBI考试 PL300-使用适用于 Power BI 的 Copilot 创建交互式报表
  • 1.5 Node.js 的 HTTP
  • PDF图片和表格等信息提取开源项目
  • 使用 Laravel 中的自定义存根简化工作
  • 计算机组成与体系结构:补码数制二(Complementary Number Systems)
  • 数据表自增主键命名规范
  • STM32学习之I2C(理论篇)
  • 【C++字符串基础解析1】
  • 网络原理5 - TCP4
  • C# 中替换多层级数据的 Id 和 ParentId,保持主从或父子关系不变
  • MySQL中的内置函数
  • 统一点云数据格式:高效转换与属性保留
  • 自适应长度惩罚强化学习的高效推理
  • Conda环境备份教程
  • Spring事务和事务传播机制