当前位置: 首页 > news >正文

3步在小米13手机跑DeepSeek R1

大家好!我是羊仔,专注AI工具、智能体、编程。

一、从性能旗舰到AI主机

春节大扫除时,翻出尘封的小米13,这台曾以骁龙8 Gen2著称的性能小钢炮,如今正在执行更科幻的使命——本地运行DeepSeek R1。

想起两年前用它连续肝《王者荣耀》四小时的时光,当时绝对想不到,这个6.36英寸的小身板里,正沉睡着一颗即将觉醒的AI心脏。

图片

二、云端囚徒VS本地骑士

总有人嘲笑本地部署是"自行车追高铁",这种说法让羊仔想起当年坚持买断制软件的老程序员——当SaaS服务突然涨价时,他们喝着茶看年轻人焦头烂额的样子特别人间清醒。

1. 网络依赖:在地铁/地库等场景,云端AI瞬间变人工智障

2. 隐私裸奔:你和AI说的每句话都在别人服务器裸泳

3. 算力排队:全民AI时代,云端响应可能比奶茶店取餐还慢

图片

三、部署指南:给手机装上AI引擎

第一步:安装APP

下载并安装PocketPal AI,这个神奇的APP,将成为你的移动AI控制台。

图片

第二步:模型超市

图片

  1. 点击右下角"+"号选择【Add from HuggingFace】

  2. 在搜索框输入"DeepSeek"

  3. 选择适合手机的版本

  4. 趁着下载进度条奔跑时,去泡杯茶

    图片

第三步:唤醒你的AI副驾

图片

点击Load加载模型,加载完成后,记得做一个关键设置:上下文长度拉到4096,避免出现只思考不回答的情况。

图片

然后就可以愉快地和AI对话啦。

图片

四、AI战力榜

设备精度速度(tokens/s)内存占用
小米13Q62841%
FindX7 UltraQ62349%

拿同事的Find X7 Ultra做对比测试时,发现个反直觉现象:天玑9300的AI算力纸面数据更强,但实际生成速度反而落后。

五、模型选择的哲学

用了三天R1后,羊仔还是换回了Qwen2.5。倒不是R1不好,只是它的思考过程像极了话痨导师——明明可以直接给答案,非要先来半小时方法论教学。

图片

这正印证了AI时代的核心法则:没有最好的模型,只有最合适的工具。就像有人爱机械键盘的清脆,有人钟情静电容的温柔。

六、羊仔说

测试完已是凌晨2点,看着窗外零星灯火,突然想起《黑客帝国》里的人类电池矩阵。

而今我们每个人掌心里,似乎都握着一个黑客帝国。

图片

当你在星巴克用手机本地跑AI修改方案时,隔壁小姐姐的云端AI正在排队等响应,这种隐秘的技术代差,比跑分软件里的数字刺激多了。

共勉!

欢迎关注羊仔,一起探索AI,成为超级个体!

记得在看,转,你的每一次互动,对羊仔来说都是莫大的鼓励。

http://www.lqws.cn/news/113725.html

相关文章:

  • MaxCompute开发UDF和UDTF案例
  • 洛谷P12610 ——[CCC 2025 Junior] Donut Shop
  • 【知识点】openai请求参数如何转为大模型的字符串?
  • LeetCode[404]左叶子之和
  • JavaScript 核心原理深度解析-不停留于表面的VUE等的使用!
  • Servlet 生命周期
  • 关于easyx头文件
  • 二、函数调用包含单个参数之整型-ECX寄存器,LEA指令
  • SQL注入漏洞-上篇
  • 春秋云镜 Certify Writeup
  • 光耦电路学习,光耦输入并联电阻、并联电容,光耦输出滤波电路
  • 对比ODR直接赋值的非原子操作和BSRR原子操作
  • 蓝桥杯国赛训练 day1
  • BGP笔记的基本概要
  • Abaqus连接器弹片正向力分析:
  • 【高等数学】(2)函数
  • 域自适应 (Domain Adaptation,DA)基础
  • Ubuntu系统 | 本地部署ollama+deepseek
  • MySQL存储过程
  • MySQL 搜索特定桩号距离之间的数据
  • 传输层协议:网络通信的关键纽带
  • 12.7 LangChain实战:1.2秒响应!用LCEL构建高效RAG系统,准确率提升41%
  • 现代密码学介绍
  • 从0开始学linux韦东山教程第四章问题小结(3)
  • 【LUT技术专题】图像自适应3DLUT代码讲解
  • 蛋白质设计软件LigandMPNN介绍
  • 数据加密标准(DES)解析
  • 40、响应处理-【源码分析】-基于请求参数的内容协商原理
  • malloc 内存分配机制:brk 与 mmap
  • C#面试问题61-80