目 录CONTENT

文章目录

用M1 Max MacBook Pro私有化部署DeepSeek-R1

咕咕
2025-02-11 / 0 评论 / 0 点赞 / 1262 阅读 / 0 字
温馨提示:
部分素材来自网络,若不小心影响到您的利益,请联系我们删除。
广告 广告

早在去年5月份,我们就和大家介绍过完全免费,离线可用!用LobeChat+Ollama搭建本地大模型

最近DeepSeek非常火,用的人太多,服务器负载过高,导致官方服务基本处于不可用状态……

02ee23f435e7b3096085527c95dbe093.png

既然DeepSeek是开源模型,那么,我们也来本地化部署一个。

什么是 DeepSeek-R1 ?

DeepSeek-R1DeepSeek 的第一代推理模型,在数学、代码和推理任务中,其性能与 OpenAI-o1 相当(而OpenAI是闭源的),包括基于 LlamaQwen 的六个从 DeepSeek-R1 蒸馏出的密集模型。

00a581dcb4954d59690969bbae044b28.png

其中 671b教师模型Teacher Model), 另外的 6 个蒸馏模型为学生模型Student Model

  • 1.5b:全称是 DeepSeek-R1-Distill-Qwen-1.5B,蒸馏模型源自 Qwen-2.5 系列;
  • 7b:是 DeepSeek-R1-Distill-Qwen-7B,蒸馏模型源自 Qwen-2.5 系列;
  • 8b:是 DeepSeek-R1-Distill-Llama-8B,蒸馏模型源自 Llama3.1-8B-Base
  • 14b:是 DeepSeek-R1-Distill-Qwen-14B,蒸馏模型源自 Qwen-2.5 系列;
  • 32b:是 DeepSeek-R1-Distill-Qwen-32B,蒸馏模型源自 Qwen-2.5 系列;
  • 70b:是 DeepSeek-R1-Distill-Llama-70B,蒸馏模型源自 Llama3.3-70B-Instruct

什么是蒸馏 ?

蒸馏技术(Distillation)是一种模型压缩和优化的方法,主要用于将一个大型、复杂的模型的知识转移到一个较小的模型中。这个过程通常被称为“知识蒸馏”(Knowledge Distillation

模型选择

我们需要根据硬件的性能以及实际的需求来选择不同参数大小的模型:

ollama run deepseek-r1:1.5b
ollama run deepseek-r1:7b
ollama run deepseek-r1:8b
ollama run deepseek-r1:14b

没有配备专业级显卡的,推荐用14B以内的模型。

deepseek-r1:1.5b

  • CPU: 任何现代CPU(10年内的型号)
  • RAM: 最低8GB
  • GPU: 不需要专用GPU
  • 存储: 至少20GB可用空间,推荐SSD

这个模型对硬件要求最低,适合基础任务如简单写作和快速对话。

deepseek-r1:7b

  • CPU: 4核或以上(如Intel i5/Ryzen 5)
  • RAM: 至少16GB
  • GPU: NVIDIA RTX 3070 8GB或更高
  • 存储: 至少20GB可用空间,推荐SSD

适用于一般推理、较长文本生成和简单编码任务。

deepseek-r1:8b

硬件要求与7b模型相近:

  • CPU: 4核或以上
  • RAM: 至少16GB
  • GPU: NVIDIA RTX 3070 8GB或更高
  • 存储: 至少20GB可用空间,推荐SSD

deepseek-r1:14b

  • CPU: 6核或以上(如Intel i7/Ryzen 7)
  • RAM: 至少32GB
  • GPU: NVIDIA RTX 3080 10GB或更高,推荐NVIDIA A4000 16GB
  • 存储: 至少20GB可用空间,推荐SSD

这个模型适合更深入的推理、编码和研究任务。

342bc09e3bc5b249e4e9d502f27b73fa.png

ollama run deepseek-r1:32b
ollama run deepseek-r1:70b
ollama run deepseek-r1:671b

32b,70b,671b对机器的要求如下:

DeepSeek-R1-Distill-Qwen-32B

  • VRAM需求:约14.9GB
  • 推荐GPU配置:NVIDIA RTX 4090 24GB
  • RAM:建议至少32GB

DeepSeek-R1-Distill-Llama-70B

  • VRAM需求:约32.7GB
  • 推荐GPU配置:NVIDIA RTX 4090 24GB × 2
  • RAM:建议48GB以上

DeepSeek-R1 671B(完整模型)

  • VRAM需求:约1,342GB(使用FP16精度)
  • 推荐GPU配置:多GPU设置,例如NVIDIA A100 80GB × 16
  • RAM:512GB以上
  • 存储:500GB以上高速SSD

需要注意的是,对于671B模型:

  1. 通常需要企业级或数据中心级硬件来管理其巨大的内存和计算负载。
  2. 使用量化技术可以显著降低VRAM需求。例如,使用4位量化后,模型大小可降至约404GB。
  3. 使用动态量化技术,可以进一步降低硬件需求,将大部分参数量化到1.5-2.5位,使模型大小降至212GB-131GB之间。
  4. 对于本地部署,可能需要考虑使用多台高性能工作站或服务器,如使用多个Mac Studio(M2 Ultra,192GB RAM)来满足内存需求。
  5. 运行完整671B模型时,还需考虑功耗(可能高达10kW)和散热等问题。

总的来说,32B和70B模型可以在高端消费级硬件上运行,而671B模型则需要企业级或数据中心级的硬件配置。选择合适的硬件配置时,还需考虑具体的使用场景、性能需求和预算限制。

咕咕的Mac配置如下:

836f64d6e995268a6690c78697ec445e.png

由于M系列MacBook采用统一内存架构,这意味着CPU和GPU可以共享同一内存池。这种设计减少了数据在不同处理单元之间传输的需要,从而可以显著提高大型数据集处理的速度和效率。

所以,理论上我可以在本地跑DeepSeek-R1-Distill-Qwen-32B,一会儿我们来试试!

下载安装Ollama

官方网站:https://ollama.com/

67c46a3feb85d570a13fa6a242e9c380.png

其实这个也可以用Docker来装,但是既然给了安装版,我们就直接到官网下载即可。

什么是Ollama?

Ollama 是一个便于本地部署和运行大型语言模型(Large Language Models, LLMs)的工具。使用通俗的语言来说,如果你想在自己的电脑上运行如 GPT-3 这样的大型人工智能模型,而不是通过互联网连接到它们,那么 Ollama 是一个实现这一目标的工具。

Ollama支持非常多的开源模型,比如:

0bbb50a6f238e105966021293bd3bebf.png

更多支持的模型可以看这边:https://ollama.com/library

当然它还支持自定义模型,这边就不深入了,有兴趣的可以研究:https://github.com/ollama/ollama

0cf74812cbf4ff013672845d9c6a0519.png

装好之后,直接像打开APP一样打开,

86acde18f586e7b7d7f706f46eef8447.png

或者命令行运行:

ollama -v

查看到版本号说明安装好了。

d11b34a42dd77681401819a24a7694cc.png

接下来我们下载一个deepseek-r1:32b的模型:(这边大家按照自己电脑的实际配置情况,结合上面不同参数模型对应的电脑配置来选择合适大小参数的模型进行安装)

ollama run deepseek-r1:32b

这边可能需要比较长的时间,取决于你的网速。

下载好了就可以进行交互了:

0e828a1a0890afd72407268e2940436c.png

/? 可以查看帮助:

b4142aa5419da3cdad6f2a6657c150de.png

/bye 可以退出

97bfe8935960d6cc3035cf3d8eea4afe.png

我们来问几个其他问题。

在问问题之前,Ollama官方提供了计算推理速度的工具,只要在聊天窗口输入/set verbose就能使其在每次回复后自动输出运行速度。

16aa06a5e51369a5fa9ea834fc7dd911.png

1f4780456d103c6741d96366bb002c17.png

emm,换个问题,

46f3917da29819e92eb521e3f6930a82.png

5fed27952279fa3e36debac5a1eeca0b.png

8.34 tokens/s 还是基本一个可用的状态,

但是32B显然还是不够犀利,贴一个满血版本的回答:

1b19ba1dbaccce11b591627402aa51d2.png

其实到这里,我们现在已经搞定了,你可以让它帮你干活了,但是每次都要用命令行,有些人觉得不方便,而且也不能给别人用,下面我们就给它搞一个图形化界面,扩展一下功能,也能让局域网里的其他小伙伴也用上你的这个模型(注意多人同时访问会导致机器负载飙升,具体取决于你机器的性能和模型参数的大小)

安装浏览器插件——Page Assist

除了在命令行里运行Ollama,我们可以使用一个名为Page Assist的浏览器插件,这款插件可以让我们能够在浏览器页面运行我们的本地大模型。

图片

你可以通过访问Chrome插件链接直接安装,

也可以通过 Page Assist的GitHub界面所述的步骤进行安装。

安装好插件后,就可以设置下 Ollama 的模型,

图片

设置好相应的地址后就可以保存了,这样就可以使用相应的模型进行问答了。

图片

如果有很多的模型,也可以在管理模型中进行管理和添加。

为了更好的使用模型,我们也可以增加自己的知识库,在使用知识库之前需要进行RAG 设置。

图片

我选择了snowflake-arctic-embed2的 embedded 模型,

ollama pull snowflake-arctic-embed2

当然也可以选择推荐的模型,如果没有,可以到管理模型中添加。

完成后就可以通过管理知识进行知识库的添加。

图片

图片

然后就可以打开界面选择模型进行对话了。

Page Assist还有一些其他的功能,比如管理知识管理提示词等等,大家可以自行研究一下,重要的是,现在我们使用起来更直观一些了!

Page Assist侧边栏功能

在任意一个网页,选中 Page Assist 插件点右键菜单,启动 侧边栏

a3de30d55729261e38cc25ba0a262b55.png

勾选 与当前页面聊天

e9111755d8c8e59e287e757ba83a7640.png

可以向模型提问,比如让模型总结一下页面的内容,

edb51c66972bac5f895db03107ee6e41.png

7B还是不够聪明,我们换32B再试试看:

86d06d581a6eefcefec8ea67aea238f0.png

bd5d798e2b3310904b84f364c81d9974.png

这个效果就好多了。

好了,那就简单介绍这么多,有兴趣的小伙伴可以动手尝试起来了!

0
  1. 支付宝打赏

    qrcode alipay
  2. 微信打赏

    qrcode weixin
广告 广告

评论区