前言

在之前已经写过一份 Windows 部署 DeepSeek-R1 的博客了,但我那台陪我8年的 Windows 老伙计笔记本已经英勇牺牲了,正好乘着国补和教育补贴拿下 32G 内存、256G 硬盘的 Mac mini,也算是鸟枪换炮了。

这就导致了我之前部署的 DeepSeek 环境也用不了了,这不又来折腾 macOS 的 DeepSeek 的大模型环境

在本教程中,我们将手把手教你如何在 macOS 上部署 DeepSeek-R1 大模型,并通过 OpenWebUI 进行访问。本教程适合零基础用户,确保每一步都清晰可操作。

环境准备

安装 Ollama

  1. 首先访问 Ollama 官网 来下载 Ollama 安装包

    Ollama 官方 GitHub 源代码仓库:https://github.com/ollama/ollama

    下载按钮

    macOS下载

  2. 等待 Ollama 下载完成,待 Ollama 下载完毕之后双击打开压缩包解压出 Ollama 的安装文件

    解压出的文件

  3. 双击 Ollama 安装文件进行安装

    允许打开压缩包

    移动到应用程序目录

    点击下一步

    点击安装

    输入密码并继续

    安装结束

  4. 验证是否安装成功,在终端输入 ollama --version 如果能正确输出版本号则说明安装成功

  5. 配置 Ollama (可选)

    1. 在 macOS 上 ollama 默认将模型存放的路径是: ~/.ollama/models,如果想要修改此配置需要修改环境变量,使用 launchctl setenv OLLAMA_MODELS "/Users/YourUsername/CustomOllamaModels" 来更新环境变量的值
    2. 请将 /Users/YourUsername/CustomOllamaModels 替换为实际的路径
    3. 如果你已有模型,那么可以将现有的模型迁移至新的目录中,使用 cp -R ~/.ollama/models/* /Users/YourUsername/CustomOllamaModels/ 命令来进行迁移
    4. 迁移之后需要重启 Ollama,重启之后新配置将会生效
    5. 同理,如果想修改 OLLAMA_HOST, OLLAMA_PORT 等参数的话,也是使用以上的步骤进行修改即可

安装 docker

  1. 首先访问 docker 官网下载 docker 安装包,等待安装包下载完毕。

    安装结束

  2. 找到下载好的 Docker.dmg 并拖拽到应用程序目录完成安装

    拖拽完成安装docker

  3. 打开 docker,首次打开需要进行设置

    推荐模式安装docker

  4. 跳过登陆

    docker跳过登陆

安装 OpenWebUI

需要科学上网环境,否则 docker 的镜像包拉取会失败

Ollama 就在本地机器的话,可以执行如下命令安装并运行 OpenWebUI

docker pull ghcr.io/open-webui/open-webui:main
docker run -d -p 3000:8080 -v open-webui:/Users/YourUsername/OpenWebUI --name open-webui ghcr.io/open-webui/open-webui:main

启动完毕之后即可访问 http://localhost:3000 来访问 OpenWebUI 界面

聊天

当然也可以在手机中访问 OpenWebUI 的界面

手机中访问OpenWebUI

总结

这篇博客只是展示了如何部署 DeepSeek-R1 模型,Ollama 支持多种模型,我们只需要通过 Ollama pull 下到本地即可使用。