DeepSeek 是杭州深度求索人工智能基础技术研究有限公司 (成立于2023年7月17日) 研发的推理模型,该模型采用强化学习进行后训练,旨在提升推理能力,尤其擅长数学、代码和自然语言推理等复杂任务。2025年1月20日,DeepSeek 正式发布 DeepSeek-R1 模型,并同步开源模型权重。在部署 DeepSeek 之前,需要安装 Ollama , Ollama 是大型语言模型框架,可以理解为AI模型的宿主,如果需要美观的 UI 界面,需要安装其他应用配合,本教程我们通过部署 OpenWebUI 应用来运行 DeepSeek-R1 模型。
Open WebUI 简介
是一款可扩展的、功能丰富的用户友好型自托管 Web 界面,旨在完全离线运行。它支持包括 Ollama 和与 OpenAl 兼容的 API 在内的多种 LLM 运行器。
Open WebUI 的主要特点
轻松设置:支持 Docker 和 Kubernetes 安装,提供便捷的映像管理。
API 集成:兼容 Ollama 和 OpenAI API,自定义 API URL,适配多个 LLM 服务如 LMStudio 和 OpenRouter。更多详情请查阅 Open WebUI 官方文档。
在 UGOS Pro 系统上,推荐使用项目 Docker Compose 快速部署容器,适合需同时管理多个容器的场景,这种方法简化了容器的部署与管理工作。以下是使用 Docker Compose 部署 OpenWebUI 的详细步骤。
在 UGOS Pro 系统中,打开 Docker 应用,点击【项目】 > 【创建】,启动项目创建向导。
在项目创建向导中,上传以下 OpenWebUI 的 Docker Compose 配置文件:
version: '3.8'
services:
open-webui:
container_name: open-webui
image: ghcr.io/open-webui/open-webui:ollama # 镜像名
#加速器配置建议添加 https://docker.nju.edu.cn/
restart: always # 重启策略
ports:
- "3000:8080" # Web 服务访问端口
volumes:
- ./ollama:/root/.ollama # 存储与 ollama 相关的数据
- ./open-webui:/app/backend/data # 存储 Web UI 的后台数据
参数 | 说明 |
image | 指定容器镜像版本为 ,已集成 Ollama 服务。如下载速度慢,建议加速器配置添加 https://docker.nju.edu.cn/。 |
restart | 设定重启策略为 ,确保容器在崩溃或停止时自动重启,保持服务持续运行。 |
ports | 端口映射:将 NAS 的 3000 端口映射到容器的 8080 端口,通过 访问 WebUI。 |
volumes | 数据存储映射,确保数据持久化: |
:NAS 本地 目录映射至容器 ,存储 Ollama 数据。 | |
:NAS 本地 目录映射至容器 ,存储 OpenWebUI 后端数据。 |
注意:
● 表示当前 Docker Compose 文件所在的目录;
● 冒号前是 NAS 的存储路径,冒号后是容器内的映射路径。
● 镜像来源:使用 镜像,该镜像已集成了 OpenWebUI 和 Ollama,因此无需单独运行 Ollama 服务,系统将自动完成启动与集成。
● 端口设置:OpenWebUI 默认端口为 8080,但可通过 参数调整。本文将其映射到 3000 端口,访问地址为 。Ollama 的默认端口为 11434,但无需暴露,因为镜像内部已完成对接,OpenWebUI 可直接调用 Ollama 服务。
相关阅读
【FAQ】如何在 Docker Compose 配置文件中正确表示 volumes 挂载路径?
上传配置文件后,点击【立即部署】,系统会自动拉取镜像并启动容器。
镜像下载失败处理方法:
● open-webui镜像拉取失败:建议配置加速器以提高镜像下载速度,特别是在中国内地的网络环境下。 详细操作步骤请参考《Docker配置镜像加速和镜像源》了解如何设置。
● 代理设置:在某些情况下,您可能需要配置 HTTP/HTTPS 代理来辅助下载,详见《Docker通过设置代理下载镜像》。
要访问 Open WebUI 的 Web 界面,请按以下步骤操作:
1. 局域网内打开浏览器,访问部署地址,进入登录页面后点击开始使用。
2. 初次访问需创建管理员账号,设置用户名、邮箱及密码。
3. 使用新建的账号登录。
注意:初次访问页面时,可能会遇到内部错误或连接被拒的情况,请稍候分钟再尝试加载。
界面空白问题
登录时,界面可能暂时显示为空白状态,这是由于正在后台加载数据。您可以通过查看日志文件来确认加载进度和状态。
4. 成功登录后,将进入主界面。
界面空白排查:
1. 进入 UGOS Pro 的 Docker 应用。
2. 点击【容器】 > 选中 Open WebUI 容器 > 点击【日志】。
3. 请检查日志中是否包含模型加载的进度信息,如 "get_all_models" 或 "Loading models" 等提示。若日志显示正常加载,请等待1-2分钟,页面将自动刷新并恢复正常;若出现错误提示,则根据日志信息进行问题排查。
1. 前往 Ollama 官网:https://ollama.com下载模型,点击右上角 “Models” 。
2. 选择“deepseek-r1”模型,点击进入查看详情。
DeepSeek-R1各版本硬件要求和使用说明:
● 1.5b 大小的模型通常至少需要 8GB RAM,针对边缘设备上的快速推理进行优化的轻量级版本。
● 7b 大小的模型通常至少需要 16GB RAM,适用于通用推理任务的平衡模型。
● 8b 大小的模型通常至少需要 32GB RAM,有更高的准确性和更好的上下文理解。
● 14b 大小的模型通常至少需要 64GB RAM,推理和解决问题的能力得到提高。
● 32b 大小的模型通常至少需要 128GB RAM,更强的逻辑分析和更精细的逐步输出。
● 70b 大小的模型通常需要至少 256GB RAM,适用于高级人工智能驱动应用程序的高端版本。
● 671b 大小的模型通常需要至少 512GB RAM ,专家混合 (MoE) 模型,每个令牌激活 370 亿个参数,以实现最先进的推理性能。
3. 这里根据 NAS 硬件配置选择模型大小,不指定的话默认是 7B,若使用 NAS 部署模型,建议选择 1.5 B 大小的模型。
4. 复制旁边的拉取命令
5. 登录 Open WebUI 的 Web 界面,点击右上角搜索输入模型名称(例如:) 直接下载使用。
6. (可选)或返回 UGOS Pro 的 Docker 应用,进入【容器】 > 选中 Open WebUI 容器 > 点击【终端】 > 新增 Bash 连接。
7. (可选)在 Bash 终端中粘贴拉取命令,等待模型下载完成。
ollama run deepseek-r1:1.5b
8. (可选)显示 success 说明模型下载完成,重启容器。
9. (可选)登录 Open WebUI,确认模型是否已加载。
在新对话中使用模型,输入“ hello world! ”或其他问题,可以看到已经能使用了。
请注意:部署大模型会显著增加 NAS 的 CPU 和内存负载,建议避免在高负载任务中使用。
请注意,本教程中的镜像由第三方开发和维护,教程仅供参考。绿联不承担因用户操作不当、第三方软件漏洞或镜像更新引发的风险,包括但不限于:
· 第三方镜像可能导致您在 UGOS Pro 系统中的文件意外修改或删除。
· 使用不安全的镜像可能导致数据上传至第三方服务器,存在隐私和数据泄露风险。
· 为确保系统稳定和数据安全,请谨慎选择可信来源的第三方镜像。
其他注意事项:
1. 容器的文件/文件夹路径仅供参考,您可以根据个人习惯创建。
2. 网页访问的容器端口和本地端口应保持一致。如有冲突,请改为未使用的端口。容器之间的本地端口不能相同,端口冲突会导致无法启动容器。
3. 容器的网页链接仅在 bridge 桥接模式下可访问。
4. 镜像仅提供搭建教程,具体使用方法和深度玩法请网上搜索参考。
5. 镜像由第三方开发,具体配置变动和 bug 修复请关注相关官方信息。
6. 建议将 Docker 配置目录存储在 SSD 硬盘中,以避免机械硬盘影响系统性能。