windows+ollama+deepseek+openwebui快速实现本地部署Deepseek


1. DeepSeek-R1全版本及硬件要求

模型版本内存需求显存需求适用场景
1.5B≥8GB无需独立显卡低配设备,仅支持文本基础问答, 例如办公电脑
7B/8B≥16GB≥8GB(推荐NVIDIA 3060+)主流配置,支持代码生成/复杂推理, 例如办公室专用主机
14B≥32GB≥16GB(推荐NVIDIA 4090)高性能需求,支持长文本/多轮对话, 例如小企业专用服务器
32B/70B/671B≥64GB≥24GB专业显卡企业级服务器,需专业运维, 例如大公司专用服务器

2. 安装Ollama

2.1 官方下载(不推荐)

访问Ollama官网 -> 点击 Download for Windows(745MB,支持Win10/11 64位) -> 双击安装包安装
在这里插入图片描述


2.2 国内镜像加速(推荐)

国内下载直接搜索即可, 我是在数字指南下载的国内镜像包

在这里插入图片描述


2.3 验证安装

# 以管理员身份打开PowerShell
ollama --version
# 显示类似"ollama version 0.5.7"即成功

如果没安装成功会显示如下

# 以管理员身份打开PowerShell
ollama --version
'ollama' 不是内部或外部命令,也不是可运行的程序或批处理文件。

3. DeepSeek模型部署

3.1 拉取模型

根据硬件配置选择版本:

ollama run deepseek-r1:1.5b

首次运行会自动下载模型(约1.1G), 若下载中断可重新执行命令(支持断点续传)

3.2 测试运行

在交互界面输入测试指令:

>>> 用Python实现快速排序

若模型返回完整代码即部署成功


注意, 模型安装好最开始是使用cmd界面运行的, 非常丑陋, 所以我们需要部署可视化.


4. Open WebUI可视化部署

说明: Open WebUI是基于Python的, 所以只需要在Python环境下安装包即可

4.1 安装包

pip install open-webui -i https://mirrors.aliyun.com/pypi/simple/

4.2 启动服务

open-webui serve

4.3 访问界面

浏览器打开 http://localhost:8080,完成以下配置:

  • 注册管理员账号
  • 进入 Settings → Model,确认模型路径为deepseek-r1:7b
  • 开始对话

5. 结论

本地部署DeepSeek适合对数据隐私、高频调用、离线能力或深度定制有强需求的场景,尤其推荐金融、医疗、科研机构及技术实力较强的企业采用。


而中小型企业或轻量级需求者,云端服务仍是更经济便捷的选择


6. 实际参数参考

6.1 我的电脑配置

办公电脑, CPU和显卡都是很差的那种
在这里插入图片描述
在这里插入图片描述


6.2 我的版本选择

deepseek-r1:1.5b

  • 为什么选择最低配版本?
    :因为7b我都带不动

6.3 实际运行效果

  1. 卡不卡
    极度卡顿, 只要有任何一个人问问题, 我的CPU立马爆满, 回答速度也非常慢, 经常卡顿十几分钟

  1. 无法联网问题
    该问题可以通过使用ChatBox解决, 因为它已经配置好了
    但是如果你安装的是Open WebUI, 那将会变成一个非常棘手的问题, 因为你需要另外再配置一套搜索服务, 搞不好还得花钱

  1. 同事如何使用
    如果你部署的是Open WebUI, 那么你同事直接打开浏览器, 输入地址就可以访问, 而且界面还挺好看很专业
    如果你选择了ChatBox, 那你同事也需要安装ChatBox来使用了
### 部署 OllamaDeepSeekOpenWebUI 的指南 #### 安装依赖项 为了确保顺利安装这些应用程序,在开始之前需确认已安装必要的依赖包。对于大多数Linux发行版来说,这通常意味着更新现有软件包并安装一些基础工具。 ```bash sudo apt-get update && sudo apt-get upgrade -y sudo apt-get install -y curl wget git python3-pip docker.io ``` #### 设置 Docker 环境 由于这三个项目都支持通过Docker容器化运行,因此先要配置好Docker环境[^2]: 1. 启动并启用docker服务: ```bash sudo systemctl start docker sudo systemctl enable docker ``` 2. 将当前用户加入到`docker`组以便无需root权限即可操作docker命令: ```bash sudo usermod -aG docker ${USER} su - ${USER} # 刷新组成员身份 ``` #### 获取并启动Ollama Ollama是一个基于浏览器的AI开发平台,可以通过官方GitHub仓库获取最新版本镜像文件来部署它。 ```bash git clone https://github.com/your-repo/ollama.git /opt/ollama cd /opt/ollama docker-compose up -d --build ``` #### 构建 DeepSeek 搜索引擎实例 DeepSeek 是一款开源搜索引擎解决方案,适合用于构建私有数据索引查询系统。按照其文档说明下载源码编译打包成可执行程序或直接拉取预构建好的Docker镜像使用更方便快捷的方式完成初始化设置过程。 ```bash wget https://example.com/deepseek-latest.tar.gz -P ~/Downloads/ tar xf ~/Downloads/deepseek-latest.tar.gz -C ~/ cd ~/deepseek/ ./install.sh ``` 或者利用Docker Compose一键搭建集群模式下的多节点架构方案: ```yaml version: '3' services: deepseek-master: image: deepseek/master ports: - "9200:9200" ... ``` 保存上述YAML内容至名为`docker-compose.yml`的文件内,随后在同一目录下执行如下指令以快速建立整个服务体系结构。 ```bash docker-compose up -d ``` #### 运行OpenWebUI界面应用 最后一步就是让OpenWebUI作为图形化的管理控制面板呈现给最终使用者面前了。此部分同样推荐采用Docker方式简化运维工作量。 ```bash docker pull openwebui/appname docker run -dit --name=openwebui -p 8080:80 openwebui/appname ``` 现在应该可以在浏览器地址栏输入http://localhost:8080访问该网页端口映射后的可视化交互页面啦!
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

但老师

要是看起来爽 求打赏一耳光

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值