# DeepSeek本地部署及搭建私有的知识库教程
## 说明
* 这几天建了个微信群,多数人对AI应用的讨论让我大开眼界,更坚定了AI可以重构所有行业的想法,群里目前需求最多的是本地部署DEEPSEEK并搭建私有知识库,所以做了这个教程,微信群号放在文档末尾。
* 原来的教程放在《原Linux部署教程》目录下
* 此教程的部署环境是windows,用1.5b模型做演示,所以对电脑配置几乎无配置要求,基本适用于所有个人电脑。但还是建议根据自己的配置选择更大的模型,1.5b模型约等于智障。
* 如果你可以科学上网,步骤会更简单。
## 下载并安装 ollama
地址:https://ollama.com/download/windows

windows的安装包很简单,下载成功后,一路确定即可。
安装成功后,可以在命令行运行:
```bash
ollama -v
```
看到版本号即安装成功。

命令行打开方法:
按住WIN+R,输入CMD,确定

## 下载并安装docker-desktop
官网地址:https://www.docker.com/
下载AMD64版本

下载完仍然是一路确定。安装完成后桌面会有快捷方式,打开运行。

docker-desktop安装运行可能会遇到很多问题,大部分都是因为依赖了被墙的资源,科学上网基本都可以绕过。

## 下载deepseek模型
命令行运行
```bash
ollama pull deepseek-r1:1.5b
```
上述指令是运行DEEPSEEK-R1 1.5B模型,请根据自己的硬件性能选择
可以使用的DEEPSEEK模型有:
* ollama run deepseek-r1:1.5b,
* ollama run deepseek-r1:8b
* ollama run deepseek-r1:32b
* ollama run deepseek-r1:70b
* ollama run deepseek-r1:671b
以下是不同版本的 DeepSeek 模型在本地部署时的性能要求,包括 CPU、内存、硬盘和显卡的具体配置:
* DeepSeek-R1-1.5B
CPU:最低 4 核(推荐 Intel/AMD 多核处理器)
内存:8GB+
硬盘:3GB+(模型文件约 1.5-2GB)
显卡:非必需(纯 CPU 推理),若 GPU 加速可选 4GB+ 显存(如 GTX 1650)
适用场景:低资源设备部署,如树莓派、旧款笔记本、嵌入式系统或物联网设备。
* DeepSeek-R1-7B
CPU:8 核以上(推荐现代多核 CPU)
内存:16GB+
硬盘:8GB+(模型文件约 4-5GB)
显卡:推荐 8GB+ 显存(如 RTX 3070/4060)
适用场景:中小型企业本地开发测试、中等复杂度 NLP 任务,例如文本摘要、翻译、轻量级多轮对话系统。
* DeepSeek-R1-8B
CPU:8 核以上(推荐现代多核 CPU)
内存:16GB+
硬盘:8GB+(模型文件约 4-5GB)
显卡:推荐 8GB+ 显存(如 RTX 3070/4060)
适用场景:需更高精度的轻量级任务(如代码生成、逻辑推理)。
* DeepSeek-R1-14B
CPU:12 核以上
内存:32GB+
硬盘:15GB+
显卡:16GB+ 显存(如 RTX 4090 或 A5000)
适用场景:企业级复杂任务、长文本理解与生成。
* DeepSeek-R1-32B
CPU:16 核以上(如 AMD Ryzen 9 或 Intel i9)
内存:64GB+
硬盘:30GB+
显卡:24GB+ 显存(如 A100 40GB 或双卡 RTX 3090)
适用场景:高精度专业领域任务、多模态任务预处理。
* DeepSeek-R1-70B
CPU:32 核以上(服务器级 CPU)
内存:128GB+
硬盘:70GB+
显卡:多卡并行(如 2x A100 80GB 或 4x RTX 4090)
适用场景:科研机构/大型企业、高复杂度生成任务。
* DeepSeek-R1-671B
CPU:64 核以上(服务器集群)
内存:512GB+
硬盘:300GB+
显卡:多节点分布式训练(如 8x A100/H100)
适用场景:超大规模 AI 研究、通用人工智能(AGI)探索。
下载很慢,耐心等待,ollama支持断点续传,下载慢时关掉重新下载会有惊喜。

## 运行DEEPSEKK模型
```bash
ollama run deepseek-r1:1.5b
```
到这一步已经可以在命令行中进行本地对话了。

实际看1.5B确实是智障

## 下载dify,并用docker获取运行环境
```bash
git clone https://github.com/langgenius/dify.git
cd dify/docker
cp .env.example .env
docker compose up -d
```
windwos中用copy替代cp指令
github需要科学上网,本地 没有git的同学可以直接下载zip解压,我放了一份放在网盘:
链接: https://pan.baidu.com/s/1cN7_LmdT0u-ZbANi0wmNTw?pwd=g5dn 提取码: g5dn 复制这段内容后打开百度网盘手机App,操作更方便哦。
解压后注意路径,是dify-main,不是dify
拉取docker镜像和下载deepseek模型可以同时进行


浏览器打开:http://localhost/install,耐心等待。

,
自己注册账户

注册完后登录
## 关联DEEPSEEK本地模型。


注意选择ollama,不要选择deepseek,那是在线的模型,需要付费,目前DEEPSEEK暂时关闭了付费。
ollma首次关联可能会报错。

这是因为DOCKER与物理机的网络导致的,配置本地环境变量:



关联地址是:
```bash
http://host.docker.internal:11434
```
关联成功后:

## 创建本地知识库



## 新建应用并关联知识库






开始用网页版聊天了,可以看出1.5B就是智障,对文档的理解也基本没有,模型换成更大的即可,也可以使用API关联在线模型。


## AI应用交流群
AI时代,我们一起探讨实际落地的应用,群聊人数已超过200人,只能通过邀请加入,
二维码过期可以添加好友拉群:
