ollama + deepseek r1部署
时间: 2025-02-10 21:10:08 浏览: 82
### 如何部署 Ollama 和 DeepSeek R1
#### 准备工作
为了顺利部署Ollama和DeepSeek R1,需准备大约10GB的磁盘空间用于安装部署Ollama和DeepSeek R1[^2]。
#### 下载并安装Ollama软件
前往官方网站下载最新的Ollama软件版本,并按照官方指导完成安装过程。这一步骤是后续操作的基础,务必确保顺利完成安装。
#### 安装DeepSeek R1模型
在命令提示符(cmd)环境下执行如下指令来安装`deepseek-r1:14b`模型:
```bash
ollama run deepseek-r1:14b
```
此命令会自动拉取指定版本的DeepSeek R1模型至本地环境,从而允许用户在其计算机上运行该模型[^4]。
#### 验证安装情况
利用`ollama list`命令可以检查当前环境中已安装的所有Ollama支持的服务列表,以此确认DeepSeek R1是否正确无误地被加载到系统之中。如果一切正常,则说明已经成功完成了整个部署流程。
#### 应用场景拓展——集成Word文档处理工具
对于希望进一步提升工作效率的人来说,还可以考虑将DeepSeek与Microsoft Word相结合。尽管目前官方暂停了API Key的新注册请求,但是通过前述方法实现的本地化部署同样能够满足这一需求,即借助于本地接口调用来达成二者之间的无缝对接[^3]。
相关问题
ollama+deepseek部署
### 部署 Ollama 和 DeepSeek 的方法
#### Kubernetes 上部署 DeepSeek R1 服务
为了在 Kubernetes 中部署 `deepseek-r1` 服务,需创建名为 `deepseek-r1-service.yaml` 文件来定义服务规格。此文件指定了 API 版本、服务种类以及元数据和服务的具体配置详情[^1]。
```yaml
apiVersion: v1
kind: Service
metadata:
name: deepseek-r1-service
spec:
selector:
app: deepseek-r1
ports:
- protocol: TCP
port: 8081
targetPort: 8081
type: LoadBalancer
```
上述 YAML 文件描述了一个负载均衡类型的 Kubernetes 服务,它会暴露端口 8081 并将流量转发给标记有特定标签的应用实例。
#### 使用 Ollama 工具运行 DeepSeek 模型
对于希望利用 Ollama 来管理和运行 DeepSeek 大规模语言模型的情况,首先应确保已成功安装 Ollama 软件包,并通过命令验证版本号以确认其可用性。接着可以通过指定镜像名称的方式启动所需的大规模语言模型实例:
```bash
ollama run deepseek-r1:1.5b
```
这条指令用于拉取并启动带有约 15 亿参数量级的小尺寸预训练模型 `deepseek-r1:1.5b`,该操作完成后即可准备与之交互测试性能表现[^2]。
#### Cherry Studio 工具集成
Cherry Studio 是一款辅助工具,能够帮助更好地管理由 Ollama 启动的服务和应用案例中的大规模语言模型。一旦完成了前面提到的基础设置工作,则可进一步探索如何借助这款图形界面应用程序简化日常运维流程,提高工作效率[^3]。
#### Linux 环境下的离线部署方案
考虑到某些场景可能不具备稳定互联网连接条件,在这种情况下可以考虑采用预先打包好的二进制文件形式来进行完全独立于外部资源的本地化安装过程。具体步骤包括但不限于获取适用于目标平台架构的压缩包、解压至合适路径下、调整必要的环境变量指向新加入组件的位置等动作序列[^4]。
ollama 部署deepseek r1
### 部署 DeepSeek R1 模型
为了在 Ollama 平台上成功部署 DeepSeek R1 模型,需遵循特定步骤来确保环境配置正确并能顺利运行模型。
#### 下载与安装 Ollama
前往 Ollama 官方网站获取适用于 Windows 的安装程序 `ollama setup.exe` 并完成其安装过程[^3]。这一步骤对于建立必要的基础架构至关重要,使得后续操作得以顺畅进行。
#### 获取 DeepSeek R1 模型
针对不同版本的 DeepSeek R1 模型有不同的处理方式:
- 对于 **DeepSeek R1:1.5B** 版本,在命令提示符下输入如下指令启动该模型实例:
```bash
ollama run deepseek-r1:1.5b
```
- 若考虑的是更大规模的 **DeepSeek R1:7B** 版本,则应采用相应的调用语句:
```bash
ollama run deepseek-r1:7b
```
此外需要注意,默认情况下此操作会占用大约4GB存储空间,并且默认保存路径位于系统盘(C:)内;而对于硬件资源有限的情况如配备 RTX2060 显卡(具有6GB VRAM),依然能够支持上述较大尺寸模型的正常运作[^4]。
#### 运行环境准备
考虑到Windows 11操作系统特性以及可能存在的兼容性问题,建议参照官方文档中的快速入门指南来进行更细致化的设置调整,从而保障整个流程无误地被执行下去[^2]。
阅读全文
相关推荐
















