Ollama 部署 DeepSeek
时间: 2025-03-03 11:14:35 浏览: 109
### 使用 Ollama 部署 DeepSeek 模型
为了成功部署 DeepSeek 模型,需遵循一系列命令来设置环境并启动模型服务。
#### 安装 Ollama 工具
通过官方提供的脚本可以完成 Ollama 的安装。确保系统已更新至最新状态:
```bash
apt-get update && apt-fsSL https://ollama.com/install.sh | sh
```
验证安装是否成功的命令如下[^1]:
```bash
ollama --version
```
#### 设置环境变量
指定 DeepSeek 模型存储的位置对于后续操作至关重要。假设目标路径为 `/hy-tmp/` ,则应执行以下指令设定环境变量[^3]:
```bash
export OLLAMAMODELPATH=/hy-tmp/
```
#### 启动 Ollama 服务
为了让 DeepSeek 能够被访问和服务请求,需要先启动 Ollama 服务端口监听:
```bash
ollama serve &
```
此命令应在后台运行以便持续提供服务支持。
#### 运行 DeepSeek 模型实例
最后,在另一个终端窗口中输入下列命令以启动具体版本的 DeepSeek 模型(此处以 `deepseek-r1:32b` 版本为例),这将使模型准备好接收来自客户端的应用程序接口调用:
```bash
ollama run deepseek-r1:32b
```
更多关于 Ollama 和其维护细节的信息可参阅官方文档获取[^2]。
阅读全文
相关推荐



