ubuntu安装ollama部署deepseek源程api调用接口
时间: 2025-07-05 10:48:33 浏览: 14
<think>好的,用户想在Ubuntu上安装Ollama并部署DeepSeek模型来调用API接口。首先,我需要确认Ollama的安装步骤。Ollama通常可以通过脚本安装,记得要使用curl下载安装脚本然后执行。可能需要用sudo权限运行,所以用户要注意权限问题。安装完成后,启动服务可能需要systemctl命令,但具体服务名称可能需要查一下,比如ollama.service是否正确。
接下来是部署DeepSeek模型。需要确认DeepSeek模型是否在Ollama的模型库中可用。如果官方支持,直接使用ollama run命令就可以拉取模型。如果不在库中,可能需要自己构建Modelfile,指定模型的路径和参数。这里可能需要用户有模型文件,比如GGUF格式的,并正确配置。
然后是API调用部分。Ollama默认的API端口是11434,用户可以通过curl发送POST请求到localhost:11434/api/generate。需要确保JSON格式正确,包括model、prompt等参数。用户可能需要安装HTTP客户端如Postman来测试API,或者用Python的requests库写脚本。
安全方面,如果用户需要外部访问,应该配置防火墙,比如UFW允许11434端口,或者设置反向代理如Nginx,并考虑HTTPS加密。这部分可能需要用户有一定的网络配置经验。
常见问题方面,安装时的权限问题、模型下载的网络问题、端口冲突都需要检查。模型部署失败可能是路径错误或者格式不支持,需要确认模型文件是否正确。API调用失败可能是参数错误或服务未启动,可以用systemctl status检查服务状态。
最后生成相关问题,考虑安装步骤的细节、模型支持情况、API调用方法、安全措施以及故障排除方法。这些可以帮助用户进一步解决问题。</think>### 在 Ubuntu 上安装 Ollama 并部署 DeepSeek 模型 API 的步骤
#### 1. 安装 Ollama
```bash
# 使用官方脚本安装
curl -fsSL https://ollama.com/install.sh | sh
# 启动服务(安装完成后自动启动)
sudo systemctl enable ollama
sudo systemctl start ollama
```
#### 2. 部署 DeepSeek 模型
```bash
# 拉取 DeepSeek 模型(需确认模型在Ollama库中存在)
ollama run deepseek
# 若模型未收录,需手动构建 Modelfile
echo "FROM /path/to/deepseek-model.Q4_0.gguf" > Modelfile
ollama create deepseek -f Modelfile
```
#### 3. 调用 API 接口
```bash
# 使用 curl 测试 API
curl http://localhost:11434/api/generate -d '{
"model": "deepseek",
"prompt": "你好",
"stream": false
}'
# Python 示例代码
import requests
response = requests.post(
"http://localhost:11434/api/generate",
json={"model": "deepseek", "prompt": "解释量子力学"}
)
print(response.json()["response"])
```
#### 4. 安全配置(可选)
```bash
# 开放端口(如果需要远程访问)
sudo ufw allow 11434/tcp
# 使用 Nginx 反向代理
location /ollama {
proxy_pass http://localhost:11434;
proxy_set_header Host $host;
}
```
### 常见问题排查
1. **安装失败**:检查网络连接和脚本执行权限
2. **模型加载失败**:确认模型文件路径正确且为GGUF格式
3. **API 无响应**:验证服务状态 `sudo systemctl status ollama`
4. **内存不足**:建议至少16GB内存,可尝试量化版本模型
阅读全文
相关推荐


















