如何调用本地部署的deepseek
时间: 2025-03-30 16:09:32 浏览: 67
### 调用本地部署 DeepSeek 模型的方法
为了成功调用本地部署的 DeepSeek 模型,可以按照以下方法操作。这些方法主要依赖于 Ollama 提供的服务端点以及 Python 请求库。
#### 使用 `requests` 库发送 HTTP 请求
通过 Python 中的 `requests` 库可以直接向 Ollama 的 `/api/generate` 端点发送 POST 请求,从而完成与 DeepSeek 模型的交互[^1]。以下是具体代码示例:
```python
import requests
url = "http://localhost:11434/api/generate"
payload = {
"model": "deepseek-chat", # 替换为你实际使用的模型名称
"prompt": "你好,你是谁?",
"max_tokens": 100, # 设置最大返回 token 数量
}
response = requests.post(url, json=payload)
if response.status_code == 200:
result = response.json()
print(result["content"]) # 输出模型生成的内容
else:
print(f"Error: {response.status_code}")
```
上述代码展示了如何构建一个简单的请求并获取响应数据。其中 `"model"` 参数指定了要使用的模型名(例如 `deepseek-chat`),而 `"prompt"` 则定义了传递给模型的输入文本。
#### 验证模型是否正确加载
在尝试调用之前,可以通过命令行工具验证模型是否已经成功加载到 Ollama 当中。执行如下命令即可检查指定模型的状态[^3]:
```bash
curl http://localhost:11434/api/show?name=deepseek-coder
```
如果返回的结果表明该模型存在,则说明它可以被正常访问;否则可能需要重新启动服务或者确认安装过程是否有误。
#### 结合 PyQt5 构建图形界面应用
对于希望进一步扩展功能的应用开发者来说,还可以考虑将此逻辑嵌入到更复杂的项目当中,比如利用 PyQt5 创建桌面应用程序并与后台的大规模预训练语言模型相结合[^2]。这种组合能够提供更加直观易用的操作体验。
---
###
阅读全文
相关推荐


















