docker deepseek vllm
时间: 2025-04-19 10:52:55 浏览: 47
### 使用 Docker 部署 DeepSeek 和 vLLM
#### 安装并配置 Docker 环境
为了确保环境准备就绪,在 Windows 或 Ubuntu 上需先确认已正确安装 Docker 并能够正常启动服务。
对于 Windows 用户,可以通过 PowerShell 执行如下命令来验证 Docker 是否已经成功安装以及其版本信息:
```powershell
docker --version
```
而对于 Linux (Ubuntu) 用户,则可以使用终端执行相同的操作来进行检查。
#### 获取所需镜像
针对不同平台有不同的官方推荐镜像源:
- **Windows**: 参考提供的指令可以直接从默认仓库获取 `ollama/ollama` 这一适用于快速测试的基础镜像[^1]。
- **Linux (Ubuntu)**: 对于更专业的应用场景如部署大型模型(例如 deepseek-70B),建议遵循特定指导方针从指定地址下载适合鲲鹏+昇腾架构优化过的镜像文件。具体操作为拉取来自华为云容器镜像服务的定制化镜像 `hub.oepkgs.net/neocopilot/deepseek_vllm:cann.8.0.rc3.beta1-910b-openeuler22.03-py3.10` [^2]。
#### 启动容器实例
无论是哪种操作系统,一旦获得了合适的镜像之后就可以创建一个新的容器实例了。这一步骤通常涉及设置端口映射和其他必要的参数选项以便后续访问应用所提供的功能接口。
以 Windows 下为例,通过下面这条命令即可轻松完成上述任务,并将本地主机上的 11434 端口转发给容器内部的服务监听位置:
```bash
C:\Users\ccc> docker run -d -p 11434:11434 --name ollama ollama/ollama
```
而在基于 Ubuntu 的环境中,如果想要运行带有 GPU 加速支持的大规模预训练语言模型,则可能还需要额外指明一些硬件资源分配策略以及其他依赖项路径等细节内容。不过这里假设所有前提条件都已被满足的情况下,仅展示最基本的启动方式作为示范用途[^3]:
```bash
sudo docker run -it --gpus all -p 8080:8080 hub.oepkgs.net/neocopilot/deepseek_vllm:cann.8.0.rc3.beta1-910b-openeuler22.03-py3.10 bash
```
此命令会进入交互模式下的 Bash shell 中,允许进一步自定义配置或是直接开始调用 API 接口进行推理计算等工作流程。
#### 测试 PyTorch 安装情况
最后,在任何实际的应用开发之前,总是要确保所使用的框架库处于良好状态。特别是在涉及到深度学习算法时更是如此。因此可以在 Python 解释器里简单地尝试导入目标模块并打印出当前可用设备列表来检验整个系统的兼容性和稳定性。
```python
python -c "import torch; print(torch.__version__); print(torch.cuda.is_available())"
```
阅读全文
相关推荐


















