麒麟V10 离线部署NVIDIA Container Toolkit
时间: 2025-04-28 14:28:53 浏览: 43
### 离线部署NVIDIA Container Toolkit于麒麟V10操作系统
#### 准备阶段
对于无法直接连接互联网的环境,在准备离线安装NVIDIA Container Toolkit前,需先在可联网机器上获取所需文件。这包括但不限于CUDA Toolkit、必要的依赖库以及`nvidia-container-toolkit`本身。由于CUDA Toolkit内含显卡驱动[^1],因此只需关注其余组件。
#### 获取依赖包
考虑到银河麒麟V10基于Linux发行版特性,应首先收集所有通过YUM仓库安装所需的RPM包及其依赖关系。具体来说:
- `yum-utils`, `device-mapper-persistent-data`, `lvm2`: 这些工具用于支持Docker的基础功能。
- `container-selinux`: 提供SELinux策略模块给容器使用。
以上提及软件可以通过访问官方或可信第三方镜像站点下载对应的RPM文件,并将其传输至目标主机。
#### 安装过程
一旦所有必需文件被转移至无网环境下运行的Galaxy Kylin V10服务器,则可以按照如下方式继续操作:
```bash
# 使用rpm命令批量安装预先下载好的.rpm文件
sudo rpm -ivh *.rpm --force --nodeps
```
注意上述命令假设当前目录下存在所有待安装的`.rpm`文件;实际执行时可根据实际情况调整路径参数。
针对`nvidia-container-toolkit`部分,同样遵循相同逻辑——即事先从有网络接入权限的地方取得该工具集的相关二进制分发版本并拷贝过来。
最后一步涉及重启Docker服务以应用更改:
```bash
sudo systemctl restart docker
```
此动作确保新加载的支持程序生效,从而使后续创建的任何容器都能识别到GPU设备。
#### 测试验证
为了确认整个设置流程顺利完成,推荐启动一个带有GPU加速能力的基础测试图像来检验一切正常运作。例如采用NVIDIA官方提供的TensorFlow Docker镜像作为样本进行尝试。
```bash
docker run --rm --gpus all nvcr.io/nvidia/tensorflow:21.09-tf2-py3 nvidia-smi
```
如果命令返回有关GPU状态的信息而非错误提示,则表明离线安装成功。
阅读全文
相关推荐


















