PyTorch改为默认使用GPU

PyTorch默认用CPU,改默认用GPU,
import torch后,用
torch.set_default_device('cuda')
改为默认使用GPU

### 配置 VSCode 使用 GPU 加速 为了使 VSCode 能够利用 GPU 来加速代码执行,特别是针对深度学习框架如 TensorFlow 或 PyTorch 的应用开发,需完成几个必要的配置。 #### 设置 Docker 容器以启用 GPU 支持 默认情况下,在 VSCode 中创建的容器不会自动开启对 GPU 的访问权限。为此,需要修改 `settings.json` 文件来指定额外选项,允许容器识别并使用主机系统的 GPU 设备[^1]: ```json { "docker.buildArgs": { "NVIDIA_DRIVER_CAPABILITIES": "compute,utility" }, "remote.Docker.containerEnv": { "NVIDIA_VISIBLE_DEVICES": "all", "NVIDIA_DRIVER_CAPABILITIES": "${DOCKER_DEFAULT_PLATFORM:+--gpus all}" } } ``` 上述 JSON 片段展示了如何通过构建参数传递给 Docker 构建过程以及远程连接至容器时所使用的环境变量设定,从而确保所有可用的 NVIDIA 显卡都能被容器内的应用程序发现和调用。 #### 修改 VSCode 启动方式禁用不必要的 GPU 占用 为了避免非必要程序占用过多显存资源,可以在启动 VSCode 时加入特定标志位来关闭其内部渲染引擎中的硬件加速功能[^2]: ```bash code --disable-gpu ``` 此命令行指令会告知 Electron 应用(即 VSCode)在初始化过程中忽略图形处理单元的存在,进而减少因界面绘制等原因造成的内存消耗。 #### Python 环境下的 GPU 可见性控制 对于希望精确管理哪些 GPU 将参与计算任务的情况,可以通过调整操作系统级别的环境变量实现这一点[^3]: ```python import os os.environ["CUDA_VISIBLE_DEVICES"] = "0" # 假设只有一张GPU卡,则编号为'0' ``` 这段简单的脚本片段能够有效限定后续加载的任何依赖 CUDA 平台的应用仅限于操作由该语句定义的一组物理设备上。 #### 安装兼容版本的 CUDA 和 cuDNN 最后也是至关重要的是确认已正确安装了与目标库相适应的底层驱动程序——CUDA Toolkit 和 cuDNN SDK。例如,如果打算部署基于 TensorFlow 2.x 的模型训练作业,则应参照官方文档推荐的选择相应组合;比如 TensorFlow 2.5 对应着 CUDA 11.2 和 cuDNN 8.1.1 的搭配方案[^4]。 综上所述,以上措施共同构成了完整的解决方案链路,使得开发者能够在 VSCode 开发环境中充分利用 GPU 提供的强大算力优势来进行高效编程工作。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

-Love-Coding-

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值