Pytorch基础:环境变量CUDA_VISIBLE_DEVICES

2024-05-13 06:04

本文主要是介绍Pytorch基础:环境变量CUDA_VISIBLE_DEVICES,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

相关阅读

Pytorch基础icon-default.png?t=N7T8https://blog.csdn.net/weixin_45791458/category_12457644.html?spm=1001.2014.3001.5482


        CUDA_VISIBLE_DEVICES这个环境变量可以影响CUDA能识别到的GPU,并影响它映射到的cuda设备编号。

        首先我们知道使用nvidia-smi命令可以查询本机GPU的相关信息,如下所示。

$ nvidia-smi
Sun May 12 22:13:43 2024       
+---------------------------------------------------------------------------------------+
| NVIDIA-SMI 535.161.07             Driver Version: 535.161.07   CUDA Version: 12.2     |
|-----------------------------------------+----------------------+----------------------+
| GPU  Name                 Persistence-M | Bus-Id        Disp.A | Volatile Uncorr. ECC |
| Fan  Temp   Perf          Pwr:Usage/Cap |         Memory-Usage | GPU-Util  Compute M. |
|                                         |                      |               MIG M. |
|=========================================+======================+======================|
|   0  Tesla P100-PCIE-16GB           Off | 00000000:02:00.0 Off |                    0 |
| N/A   44C    P0              79W / 250W |  12178MiB / 16384MiB |     42%      Default |
|                                         |                      |                  N/A |
+-----------------------------------------+----------------------+----------------------+
|   1  Tesla P100-PCIE-16GB           Off | 00000000:03:00.0 Off |                    0 |
| N/A   49C    P0              81W / 250W |  12214MiB / 16384MiB |     63%      Default |
|                                         |                      |                  N/A |
+-----------------------------------------+----------------------+----------------------+
|   2  Tesla P100-PCIE-16GB           Off | 00000000:82:00.0 Off |                    0 |
| N/A   35C    P0              31W / 250W |   2932MiB / 16384MiB |      0%      Default |
|                                         |                      |                  N/A |
+-----------------------------------------+----------------------+----------------------+

        可以看到我的主机有三个GPU,分别被编号为0、1、2。在下面的python代码中,我们使用pytorch.cuda模块下提供的函数,查询了本机拥有的cuda设备数量,并根据编号显示了它们的型号。

import torch# 检查是否有可用的CUDA设备
if torch.cuda.is_available():# 获取设备数量device_count = torch.cuda.device_count()print("CUDA设备数量:", device_count)# 遍历每个设备并输出型号for i in range(device_count):print("CUDA设备{}型号:".format(i), torch.cuda.get_device_name(i))
else:print("CUDA不可用")
输出:
CUDA设备数量: 3
CUDA设备0型号: Tesla P100-PCIE-16GB
CUDA设备1型号: Tesla P100-PCIE-16GB
CUDA设备2型号: Tesla P100-PCIE-16GB

        上面的cuda设备编号,就对应着nvidia-smi命令所查询到的GPU编号,下面所示的几种方式可以将张量在指定编号的cuda设备之间转移,其中cuda:0、cuda:1、cuda:2中的数字指的就是cuda设备的编号。

import torchtensor_1=torch.tensor([1,2,3,4,5], device='cpu')
print(tensor_1)tensor_1=tensor_1.to('cuda:0')
print(tensor_1)
tensor_1=tensor_1.to('cuda:1')
print(tensor_1)
tensor_1=tensor_1.to('cuda:2')
print(tensor_1)tensor_2=torch.tensor([11,22,33,44,55], device='cpu')
print(tensor_2)tensor_2=tensor_2.to('cuda:0')
print(tensor_2)
tensor_2=tensor_2.to('cuda:1')
print(tensor_2)
tensor_2=tensor_2.to('cuda:2')
print(tensor_2)tensor_3=torch.tensor([111,222,333,444,555], device='cpu')
print(tensor_3)device_0=torch.device('cuda:0')
tensor_3=tensor_3.to(device_0)
print(tensor_3)
device_1=torch.device('cuda:1')
tensor_3=tensor_3.to(device_1)
print(tensor_3) 
device_2=torch.device('cuda:2')
tensor_3=tensor_3.to(device_2)
print(tensor_3)
输出:
tensor([1, 2, 3, 4, 5])
tensor([1, 2, 3, 4, 5], device='cuda:0')
tensor([1, 2, 3, 4, 5], device='cuda:1')
tensor([1, 2, 3, 4, 5], device='cuda:2')
tensor([11, 22, 33, 44, 55])
tensor([11, 22, 33, 44, 55], device='cuda:0')
tensor([11, 22, 33, 44, 55], device='cuda:1')
tensor([11, 22, 33, 44, 55], device='cuda:2')
tensor([111, 222, 333, 444, 555])
tensor([111, 222, 333, 444, 555], device='cuda:0')
tensor([111, 222, 333, 444, 555], device='cuda:1')
tensor([111, 222, 333, 444, 555], device='cuda:2')

        有了上面的基础,下面来谈谈环境变量CUDA_VISIBLE_DEVICES,在一般情况下,它是没有定义的,可以使用下面的Python代码进行检测。

import os
print(os.environ["CUDA_VISIBLE_DEVICES"])
输出:
KeyError: 'CUDA_VISIBLE_DEVICES'

        可以在Bash中使用export命令,定义环境变量CUDA_VISIBLE_DEVICES(设置变量为导出状态),有关export命令的内容,可以查看Linux:导出环境变量命令export。这种情况下,在该Bash下运行的所有python子进程,都会继承这个环境变量,如下所示。

# 以下三种方式均可以成功设置
# 仅设置GPU1、GPU2可见,且将GPU1当做cuda0设备,GPU2当做cuda1设备
$ export CUDA_VISIBLE_DEVICES='1,2'  
$ export CUDA_VISIBLE_DEVICES="1,2"
$ export CUDA_VISIBLE_DEVICES=1,2$ export  # 查看是否成功设置环境变量
******
declare -x CUDA_VISIBLE_DEVICES="1,2" 
******$ python
Python 3.9.18 (main, Sep 11 2023, 13:41:44) 
[GCC 11.2.0] :: Anaconda, Inc. on linux
Type "help", "copyright", "credits" or "license" for more information.
>>> import os
>>> print(os.environ["CUDA_VISIBLE_DEVICES"])
1,2
>>> import torch
>>> print("CUDA设备数量:", torch.cuda.device_count()) # 查看cuda设备数量
>>> CUDA设备数量: 2
>>> a=torch.tensor([1, 2, 3, 4, 5], device='cuda:2') # 无法使用cuda2设备
RuntimeError: CUDA error: invalid device ordinal
CUDA kernel errors might be asynchronously reported at some other API call, so the stacktrace below might be incorrect.
For debugging consider passing CUDA_LAUNCH_BLOCKING=1.
Compile with `TORCH_USE_CUDA_DSA` to enable device-side assertions.

        上例展示了,如何仅设置GPU1和GPU2可见,且将GPU1当做cuda0设备,GPU2当做cuda1设备,所以此时无法使用cuda2设备。由于环境变量CUDA_VISIBLE_DEVICES中编号的顺序也会影响cuda设备的映射编号,我们甚至可以将GPU0当做cuda2设备,GPU1当做cuda1设备,GPU2当做cuda0设备,如下所示。

$ export CUDA_VISIBLE_DEVICES='2,1,0'  

        还可以在python内部使用os模块直接设置本python进程的环境变量,如下所示。

import os
import torch
os.environ["CUDA_VISIBLE_DEVICES"]='2'  # 注意:这里必须使用字符串
print(os.environ["CUDA_VISIBLE_DEVICES"])
print("CUDA设备数量:", torch.cuda.device_count()) # 查看cuda设备数量
a=torch.tensor([1, 2, 3, 4, 5], device='cuda:1') # 无法使用cuda1设备输出:
2
CUDA设备数量: 1
RuntimeError: CUDA error: invalid device ordinal
CUDA kernel errors might be asynchronously reported at some other API call, so the stacktrace below might be incorrect.
For debugging consider passing CUDA_LAUNCH_BLOCKING=1.
Compile with `TORCH_USE_CUDA_DSA` to enable device-side assertions.

 

 

 

这篇关于Pytorch基础:环境变量CUDA_VISIBLE_DEVICES的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/984870

相关文章

从基础到高级详解Go语言中错误处理的实践指南

《从基础到高级详解Go语言中错误处理的实践指南》Go语言采用了一种独特而明确的错误处理哲学,与其他主流编程语言形成鲜明对比,本文将为大家详细介绍Go语言中错误处理详细方法,希望对大家有所帮助... 目录1 Go 错误处理哲学与核心机制1.1 错误接口设计1.2 错误与异常的区别2 错误创建与检查2.1 基础

Spring的基础事务注解@Transactional作用解读

《Spring的基础事务注解@Transactional作用解读》文章介绍了Spring框架中的事务管理,核心注解@Transactional用于声明事务,支持传播机制、隔离级别等配置,结合@Tran... 目录一、事务管理基础1.1 Spring事务的核心注解1.2 注解属性详解1.3 实现原理二、事务事

在Node.js中使用.env文件管理环境变量的全过程

《在Node.js中使用.env文件管理环境变量的全过程》Node.js应用程序通常依赖于环境变量来管理敏感信息或配置设置,.env文件已经成为一种流行的本地管理这些变量的方法,本文将探讨.env文件... 目录引言为什么使php用 .env 文件 ?如何在 Node.js 中使用 .env 文件最佳实践引

Java中最全最基础的IO流概述和简介案例分析

《Java中最全最基础的IO流概述和简介案例分析》JavaIO流用于程序与外部设备的数据交互,分为字节流(InputStream/OutputStream)和字符流(Reader/Writer),处理... 目录IO流简介IO是什么应用场景IO流的分类流的超类类型字节文件流应用简介核心API文件输出流应用文

从基础到高级详解Python数值格式化输出的完全指南

《从基础到高级详解Python数值格式化输出的完全指南》在数据分析、金融计算和科学报告领域,数值格式化是提升可读性和专业性的关键技术,本文将深入解析Python中数值格式化输出的相关方法,感兴趣的小伙... 目录引言:数值格式化的核心价值一、基础格式化方法1.1 三种核心格式化方式对比1.2 基础格式化示例

redis-sentinel基础概念及部署流程

《redis-sentinel基础概念及部署流程》RedisSentinel是Redis的高可用解决方案,通过监控主从节点、自动故障转移、通知机制及配置提供,实现集群故障恢复与服务持续可用,核心组件包... 目录一. 引言二. 核心功能三. 核心组件四. 故障转移流程五. 服务部署六. sentinel部署

从基础到进阶详解Python条件判断的实用指南

《从基础到进阶详解Python条件判断的实用指南》本文将通过15个实战案例,带你大家掌握条件判断的核心技巧,并从基础语法到高级应用一网打尽,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一... 目录​引言:条件判断为何如此重要一、基础语法:三行代码构建决策系统二、多条件分支:elif的魔法三、

Python WebSockets 库从基础到实战使用举例

《PythonWebSockets库从基础到实战使用举例》WebSocket是一种全双工、持久化的网络通信协议,适用于需要低延迟的应用,如实时聊天、股票行情推送、在线协作、多人游戏等,本文给大家介... 目录1. 引言2. 为什么使用 WebSocket?3. 安装 WebSockets 库4. 使用 We

从基础到高阶详解Python多态实战应用指南

《从基础到高阶详解Python多态实战应用指南》这篇文章主要从基础到高阶为大家详细介绍Python中多态的相关应用与技巧,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 目录一、多态的本质:python的“鸭子类型”哲学二、多态的三大实战场景场景1:数据处理管道——统一处理不同数据格式

MySQL数据类型与表操作全指南( 从基础到高级实践)

《MySQL数据类型与表操作全指南(从基础到高级实践)》本文详解MySQL数据类型分类(数值、日期/时间、字符串)及表操作(创建、修改、维护),涵盖优化技巧如数据类型选择、备份、分区,强调规范设计与... 目录mysql数据类型详解数值类型日期时间类型字符串类型表操作全解析创建表修改表结构添加列修改列删除列