PyTorch:检查GPU可用性并查看CUDA支持
2023.11.08 12:42浏览量:17简介:pytorch 检查每块GPU是否可用 pytorch查看cuda
pytorch 检查每块GPU是否可用 pytorch查看cuda
PyTorch是一个广泛使用的深度学习框架,它支持使用GPU来加速计算。在使用PyTorch之前,我们需要检查每块GPU是否可用。下面是一些使用PyTorch检查每块GPU是否可用以及查看CUDA支持情况的步骤。
- 首先,我们需要导入PyTorch库。在命令行中输入以下代码:
import torch
- 接下来,我们可以使用
torch.cuda.is_available()函数来检查每块GPU是否可用。这个函数将返回一个布尔值,如果GPU可用,则返回True,否则返回False。我们可以使用一个for循环来检查所有可用的GPU。以下是一个示例代码:
这段代码将输出类似以下的结果:for i in range(torch.cuda.device_count()):print(f"GPU {i}: {torch.cuda.is_available()}")
这表明第一块GPU可用,而第二块GPU不可用。GPU 0: TrueGPU 1: False
- 如果您的系统支持CUDA,您还可以使用
torch.cuda.get_device_name()函数来获取每个设备的名称。您可以将设备编号作为参数传递给该函数,它将返回设备的名称。以下是一个示例代码:
这段代码将输出类似以下的结果:for i in range(torch.cuda.device_count()):if torch.cuda.is_available():print(f"GPU {i}: {torch.cuda.get_device_name(i)}")
这表明第一块GPU是GeForce GTX 1080 Ti,第二块GPU是GeForce GTX 1070。GPU 0: GeForce GTX 1080 TiGPU 1: GeForce GTX 1070

发表评论
登录后可评论,请前往 登录 或 注册