显卡驱动命令
nvidia-smi
nvcc -V
安装
#CUDA 11.8
pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118
#CUDA 12.6
pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu126
#CUDA 12.8
pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu128
检测
1、脚本:检查 cuDNN 是否可用及其版本
import torch
def check_cudnn_support():
# 检查 CUDA 是否可用(cuDNN 依赖 CUDA)
cuda_available = torch.cuda.is_available()
print(f"CUDA 是否可用: {cuda_available}")
if not cuda_available:
print("CUDA 不可用,cuDNN 也无法使用!")
return
# 检查 cuDNN 是否启用
cudnn_enabled = torch.backends.cudnn.enabled
print(f"cuDNN 是否启用: {cudnn_enabled}")
if cudnn_enabled:
# 获取 cuDNN 版本
cudnn_version = torch.backends.cudnn.version()
print(f"cuDNN 版本: {cudnn_version}")
else:
print("cuDNN 未启用,PyTorch 未使用 cuDNN 加速!")
if __name__ == "__main__":
check_cudnn_support()
2、额外检查:直接测试 cuDNN 加速
import torch
# 创建一个张量并移至 GPU
x = torch.randn(1000, 1000).cuda()
# 使用 cuDNN 加速的卷积操作
conv = torch.nn.Conv2d(3, 64, kernel_size=3).cuda()
y = conv(torch.randn(1, 3, 224, 224).cuda())
print("cuDNN 加速的卷积计算成功!")
3、验证安装
import torch
# 检查 PyTorch 是否支持 CUDA
print("CUDA 是否可用:", torch.cuda.is_available())
# 查看 PyTorch 的 CUDA 版本
print("PyTorch CUDA 版本:", torch.version.cuda)
# 查看 PyTorch 的 cuDNN 版本
print("PyTorch cuDNN 版本:", torch.backends.cudnn.version())
# 查看 PyTorch 版本
print("PyTorch 版本:", torch.__version__)
# 查看当前使用的 GPU 设备信息
if torch.cuda.is_available():
print("当前 GPU 设备:", torch.cuda.get_device_name(0))
else:
print("没有可用的 GPU 设备")