💡
原文英文,约700词,阅读约需3分钟。
📝
内容提要
本文介绍了在Docker中使用GPU的步骤,包括安装NVIDIA驱动和CUDA工具包,设置环境变量,安装nvidia-container-toolkit以挂载GPU设备,以及通过--gpus参数启动容器以进行计算。
🎯
关键要点
- 在Docker中使用GPU的步骤包括安装NVIDIA驱动和CUDA工具包。
- 安装NVIDIA驱动后,需要设置环境变量,包括将CUDA路径添加到PATH和LD_LIBRARY_PATH。
- 安装nvidia-container-toolkit以挂载GPU设备,并重启Docker服务。
- 通过--gpus参数启动容器,可以分配所有GPU或特定GPU给容器。
- 使用nvidia/cuda镜像时,无需在主机上安装CUDA。
❓
延伸问答
如何在Docker中安装NVIDIA驱动和CUDA工具包?
首先下载对应的NVIDIA驱动并运行安装文件,然后下载CUDA工具包并安装,确保将CUDA路径添加到环境变量中。
在Docker中如何设置环境变量以使用CUDA?
需要将CUDA的bin目录添加到PATH中,并将lib64目录添加到LD_LIBRARY_PATH中。
如何安装nvidia-container-toolkit以挂载GPU设备?
可以通过运行nvidia-ctk命令来安装nvidia-container-toolkit,并重启Docker服务以使更改生效。
如何通过Docker启动使用GPU的容器?
使用--gpus参数启动容器,可以分配所有GPU或特定GPU给容器,例如使用命令'docker run --rm --gpus all nvidia/cuda:12.0.1-runtime-ubuntu22.04 nvidia-smi'。
使用nvidia/cuda镜像时,主机上需要安装CUDA吗?
不需要,使用nvidia/cuda镜像时,CUDA已经包含在镜像中,无需在主机上安装。
如何检查CUDA环境是否正常工作?
可以通过运行一个简单的PyTorch程序来检查CUDA环境,确保CUDA设备可用并输出相关信息。
➡️