在深度學(xué)習(xí)中,GPU已經(jīng)成為必不可少的資源。在許多情況下,人們需要同時運行多個基于GPU的任務(wù)。然而,GPU資源是有限的,如何分配GPU成為了一個重要的問題。在這種情況下,Docker作為一種虛擬化工具,很好地解決了這個問題。
docker run --gpus=all # 指定使用所有GPU docker run --gpus=“device=0,1” # 指定使用相應(yīng)的GPU
有時候,我們需要將GPU分割為不同的部分。在這種情況下,nvidia-docker可以幫助我們實現(xiàn)GPU分割。
docker run --gpus “device=0,1” nvidia/cuda:10.0-cudnn7-runtime-ubuntu18.04 nvidia-smi
上面的命令可以將GPU分為0和1兩部分,然后在其上運行nvidia/cuda:10.0-cudnn7-runtime-ubuntu18.04鏡像。
可以看出,Docker和nvidia-docker似乎是我們實現(xiàn)GPU分配和合理利用的完美解決方案。它們提供了易于使用和高效的虛擬化GPU資源的方法。