在Docker中使用GPU進行深度學習開發可以通過以下步驟實現:
確保你的機器上有支持GPU的NVIDIA驅動程序安裝。你可以通過運行 nvidia-smi
命令來檢查GPU是否可用。
安裝NVIDIA Docker運行時(nvidia-docker)。你可以通過查看官方文檔來了解如何安裝nvidia-docker:https://github.com/NVIDIA/nvidia-docker
創建一個Dockerfile來構建你的深度學習開發環境。在Dockerfile中,你需要指定基礎鏡像(如tensorflow、pytorch等),并在其中安裝所需的深度學習庫和依賴。
在Dockerfile中添加以下指令來啟用GPU支持:
FROM tensorflow/tensorflow:latest-gpu
# Set up CUDA Toolkit and cuDNN
RUN apt-get update && apt-get install -y --no-install-recommends \
cuda-compiler \
libcudnn7=7.*-1+cuda10.1 \
libcudnn7-dev=7.*-1+cuda10.1 \
&& apt-mark hold libcudnn7 && apt-mark hold libcudnn7-dev
docker build -t my_gpu_image .
docker run --gpus all -it my_gpu_image
現在你可以在Docker容器中使用GPU進行深度學習開發了。記得在啟動容器時顯式指定使用GPU,以便讓容器能夠訪問和利用GPU資源。