在许多企业内部服务器或安全要求较高的环境中,服务器无法连接外网。此时,安装深度学习所必需的CUDA Toolkit和cuDNN就必须采用Linux离线安装的方式。本文面向零基础小白,详细讲解如何在离线Linux系统上完整部署CUDA和cuDNN,搭建稳定的深度学习环境配置。
首先,确认Linux发行版及内核版本(命令:cat /etc/os-release)。接着,查看显卡驱动是否已安装及支持的CUDA版本:nvidia-smi。顶部右上角会显示“CUDA Version: xx.x”,这个数字表示当前驱动最高可支持的CUDA版本,例如11.4。后续安装的CUDA Toolkit版本必须 ≤ 此数字。
在有外网的机器上访问NVIDIA官网:https://developer.nvidia.com/cuda-toolkit-archive,选择对应系统架构(Linux x86_64)及版本(例如CUDA 11.8)。下载类型选runfile (local),得到类似 cuda_11.8.0_520.61.05_linux.run 的文件。同时,下载cuDNN需要注册NVIDIA账号,地址:https://developer.nvidia.com/cudnn-archive,选择与CUDA匹配的cuDNN版本(例如cuDNN for CUDA 11.x),下载cudnn-linux-x86_64-8.6.0.163_cuda11-archive.tar.xz。将两个文件通过U盘或内网传输工具复制到离线Linux服务器。
给.run文件添加执行权限并运行安装:
chmod +x cuda_11.8.0_520.61.05_linux.runsudo ./cuda_11.8.0_520.61.05_linux.run --toolkit --silent --override 参数说明:--toolkit只安装CUDA Toolkit(不安装驱动,避免覆盖现有驱动),--silent静默安装,--override忽略编译器版本检查。默认安装到/usr/local/cuda-11.8。安装完成后,添加环境变量:
echo "export PATH=/usr/local/cuda-11.8/bin:$PATH" >> ~/.bashrcecho "export LD_LIBRARY_PATH=/usr/local/cuda-11.8/lib64:$LD_LIBRARY_PATH" >> ~/.bashrcsource ~/.bashrc 解压下载的cuDNN压缩包:
tar -xvf cudnn-linux-x86_64-8.6.0.163_cuda11-archive.tar.xz 将解压后的文件复制到CUDA安装目录:
cd cudnn-linux-x86_64-8.6.0.163_cuda11-archivesudo cp include/cudnn*.h /usr/local/cuda-11.8/includesudo cp lib/libcudnn* /usr/local/cuda-11.8/lib64sudo chmod a+r /usr/local/cuda-11.8/include/cudnn*.h /usr/local/cuda-11.8/lib64/libcudnn* 检查CUDA Toolkit版本:nvcc -V。查看cuDNN版本:cat /usr/local/cuda-11.8/include/cudnn_version.h | grep CUDNN_MAJOR -A 2。最后,编译CUDA示例(可选):
cd /usr/local/cuda-11.8/samplessudo make./bin/x86_64/linux/release/deviceQuery 若看到“Result = PASS”,则表示CUDA环境正常。
--override参数忽略。sudo ldconfig。通过以上步骤,你已经成功在Linux上完成了CUDA Toolkit和cuDNN的离线安装,拥有了完整的深度学习环境配置。以后在离线服务器上也能顺畅运行TensorFlow、PyTorch等框架了。
本文关键词:CUDA Toolkit, cuDNN, Linux离线安装, 深度学习环境配置
本文由主机测评网于2026-02-19发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://www.vpshk.cn/20260226003.html