PyTorch-国内极速安装
写在前面
PyTorch官网:https://pytorch.org/
在Windows环境下,PyTorch的安装由于网络问题,大部分人如果想直接通过官网的指令安装显然是非常困难的。因为torch这个库有2G左右的大小,服务器又在国外,这就出现了下载异常缓慢(能下一天)或者下载容易失败的问题(网络问题导致下载中断)。
这时候有两种方法:
- 使用魔法,改善下载速度。
- 使用本地文件安装。
这个博客主要记录如何使用本地压缩包(.whl)文件快速安装PyTorch。
明确自己的使用需求
如果你需要使用GPU进行PyTorch实践,那么你就需要安装带CUDA的版本。如果你只是想要使用CPU进行实践,那么就选择CPU版本进行下载。各有优势,没有高低之分。
这里有一些注意点:
- 如果你想要下载CUDA版本的PyTorch,不要通过清华源下载,清华源已经没有CUDA版本的资源,下载多少次都是CPU版本的。
- 想使用GPU实践torch,必须安装NVIDIA CUDA。
查看自己的CUDA版本并安装CUDA支持
- 对于大多数NVIDIA显卡来说,都是支持CUDA的,如果你的显卡不支持CUDA,那即使装了CUDA版本,也只能使用CPU进行实践。
- 如果你的显卡不支持CUDA,那么建议下载CPU版本。
查看CUDA版本
如果下载CUDA版本的PyTorch,此时就需要对应自己电脑所支持的最高CUDA版本,然后同级或者向下兼容选择相应的CUDA安装指令。查看CUDA版本有两种方法。
- 通过NVIDIA控制面板查看
通过指令
打开命令行,输入
nvidia-smi
,出现以下界面
安装CUDA支持
查询到自己电脑的CUDA版本后,你需要安装CUDA支持。
建议选择电脑支持的最高CUDA版本安装即可。
选择安装方式
如果你是Windows用户,一般情况下,官网提供了两种常用的安装方式:
- pip指令
- Conda指令(需要Anaconda环境)
这两个指令下载的东西都是一样的,只是安装的方式不同。建议在Anaconda环境中安装,方便管理。
下载离线文件
.whl文件,实际就是torch的压缩文件。
当我们使用pip进行库的下载时候,会先拉取压缩包请求,然后在本地解压安装。这边有个注意点,如果当前拉取的压缩包已经存在,则会直接解压。所以我们提前准备好torch的压缩包,当使用pip指令下载时,会直接拉取本地的压缩包,跳过下载安装包的过程。从本地文件安装的原理就是如此。
- 当然还有一个重要前提,单独下载.whl文件真的非常快。
下载文件之前需要了解一些概念,以torch-1.12.0+cu116-cp37-cp37m-win_amd64.whl
这个文件名为例。
torch-1.12.0:代表torch版本
cu116:代表支持CUDA11.6
cp37:代表运行环境为Python3.7
win:指Windows平台
amd64:代表64位操作系统
了解这些之后就可以按自己的需求下载自己需要的.whl压缩文件。
- 小提示:善用快捷搜索,Ctrl+F
- 下载后的文件最好放入
C:\Users\用户名
路径下,方便后续安装。
使用pip指令安装压缩文件
以torch-1.12.0+cu116-cp37-cp37m-win_amd64.whl
为例。
进入要安装的环境命令行,进入.whl文件所在的路径,运行指令pip install torch-1.12.0+cu116-cp37-cp37m-win_amd64.whl
如果没出现下载,就会自动显示要求满足,然后压缩安装。如果还是下载了,请自行关闭命令行再次尝试一遍。
安装torch完成后,打开官网再次运行安装命令安装其他相适应的库即可,此时就会直接跳过torch的安装了。
- 注意.whl文件与pip安装命令之间的对应关系。
- 如果输入pip您发现还在下载torch,那么您下载的.whl不满足对应要求,请按照pip出现的版本重新下载.whl文件。
一些检查指令
- 返回当前设备索引
1
torch.cuda.current_device()
- 返回GPU的数量
1
torch.cuda.device_count()
- 返回gpu名字,设备索引默认从0开始
1
torch.cuda.get_device_name(0)
- cuda是否可用我的结果:
1
torch.cuda.is_available()
如果
torch.cuda.is_available()
返回的是False,那么很遗憾,你可能需要重新安装,重新检查问题所在。