模型也要写成多块显卡对应的,大概百度了一下用DataParallel库。
用服务器跑,竟然和我用电脑上的CPU跑的速度差不多,明显有问题,最终通过以下方法解决:查看GPU使用情况和进程 nvidia-smi #查看GPU使用情况 python show_gpu.py # 查看GPU使用情况 w # 看有哪些用户/进程通过print看是否调用了cuda用服务器没办法某一进程是否用了显卡以及用了哪张显卡所以在代码里print一下看看print('input.is_cuda',input.is_cuda)结果返回:input.is_
在深度学习模型训练过程中,在服务器端或者本地pc端,输入nvidia-smi来观察显卡的GPU内存占用率(Memory-Usage),显卡的GPU利用率(GPU-util),然后采用top来查看CPU的线程数(PID数)和利用率(%CPU)。往往会发现很多问题,比如,GPU内存占用率低,显卡利用率低,CPU百分比低等等。接下来仔细分析这些问题和处理办法。**
GPU内存占用率问题
这往往是由于模型的大小以及batch size的大小,来影响这个指标。当你发下你的GPU占用率很小的时候,比如40%,70%