PyTorch教程:21个项目玩转PyTorch实战
上QQ阅读APP看书,第一时间看更新

2.1.7 使用GPU加速

在PyTorch中,如何将模型运行在GPU(图形处理器)上呢?就像把Tensor转移到GPU上一样,我们只需要把神经网络模块也转移到GPU上即可。具体做法是,如果GPU能用,表示CUDA (一种并行计算机平台和编程模型,它通过利用图形处理器GPU的处理能力,可大幅提升计算性能)可用,则取得CUDA的设备标识。

输出结果如下:

接着使用下面的命令将神经网络模块移到CUDA设备上,方法to会递归遍历网络中的所有模块,并将它们的参数(parameters)和缓存(buffers)转换为CUDA张量。

需要注意的是,当神经网络移到CUDA设备后,输入到网络中的张量也需要先移到CUDA设备上。因为PyTorch只能在同一个设备上做矩阵操作。

不过对于本节所定义的网络,因为其太小,所以使用GPU加速的效果可能不太明显。