在Jupyter Lab中运行的代码使用的GPU RAM与以脚本方式运行的GPU完全不同

时间:2020-07-01 10:56:08

标签: python jupyter-notebook pytorch

我正在PyTorch中训练3D暹罗网络。当我从iPython(v7.15.0)终端运行代码时,GPU RAM使用量最大达到1739M:

enter image description here

当我将相同的代码复制到Jupyter笔记本中(在Jupyter Lab v2.1.5中)时,GPU RAM使用量为10209M:

enter image description here

Jupyter Lab是在同一Python虚拟环境中从终端运行的。

首先,我不明白为什么在Jupyter Lab中运行脚本会导致GPU RAM使用率增加近6倍。

第二个相关的问题是,是否有Jupyter Lab以某种模式运行,该模式使用1739M范围内的GPU RAM?我喜欢在代码和输出周围拥有所有“文档”的功能。

Python版本3.6.9。

1 个答案:

答案 0 :(得分:0)

好吧,现在我意识到当我运行两者时有什么区别。

我在机器上有两个GPU,一个Quadro M2000用于驱动视频和Titan XP。当我在命令行上运行JupyterLab时,我以jupyter lab的身份运行它,但是当我运行iPython时,我以CUDA_VISIBLE_DEVICES=0 ipython --pylab的身份运行它。如果没有CUDA_VISIBILE_DEVICES,它会向我发出有关不匹配GPU的警告。当我在iPython终端中运行时,我之前看到了警告,但是当我运行JupyterLab时却没有看到它们。

因此,Titan XP的RAM使用量会跃升至10G + RAM仍然很奇怪。

相关问题