本站消息

站长简介/公众号


站长简介:高级软件工程师,曾在阿里云,每日优鲜从事全栈开发工作,利用周末时间开发出本站,欢迎关注我的微信公众号:程序员总部,程序员的家,探索程序员的人生之路!分享IT最新技术,关注行业最新动向,让你永不落伍。了解同行们的工资,生活工作中的酸甜苦辣,谋求程序员的最终出路!

  价值13000svip视频教程,python大神匠心打造,零基础python开发工程师视频教程全套,基础+进阶+项目实战,包含课件和源码

  出租广告位,需要合作请联系站长

+关注
已关注

分类  

暂无分类

标签  

暂无标签

日期归档  

2020-12(16)

2021-01(37)

【linux】nvidia-smi 查看GPU使用率100%

发布于2021-11-06 16:44     阅读(1084)     评论(0)     点赞(20)     收藏(2)



linux服务器下使用

nvidia-smi   or nvidia-smi -l 1【数字表示输出间隔】

命令查看GPU使用情况,三种情况

1、没有进程,GPU使用率为空
在这里插入图片描述
这种情况表示,没有进程占用GPU资源,属于为空的正常状态

2、有进程,GPU使用率在变化
在这里插入图片描述
我们如果想要终止进程

ps -ef|grep python

在这里插入图片描述

kill -9 58828  # 58828是该进程id

当然,也可以杀死所有python进程

killall -9 python

以前写的博客有以上教程,戳我进入

3、看不到进程,但是GPU使用率100%
在这里插入图片描述

博主今天就遇到了这种情况,这种情况是不正常的,因此需要将GPU释放掉,不然的话,我无法使用GPU训练模型。

我先用

kill -9 2001

命令后,查看GPU使用情况:
在这里插入图片描述
进程是杀死了,但是GPU占用率还是100%

从网上找到了以下方法:

方法1:
使用

nvidia-smi -pm 1

命令,将驱动模式设置为常驻内存。

但是好像不管用,不知道什么原因。。。只能另寻其他方法

方法2:

使用命令:

fuser -v /dev/nvidia*

在这里插入图片描述
使用命令杀死进程:

kill -9 65051 65052 65053 65054

在这里插入图片描述
GPU占用率都为0%,问题解决。

参考:

https://blog.csdn.net/sinat_28750977/article/details/80117313

https://blog.csdn.net/gostman/article/details/107456597

原文链接:https://blog.csdn.net/AugustMe/article/details/121142575







所属网站分类: 技术文章 > 博客

作者:爱妃不要跑

链接:https://www.pythonheidong.com/blog/article/1072197/00cad0f470b270e62277/

来源:python黑洞网

任何形式的转载都请注明出处,如有侵权 一经发现 必将追究其法律责任

20 0
收藏该文
已收藏

评论内容:(最多支持255个字符)