我有一个Python脚本在一些深度学习模型上运行推理。
有没有什么方法可以让我知道GPU的资源利用率?例如,着色器、float16倍增器等的利用。
我似乎在网上找不到太多关于这些GPU资源的文档。
谢谢!
发布于 2019-12-24 03:53:52
你可以尝试在像Renderdoc这样的GPU-Profiler中运行pyxthon应用程序。它会分析你的跑动。您将能够获得有关已使用的资源、已使用的缓冲区、不同呈现状态的输出等信息。
只需查看Renderdoc-website了解更多信息。
发布于 2020-01-09 02:17:29
是的,你可以使用pynvml来做这件事,如果你正在使用nvdashboard,你可以使用jupyterlab。最近的一篇媒体文章详细介绍了这些库的用法:https://medium.com/rapids-ai/gpu-dashboards-in-jupyter-lab-757b17aae1d5
https://stackoverflow.com/questions/59460632
复制相似问题