我正在尝试从OpenNMT运行基于Lua的程序。我已经从这里开始遵循这个过程:http://forum.opennmt.net/t/text-summarization-on-gigaword-and-rouge-scoring/85
我使用了以下命令:
th train.lua -data textsum-train.t7 -save_model textsum1 -gpuid 0 1 2 3 4 5 6 7我使用了8个CPU,但进程仍然非常慢,就好像进程在CPU上工作一样。请让我知道什么可能是优化GPU使用的解决方案。
以下是GP使用情况的统计数据:

请让我知道如何使用完整的GPU使进程运行得更快。我可以使用11 GB,但该进程只消耗2 GB或更少的空间。因此,这个过程非常缓慢。
发布于 2018-07-06 18:43:17
根据OpenNMT documentation,您需要在gpuid选项之后立即删除0,因为0代表CPU,并且您将有效地将训练速度降低到CPU驱动的速度。
要使用data parallelism,请将GPU标识符列表分配给
-gpuid选项。例如:
th train.lua -data data/demo-train.t7 -save_model demo -gpuid 1 2 4
将使用CUDA API返回的计算机的第一个、第二个和第四个GPU。
https://stackoverflow.com/questions/44426715
复制相似问题