我想测量一下执行一些代码所需的系统时间。要做到这一点,我知道我会将上述代码夹在两个getrusage()调用之间,但我得到了一些意想不到的结果……
#include <sys/time.h>
#include <sys/resource.h>
#include <unistd.h>
#include <stdio.h>
int main() {
struct rusage usage;
struct timeval start, end;
int i, j, k = 0;
getrusage(RUSAGE_SELF, &usage);
start = usage.ru_stime;
for (i = 0; i < 10000; i++) {
/* Double loop for more interesting results. */
for (j = 0; j < 10000; j++) {
k += 20;
}
}
getrusage(RUSAGE_SELF, &usage);
end = usage.ru_stime;
printf("Started at: %ld.%lds\n", start.tv_sec, start.tv_usec);
printf("Ended at: %ld.%lds\n", end.tv_sec, end.tv_usec);
return 0;
}我希望这会产生两个不同的数字,但是天哪!在看到我的计算机思考了一两秒钟后,结果是:
Started at: 0.1999s
Ended at: 0.1999s我没有使用getrusage(),对吗?为什么这两个数字不应该是不同的?如果我基本上错了,有没有其他方法可以使用getrusage()来测量一些源代码的系统时间?感谢您的阅读。
发布于 2012-05-09 15:18:22
你误解了“用户”和“系统”时间的区别。您的示例代码主要在用户模式(即,运行您的应用程序代码)下执行,而“系统”时间是在内核模式(即,处理系统调用)下执行所花费的时间。
ru_stime是测量系统时间的正确字段。您的测试应用程序只是碰巧不会在您检查的两个点之间产生任何这样的时间。
发布于 2012-05-09 12:20:37
您应该使用usage.ru_utime,这是用户使用的CPU时间。
发布于 2012-05-09 14:03:34
使用gprof。这将给出每个函数所用的时间。安装gprof并使用以下标志进行编译:-pg -fprofile-arcs -ftest-coverage.
https://stackoverflow.com/questions/10509660
复制相似问题