考虑一下这个小程序:
#include <stdio.h>
#include <stdlib.h>
// Change 60000 to 70000 and valgrind (memcheck) eats my memory
#define L (60000)
#define M (100*(1<<20))
int main(void) {
int i;
for (i = 0; i < M; ++i) {
unsigned char *a = malloc(L);
a[i % L] = i % 128; // Touch something; a[0] is not enough
free(a);
if (i % (1<<16) == 0)
fprintf(stderr, "i = %d\n", i);
}
return 0;
}使用gcc -o vg编译并运行valgrind --leak-check=full ./vg运行得很好,memcheck大约占用了我1.5%的内存。然而,将L更改为70000 (我假设最大的限制是1<<16),memcheck将使用不断增加的内存量,直到内核最终杀死它。
对此我们能做些什么吗?显然没有泄漏,但valgrind本身(!?)中似乎有一个泄漏,这使得它很难用于检查具有大量大而短暂的分配的程序。
一些背景,不确定哪一个是相关的:
$ valgrind --version
valgrind-3.7.0
$ gcc --version
gcc (GCC) 4.4.6 20110731 (Red Hat 4.4.6-3)
$ /lib/libc.so.6
GNU C Library stable release version 2.12, by Roland McGrath et al.
$ uname -rms
Linux 2.6.32-220.2.1.el6.x86_64 x86_64发布于 2012-06-23 23:48:28
这很可能是由一个gcc 4.4错误引起的,这个错误在valgrind 3.8.0 (尚未发布)中被绕过了。
摘自Valgrind 3.8.0新闻文件:
n-i-bz绕过gcc4.4/4.5错误代码生成导致内存不足或断言
发布于 2012-05-12 04:02:59
使用setrlimit将你的进程的资源限制设置为无限制,这样如果你超过了限制,内核就不会杀死你的进程。因此,内核认为您可以扩展到虚拟地址空间。
希望这能有所帮助。
https://stackoverflow.com/questions/10557654
复制相似问题