Linux核心转储太大了!

时间:2010-05-04 04:51:37

标签: linux coredump

最近我注意到我的应用程序生成的核心转储的大小增加了。最初,它们的大小只有5MB左右,包含大约5个堆栈帧,现在我有>的核心转储。 2GB及其中包含的信息与较小的转储没有区别。

有什么方法可以控制生成的核心转储的大小?它们不应该至少小于应用程序二进制文件本身吗?

二进制文件以这种方式编译:

  • 使用debug在发布模式下编译 符号(即-g编译器选项) GCC)。
  • 将调试符号复制到
    单独的文件和从中删除 二进制。
  • 添加了GNU调试符号链接 到二进制文件。

在应用程序开始时,调用setrlimit将核心限制设置为无穷大 - 这是问题吗?

2 个答案:

答案 0 :(得分:11)

是 - 不要分配这么多内存: - )

核心转储包含应用程序地址空间的完整映像,包括代码,堆栈和堆(malloc'd对象等)。

如果你的核心转储大于2GB,这意味着在某些时候你分配了那么多内存。

您可以使用setrlimit设置核心转储大小的下限,但最终会导致无法解码的核心转储(因为它不完整)。

答案 1 :(得分:1)

是的,setrlimit是你获得大型核心文件的原因。您可以在大多数shell中设置核心大小的限制,例如在bash中你可以做ulimit -c 5000000。但是,你的setrlimit调用将覆盖它。

/etc/security/limits.conf也可以用来设置核心大小的上限。