尽管有无限的ulimit,为什么非常大的堆栈分配会失败?

前端之家收集整理的这篇文章主要介绍了尽管有无限的ulimit,为什么非常大的堆栈分配会失败?前端之家小编觉得挺不错的,现在分享给大家,也给大家做个参考。
以下静态分配给出了分段错误
  1. double U[100][2048][2048];

但是下面的动态分配很顺利

  1. double ***U = (double ***)malloc(100 * sizeof(double **));
  2.  
  3. for(i=0;i<100;i++)
  4. {
  5. U[i] = (double **)malloc(2048 * sizeof(double *));
  6. for(j=0;j<2048;j++)
  7. {
  8. U[i][j] = (double *)malloc(2048*sizeof(double));
  9. }
  10. }

linux中的ulimit设置为无限制.

有人能给我一些暗示发生什么事吗?

解决方法

当你说ulimit设置为unlimited时,你使用-s选项吗?否则,这不会更改堆栈限制,只会更改文件大小限制.

但是,无论如何都会出现堆栈限制.我可以分配:

  1. double *u = malloc(200*2048*2048*(sizeof(double))); // 6gb contiguous memory

运行二进制文件我得到:

  1. VmData: 6553660 kB

但是,如果我在堆栈上分配,它是:

  1. double u[200][2048][2048];
  2.  
  3. VmStk: 2359308 kB

这显然不正确(暗示溢出).使用原始分配,两者给出相同的结果:

  1. Array: VmStk: 3276820 kB
  2. malloc: VmData: 3276860 kB

但是,运行堆栈版本,无论数组的大小如何,我都无法生成错误 – 即使它超过系统上实际的总内存,如果设置了-s unlimited.

编辑:

我在循环中使用malloc进行了测试,直到失败:

  1. VmData: 137435723384 kB // my system doesn't quite have 131068gb RAM

但是,堆栈使用率从未达到4gb以上.

猜你在找的Linux相关文章