Hi everybody,<br><br>While doing a relaxation calculation using pw.x (v.4.0) and 80 processors the dynamical memory required by the code keeps on increasing. If I grep the lines of the output file which contains the information about memory usage, I get the following output:<br>
<br>     per-process dynamical memory:   334.6 Mb<br>     per-process dynamical memory:   498.3 Mb<br>     per-process dynamical memory:   498.3 Mb<br>     per-process dynamical memory:   507.1 Mb<br>     per-process dynamical memory:   507.1 Mb<br>
     per-process dynamical memory:   507.1 Mb<br>     per-process dynamical memory:   507.1 Mb<br>     per-process dynamical memory:   507.1 Mb<br>     per-process dynamical memory:   507.1 Mb<br>     per-process dynamical memory:   507.1 Mb<br>
     per-process dynamical memory:   507.1 Mb<br>     per-process dynamical memory:   507.1 Mb<br>     per-process dynamical memory:   507.1 Mb<br>     per-process dynamical memory:   507.1 Mb<br>     per-process dynamical memory:   507.1 Mb<br>
     per-process dynamical memory:   507.1 Mb<br>     per-process dynamical memory:   507.1 Mb<br>     per-process dynamical memory:   507.1 Mb<br>     per-process dynamical memory:   507.1 Mb<br>     per-process dynamical memory:   507.1 Mb<br>
     per-process dynamical memory:  1867.8 Mb<br>     per-process dynamical memory:  1867.8 Mb<br>     per-process dynamical memory:  1867.8 Mb<br>     per-process dynamical memory:  1867.8 Mb<br><br>After this the job is getting killed with the following error message:<br>
<br>Oct 31 13:49:45 2008 13128 4 7.02 handleTSRegisterTerm(): TS reports task <0> pid <30753> on host<node0833> killed or core dumped<br><br>My system consists of a cluster of 147 atoms (516 electrons) in a 47.3x47.3x51.6 (in bohr) box. I'm using a wavefn. cut off of 25 Ry & a charge density cut off of 210 Ry. For ion_dynamics I'm using bfgs and for electrons, I'm using the davidson diagonalization scheme.<br>
<br>The machine details are:<br><pre class="literal-block">Model: IBM BCX/5120<br>Architecture: eServer e326 Cluster Opteron<br>Processor Type: Opteron Dual Core 2.6 GHz<br>Number of Nodes: 1280 (4 cores per node)<br>Number of Processors/cores: 2560/5120<br>
Memory: 8 GB/node<br>Internal Network: Infiniband (5Gb/s)<br>Disk Space: 100 TB + SAN<br>Operating System: Red Hat RHEL4</pre>The code has been complied using openmpi--1.2.5--intel--10.1<br><br>Can any one please let me know why the job is getting killed? Is it due to some memory problem?<br>
For the same job why does the memory requirement go on increasing?<br><br>Also, can you please let me know how the code calculates the memory  requirement? I tried to look into the clib/memstat.c file but could't make much of it because I'm not familiar of C programming language.<br>
<br>With regards,<br>Prasenjit<br clear="all"><br>-- <br>PRASENJIT GHOSH,<br>POST-DOC,<br>ROOM NO: 265, MAIN BUILDING,<br>CM SECTION, ICTP,<br>STRADA COSTERIA 11,<br>TRIESTE, 34104,<br>ITALY<br>PHONE: +39 040 2240 369 (O)<br>
              +39 3807528672 (M)<br>