<div dir="ltr"><div class="gmail_default" style="font-family:verdana,sans-serif;font-size:small">up to my knowledge internal parallelization is not implemented yet projwfc</div><div class="gmail_default" style="font-family:verdana,sans-serif;font-size:small"><br></div><div class="gmail_default" style="font-family:verdana,sans-serif;font-size:small">and yeah, I do believe sufficient memory is quite important here.</div><div class="gmail_default" style="font-family:verdana,sans-serif;font-size:small"><br></div><div class="gmail_default" style="font-family:verdana,sans-serif;font-size:small">Karim Elgammal</div><div class="gmail_default" style="font-family:verdana,sans-serif;font-size:small">KTH</div></div><div class="gmail_extra"><br><div class="gmail_quote">On Thu, Oct 26, 2017 at 2:14 PM, Martin Gmitra <span dir="ltr"><<a href="mailto:martin.gmitra@gmail.com" target="_blank">martin.gmitra@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div><div>Dear QE users,<br><br></div><div>I would like to calculate partial charges for band structure using projwfc.x. The sequence for a converged charge density is: pw.x (bands) and projwfc.x.<br></div><div><br></div>I am facing crashing problem of projwfc.x in large case of 100 k-point in the k-path. The projwfc.x ends just with the output: <br><br>Calling projwave_nc .... <br><br></div><div>and mpi error: ERROR: 0031-250  task 563: Killed<br><br></div><div>Is there a possibility to get more output information what causes the crash? (Could it be memory issue?)<br><br></div><div>I am using the same parallel input options with pools (18 as there where 18 k-points in SCF calculations), ntg and ndiag as follows:<br></div><div><br>mpiexec -np $NCPU pw.x -npool 18 -ntg 4 -ndiag 32 -input <a href="http://pw-bands.in" target="_blank">pw-bands.in</a><br>mpiexec -np $NCPU projwfc.x -npool 18 -ntg 4 -ndiag 32 -input <a href="http://projwfc.in" target="_blank">projwfc.in</a><br><br>Importantly, as a test, the same sequence, pw.x (bands) and projwfc.x works fine just for 3 kpoints. There I had different parallel options: -npool 3 -ndiag 32<br><br></div><div>Few more details below. Many thanks in advance for any hint,<br></div><div>Martin Gmitra<br></div><div>Uni Regensburg, Germany<br></div><div><br><br></div>For the calculations I am using relativistic USPP with tefield and dipfield =.true., input for projwfc.x:<br><div><br>&projwfc<br>    prefix = 'ppr',<br>    outdir = '/scratch/' ,<br>    lsym = .FALSE.,<br>    filproj = 'projwfc.dat'<br> /<br><br></div></div>
<br>______________________________<wbr>_________________<br>
Pw_forum mailing list<br>
<a href="mailto:Pw_forum@pwscf.org">Pw_forum@pwscf.org</a><br>
<a href="http://pwscf.org/mailman/listinfo/pw_forum" rel="noreferrer" target="_blank">http://pwscf.org/mailman/<wbr>listinfo/pw_forum</a><br></blockquote></div><br><br clear="all"><div><br></div>-- <br><div class="gmail_signature" data-smartmail="gmail_signature"><div dir="ltr"><div><div dir="ltr">Thank you and Best Regards;</div><div dir="ltr">Yours;<br><b>Karim Elgammal</b><div><div><br></div></div></div></div></div></div>
</div>