<div dir="ltr"><div dir="rtl"><div id="gt-src-c" class="g-unit"><div id="gt-src-p"><div class="" id="gt-src-wrap"><div style="width:100%"><textarea class="goog-textarea short_text" style="overflow-y:hidden;overflow-x:auto;padding-left:20px" id="source" name="text" tabindex="0" dir="rtl"></textarea></div></div></div></div><div id="gt-src-tools"><div id="gt-src-tools-l"><div style="display:inline-block" id="gt-input-tool"><div id="itamenu"><span class="ita-kd-inputtools-div"></span></div></div></div></div><div id="gt-src-c" class="g-unit"><div id="gt-src-p"> </div> </div> <div id="gt-res-content" class="almost_half_cell"><div dir="ltr" style="zoom:1"><span id="result_box" class="short_text" lang="en"><span class="hps">If</span> <span class="hps">the</span> <span class="hps">input file</span> <span class="hps">is correct?</span></span></div></div></div></div><div class="gmail_extra"><br><div class="gmail_quote">On Thu, Aug 6, 2015 at 4:30 PM, Merlin Meheut <span dir="ltr"><<a href="mailto:merlin.meheut@get.obs-mip.fr" target="_blank">merlin.meheut@get.obs-mip.fr</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">On 05/08/2015 18:50, Andrea Dal Corso wrote:<br>
> On Wed, 2015-08-05 at 17:18 +0200, Merlin Meheut wrote:<br>
>> Dear PWSCF users,<br>
>><br>
>> I recently discovered with great interest the possibilities to<br>
>> parallelize phonon calculations using the -nimage option of ph.x.<br>
>> (example given in espresso-4.3.2/examples/GRID_examples).<br>
>><br>
> GRID examples refer to grid splitting, meaning that you split the<br>
> calculation using start_irr, last_irr etc. and in principle the<br>
> calculation can run in different machines. Then you have to collect the<br>
> files  yourself to finally obtain the results.<br>
<br>
Sorry I mixed up both. Actually, I used -nimage (as explained in<br>
Doc/INPUT_PH.txt of version 4.3.2), but I would like to restart with<br>
grid splitting.<br>
Thank you for the reference to the example.<br>
<br>
>> However, I had a problem when performing calculations at gamma-point:<br>
>> for other q-points (therefore with epsil=.false. and zue=.false.)<br>
>> everything went as planned, but with q=0 (and epsil=.true. and<br>
>> zue=.true.), this just did not work. I took 80 processors divided into 4<br>
>> images, and instead of dividing the different representations into 4<br>
>> pools, the four groups of processors realized the same calculation,<br>
>> computing the same representations. I killed the calculation at some<br>
>> point (I have computed the electric fields, effective charges and 218<br>
>> representations out of 564). I would like now to finish the computation<br>
>> without redoing it, and I have several questions to achieve this goal:<br>
>><br>
> Are you sure that all the images made the same phonon calculations, or<br>
> all images made the electric field calculation but the phonon modes were<br>
> different?<br>
<br>
The names of the partial dynamical matrices (dynmat.1.$irr.xml) are the<br>
same, the files (e.g. _ph0/LiClMag2-1.phsave/dynmat.1.100.xml and<br>
_ph1/LiClMag2-1.phsave/dynmat.1.100.xml) are almost identical, and the<br>
calculation lasted more than it should have (each of the 4 separate<br>
images has computed more than 141 representations, which is one quarter<br>
of the total). So as far as I understand it, all the images made<br>
electric field calculation and started making the same phonon mode<br>
calculations in parallel.<br>
<br>
> In this case, since you stopped the calculation, you can only<br>
> collect the .xml files in a single _ph0 directory and restart without<br>
> images. The restart with images is still poorly supported.<br>
<br>
  I would like to restart without -nimage (since it seems to fail in<br>
this particular case), but with grid splitting. Do you think this is<br>
presomptuous?<br>
By the way, I had a positive experience restarting with -nimage on<br>
another run (at q neq 0) .<br>
<br>
> In the last version of QE, the dielectric constant and effective charges<br>
> are saved in the tensors.xml file in the _ph0 directory.<br>
<br>
Thank you very much for your help!<br>
<br>
Best regards,<br>
<span class="HOEnZb"><font color="#888888"><br>
<br>
--<br>
Merlin Méheut, Géosciences et Environnement Toulouse,<br>
OMP, 14 avenue Edouard Belin, 31400 Toulouse, France<br>
<br>
phone +33 (0)5 61 33 26 17, fax +33 (0)5 61 33 25 60<br>
<br>
_______________________________________________<br>
Pw_forum mailing list<br>
<a href="mailto:Pw_forum@pwscf.org">Pw_forum@pwscf.org</a><br>
<a href="http://pwscf.org/mailman/listinfo/pw_forum" rel="noreferrer" target="_blank">http://pwscf.org/mailman/listinfo/pw_forum</a></font></span></blockquote></div><br></div>