<div dir="ltr"><div><div><div><div><div><font size="1">Dear users,<br>I'm doing some GW calculation with Quantum Espresso, version 6.1.</font><font size="1"> I compiled the MPI version on a cluster, and I can successfully run pw.x program for scf calculations.</font><font size="1"> However when I go to run the head.x program I obtain the error message</font><font size="1"> </font><font size="1"><font size="1">" Error in routine phq_readin (1): reading title"  </font>reported below. <br></font></div><div><font size="1">The same error that I found with my system (graphene) I obtained also with the example02 for silicon in Example/GWW/ directory.<br></font></div><div><font size="1">I do not obtain this error when I run head.x for silicon example on my PC, using the same MPI QE version.<br></font></div></div><font size="1">Any idea?<br><br></font></div><font size="1">Thanks in advance,<br><br></font></div><font size="1">Andrea Pedrielli<br><br></font></div><font size="1">FBK-ECT* Trento<br></font><div><div><div><font size="1"><br></font><div><div><div><div><div><font size="1"><br>     Program PHONON v.6.1 (svn rev. 13369) starts on 13Jun2017 at 10: 8:49 <br><br>     This program is part of the open-source Quantum ESPRESSO suite<br>     for quantum simulation of materials; please cite<br>         "P. Giannozzi et al., J. Phys.:Condens. Matter 21 395502 (2009);<br>          URL <a href="http://www.quantum-espresso.org">http://www.quantum-espresso.org</a>", <br>     in publications or presentations arising from this work. More details at<br>     <a href="http://www.quantum-espresso.org/quote">http://www.quantum-espresso.org/quote</a><br><br>     Parallel version (MPI), running on    16 processors<br>     R & G space division:  proc/nbgrp/npool/nimage =      16<br><br>     Ultrasoft (Vanderbilt) Pseudopotentials<br><br> %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%<br>     Error in routine phq_readin (1):<br>     reading title<br> %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%<br><br>     stopping ...<br>--------------------------------------------------------------------------<br>MPI_ABORT was invoked on rank 15 in communicator MPI_COMM_WORLD <br>with errorcode 1.<br><br>NOTE: invoking MPI_ABORT causes Open MPI to kill all MPI processes.<br>You may or may not see output from other processes, depending on<br>exactly when Open MPI kills them.<br>--------------------------------------------------------------------------</font><br><br></div></div></div></div></div></div></div></div></div>