[QE-users] Issue with running parallel version

Paolo Giannozzi p.giannozzi at gmail.com
Thu May 24 08:44:55 CEST 2018


On Tue, May 22, 2018 at 1:14 AM, Martina Lessio <ml4132 at columbia.edu> wrote:

>
> I recently started running the parallel version of QE 5.4.0
>

old version


> and I am getting the following error message in my output file (the error
> never appeared when I run the code serial on one processor):
>
> [compute-0-6.local:31540] 23 more processes have sent help message
> help-mpi-btl-base.txt / btl:no-nics
>
> [compute-0-6.local:31540] Set MCA parameter "orte_base_help_aggregate" to
> 0 to see all help / error messages
>
> where "compute-0-1" is the name of the node I run my calculation on.
> After the message is printed in the output the calculation typically
> continues normally and in same cases gets successfully to the end. I other
> cases, usually when I had large supercell with about 100 atoms, the
> calculation becomes extremely slow and does not get to the end in a
> reasonable time. Therefore, I suspect that the error being printed also
> signals that the calculation will start running only on one processor.
>

Those messages mean something like "processors other than the first one
have issued a message, you won't see them, if you want to see them, do the
following". I have seen similar messages on some machines with some
mis-configuration that causes a warning to be issued. This is typically
harmless

However, upon checking, I noticed that all the processors I requested are
> still busy with the calculation after the error message shows up.
>
> I tried to search the forum and the FAQs for this type of issue but did
> not find much. I would really appreciate if anybody could share their
> experience with this type of error.
> I am providing below my submission script and input file (for a large
> calculation that runs very slowly after the error message is printed).
>
> Thanks so much,
> Martina
>
> --
> Martina Lessio, Ph.D.
> Frontiers of Science Lecturer in Discipline
> Postdoctoral Research Scientist
> Department of Chemistry
> Columbia University
>
> *Submission script:*
> #!/bin/bash
> #SBATCH --job-name=QErun
> #SBATCH -n 24   # node count
> #SBATCH -p New # node count
> #SBATCH -o MoTe2ml_super551OPT.out
> #SBATCH --mem=60000
> module load openmpi
> module load mkl
> module load compilers
> mpirun -np 24 pw.x < MoTe2ml_super551OPT.in
>
> *Input file:*
>  &control
>     calculation = 'relax'
>     restart_mode='from_scratch',
>     prefix='MoTe2ml_super5x5relax',
>     pseudo_dir = '/home/mlessio/espresso-5.4.0/pseudo/',
>     outdir='/home/mlessio/espresso-5.4.0/tempdir/'
>  /
>
>  &system
>     ibrav= 4, A=17.65, B=17.65, C=16.882, cosAB=-0.5, cosAC=0, cosBC=0,
>     nat= 75, ntyp= 2,
>     ecutwfc =60.
>     lspinorb =.true., noncolin=.true.
>  /
>
>  &electrons
>     mixing_mode = 'plain'
>     mixing_beta = 0.7
>     conv_thr =  1.0d-10
>     diago_david_ndim=2
>     diagonalization='cg'
>  /
>
>  &ions
>  /
>
> ATOMIC_SPECIES
>  Te  127.6 Te_ONCV_PBE_FR-1.1.upf
>  Mo  95.96 Mo_ONCV_PBE_FR-1.0.upf
>
> ATOMIC_POSITIONS {crystal}
> Te     0.133333330         0.066666657         0.313489588
> Te     0.133333336         0.266666661         0.313489588
> Te     0.133333334         0.466666672         0.313489588
> Te     0.133333325         0.666666683         0.313489588
> Te     0.133333336         0.866666694         0.313489588
> Te     0.333333312         0.066666657         0.313489588
> Te     0.333333306         0.266666661         0.313489588
> Te     0.333333310         0.466666672         0.313489588
> Te     0.333333304         0.666666683         0.313489588
> Te     0.333333319         0.866666694         0.313489588
> Te     0.533333329         0.066666657         0.313489588
> Te     0.533333336         0.266666661         0.313489588
> Te     0.533333320         0.466666672         0.313489588
> Te     0.533333317         0.666666683         0.313489588
> Te     0.533333335         0.866666694         0.313489588
> Te     0.733333372         0.066666657         0.313489588
> Te     0.733333352         0.266666661         0.313489588
> Te     0.733333390         0.466666672         0.313489588
> Te     0.733333374         0.666666683         0.313489588
> Te     0.733333385         0.866666694         0.313489588
> Te     0.933333361         0.066666657         0.313489588
> Te     0.933333341         0.266666661         0.313489588
> Te     0.933333379         0.466666672         0.313489588
> Te     0.933333363         0.666666683         0.313489588
> Te     0.933333347         0.866666694         0.313489588
> Te     0.133333330         0.066666657         0.097661430
> Te     0.133333336         0.266666661         0.097661430
> Te     0.133333334         0.466666672         0.097661430
> Te     0.133333325         0.666666683         0.097661430
> Te     0.133333336         0.866666694         0.097661430
> Te     0.333333312         0.066666657         0.097661430
> Te     0.333333306         0.266666661         0.097661430
> Te     0.333333310         0.466666672         0.097661430
> Te     0.333333304         0.666666683         0.097661430
> Te     0.333333319         0.866666694         0.097661430
> Te     0.533333329         0.066666657         0.097661430
> Te     0.533333336         0.266666661         0.097661430
> Te     0.533333320         0.466666672         0.097661430
> Te     0.533333317         0.666666683         0.097661430
> Te     0.533333335         0.866666694         0.097661430
> Te     0.733333372         0.066666657         0.097661430
> Te     0.733333352         0.266666661         0.097661430
> Te     0.733333390         0.466666672         0.097661430
> Te     0.733333374         0.666666683         0.097661430
> Te     0.733333385         0.866666694         0.097661430
> Te     0.933333361         0.066666657         0.097661430
> Te     0.933333341         0.266666661         0.097661430
> Te     0.933333379         0.466666672         0.097661430
> Te     0.933333363         0.666666683         0.097661430
> Te     0.933333347         0.866666694         0.097661430
> Mo     0.066666675         0.133333330         0.205570934
> Mo     0.066666667         0.333333310         0.205570934
> Mo     0.066666685         0.533333321         0.205570934
> Mo     0.066666655         0.733333332         0.205570934
> Mo     0.066666666         0.933333343         0.205570934
> Mo     0.266666695         0.133333330         0.205570934
> Mo     0.266666683         0.333333310         0.205570934
> Mo     0.266666698         0.533333321         0.205570934
> Mo     0.266666678         0.733333332         0.205570934
> Mo     0.266666696         0.933333343         0.205570934
> Mo     0.466666671         0.133333330         0.205570934
> Mo     0.466666666         0.333333310         0.205570934
> Mo     0.466666690         0.533333321         0.205570934
> Mo     0.466666668         0.733333332         0.205570934
> Mo     0.466666681         0.933333343         0.205570934
> Mo     0.666666687         0.133333330         0.205570934
> Mo     0.666666655         0.333333310         0.205570934
> Mo     0.666666666         0.533333321         0.205570934
> Mo     0.666666650         0.733333332         0.205570934
> Mo     0.666666674         0.933333343         0.205570934
> Mo     0.866666676         0.133333330         0.205570934
> Mo     0.866666644         0.333333310         0.205570934
> Mo     0.866666682         0.533333321         0.205570934
> Mo     0.866666666         0.733333332         0.205570934
> Mo     0.866666650         0.933333343         0.205570934
>
> K_POINTS {automatic}
>   2 2 1 0 0 0
>
> _______________________________________________
> users mailing list
> users at lists.quantum-espresso.org
> https://lists.quantum-espresso.org/mailman/listinfo/users
>



-- 
Paolo Giannozzi, Dip. Scienze Matematiche Informatiche e Fisiche,
Univ. Udine, via delle Scienze 208, 33100 Udine, Italy
Phone +39-0432-558216, fax +39-0432-558222
-------------- next part --------------
An HTML attachment was scrubbed...
URL: <http://lists.quantum-espresso.org/pipermail/users/attachments/20180524/6d58e98f/attachment.html>


More information about the users mailing list