Dear Wannier90 experts, I am getting the error while running the code<br><br> Program PW2WANNIER v.6.2 (svn rev. 14038) starts on  2Jun2018 at 17:44:24<br><br>     This program is part of the open-source Quantum ESPRESSO suite<br>     for quantum simulation of materials; please cite<br>         "P. Giannozzi et al., J. Phys.:Condens. Matter 21 395502 (2009);<br>         "P. Giannozzi et al., J. Phys.:Condens. Matter 29 465901 (2017);<br>          URL <a href="http://www.quantum-espresso.org">http://www.quantum-espresso.org</a>",<br>     in publications or presentations arising from this work. More details at<br>     <a href="http://www.quantum-espresso.org/quote">http://www.quantum-espresso.org/quote</a><br><br>     Parallel version (MPI), running on     4 processors<br><br>     MPI processes distributed on     1 nodes<br>     R & G space division:  proc/nbgrp/npool/nimage =       4<br><br>  Reading nscf_save data<br><br>     Reading data from directory:<br>     ./Graphene.save/<br><br>     IMPORTANT: XC functional enforced from input :<br>     Exchange-correlation      = PZ ( 1  1  0  0 0 0)<br>     Any further DFT definition will be discarded<br>     Please, verify this is what you really want<br><br><br>     Parallelization info<br>     --------------------<br>     sticks:   dense  smooth     PW     G-vecs:    dense   smooth      PW<br>     Min         118     118     49                43266    43266   11501<br>     Max         119     119     50                43335    43335   11556<br>     Sum         475     475    199               173243   173243   46137<br><br><br>  Spin CASE ( default = unpolarized )<br><br>  Wannier mode is: standalone    <br><br>  -----------------<br>  *** Reading nnkp<br>  -----------------<br><br>  Checking info from wannier.nnkp file<br><br>  Something wrong!<br>  rlatt(i,j) =  0.99566756459498174       at(i,j)=   1.0000000000000000    <br><br> %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%<br>     Error in routine pw2wannier90 (4):<br>     Direct lattice mismatch<br> %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%<br><br>     stopping ...<br>--------------------------------------------------------------------------<br>MPI_ABORT was invoked on rank 0 in communicator MPI_COMM_WORLD<br>with errorcode 1.<br><br>NOTE: invoking MPI_ABORT causes Open MPI to kill all MPI processes.<br>You may or may not see output from other processes, depending on<br>exactly when Open MPI kills them.<br>--------------------------------------------------------------------------<br><br>I have enclosed all my input and output files with this mail.Please help me to resolve this isuue.<br><br>Thanks and regards,<br>Anindya Bose