<div dir="ltr">Dear Sir,<div>         Yes. I considered spin-orbit coupling and for that the dynamical matrices are written in xml format as mentioned in the program. Later the problem was solved by adding ".xml" in the dynamical matrix file of the input.</div><div><br></div><div>Previous input for <a href="http://q2r.in">q2r.in</a> was</div><div><font color="#0000ff">&input</font></div><div><font color="#0000ff">fildyn='au.dyn', filfrc='au888'</font></div><div><br></div><div>which does not work.</div><div>But as I add .xml in the name of fildyn then it works. </div><div><div><font color="#0000ff">&input</font></div><div><font color="#0000ff">fildyn='au.dyn.xml', filfrc='au888</font></div></div><div><br></div><div> Anyway thank you for your reply.</div><div><br></div><div>  Regards </div></div><div class="gmail_extra"><br clear="all"><div><div class="gmail_signature"><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><span style="color:rgb(0,0,255)"><span style="background-color:rgb(243,243,243)"><i><b><br><br><br><br><br>---------------------------------------------------------------------<br><br>Umesh Chandra Roy</b><br>Research Scholar<span></span>, School of Physical Sciences<br>Jawaharlal Nehru University, New Delhi-110067,<br></i></span></span></div><div><span style="color:rgb(0,0,255)"><span style="background-color:rgb(243,243,243)"><i>India.<br></i></span></span></div><div><span style="color:rgb(0,0,255)"><span style="background-color:rgb(243,243,243)"><i><a href="mailto:Email%3Aumesh24crp@gmail.com" target="_blank"><font size="2"><span style="color:rgb(0,0,255)">Email</span>:</font><b>umesh24crp@gmail.com</b></a><span></span><br></i></span></span></div><span style="color:rgb(0,0,255)"><span style="background-color:rgb(243,243,243)"><i>Mobile:<b>+919868022722</b></i></span></span></div></div></div></div></div></div></div></div></div></div></div></div></div>
<br><div class="gmail_quote">On Sun, Jun 14, 2015 at 3:30 PM,  <span dir="ltr"><<a href="mailto:pw_forum-request@pwscf.org" target="_blank">pw_forum-request@pwscf.org</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Send Pw_forum mailing list submissions to<br>
        <a href="mailto:pw_forum@pwscf.org">pw_forum@pwscf.org</a><br>
<br>
To subscribe or unsubscribe via the World Wide Web, visit<br>
        <a href="http://pwscf.org/mailman/listinfo/pw_forum" rel="noreferrer" target="_blank">http://pwscf.org/mailman/listinfo/pw_forum</a><br>
or, via email, send a message with subject or body 'help' to<br>
        <a href="mailto:pw_forum-request@pwscf.org">pw_forum-request@pwscf.org</a><br>
<br>
You can reach the person managing the list at<br>
        <a href="mailto:pw_forum-owner@pwscf.org">pw_forum-owner@pwscf.org</a><br>
<br>
When replying, please edit your Subject line so it is more specific<br>
than "Re: Contents of Pw_forum digest..."<br>
<br>
<br>
Today's Topics:<br>
<br>
   1. [qe-gpu] (Anubhav Kumar)<br>
   2. Re: [qe-gpu] (Filippo Spiga)<br>
   3. Bug (or not) with epsil = .false. in PH (trunk version)<br>
      (Samuel Ponc?)<br>
   4. xml format for dynamical matrix (Umesh Roy)<br>
   5. Re: xml format for dynamical matrix (Lorenzo Paulatto)<br>
<br>
<br>
----------------------------------------------------------------------<br>
<br>
Message: 1<br>
Date: Sat, 13 Jun 2015 15:38:30 +0530<br>
From: "Anubhav Kumar" <<a href="mailto:kanubhav@iitk.ac.in">kanubhav@iitk.ac.in</a>><br>
Subject: [Pw_forum] [qe-gpu]<br>
To: <a href="mailto:pw_forum@pwscf.org">pw_forum@pwscf.org</a><br>
Message-ID:<br>
        <<a href="mailto:a09d6ef04630522dbc9a233c339a7dcb.squirrel@webmail.iitk.ac.in">a09d6ef04630522dbc9a233c339a7dcb.squirrel@webmail.iitk.ac.in</a>><br>
Content-Type: text/plain;charset=iso-8859-1<br>
<br>
Dear QE users<br>
<br>
I have configured qe-gpu 14.10.0 with espresso-5.1.2.Parallel compilation<br>
was successful, but when i run ./pw-gpu.x it gives the following output<br>
<br>
***WARNING: unbalanced configuration (1 MPI per node, 3 GPUs per node)<br>
<br>
     *******************************************************************<br>
<br>
       GPU-accelerated Quantum ESPRESSO (svn rev. unknown)<br>
       (parallel: Y , MAGMA : N )<br>
<br>
     *******************************************************************<br>
<br>
<br>
     Program PWSCF v.5.1.2 starts on 13Jun2015 at 15:23:59<br>
<br>
     This program is part of the open-source Quantum ESPRESSO suite<br>
     for quantum simulation of materials; please cite<br>
         "P. Giannozzi et al., J. Phys.:Condens. Matter 21 395502 (2009);<br>
          URL <a href="http://www.quantum-espresso.org" rel="noreferrer" target="_blank">http://www.quantum-espresso.org</a>",<br>
     in publications or presentations arising from this work. More details at<br>
     <a href="http://www.quantum-espresso.org/quote" rel="noreferrer" target="_blank">http://www.quantum-espresso.org/quote</a><br>
<br>
     Parallel version (MPI & OpenMP), running on      24 processor cores<br>
     Number of MPI processes:                 1<br>
     Threads/MPI process:                    24<br>
     Waiting for input...<br>
<br>
<br>
However when i again run the same command, it gives<br>
<br>
***WARNING: unbalanced configuration (1 MPI per node, 3 GPUs per node)<br>
<br>
Program received signal SIGSEGV: Segmentation fault - invalid memory<br>
reference.<br>
<br>
Backtrace for this error:<br>
#0  0x7FB5001B57D7<br>
#1  0x7FB5001B5DDE<br>
#2  0x7FB4FF4C4D3F<br>
#3  0x7FB4F3391D40<br>
#4  0x7FB4F33666C3<br>
#5  0x7FB4F3364C80<br>
#6  0x7FB4F33759EF<br>
#7  0x7FB4F345CA1F<br>
#8  0x7FB4F345CD2F<br>
#9  0x7FB500B7DBCC<br>
#10  0x7FB500B7094F<br>
#11  0x7FB500B7CC56<br>
#12  0x7FB500B81410<br>
#13  0x7FB500B7507B<br>
#14  0x7FB500B6179D<br>
#15  0x7FB500B940A0<br>
#16  0x7FB5009BA047<br>
#17  0x8A4EA3 in phiGemmInit<br>
#18  0x76F55E in initcudaenv_<br>
#19  0x66AE90 in __mp_MOD_mp_start at mp.f90:184<br>
#20  0x66E192 in __mp_world_MOD_mp_world_start at mp_world.f90:58<br>
#21  0x66DCC0 in __mp_global_MOD_mp_startup at mp_global.f90:65<br>
#22  0x4082A0 in pwscf at pwscf.f90:23<br>
#23  0x7FB4FF4AFEC4<br>
Segmentation fault<br>
<br>
Kindly help me out in solving the problem. My GPU details are<br>
<br>
+------------------------------------------------------+<br>
| NVIDIA-SMI 346.46     Driver Version: 346.46         |<br>
|-------------------------------+----------------------+----------------------+<br>
| GPU  Name        Persistence-M| Bus-Id        Disp.A | Volatile Uncorr.<br>
ECC |<br>
| Fan  Temp  Perf  Pwr:Usage/Cap|         Memory-Usage | GPU-Util  Compute<br>
M. |<br>
|===============================+======================+======================|<br>
|   0  Tesla C2050         Off  | 0000:02:00.0      On |<br>
 0 |<br>
| 30%   62C   P12    N/A /  N/A |     87MiB /  2687MiB |      0%<br>
Default |<br>
+-------------------------------+----------------------+----------------------+<br>
|   1  Tesla K20c          Off  | 0000:83:00.0     Off |<br>
 0 |<br>
| 42%   55C    P0    46W / 225W |   4578MiB /  4799MiB |      0%<br>
Default |<br>
+-------------------------------+----------------------+----------------------+<br>
|   2  Tesla K20c          Off  | 0000:84:00.0     Off |<br>
 0 |<br>
| 34%   46C    P8    17W / 225W |     14MiB /  4799MiB |      0%<br>
Default |<br>
+-------------------------------+----------------------+----------------------+<br>
<br>
+-----------------------------------------------------------------------------+<br>
| Processes:                                                       GPU<br>
Memory |<br>
|  GPU       PID  Type  Process name                               Usage<br>
   |<br>
|=============================================================================|<br>
|    1     27680    C   ./pw-gpu.x<br>
4563MiB |<br>
+-----------------------------------------------------------------------------+<br>
<br>
<br>
------------------------------<br>
<br>
Message: 2<br>
Date: Sat, 13 Jun 2015 11:51:25 +0100<br>
From: Filippo Spiga <<a href="mailto:spiga.filippo@gmail.com">spiga.filippo@gmail.com</a>><br>
Subject: Re: [Pw_forum] [qe-gpu]<br>
To: PWSCF Forum <<a href="mailto:pw_forum@pwscf.org">pw_forum@pwscf.org</a>><br>
Message-ID: <<a href="mailto:560CDBF8-1CF6-4FD6-AD77-FECF1969B19B@gmail.com">560CDBF8-1CF6-4FD6-AD77-FECF1969B19B@gmail.com</a>><br>
Content-Type: text/plain; charset=utf-8<br>
<br>
Dear Anubhav,<br>
<br>
run in parallel, 2 MPI and make sure CUDA_VISIBLE_DEVICES is set such<br>
<br>
MPI rank 0 -> GPU id 1 (K20)<br>
MPI rank 1 -> GPU id 2 (K20)<br>
<br>
Those K20 GPU are active cooled cards, how many sockets this server (or workstation?) have?<br>
<br>
F<br>
<br>
> On Jun 13, 2015, at 11:08 AM, Anubhav Kumar <<a href="mailto:kanubhav@iitk.ac.in">kanubhav@iitk.ac.in</a>> wrote:<br>
><br>
> Dear QE users<br>
><br>
> I have configured qe-gpu 14.10.0 with espresso-5.1.2.Parallel compilation<br>
> was successful, but when i run ./pw-gpu.x it gives the following output<br>
><br>
> ***WARNING: unbalanced configuration (1 MPI per node, 3 GPUs per node)<br>
><br>
>     *******************************************************************<br>
><br>
>       GPU-accelerated Quantum ESPRESSO (svn rev. unknown)<br>
>       (parallel: Y , MAGMA : N )<br>
><br>
>     *******************************************************************<br>
><br>
><br>
>     Program PWSCF v.5.1.2 starts on 13Jun2015 at 15:23:59<br>
><br>
>     This program is part of the open-source Quantum ESPRESSO suite<br>
>     for quantum simulation of materials; please cite<br>
>         "P. Giannozzi et al., J. Phys.:Condens. Matter 21 395502 (2009);<br>
>          URL <a href="http://www.quantum-espresso.org" rel="noreferrer" target="_blank">http://www.quantum-espresso.org</a>",<br>
>     in publications or presentations arising from this work. More details at<br>
>     <a href="http://www.quantum-espresso.org/quote" rel="noreferrer" target="_blank">http://www.quantum-espresso.org/quote</a><br>
><br>
>     Parallel version (MPI & OpenMP), running on      24 processor cores<br>
>     Number of MPI processes:                 1<br>
>     Threads/MPI process:                    24<br>
>     Waiting for input...<br>
><br>
><br>
> However when i again run the same command, it gives<br>
><br>
> ***WARNING: unbalanced configuration (1 MPI per node, 3 GPUs per node)<br>
><br>
> Program received signal SIGSEGV: Segmentation fault - invalid memory<br>
> reference.<br>
><br>
> Backtrace for this error:<br>
> #0  0x7FB5001B57D7<br>
> #1  0x7FB5001B5DDE<br>
> #2  0x7FB4FF4C4D3F<br>
> #3  0x7FB4F3391D40<br>
> #4  0x7FB4F33666C3<br>
> #5  0x7FB4F3364C80<br>
> #6  0x7FB4F33759EF<br>
> #7  0x7FB4F345CA1F<br>
> #8  0x7FB4F345CD2F<br>
> #9  0x7FB500B7DBCC<br>
> #10  0x7FB500B7094F<br>
> #11  0x7FB500B7CC56<br>
> #12  0x7FB500B81410<br>
> #13  0x7FB500B7507B<br>
> #14  0x7FB500B6179D<br>
> #15  0x7FB500B940A0<br>
> #16  0x7FB5009BA047<br>
> #17  0x8A4EA3 in phiGemmInit<br>
> #18  0x76F55E in initcudaenv_<br>
> #19  0x66AE90 in __mp_MOD_mp_start at mp.f90:184<br>
> #20  0x66E192 in __mp_world_MOD_mp_world_start at mp_world.f90:58<br>
> #21  0x66DCC0 in __mp_global_MOD_mp_startup at mp_global.f90:65<br>
> #22  0x4082A0 in pwscf at pwscf.f90:23<br>
> #23  0x7FB4FF4AFEC4<br>
> Segmentation fault<br>
><br>
> Kindly help me out in solving the problem. My GPU details are<br>
><br>
> +------------------------------------------------------+<br>
> | NVIDIA-SMI 346.46     Driver Version: 346.46         |<br>
> |-------------------------------+----------------------+----------------------+<br>
> | GPU  Name        Persistence-M| Bus-Id        Disp.A | Volatile Uncorr.<br>
> ECC |<br>
> | Fan  Temp  Perf  Pwr:Usage/Cap|         Memory-Usage | GPU-Util  Compute<br>
> M. |<br>
> |===============================+======================+======================|<br>
> |   0  Tesla C2050         Off  | 0000:02:00.0      On |<br>
> 0 |<br>
> | 30%   62C   P12    N/A /  N/A |     87MiB /  2687MiB |      0%<br>
> Default |<br>
> +-------------------------------+----------------------+----------------------+<br>
> |   1  Tesla K20c          Off  | 0000:83:00.0     Off |<br>
> 0 |<br>
> | 42%   55C    P0    46W / 225W |   4578MiB /  4799MiB |      0%<br>
> Default |<br>
> +-------------------------------+----------------------+----------------------+<br>
> |   2  Tesla K20c          Off  | 0000:84:00.0     Off |<br>
> 0 |<br>
> | 34%   46C    P8    17W / 225W |     14MiB /  4799MiB |      0%<br>
> Default |<br>
> +-------------------------------+----------------------+----------------------+<br>
><br>
> +-----------------------------------------------------------------------------+<br>
> | Processes:                                                       GPU<br>
> Memory |<br>
> |  GPU       PID  Type  Process name                               Usage<br>
>   |<br>
> |=============================================================================|<br>
> |    1     27680    C   ./pw-gpu.x<br>
> 4563MiB |<br>
> +-----------------------------------------------------------------------------+<br>
> _______________________________________________<br>
> Pw_forum mailing list<br>
> <a href="mailto:Pw_forum@pwscf.org">Pw_forum@pwscf.org</a><br>
> <a href="http://pwscf.org/mailman/listinfo/pw_forum" rel="noreferrer" target="_blank">http://pwscf.org/mailman/listinfo/pw_forum</a><br>
<br>
--<br>
Mr. Filippo SPIGA, M.Sc.<br>
<a href="http://fspiga.github.io" rel="noreferrer" target="_blank">http://fspiga.github.io</a> ~ skype: filippo.spiga<br>
<br>
?Nobody will drive us out of Cantor's paradise.? ~ David Hilbert<br>
<br>
*****<br>
Disclaimer: "Please note this message and any attachments are CONFIDENTIAL and may be privileged or otherwise protected from disclosure. The contents are not to be disclosed to anyone other than the addressee. Unauthorized recipients are requested to preserve this confidentiality and to advise the sender immediately of any error in transmission."<br>
<br>
<br>
<br>
<br>
<br>
------------------------------<br>
<br>
Message: 3<br>
Date: Sat, 13 Jun 2015 16:38:36 +0100<br>
From: Samuel Ponc? <<a href="mailto:samuel.pon@gmail.com">samuel.pon@gmail.com</a>><br>
Subject: [Pw_forum] Bug (or not) with epsil = .false. in PH (trunk<br>
        version)<br>
To: PWSCF Forum <<a href="mailto:pw_forum@pwscf.org">pw_forum@pwscf.org</a>><br>
Message-ID:<br>
        <<a href="mailto:CAESzT%2B7K5m6_bMcOxDeDUZu8utANY%2BmydgZVft%2BkQq6xg37W7g@mail.gmail.com">CAESzT+7K5m6_bMcOxDeDUZu8utANY+mydgZVft+kQq6xg37W7g@mail.gmail.com</a>><br>
Content-Type: text/plain; charset="utf-8"<br>
<br>
Dear all,<br>
<br>
I found out that it was impossible de make a phonon calculation without<br>
calculating the Born effective charge in a semi-conductor even if we set<br>
epsil = .false.<br>
<br>
This is due to the routine prepare_q.f90 that is called inside do_phonon.f90<br>
In the routine there is<br>
     IF ( lgamma ) THEN<br>
        !<br>
        IF ( .NOT. lgauss ) THEN<br>
           !<br>
           ! ... in the case of an insulator at q=0 one has to calculate<br>
           ! ... the dielectric constant and the Born eff. charges<br>
           ! ... the other flags depend on input<br>
           !<br>
           epsil = .TRUE.<br>
           zeu = .TRUE.<br>
           zue = .TRUE.<br>
<br>
<br>
This means that if we compute q=Gamma and if we do not have<br>
gaussian-smearing (i.e. an semi-cond or insulator), then epsil is<br>
automatically set to TRUE.<br>
<br>
I know that physically one should have such LO/TO splitting but the user<br>
should be able to choose.<br>
<br>
Maybe this forcing could be reported in the input variable ? or simply put<br>
the default value to .TRUE. instead of false and not enforcing that rule?<br>
<br>
What do you think?<br>
<br>
Best,<br>
<br>
Samuel Ponce,<br>
Department of Materials, University of Oxford<br>
-------------- next part --------------<br>
An HTML attachment was scrubbed...<br>
URL: <a href="http://pwscf.org/pipermail/pw_forum/attachments/20150613/98210b28/attachment-0001.html" rel="noreferrer" target="_blank">http://pwscf.org/pipermail/pw_forum/attachments/20150613/98210b28/attachment-0001.html</a><br>
<br>
------------------------------<br>
<br>
Message: 4<br>
Date: Sun, 14 Jun 2015 12:06:37 +0530<br>
From: Umesh Roy <<a href="mailto:umesh24crp@gmail.com">umesh24crp@gmail.com</a>><br>
Subject: [Pw_forum] xml format for dynamical matrix<br>
To: <a href="mailto:pw_forum@pwscf.org">pw_forum@pwscf.org</a><br>
Message-ID:<br>
        <<a href="mailto:CAHj-Tq3jXy3Of2ecE8_nwEL-pnaxzjxD2NihDkOZV-SZYc6eaA@mail.gmail.com">CAHj-Tq3jXy3Of2ecE8_nwEL-pnaxzjxD2NihDkOZV-SZYc6eaA@mail.gmail.com</a>><br>
Content-Type: text/plain; charset="utf-8"<br>
<br>
Dear All,<br>
           I want to calculate phonon  for q grid nq1=8, nq2=8, nq3=8 for<br>
Gold. As I run the program for phonon , the dynamical matrices are written<br>
in the xml format. So could not able to get the interatomic force<br>
constant(IFC) from there.  Why are dynamical matrices written in the xml<br>
format? How to get IFC from there? Please help.<br>
<br>
       Thank you in advance.<br>
<br>
<br>
<br>
<br>
<br>
<br>
<br>
<br>
<br>
<br>
*---------------------------------------------------------------------Umesh<br>
Chandra RoyResearch Scholar, School of Physical SciencesJawaharlal Nehru<br>
University, New Delhi-110067,*<br>
<br>
*India.*<br>
<br>
*<a href="mailto:Email%3Aumesh24crp@gmail.com">Email:umesh24crp@gmail.com</a> <<a href="mailto:Email%253Aumesh24crp@gmail.com">Email%3Aumesh24crp@gmail.com</a>>*<br>
*Mobile:+919868022722*<br>
-------------- next part --------------<br>
An HTML attachment was scrubbed...<br>
URL: <a href="http://pwscf.org/pipermail/pw_forum/attachments/20150614/40fb5256/attachment-0001.html" rel="noreferrer" target="_blank">http://pwscf.org/pipermail/pw_forum/attachments/20150614/40fb5256/attachment-0001.html</a><br>
<br>
------------------------------<br>
<br>
Message: 5<br>
Date: Sun, 14 Jun 2015 08:47:12 +0200<br>
From: Lorenzo Paulatto <<a href="mailto:lorenzo.paulatto@impmc.upmc.fr">lorenzo.paulatto@impmc.upmc.fr</a>><br>
Subject: Re: [Pw_forum] xml format for dynamical matrix<br>
To: PWSCF Forum <<a href="mailto:pw_forum@pwscf.org">pw_forum@pwscf.org</a>><br>
Message-ID: <<a href="mailto:557D2370.3070805@impmc.upmc.fr">557D2370.3070805@impmc.upmc.fr</a>><br>
Content-Type: text/plain; charset=windows-1252<br>
<br>
On 14/06/2015 08:36, Umesh Roy wrote:<br>
> Dear All,<br>
>            I want to calculate phonon  for q grid nq1=8, nq2=8, nq3=8<br>
> for Gold. As I run the program for phonon , the dynamical matrices are<br>
> written in the xml format. So could not able to get the interatomic<br>
> force constant(IFC) from there.  Why are dynamical matrices written in<br>
> the xml format? How to get IFC from there? Please help.<br>
<br>
If I remember correctly, they are written in xml format if you use spin<br>
orbit. But q2r can read them, it does not prevent you to generate the<br>
force constants.<br>
<br>
As always when asking for help you should provide all the information<br>
you dispose, in order to get a meaningful answer. In particular:<br>
1. what you did (i.e. input files, command lines)<br>
2. what you got (i.e. output files, matdyn files)<br>
3. what you expected to get<br>
4. why you think 3 and 4 are different<br>
<br>
kind regards<br>
<br>
<br>
<br>
--<br>
Dr. Lorenzo Paulatto<br>
IdR @ IMPMC -- CNRS & Universit? Paris 6<br>
+33 (0)1 44 275 084 / skype: paulatz<br>
<a href="http://www.impmc.upmc.fr/~paulatto/" rel="noreferrer" target="_blank">http://www.impmc.upmc.fr/~paulatto/</a><br>
23-24/4?16 Bo?te courrier 115, 4 place Jussieu 75252 Paris C?dex 05<br>
<br>
<br>
<br>
------------------------------<br>
<br>
_______________________________________________<br>
Pw_forum mailing list<br>
<a href="mailto:Pw_forum@pwscf.org">Pw_forum@pwscf.org</a><br>
<a href="http://pwscf.org/mailman/listinfo/pw_forum" rel="noreferrer" target="_blank">http://pwscf.org/mailman/listinfo/pw_forum</a><br>
<br>
End of Pw_forum Digest, Vol 95, Issue 13<br>
****************************************<br>
</blockquote></div><br></div>