<div dir="ltr"><div><div><div><div><div><div><div>Dear QE users,<br><br></div>I am running an scf calculation using the pw.x executable for a distorted graphene sheet, using the ultrasoft pseudopotential file C_pbe_v1.2.uspp.F.UPF. I am using a large supercell (128 atoms). <br><br></div>I am using the following values for the energy cutoffs: 60.0 ecutwfc, 500.0 ecutrho, with gaussian smearing and Davidson diagonalization. I am using a 9x9x1 Monkhorst-Pack k-point grid.<br><br></div><div>I am running the calculations on a node in a cluster, which contains 16 processors. I am running it with a 16-process MPIrun.<br><br><br></div>I have observed that the c_bands and sum_bands routines are taking up a huge amount of wall time, as compared to the CPU time. I am attaching the time report for the completed calculation below:<br><br>     init_run     :   1327.31s CPU   1554.01s WALL (       1 calls)<br>     electrons    : 130443.79s CPU 771483.34s WALL (       1 calls)<br><br>     Called by init_run:<br>     wfcinit      :   1299.34s CPU   1524.78s WALL (       1 calls)<br>     potinit      :      5.56s CPU      5.65s WALL (       1 calls)<br><br>     Called by electrons:<br>     c_bands      :  97779.04s CPU 441468.41s WALL (      29 calls)<br>     sum_band     :  28359.60s CPU 311790.57s WALL (      29 calls)<br>     v_of_rho     :   3421.30s CPU   4610.39s WALL (      30 calls)<br>     newd         :     58.45s CPU   1180.47s WALL (      30 calls)<br>     mix_rho      :    559.21s CPU   9112.55s WALL (      29 calls)<br><br>     Called by c_bands:<br>     init_us_2    :    157.78s CPU   6714.76s WALL (    2950 calls)<br>     cegterg      :  72929.24s CPU 101098.23s WALL (    1463 calls)<br><br>     Called by sum_band:<br>     sum_band:bec :      4.65s CPU     39.29s WALL (    1450 calls)<br>     addusdens    :    546.07s CPU  26711.20s WALL (      29 calls)<br><br>     Called by *egterg:<br>     h_psi        :  49261.91s CPU  58153.26s WALL (    7375 calls)<br>     s_psi        :   5325.93s CPU   5437.34s WALL (    7375 calls)<br>     g_psi        :     65.05s CPU     72.50s WALL (    5862 calls)<br>     cdiaghg      :   3142.76s CPU   3801.60s WALL (    7325 calls)<br><br>     Called by h_psi:<br>     add_vuspsi   :   5378.26s CPU   5626.14s WALL (    7375 calls)<br><br>     General routines<br>     calbec       :  10792.25s CPU  15224.73s WALL (    8825 calls)<br>     fft          :   4271.25s CPU   4843.82s WALL (     920 calls)<br>     ffts         :    337.97s CPU   1110.36s WALL (     118 calls)<br>     fftw         :  42573.09s CPU  47318.16s WALL ( 2685986 calls)<br>     interpolate  :    598.65s CPU   3372.52s WALL (     118 calls)<br>     davcio       :      0.02s CPU    442.60s WALL (      50 calls)<br><br>     Parallel routines<br>     fft_scatter  :  37432.00s CPU  42982.58s WALL ( 2687024 calls)<br><br>     PWSCF        :     1d   13h 3m CPU        9d    3h33m WALL<br><br><br>   This run was terminated on:   4:55:36  26Jun2017            <br><br>=------------------------------------------------------------------------------=<br>   JOB DONE.<br>=------------------------------------------------------------------------------=<br><br><br><br></div>As it can be seen from the report, there is a large discrepancy between the CPU, and wall time.<br><br></div>When I run the same calculation, with a smaller k-point grid (6x6x1), and smaller ecutwfc = 40.0 and ecutrho= 400.0, the CPU time is only slightly lesser than the wall time (just 1 hour or so difference between the two).<br><br></div>Kindly inform me what might be causing the large delay between the CPU time and wall time, and how I might minimize it.<br><br></div><div>Thanking You,<br></div><div>Yours Sincerely,<br></div><div>M Harshavardhan<br></div><div>Fourth Year Undergraduate<br></div><div>Engineering Physics<br></div><div>IIT Madras<br></div><div><div><div><div><div><div><div><br><div><div><br><br></div></div></div></div></div></div></div></div></div></div>