Changeset 341 for trunk/MESOSCALE_DEV


Ignore:
Timestamp:
Nov 3, 2011, 2:28:57 PM (13 years ago)
Author:
aslmd
Message:

MESOSCALE: tests pour faire marcher le modele en parallele sur la ferme. toujours infructueux... toutes les notes incluses et options explorees en commentaire. les options par defaut restent les memes en attendant. ajout de scripts pour compiler NETCDF et MPI. correction d un probleme de Registry et de makemeso pour les runs LES ancienne physique. ajout d un cas test LES phoenix.

Location:
trunk/MESOSCALE_DEV
Files:
7 added
1 deleted
1 edited

Legend:

Unmodified
Added
Removed
  • trunk/MESOSCALE_DEV/NOTES.txt

    r335 r341  
    1010  .... avec fastsse partout (mm MPI), crash ds la sortie 2
    1111  .... option de base SVN avec mpich sans fast, marche pas non plus crashe entre 9 et 10
     12  .... iradia=1 ne change rien, toujours le probleme
     13  .... la simulation tourne lorsqu'on fait callrad = F
     14  .... test avec Mbounds ne renvoie aucuune erreur
     15  .... test avec juste -Ktrap=fp et rien d'autre renvoie aucune erreur
     16  .... semble OK avec iaervar=1, probleme dans meso_dustopacity ??? ou avec la lecture NETCDF ???
     17  .... crashe direct avec WHERE_MPI=/donnees/aslmd/MPI/mpich2-1.3.1_normal/bin
     18  .... alors que ca passe nickel avec iaervar=1
     19  .... crashe direct avec mes librairies netcdf3.6.1 compilees avec le dernier pgf2011
     20  .... ne crashe pas direct avec mes librairies netcdf4.0.1 compilees avec le
     21         dernier pgf2011 et les options utilisees dans le modele ajoutees aux options
     22         dans la librairie compilee dans /distrib/local
     23       mais crashe entre la sortie 9 et 10 comme les autres !!!!
     24  .... marche bien aussi avec iaervar=3... probleme de lecture netcdf ???
     25  .... experience: on a iaervar=4 mais juste apres readtesassim
     26       on regle tauref a 0.3 et ca passe. donc ce n est pas un bug structurel.
     27       les valeurs lues ne sont probablement les bonnes soit par probleme
     28       dans le fichier soit par probleme structurel dans readtesassim
     29  .... pourtant en affichant les valeurs on ne voit pas de pb particulier !
     30  .... en changeant le nom hfx en sensheat et en enlevant z0 qui pose un pb
     31       avec l'ancienne physique, ca ne marche toujours pas.
     32  .... crash: semble stocker les variables qui sortent de la physique OK
     33       mais le reste, par exemple tsurf, est NaN c'est bizarre
     34  .... avec ndomainsz=ngridmx le modele va plus loin et crashe le second jour
     35       a la sortie 2
     36  .... mm comportement sur ulrich que sur penn
     37  .... avec mcmodel crashe tout de suite
     38  .... idem en invalidant les options d optimisation dans WRF et LMD phys [non en fait il faut enlever dans MPI]
     39  .... test avec netcdf3: marche pas. mais ne faut-il pas enlever toutes les options?
     40  .... avec aucune option d'optimisation et netcdf3: Nan avant la sortie 2
     41  .... avec aucune option d'optimisation et netcdf4: va plus loin mais NaN entre 9 et 10
     42  .... options d'optimisation en -O3 toujours le mm probleme
     43  .... toujours le mm probleme mm avec ulimit -s unlimited
     44
     45  .... test qui donne des sortie 2 des NaN en recompilant avec -fast partout
     46       avec mpirun -np 1, aucun souci tout va bien
     47       avec mpirun -np 8, souci egalement des la sortie 2
     48       ... visiblement un souci avec readtesassim ???
     49       .... MAIS NON CAR SOUCI AUSSI AVEC iaervar=1 avec 8 procs
     50       .... ALORS QUE PAS DE SOUCI AVEC iaervar=1 avec 4 procs
     51export NETCDF=/donnees/aslmd/MODELES/MESOSCALE_DEV/NETCDF/pgfortran_64_netcdf-4.0.1_fast
     52export WHERE_MPI=/donnees/aslmd/MPI/pgfortran_mpich2-1.3.1/bin
     53  .... corrections readtesassim ne semblent rien changer...
     54  .... sorties frequentes permettent de voir que le probleme est localisee
     55       mais rempli tres vite le domaine
     56       avec dt=40s probleme apparait au bout de 700s
     57       avec dt=10s probleme apparait au bout de 300s
     58       avec dt=100s problemen apparait au bout de 1200s
     59       ... visiblement le probleme apparait aux jointures des domaines ?
     60       ... probleme sur le vitesse verticale calculee ???
     61       ... visiblement non puisque mm comportement avec non_hydrostatic ou W est normal
     62       ... apparemment il s'agit vraiment d'une instabilite numerique
     63       ... mettre les tendances R..BLEN a 0 ne change rien...
     64       ... changer dimradmars n'arrange pas en fait lorsquon met des sorties frequentes
     65       ... bizarre un des 4 processes wrf.exe passe en D quelques fois ????
     66... ne marche pas avec les options de compilation de WRF3 !!!
     67     (mais domain met moins de temps a compiler)
     68... toujours le mm probleme en acces local disque
     69
     70TEST AVEC DEBUG
     71  .... s'arrete au beau milieu d integrations sans sortir de message d'erreur
     72TEST AVEC LES POUR VOIR SI PB CORRIGE AVEC WRF3
     73  .... rsl_lite ne compile pas avec l'option -fast
     74  .... OK avec nofast_nemesis version compilee de mpich2
     75TEST avec le vieux mpich2... CRASH aussi entre la sortie 9 et 10
     76
     77memes erreurs avec RSL_LITE de WRF3
     78alors qu il compile sans souci chez LES
     79.... un probleme d'options de compilations ????
     80.... pendre direct la librairie compilee chez WRF3 ???
     81LES: run OK
     82juste des NaN a la toute fin...
     83
     84peut etre faut il regler dans WRFV2 les warnings relies a la compilation de rsl_lite
     85------- il y a probablement des choses a corriger
     86------- coupler avec gcc [-CC=gcc] comme dans LES ????
     87.... mais lorsqu on utilise le vieux mpi compile avec pgf7 pas de warnings !
     88
     89
     90...le debugger voir une floating exception sur lwtt dans la boucle avec kdlon
     91...avec les options debug le modele semble aller loin OK --> a verifier??
     92...les warnins a la compilation ont ils de l importance ?
     93...le fait que netcdf4 ne soit pas supporte ???
     94...longue compil sur module_domain....
     95
     96...des pistes ici
     97http://www.mmm.ucar.edu/wrf/users/wrfv3/known-prob-3.0.1.html
     98
     99fonctionne avec le vieux mpi dans pgf2011 [et netcdf4]
     100mais les jobs ne sont pas a 100% sur les procs
     101probleme donc... c est tres lent
     102
     103test basique avec WRFV2.2.1 et le cas em_quarter_ss et mpipgf
     104memes resultats avec un proc ou plusieurs
     105pas de crash
    12106
    13107
Note: See TracChangeset for help on using the changeset viewer.