source: trunk/MESOSCALE/NOTES.txt @ 200

Last change on this file since 200 was 200, checked in by aslmd, 13 years ago

MESOSCALE: save old advect_em (v2) and add time routines to python wrapper. and also happy to be at commit 200.

File size: 7.6 KB
RevLine 
[147]1
[200]2kvdif ne sert a rien dans le mesoscale martien, en raison de l'appel a la
3physique et MY
4
[155]5Venus_est_dans_SOURCES_FORTRAN
6
[147]7dire que si pb il faut regradre les premiers pas de temps
8
[142]9adapter runmeso pour les runs ideal et les ???
[36]10
[142]11faire comme storm mais avec les pour eviter les recouvrements
12user manual
13
14il faut creer TMPDIR puis GCMINI WPSFEED WRFFEED actuellement
15
[156]16changer la gestion topo dans LES comme fait dans modele general
17
[112]18        13min_si_Registry_modifie     
19        15min_makemeso_moins_f       
20        1min_phys_plus_dyn_chgtresol 
21
22        PD_SCALAR est T par defaut desormais !!
23
24
[169]25        il faudrait regler le prob du Registry dans le LES
[96]26il y a un souci avec les variables liees a l'eau et d'autres
27
[100]28        ---anciennes notes lES sur gnome pb avec ideal.exe
29        ## jusque 201 OK avec ideal.exe sequentiel
30        ## ensuite il vaut mieux utiliser
31        ## mpirun -n 4 ideal.exe
32        ## le MP_STACK_SIZE est dans le bashrc
33
34
35
[91]36concat.e puis localtime.e puis
[112]37localtime.e (tres long) puis concatnc.e pour avoir en ls
38le resultat doit etre strider a 10... sinon bug affichage
39
[90]40ncwa -O -v mtot,icetot -a longitude -d longitude,-179.0,179.0 diagfi.nc yeye.nc
[91]41ncwa -O -v mtot -a longitude -d longitude,-180.0,180.0 concat_LT.nc mawd.nc
[96]42(si trop gros faire ncrcat -v mtot -d Time,,,2 concat_LT.nc yorgl.nc)
[90]43
[114]44resumee
45--> localtime.e tres long
46--> concatnc.e en ls tres court
47--> renomme le fichier
48--> ncwa -O -v mtot,Time -a longitude -d longitude,-180.0,180.0 gcm_LT14_a035.nc mawd_a035.nc
49
[91]50        A FAIRE:::: mettre des flags precompilo dans les meso_
51        les reporter dans makegcm
[90]52
[77]53changer le renormalisation dans aeropacity ????
54on ne laisse pas aerosol comme le lifting veut qu'il soit !
55tenter des taux de soulevement pour que taudust_tmp soit les obs
56en prescivant une dust bomb fixe d opacite, on aura au moins la structure verticale
[73]57
[84]58        tester traceurs radiativement actifs avec la nouvelle physique ?????
[77]59
[112]60        A FAIRE: PB LES sur iDATAPLEX (les points HFX nuls) (pas de soucis sur ciclad)
[77]61METTRE SUR LE svn LA BASE d'ETATS INITIAUX ????
62
[73]63more than 4 procs w/ nest ??? y reflechir
[77]64        -----------------------------------------------------------------------
65        -- si possible comment determiner taille ?
66        nproc doit diviser e_we-1 (1er nest)
67        grid_ratio doit diviser e_we-1 +4 (1er nest)
68        soit e_we=ye+1
69        grid_ratio divise ye+4 et nproc divise ye
70        soit nproc=8, ye=8*i
71        ainsi il existe j tel que 8i + 4 = 3j ou encore 4*[2i+1] = 3j
72        verifie par exemple si 2i+1 est multiple de 3
73        il suffit donc de trouver un multiple impair de 3 et de deduire i
74        par exemple 2i+1=33 >>>> i=16
75        >>>> e_we = 129 pour le 1er nest (et ajouter 4 pour les suivants)
76        ------------------------------------------------------------------------
[73]77
[77]78        ne pas utiliser le FASTCASE avec traceurs (instabilites en haut)
79            ces instabilites sont cependant reglees si on augmente radt a 10 par exemple
80
[84]81        pour le cycle de l'eau c'est OK de regler caps=F dans le mesoscale
82        sauf si on commence a devoiler la calotte permanente nord
83        ---> corrige, scenario caps specifique au mesoscale
[73]84
[77]85        NE SERAIT-CE PAS MIEUX DE TOUT TRANSMETTRE AUX BORNES ???
86        tous les traceurs, pas seulement vapor
[73]87
88
[77]89        - attention il faut les trois MARS sinon il s arrete sans message clair
90        - attention a ne pas lancer le modele s il est deja lance
91        - important que pd_scalar soit a T ... le mettre par defaut ????
[72]92
93
[45]94ROUTINES a AJOUTER sont dans COMMON_GCM
95- passer aux nouveaux makegcm [en commun avec Ehouarn si on veut le nouveau
96  readtesassim qui est en F90]
97- il faut tester le nest pour verifier les lignes trop longues
[36]98
[77]99        (ok) lier gr_fi_dyn qui est dans dyn3d
100        (ok) regler le pb du nouveau readtesassim (ou alors le lier tout simplement ou
101          l'appeler meso_readtesassim)
102        (ok) regler le pb meso_dustlift (le lier dans makemeso comme point precedent)
103             (car le souci c que dustlift est appele dans vdifc)
[36]104
[77]105        RESTE a ADAPTER le LES a la NOUVELLE PHYSIQUE
106        il y a normalement peu a faire
107        reste a faire egalement le -DNEWPHYS pour le LES
[24]108
[77]109        attention pb d'affichage des valeurs dans le fichier texte avec LES ???
110        bien que les valeurs du fichier soient tout a fait raisonnables
111        ... n'est-ce pas un effet de bord cache ????
[34]112
113
[77]114        apres fusion, le LES est reconnu par module_lmd_driver lorsque diff_opt=2 km_opt=2
[34]115
116
[77]117        -attention PB si on ne sort pas HFX et USTM (note dans le Registry)
118        -il faut run.def nouvelle physique [c est meme ce qui est utilise par runmeso]
119        - IL FAUT SE PENCHER SUR LE FAIT QU'ON INDIQUE q2val=0 dans lmd_driver ....
[34]120
[77]121-----------------------
[32]122ATTENTION NOUVELLE PHYSIQUE
123Oui, c'est quelque chose qu'il faut probablement changer partout
124maintenant que la version de pgf90 à changé (sur les machines du LMD).
125Avec cette nouvelle version (7.1-6), le '-fast' est plus agressif
126qu'avant (et inclue entre autre les horribles '-Mvect=sse -Mscalarsse'
127qui dégradent la précision de certains calculs pour accélérer le code);
128je préconise de ne plus s'en servir. Bon d'accord, je n'ai pas fait une
129étude approfondie de l'impact de '-fast', mais j'ai vu qu'avec,
130j'obtenais des résultats différents lorsque je changeais simplement
131l'ordre des traceurs...
[24]132
[32]133Aymeric Spiga wrote:
134> je détecte ces changements d'option de compilation ; ont-ils de
135> l'importance ?
136>
137> Aymeric
138>
139> < #   set optim90=" -fast"
140> < #   set optimtru90=" -fast -c -Mfree "
141> < #   set optim90=" -O2 -Munroll=c:1 -Mnoframe -Mcache_align"
142> < #   set optimtru90=" -O2 -Munroll=c:1 -Mnoframe -Mcache_align"
143> <    set optim90=" -O2 -Munroll -Mcache_align"
144> <    set optimtru90=" -O2 -Munroll -Mcache_align"
145> ---
146>   
147>>    set optim90=" -fast"
148>>    set optimtru90=" -fast -c -Mfree "
[77]149------------------------------
[32]150
151
[77]152        - attention a cp et R, normaliser une bonne fois pour toutes
153        - il manque sur le SVN les cas idealises
[27]154- il manque sur le SVN les scripts MPI
[77]155        - il faut recompiler les librairies NETCDF
156        - mettre la nouvelle physique
157        - mettre les DEF du meso-echelle
[24]158
[77]159        - modele ok sur auric
[24]160- modele pas ok sur ciclad avec pgf2010, erreur inedite un seul module manquant
[77]161        - modele LES OK sur ciclad
162        - modele LES ok sur auric
[24]163
[77]164        24/01/2011
165        tests g95 en 64bits natif sur systeme Linux
166        -- modifications de makemeso, tests
167        -- tout est OK sauf les libraires NETCDF, probleme d'underscore
168        -- OK avec libraires maison compilees avec g95 standard sur flores [et tourne OK]
[24]169
170
171
[77]172        mpi_64_pgf7_ncdf4_mpi1.2.txt
173        - probleme lors de la compilation de solve_em : LINUX runs out of memory [huchard]
174        - IL FAUT COMPILER SUR auric
175        nougaro est lent a la compilation, utiliser surtout auric
[24]176
[32]177
178
179
[77]180______________________________________________________
[32]181
182
183PB MPI
184/donnees/aslmd/MODELES/MPI/mpich2-1.2.1p1_PGF7/lib/libmpich.a(simple_pmi.o):
185In function `PMI_Init':
186simple_pmi.c:(.text+0x15c0): warning: Using 'gethostbyname' in statically
187linked applications requires at runtime the shared libraries from the glibc
188version used for linking
189/donnees/aslmd/MODELES/MPI/mpich2-1.2.1p1_PGF7/lib/libmpich.a(simple_pmi.o):
190In function `PMI_Init':
191simple_pmi.c:(.text+0x15c0): warning: Using 'gethostbyname' in statically
192linked applications requires at runtime the shared libraries from the glibc
193version used for linking
194/donnees/aslmd/MODELES/MPI/mpich2-1.2.1p1_PGF7/lib/libmpich.a(simple_pmi.o):
195In function `PMI_Init':
196simple_pmi.c:(.text+0x15c0): warning: Using 'gethostbyname' in statically
197linked applications requires at runtime the shared libraries from the glibc
198version used for linking
199/donnees/aslmd/MODELES/MPI/mpich2-1.2.1p1_PGF7/lib/libmpich.a(simple_pmi.o):
200In function `PMI_Init':
201simple_pmi.c:(.text+0x15c0): warning: Using 'gethostbyname' in statically
202linked applications requires at runtime the shared libraries from the glibc
203version used for linking
204
205
206POSSIBLE mars.sed
207
208s+ *../frame/module_internal_header_util.o ../frame/pack_utils.o
209-L../external/esmf_time_f90 -lesmf_time+& -L../mars_lmd/libo -llmd
210-Mmpi=mpich2+g
211
Note: See TracBrowser for help on using the repository browser.