source: trunk/mesoscale/NOTES.txt @ 86

Last change on this file since 86 was 86, checked in by aslmd, 14 years ago

*
mars + LMD_MM_MARS
* Precompilation flag MESOSCALE for better transparency

* in shared phymars between GCM and mesoscale model

*

M 85 mars/libf/phymars/meso_physiq.F
M 85 mars/libf/phymars/meso_inifis.F
Added a pre-compilation flag MESOSCALE so that the LMDZ.MARS GCM
will compile without stating errors because of mesoscale routines.

M 85 mars/libf/phymars/newcondens.F
M 85 mars/libf/phymars/testphys1d.F
M 85 mars/libf/phymars/dustlift.F
D 85 mars/libf/phymars/meso_testphys1d.F
D 85 mars/libf/phymars/meso_dustlift.F
D 85 mars/libf/phymars/meso_newcondens.F
Now, this MESOSCALE precompilation flag can be used to lower
the number of meso_* routines when adaptations for mesoscale
applications are not very extended.
--> Three meso_* routines were deleted and changes are
now impacted under the MESOSCALE flag in the original GCM routines
--> Completely transparent for GCM compilation since it is devoid
of the -DMESOSCALE option
--> Very good for syncing because changes in dustlift, newcondens
will be directly available in the mesoscale model

M 84 mesoscale/LMD_MM_MARS/makemeso
Changed meso_testphys1d in testphys1d

M 84 mesoscale/LMD_MM_MARS/SRC/WRFV2/mars_lmd_new/makegcm_pgf
M 84 mesoscale/LMD_MM_MARS/SRC/WRFV2/mars_lmd_new/makegcm_mpifort
M 84 mesoscale/LMD_MM_MARS/SRC/WRFV2/mars_lmd_new/makegcm_ifort
M 84 mesoscale/LMD_MM_MARS/SRC/WRFV2/mars_lmd_new/makegcm_g95
M 84 mesoscale/LMD_MM_MARS/SRC/WRFV2/mars_lmd_new/makegcm_mpi
Added the option -DMESOSCALE in these scripts

*
LMD_MM_MARS
* Various minor changes related to water cycle and plotting routines

* Also included the GW test case

*

A 0 mesoscale/LMDZ.MARS.new/myGCM/DEFS_JB/callphys.def.orig
M 84 mesoscale/NOTES.txt
D 84 mesoscale/LMD_MM_MARS/SRC/ARWpost/idl
M 84 mesoscale/LMD_MM_MARS/SRC/WRFV2/Registry/Registry.EM
M 84 mesoscale/LMD_MM_MARS/SIMU/gnome_launch.meso
M 85 mesoscale/PLOT/MINIMAL/map_latlon.pro
D 85 mesoscale/PLOT/SPEC/LES/getget.pro
M 85 mesoscale/PLOT/SPEC/MAP/map_uvt.pro
A + - mesoscale/PLOT/SPEC/getget.pro
A 0 mesoscale/PLOT/RESERVE/obsolete
A 0 mesoscale/TESTS/TESTGW.tar.gz
M 84 000-USERS

File size: 6.2 KB
Line 
1
2A FAIRE:::: mettre des flags precompilo dans les meso_
3les reporter dans makegcm
4
5changer le renormalisation dans aeropacity ????
6on ne laisse pas aerosol comme le lifting veut qu'il soit !
7tenter des taux de soulevement pour que taudust_tmp soit les obs
8en prescivant une dust bomb fixe d opacite, on aura au moins la structure verticale
9
10        tester traceurs radiativement actifs avec la nouvelle physique ?????
11
12A FAIRE: PB LES sur iDATAPLEX (les points HFX nuls) (pas de soucis sur ciclad)
13METTRE SUR LE svn LA BASE d'ETATS INITIAUX ????
14
15more than 4 procs w/ nest ??? y reflechir
16        -----------------------------------------------------------------------
17        -- si possible comment determiner taille ?
18        nproc doit diviser e_we-1 (1er nest)
19        grid_ratio doit diviser e_we-1 +4 (1er nest)
20        soit e_we=ye+1
21        grid_ratio divise ye+4 et nproc divise ye
22        soit nproc=8, ye=8*i
23        ainsi il existe j tel que 8i + 4 = 3j ou encore 4*[2i+1] = 3j
24        verifie par exemple si 2i+1 est multiple de 3
25        il suffit donc de trouver un multiple impair de 3 et de deduire i
26        par exemple 2i+1=33 >>>> i=16
27        >>>> e_we = 129 pour le 1er nest (et ajouter 4 pour les suivants)
28        ------------------------------------------------------------------------
29
30        ne pas utiliser le FASTCASE avec traceurs (instabilites en haut)
31            ces instabilites sont cependant reglees si on augmente radt a 10 par exemple
32
33        pour le cycle de l'eau c'est OK de regler caps=F dans le mesoscale
34        sauf si on commence a devoiler la calotte permanente nord
35        ---> corrige, scenario caps specifique au mesoscale
36
37        NE SERAIT-CE PAS MIEUX DE TOUT TRANSMETTRE AUX BORNES ???
38        tous les traceurs, pas seulement vapor
39
40
41        - attention il faut les trois MARS sinon il s arrete sans message clair
42        - attention a ne pas lancer le modele s il est deja lance
43        - important que pd_scalar soit a T ... le mettre par defaut ????
44
45
46ROUTINES a AJOUTER sont dans COMMON_GCM
47- passer aux nouveaux makegcm [en commun avec Ehouarn si on veut le nouveau
48  readtesassim qui est en F90]
49- il faut tester le nest pour verifier les lignes trop longues
50
51        (ok) lier gr_fi_dyn qui est dans dyn3d
52        (ok) regler le pb du nouveau readtesassim (ou alors le lier tout simplement ou
53          l'appeler meso_readtesassim)
54        (ok) regler le pb meso_dustlift (le lier dans makemeso comme point precedent)
55             (car le souci c que dustlift est appele dans vdifc)
56
57        RESTE a ADAPTER le LES a la NOUVELLE PHYSIQUE
58        il y a normalement peu a faire
59        reste a faire egalement le -DNEWPHYS pour le LES
60
61        attention pb d'affichage des valeurs dans le fichier texte avec LES ???
62        bien que les valeurs du fichier soient tout a fait raisonnables
63        ... n'est-ce pas un effet de bord cache ????
64
65
66        apres fusion, le LES est reconnu par module_lmd_driver lorsque diff_opt=2 km_opt=2
67
68
69        -attention PB si on ne sort pas HFX et USTM (note dans le Registry)
70        -il faut run.def nouvelle physique [c est meme ce qui est utilise par runmeso]
71        - IL FAUT SE PENCHER SUR LE FAIT QU'ON INDIQUE q2val=0 dans lmd_driver ....
72
73-----------------------
74ATTENTION NOUVELLE PHYSIQUE
75Oui, c'est quelque chose qu'il faut probablement changer partout
76maintenant que la version de pgf90 à changé (sur les machines du LMD).
77Avec cette nouvelle version (7.1-6), le '-fast' est plus agressif
78qu'avant (et inclue entre autre les horribles '-Mvect=sse -Mscalarsse'
79qui dégradent la précision de certains calculs pour accélérer le code);
80je préconise de ne plus s'en servir. Bon d'accord, je n'ai pas fait une
81étude approfondie de l'impact de '-fast', mais j'ai vu qu'avec,
82j'obtenais des résultats différents lorsque je changeais simplement
83l'ordre des traceurs...
84
85Aymeric Spiga wrote:
86> je détecte ces changements d'option de compilation ; ont-ils de
87> l'importance ?
88>
89> Aymeric
90>
91> < #   set optim90=" -fast"
92> < #   set optimtru90=" -fast -c -Mfree "
93> < #   set optim90=" -O2 -Munroll=c:1 -Mnoframe -Mcache_align"
94> < #   set optimtru90=" -O2 -Munroll=c:1 -Mnoframe -Mcache_align"
95> <    set optim90=" -O2 -Munroll -Mcache_align"
96> <    set optimtru90=" -O2 -Munroll -Mcache_align"
97> ---
98>   
99>>    set optim90=" -fast"
100>>    set optimtru90=" -fast -c -Mfree "
101------------------------------
102
103
104        - attention a cp et R, normaliser une bonne fois pour toutes
105        - il manque sur le SVN les cas idealises
106- il manque sur le SVN les scripts MPI
107        - il faut recompiler les librairies NETCDF
108        - mettre la nouvelle physique
109        - mettre les DEF du meso-echelle
110
111        - modele ok sur auric
112- modele pas ok sur ciclad avec pgf2010, erreur inedite un seul module manquant
113        - modele LES OK sur ciclad
114        - modele LES ok sur auric
115
116        24/01/2011
117        tests g95 en 64bits natif sur systeme Linux
118        -- modifications de makemeso, tests
119        -- tout est OK sauf les libraires NETCDF, probleme d'underscore
120        -- OK avec libraires maison compilees avec g95 standard sur flores [et tourne OK]
121
122
123
124        mpi_64_pgf7_ncdf4_mpi1.2.txt
125        - probleme lors de la compilation de solve_em : LINUX runs out of memory [huchard]
126        - IL FAUT COMPILER SUR auric
127        nougaro est lent a la compilation, utiliser surtout auric
128
129
130
131
132______________________________________________________
133
134
135PB MPI
136/donnees/aslmd/MODELES/MPI/mpich2-1.2.1p1_PGF7/lib/libmpich.a(simple_pmi.o):
137In function `PMI_Init':
138simple_pmi.c:(.text+0x15c0): warning: Using 'gethostbyname' in statically
139linked applications requires at runtime the shared libraries from the glibc
140version used for linking
141/donnees/aslmd/MODELES/MPI/mpich2-1.2.1p1_PGF7/lib/libmpich.a(simple_pmi.o):
142In function `PMI_Init':
143simple_pmi.c:(.text+0x15c0): warning: Using 'gethostbyname' in statically
144linked applications requires at runtime the shared libraries from the glibc
145version used for linking
146/donnees/aslmd/MODELES/MPI/mpich2-1.2.1p1_PGF7/lib/libmpich.a(simple_pmi.o):
147In function `PMI_Init':
148simple_pmi.c:(.text+0x15c0): warning: Using 'gethostbyname' in statically
149linked applications requires at runtime the shared libraries from the glibc
150version used for linking
151/donnees/aslmd/MODELES/MPI/mpich2-1.2.1p1_PGF7/lib/libmpich.a(simple_pmi.o):
152In function `PMI_Init':
153simple_pmi.c:(.text+0x15c0): warning: Using 'gethostbyname' in statically
154linked applications requires at runtime the shared libraries from the glibc
155version used for linking
156
157
158POSSIBLE mars.sed
159
160s+ *../frame/module_internal_header_util.o ../frame/pack_utils.o
161-L../external/esmf_time_f90 -lesmf_time+& -L../mars_lmd/libo -llmd
162-Mmpi=mpich2+g
163
Note: See TracBrowser for help on using the repository browser.