source: trunk/mesoscale/NOTES.txt @ 90

Last change on this file since 90 was 90, checked in by aslmd, 14 years ago

mars: similaire a r89, mais [sorry] remplissage de mars/README oublie... maintenant retabli proprement

File size: 6.3 KB
Line 
1
2
3ncwa -O -v mtot,icetot -a longitude -d longitude,-179.0,179.0 diagfi.nc yeye.nc
4
5
6
7A FAIRE:::: mettre des flags precompilo dans les meso_
8les reporter dans makegcm
9
10changer le renormalisation dans aeropacity ????
11on ne laisse pas aerosol comme le lifting veut qu'il soit !
12tenter des taux de soulevement pour que taudust_tmp soit les obs
13en prescivant une dust bomb fixe d opacite, on aura au moins la structure verticale
14
15        tester traceurs radiativement actifs avec la nouvelle physique ?????
16
17A FAIRE: PB LES sur iDATAPLEX (les points HFX nuls) (pas de soucis sur ciclad)
18METTRE SUR LE svn LA BASE d'ETATS INITIAUX ????
19
20more than 4 procs w/ nest ??? y reflechir
21        -----------------------------------------------------------------------
22        -- si possible comment determiner taille ?
23        nproc doit diviser e_we-1 (1er nest)
24        grid_ratio doit diviser e_we-1 +4 (1er nest)
25        soit e_we=ye+1
26        grid_ratio divise ye+4 et nproc divise ye
27        soit nproc=8, ye=8*i
28        ainsi il existe j tel que 8i + 4 = 3j ou encore 4*[2i+1] = 3j
29        verifie par exemple si 2i+1 est multiple de 3
30        il suffit donc de trouver un multiple impair de 3 et de deduire i
31        par exemple 2i+1=33 >>>> i=16
32        >>>> e_we = 129 pour le 1er nest (et ajouter 4 pour les suivants)
33        ------------------------------------------------------------------------
34
35        ne pas utiliser le FASTCASE avec traceurs (instabilites en haut)
36            ces instabilites sont cependant reglees si on augmente radt a 10 par exemple
37
38        pour le cycle de l'eau c'est OK de regler caps=F dans le mesoscale
39        sauf si on commence a devoiler la calotte permanente nord
40        ---> corrige, scenario caps specifique au mesoscale
41
42        NE SERAIT-CE PAS MIEUX DE TOUT TRANSMETTRE AUX BORNES ???
43        tous les traceurs, pas seulement vapor
44
45
46        - attention il faut les trois MARS sinon il s arrete sans message clair
47        - attention a ne pas lancer le modele s il est deja lance
48        - important que pd_scalar soit a T ... le mettre par defaut ????
49
50
51ROUTINES a AJOUTER sont dans COMMON_GCM
52- passer aux nouveaux makegcm [en commun avec Ehouarn si on veut le nouveau
53  readtesassim qui est en F90]
54- il faut tester le nest pour verifier les lignes trop longues
55
56        (ok) lier gr_fi_dyn qui est dans dyn3d
57        (ok) regler le pb du nouveau readtesassim (ou alors le lier tout simplement ou
58          l'appeler meso_readtesassim)
59        (ok) regler le pb meso_dustlift (le lier dans makemeso comme point precedent)
60             (car le souci c que dustlift est appele dans vdifc)
61
62        RESTE a ADAPTER le LES a la NOUVELLE PHYSIQUE
63        il y a normalement peu a faire
64        reste a faire egalement le -DNEWPHYS pour le LES
65
66        attention pb d'affichage des valeurs dans le fichier texte avec LES ???
67        bien que les valeurs du fichier soient tout a fait raisonnables
68        ... n'est-ce pas un effet de bord cache ????
69
70
71        apres fusion, le LES est reconnu par module_lmd_driver lorsque diff_opt=2 km_opt=2
72
73
74        -attention PB si on ne sort pas HFX et USTM (note dans le Registry)
75        -il faut run.def nouvelle physique [c est meme ce qui est utilise par runmeso]
76        - IL FAUT SE PENCHER SUR LE FAIT QU'ON INDIQUE q2val=0 dans lmd_driver ....
77
78-----------------------
79ATTENTION NOUVELLE PHYSIQUE
80Oui, c'est quelque chose qu'il faut probablement changer partout
81maintenant que la version de pgf90 à changé (sur les machines du LMD).
82Avec cette nouvelle version (7.1-6), le '-fast' est plus agressif
83qu'avant (et inclue entre autre les horribles '-Mvect=sse -Mscalarsse'
84qui dégradent la précision de certains calculs pour accélérer le code);
85je préconise de ne plus s'en servir. Bon d'accord, je n'ai pas fait une
86étude approfondie de l'impact de '-fast', mais j'ai vu qu'avec,
87j'obtenais des résultats différents lorsque je changeais simplement
88l'ordre des traceurs...
89
90Aymeric Spiga wrote:
91> je détecte ces changements d'option de compilation ; ont-ils de
92> l'importance ?
93>
94> Aymeric
95>
96> < #   set optim90=" -fast"
97> < #   set optimtru90=" -fast -c -Mfree "
98> < #   set optim90=" -O2 -Munroll=c:1 -Mnoframe -Mcache_align"
99> < #   set optimtru90=" -O2 -Munroll=c:1 -Mnoframe -Mcache_align"
100> <    set optim90=" -O2 -Munroll -Mcache_align"
101> <    set optimtru90=" -O2 -Munroll -Mcache_align"
102> ---
103>   
104>>    set optim90=" -fast"
105>>    set optimtru90=" -fast -c -Mfree "
106------------------------------
107
108
109        - attention a cp et R, normaliser une bonne fois pour toutes
110        - il manque sur le SVN les cas idealises
111- il manque sur le SVN les scripts MPI
112        - il faut recompiler les librairies NETCDF
113        - mettre la nouvelle physique
114        - mettre les DEF du meso-echelle
115
116        - modele ok sur auric
117- modele pas ok sur ciclad avec pgf2010, erreur inedite un seul module manquant
118        - modele LES OK sur ciclad
119        - modele LES ok sur auric
120
121        24/01/2011
122        tests g95 en 64bits natif sur systeme Linux
123        -- modifications de makemeso, tests
124        -- tout est OK sauf les libraires NETCDF, probleme d'underscore
125        -- OK avec libraires maison compilees avec g95 standard sur flores [et tourne OK]
126
127
128
129        mpi_64_pgf7_ncdf4_mpi1.2.txt
130        - probleme lors de la compilation de solve_em : LINUX runs out of memory [huchard]
131        - IL FAUT COMPILER SUR auric
132        nougaro est lent a la compilation, utiliser surtout auric
133
134
135
136
137______________________________________________________
138
139
140PB MPI
141/donnees/aslmd/MODELES/MPI/mpich2-1.2.1p1_PGF7/lib/libmpich.a(simple_pmi.o):
142In function `PMI_Init':
143simple_pmi.c:(.text+0x15c0): warning: Using 'gethostbyname' in statically
144linked applications requires at runtime the shared libraries from the glibc
145version used for linking
146/donnees/aslmd/MODELES/MPI/mpich2-1.2.1p1_PGF7/lib/libmpich.a(simple_pmi.o):
147In function `PMI_Init':
148simple_pmi.c:(.text+0x15c0): warning: Using 'gethostbyname' in statically
149linked applications requires at runtime the shared libraries from the glibc
150version used for linking
151/donnees/aslmd/MODELES/MPI/mpich2-1.2.1p1_PGF7/lib/libmpich.a(simple_pmi.o):
152In function `PMI_Init':
153simple_pmi.c:(.text+0x15c0): warning: Using 'gethostbyname' in statically
154linked applications requires at runtime the shared libraries from the glibc
155version used for linking
156/donnees/aslmd/MODELES/MPI/mpich2-1.2.1p1_PGF7/lib/libmpich.a(simple_pmi.o):
157In function `PMI_Init':
158simple_pmi.c:(.text+0x15c0): warning: Using 'gethostbyname' in statically
159linked applications requires at runtime the shared libraries from the glibc
160version used for linking
161
162
163POSSIBLE mars.sed
164
165s+ *../frame/module_internal_header_util.o ../frame/pack_utils.o
166-L../external/esmf_time_f90 -lesmf_time+& -L../mars_lmd/libo -llmd
167-Mmpi=mpich2+g
168
Note: See TracBrowser for help on using the repository browser.