dire que si pb il faut regradre les premiers pas de temps adapter runmeso pour les runs ideal et les ??? faire comme storm mais avec les pour eviter les recouvrements user manual il faut creer TMPDIR puis GCMINI WPSFEED WRFFEED actuellement 13min_si_Registry_modifie 15min_makemeso_moins_f 1min_phys_plus_dyn_chgtresol PD_SCALAR est T par defaut desormais !! il faudrait regler le prob du Registry dans le LES il y a un souci avec les variables liees a l'eau et d'autres ---anciennes notes lES sur gnome pb avec ideal.exe ## jusque 201 OK avec ideal.exe sequentiel ## ensuite il vaut mieux utiliser ## mpirun -n 4 ideal.exe ## le MP_STACK_SIZE est dans le bashrc concat.e puis localtime.e puis localtime.e (tres long) puis concatnc.e pour avoir en ls le resultat doit etre strider a 10... sinon bug affichage ncwa -O -v mtot,icetot -a longitude -d longitude,-179.0,179.0 diagfi.nc yeye.nc ncwa -O -v mtot -a longitude -d longitude,-180.0,180.0 concat_LT.nc mawd.nc (si trop gros faire ncrcat -v mtot -d Time,,,2 concat_LT.nc yorgl.nc) resumee --> localtime.e tres long --> concatnc.e en ls tres court --> renomme le fichier --> ncwa -O -v mtot,Time -a longitude -d longitude,-180.0,180.0 gcm_LT14_a035.nc mawd_a035.nc A FAIRE:::: mettre des flags precompilo dans les meso_ les reporter dans makegcm changer le renormalisation dans aeropacity ???? on ne laisse pas aerosol comme le lifting veut qu'il soit ! tenter des taux de soulevement pour que taudust_tmp soit les obs en prescivant une dust bomb fixe d opacite, on aura au moins la structure verticale tester traceurs radiativement actifs avec la nouvelle physique ????? A FAIRE: PB LES sur iDATAPLEX (les points HFX nuls) (pas de soucis sur ciclad) METTRE SUR LE svn LA BASE d'ETATS INITIAUX ???? more than 4 procs w/ nest ??? y reflechir ----------------------------------------------------------------------- -- si possible comment determiner taille ? nproc doit diviser e_we-1 (1er nest) grid_ratio doit diviser e_we-1 +4 (1er nest) soit e_we=ye+1 grid_ratio divise ye+4 et nproc divise ye soit nproc=8, ye=8*i ainsi il existe j tel que 8i + 4 = 3j ou encore 4*[2i+1] = 3j verifie par exemple si 2i+1 est multiple de 3 il suffit donc de trouver un multiple impair de 3 et de deduire i par exemple 2i+1=33 >>>> i=16 >>>> e_we = 129 pour le 1er nest (et ajouter 4 pour les suivants) ------------------------------------------------------------------------ ne pas utiliser le FASTCASE avec traceurs (instabilites en haut) ces instabilites sont cependant reglees si on augmente radt a 10 par exemple pour le cycle de l'eau c'est OK de regler caps=F dans le mesoscale sauf si on commence a devoiler la calotte permanente nord ---> corrige, scenario caps specifique au mesoscale NE SERAIT-CE PAS MIEUX DE TOUT TRANSMETTRE AUX BORNES ??? tous les traceurs, pas seulement vapor - attention il faut les trois MARS sinon il s arrete sans message clair - attention a ne pas lancer le modele s il est deja lance - important que pd_scalar soit a T ... le mettre par defaut ???? ROUTINES a AJOUTER sont dans COMMON_GCM - passer aux nouveaux makegcm [en commun avec Ehouarn si on veut le nouveau readtesassim qui est en F90] - il faut tester le nest pour verifier les lignes trop longues (ok) lier gr_fi_dyn qui est dans dyn3d (ok) regler le pb du nouveau readtesassim (ou alors le lier tout simplement ou l'appeler meso_readtesassim) (ok) regler le pb meso_dustlift (le lier dans makemeso comme point precedent) (car le souci c que dustlift est appele dans vdifc) RESTE a ADAPTER le LES a la NOUVELLE PHYSIQUE il y a normalement peu a faire reste a faire egalement le -DNEWPHYS pour le LES attention pb d'affichage des valeurs dans le fichier texte avec LES ??? bien que les valeurs du fichier soient tout a fait raisonnables ... n'est-ce pas un effet de bord cache ???? apres fusion, le LES est reconnu par module_lmd_driver lorsque diff_opt=2 km_opt=2 -attention PB si on ne sort pas HFX et USTM (note dans le Registry) -il faut run.def nouvelle physique [c est meme ce qui est utilise par runmeso] - IL FAUT SE PENCHER SUR LE FAIT QU'ON INDIQUE q2val=0 dans lmd_driver .... ----------------------- ATTENTION NOUVELLE PHYSIQUE Oui, c'est quelque chose qu'il faut probablement changer partout maintenant que la version de pgf90 à changé (sur les machines du LMD). Avec cette nouvelle version (7.1-6), le '-fast' est plus agressif qu'avant (et inclue entre autre les horribles '-Mvect=sse -Mscalarsse' qui dégradent la précision de certains calculs pour accélérer le code); je préconise de ne plus s'en servir. Bon d'accord, je n'ai pas fait une étude approfondie de l'impact de '-fast', mais j'ai vu qu'avec, j'obtenais des résultats différents lorsque je changeais simplement l'ordre des traceurs... Aymeric Spiga wrote: > je détecte ces changements d'option de compilation ; ont-ils de > l'importance ? > > Aymeric > > < # set optim90=" -fast" > < # set optimtru90=" -fast -c -Mfree " > < # set optim90=" -O2 -Munroll=c:1 -Mnoframe -Mcache_align" > < # set optimtru90=" -O2 -Munroll=c:1 -Mnoframe -Mcache_align" > < set optim90=" -O2 -Munroll -Mcache_align" > < set optimtru90=" -O2 -Munroll -Mcache_align" > --- > >> set optim90=" -fast" >> set optimtru90=" -fast -c -Mfree " ------------------------------ - attention a cp et R, normaliser une bonne fois pour toutes - il manque sur le SVN les cas idealises - il manque sur le SVN les scripts MPI - il faut recompiler les librairies NETCDF - mettre la nouvelle physique - mettre les DEF du meso-echelle - modele ok sur auric - modele pas ok sur ciclad avec pgf2010, erreur inedite un seul module manquant - modele LES OK sur ciclad - modele LES ok sur auric 24/01/2011 tests g95 en 64bits natif sur systeme Linux -- modifications de makemeso, tests -- tout est OK sauf les libraires NETCDF, probleme d'underscore -- OK avec libraires maison compilees avec g95 standard sur flores [et tourne OK] mpi_64_pgf7_ncdf4_mpi1.2.txt - probleme lors de la compilation de solve_em : LINUX runs out of memory [huchard] - IL FAUT COMPILER SUR auric nougaro est lent a la compilation, utiliser surtout auric ______________________________________________________ PB MPI /donnees/aslmd/MODELES/MPI/mpich2-1.2.1p1_PGF7/lib/libmpich.a(simple_pmi.o): In function `PMI_Init': simple_pmi.c:(.text+0x15c0): warning: Using 'gethostbyname' in statically linked applications requires at runtime the shared libraries from the glibc version used for linking /donnees/aslmd/MODELES/MPI/mpich2-1.2.1p1_PGF7/lib/libmpich.a(simple_pmi.o): In function `PMI_Init': simple_pmi.c:(.text+0x15c0): warning: Using 'gethostbyname' in statically linked applications requires at runtime the shared libraries from the glibc version used for linking /donnees/aslmd/MODELES/MPI/mpich2-1.2.1p1_PGF7/lib/libmpich.a(simple_pmi.o): In function `PMI_Init': simple_pmi.c:(.text+0x15c0): warning: Using 'gethostbyname' in statically linked applications requires at runtime the shared libraries from the glibc version used for linking /donnees/aslmd/MODELES/MPI/mpich2-1.2.1p1_PGF7/lib/libmpich.a(simple_pmi.o): In function `PMI_Init': simple_pmi.c:(.text+0x15c0): warning: Using 'gethostbyname' in statically linked applications requires at runtime the shared libraries from the glibc version used for linking POSSIBLE mars.sed s+ *../frame/module_internal_header_util.o ../frame/pack_utils.o -L../external/esmf_time_f90 -lesmf_time+& -L../mars_lmd/libo -llmd -Mmpi=mpich2+g