230 likes | 324 Views
PN. Simulations Numériques. Réflexions -- Prospective du PNG ASSNA- 15 Décembre 2003. Notre place dans le monde. 3ème en Europe, après Allemagne et UK en performances 5ème mondial (USA, Japon). From Top500 de Nov 2003. Evolution des performances.
E N D
PN Simulations Numériques Réflexions -- Prospective du PNG ASSNA- 15 Décembre 2003
Notre place dans le monde 3ème en Europe, après Allemagne et UK en performances 5ème mondial (USA, Japon) From Top500 de Nov 2003
Evolution des performances IDRIS: Cray T3E, puis IBM Power 3, 4, NEC SX 5 Parmi les Top10: Earth Simulator by NEC est le num 1 (40 Teraflops) Perf = sum des 12 suivants! Cines: IBM Pow 3 2 SGI Origin Top15: 11 USA, 2 Japon, 1 Chine 1 France: CEA Bruyères le Chatel Compaq-HP 15ème place!
Algorithmes variés Ncorps pur t ~ N2 Grape: machine dédiée (PP) GRAPE-5 14 s/dt pour 128 000 particules ou Tree 106 part. Codes FFT, PM (particule-mesh) en N log N Codes en arbre en N log N (Barnes/Hut, GADGET..) Code P3M (PP-PM) et Adaptive P3M Couchman HYDRA Variante TPM pour Tree/Particle-Mesh, introduit par Xu (1995) incorpore à la partie PM un code en arbre pour la partie PP. Avec TPM, 109 particules (Bode et al 2000) – le record actuel
Algorithmes (suite) HPMpour Hierarchical Particle-MeshVillumsen 1989 ART pour Adaptive Refinement Tree Kravstov et al AMR Adaptive Mesh Refinement RAMSES (Teyssier 02) MLAPMde Knebe et al 2000, enzo de Bryan et al 2002 hydrodynamique + auto-gravité. Efficacité de la résolution de l'équation de Poisson sur des grilles + grande dynamique des sous-grilles. Voir sur NEMO une série d’algorithmes et de sites disponibles http://bima.astro.umd.edu/nemo/
Performances scalaires Test effectué sur une évolution de 5 Myr avec 100 000 particules stellaires et 20 000 particules de gaz en PMSPH (sans formation stellaire) avec les conditions initiales NGAA (H. Wozniak) ____________________________________________________ |machine | durée (min 19 steps) | durée par dt (sec) | |------------------------------------------------------------------------------| | NEC SX5 (Idris) en scalaire | 2.953 | 9.3 | |------------------------------------------------------------------------------| | DIGITAL EV 766 Mhz (LAM) | 2.824 | 8.9 | |------------------------------------------------------------------------------| | AMD-Athlon 1.4 Ghz (PC) | 2.158 | 6.8 | |------------------------------------------------------------------------------| | IBM SP3 Power 3 (Idris) | 1.616 | 5.1 | |------------------------------------------------------------------------------| | COMPAQ DS20E (LAM) | 1.119 | 3.5 |
Comparaison de divers codes/machines FFT 1283 utile (méthode de James), 360 000 particules (2 millions de cellules) + collisions de 150 000 particules 1sec CPU /dt sur la NEC SX5: 99.5% Vectorisation ratio Beam-scheme ou SPH, ~5sec/dt Polaire 2D (64 x 96) 100 000 + collisions 1sec/dt sur COMPAQ DS20E (scalaire) Tree-code 15-30sec, pour 100 000 part. en scalaire (DS20E) GADGET: performances comparables + parallélisation Simul cosmologique (Ninin-Sémelin) 500 000 particules de z=50 à z=4.3 4 processors= 8269s 8 proc= 4074 16 proc= 2887
BH86 FVFPS falcON FVFPS Nb of processors BH86, treecode Barnes/Hut, q = 0.8 falcON: Dehnen JCP 2002, 10xFaster and momentum-conserving C++ tree + FMM expansion FVFPS: Londrillo et al 2003 (F90 + MPI) q = q(M) min=0.5
Mémoire vive (RAM) La mémoire a beaucoup progressé aussi, les grosses simulations demandent des machines parallèles (mais le CPU aussi!) Pour les FFT 2563 0.13 Go 5123 1 Go (en Real*8, 64bits) 10 Tableaux ~100 Mo pour un million de particules 106 part 0.1 Go donc 107 particules possibles avec 1 Go Par proc aujourd'hui, il est courant d'avoir 4Go RAM (ex. AMD- Opteron, Alpha-servers...)
Equipes "galaxies" dans le monde USA Rutgers: Sellwood, Merritt et al. Grape6 + machine //, ou beowulf. Codes PM et N2 pour les AGN Hawaii: Barnes et al, TreeSPH Museum of Natural history (NY):PF: Grande concentration Grape6, surtout pour l’étude des amas globulaires. Piet Hut et al. Kentucky & Georgia Tech. Shlosman & Heller. PF : SPH. Couplage avec obs parties centrales des galaxies. Case Western Chris Mihos. PF: SPH, interactions Maryland: Peter Teuben: NEMO Santa-Cruz, Harvard: Hernquist, TreeSPH
CANADA CITA : Dubinski, O Neil et al PF : paralléllisme JAPON Hongo (Tokyo) : J. Makino, Y. Funato et al. Grapes +6 PF : très grande expérience grapes. Komaba (Tokyo) : Fukushige et al. Plusieurs Grapes Mitaka (Tokyo) : Wada et al. Surtout SPH. Concentration de grapes: 16 grape5, réparties sur 8 nœuds + système de grape6 Rieken (Tokyo) : Ebisuzaki, Kawai et al. Centre des grapes MD Noguchi Sendai, Habe Hokaido, Bekki, Hozumi, Kyoto etc.
AUSTRALIE Swinbourne commence ALLEMAGNE Potsdam : Steinmetz, Dehnen, Klessen et al. 8 grape5 sur 8 noeuds d'un beowulf, PF: cosmologie. Heidelberg MPI : Burkert, Naab et al. Grapes. 1 grape6, plusieurs grape5 et grape3. PF: Interactions et fusions de galaxies à disque, SPH, Kiel : Hensler, Theis, Kroupa, Harfst et al. 1 grape3. PF : chemodynamique. Heidelberg Rechen Institut : Spurzem et al. PF : Coll Manheim Munich: Springel et al GADGET Ukraine: Berczik et al. PF: galaxies naines
UK Cambridge : 1 grape6, surtout pour l’étude des amas globulaires. SUISSE Genève : Pfenniger, Revaz, et al. Grand Beowulf. PF : structure orbitale et en dynamique des galaxies barrées. Basel : Gerhard, Samland et al. PF: notre Galaxie. SPH, chemodyn Zurich: Lilly, Carollo, Moore et al: nouveau groupe (PNG-PNC) ESPAGNE Plusieurs beowulfs. Parmis eux Tarragone, Granada ITALIE Padova: Lia, Carraro et al PF: populations stellaires GRECE Athènes : Contopoulos, Patsis et al. grape3 PF:structure orbitale, chaos
Types de simulations « PNG » 1/ les codes type 'dynamique des galaxies'' (N corps, SPH, Hydro, ...) 2/ Synthèse de populations stellaires /évolutive 3/ hydro/transfert + physique atomique (noyaux actifs)
Type N-corps: France 1/ + formation stellaire "calibration spectro-photométrique et/ou chimique" (pas de réel feedback auto-cohérent) - Combes, Melchior, Bournaud, et al. - Wozniak & Michel-Dansac 2/ SSP + une dynamique simple Prantzos & Boissier 2/ + 3/ mais sans l'hydro Moy, Rocca & Fioc : PEGASE + CLOUDY (Rocca & Fioc : PEGASE 2 + diffusion poussières = transfert; public) 2/ + 3/ Moy & Englmaier : PEGASE + CLOUDY + SPH (en cours)
1/ N-corps + gaz + chemo Paris (Obs Paris, Meudon, CEA) Lyon (Obs + coll Genève?, Wozniak et al) Marseille (Athanassoula et al.) Strasbourg (Ibata, Boily, Pichon) Nice (code Hydra?) 2/ Synthèse de populations Paris (Charlot, Rocca, Moy, Fioc et al, PEGASE) Toulouse+Paris (Schaerer et al, Starburst+PHOTO) Besançon (Robin et al.), Meudon (Pelat et al) A l’interface avec PNC: Simulations hybrides + SAM Galics (Guiderdoni et al.), Multizooms (Semelin, Combes)
Prospective et besoins Orientations scientifiques à donner Thèmes à développer dans l'avenir? 1) Quantitatif plus de particules, plus de résolution 2) Qualitatif: explorer les phénomènes physiques Efforts à encourager: -- faut-il mettre plus de codes dans le domaine public? -- faut-il plus de coopérations entre groupes? -- faut-il des tâches de service (type CNAP?) -- postes fléchés? --aides: ingénieurs des centres nationaux?
Le Projet Horizon A l'interface avec le PNC, besoin d'une base de données de simulations lourdes Projet à mener comme une manip spatiale Les produits seraient accessibles à tous, afin de préparer les expériences (Herschel, ALMA, VLT, JWST, etc…) Projet de simulations de taille 100 fois supérieure à ce qui se fait actuellement: plus de dynamique, plus de physique Effort mis à la visualisation, l'exploitation, en tant que bases de données, et Observatoire Virtuel Teyssier, Colombi, Combes, Guiderdoni
Tâche de service CNAP liée à la modélisation numérique Tâches de service nouvelles: activités numériques directement reliées aux TGE à la fois en amont (préparation des instruments), puis à leur exploitation Mise à disposition de la communauté de codes numériques Ces codes comporteraient par exemple: logiciels de simulations à finalité astrophysique, Hydro et Transfert de Rayonnement, MHD, dynamique N-corps (TREE-SPH), de chimie quantique et de dynamique moléculaire spécifiques aux molécules d'intérêt astrophysique, etc.. Développés, mis à jour, documentés dans des centres spécialisés qui assureraient la portabilité, l'aide à l'utilisateur, sa formation (y compris en DEA, post-DEA), l'animation scientifique, etc..
Conclusions Depuis l'effort de prospective de 2002-2003 (Colle-sur-Loup Mars03) les chercheurs s'organisent, les équipes entreprennent des projets en commun, plus ambitieux Le matériel progresse (IDRIS, et aussi méso-équipement, MPOPM, fermes de PC jeunes équipes (ATIP) Réactions positives: dans un proche avenir, les équipes françaises pourraient revenir dans la compétition de haut niveau (avec postes nécessaires) couplage avec les grands instruments bases de données, OV