1 / 12

Point sur l'utilisation des moyens de calcul à court terme et stratégie à moyen terme

Point sur l'utilisation des moyens de calcul à court terme et stratégie à moyen terme. Marie-Alice Foujols Pôle de modélisation du climat IPSL. Parallélisme. Parallélisation MPI pour LMDZ/Orchidee OpenMP sur la verticale : à incorporer dans la référence du couplé

Download Presentation

Point sur l'utilisation des moyens de calcul à court terme et stratégie à moyen terme

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Point sur l'utilisation des moyens de calcul à court terme et stratégie à moyen terme Marie-Alice Foujols Pôle de modélisation du climat IPSL

  2. Parallélisme • Parallélisation MPI pour LMDZ/Orchidee • OpenMP sur la verticale : à incorporer dans la référence du couplé • Parallélisation MPI possiblepour NEMO • Machines cibles : • Vectoriel et parallélisme modéré o(10), MPI : Mercure (NEC SX-8R et SX-9), Brodie (NEC SX-8) • Scalaire SMP parallélisme massif o(100) : Platine/Titane (BULL), vargas (IBM), performances améliorées mixte MPI/OpenMP Extrait du cours sur le modèle coupléversion novembre 2009

  3. Performances pour 10 ans – octobre 2009

  4. Performances pour 10 ans – janvier 2010 • Modifications récentes du modèle : • Mise à jour aérosols et ozone troposphérique • Ajout ozone stratosphérique • Optimisations NEC, efficaces sur SX9 et … SX8

  5. Parallélisme O(10-100) • 3 exécutables parallèles, MPI • Modèle couplé OK : • NEC SX : mercure, brodie • IBM vargas (depuis été 2009) • Bull platine (depuis 2008) • Expériences internationales, plus hautes résolutions : • MareNostrum (A. Caubel, 3 mois en 2009, HPC-Europa) • Cohabitation OpenMP/MPI non gérée par l’OS • ES/ES2 - Yokohama en décembre 2009 : • Expérience sur le ES : 186 procs sur ES (6 oasis, 57 orca025 et 120 echam T319 (1/3°)) • Expérience sur le ES2 : 32 procs max et … trop d’attente sur ES2 • Les composantes seules : • NEMO : bench PRACE, grand challenge CINES • LMDZ : OpenMP/MPI sur Bull titane • IBM babel : trop peu de mémoire par processeur pour LMDZ

  6. NEMO : 752x502x31

  7. NEMO ORCA12 : 4322x3059x50 Découpage avec suppressiondes continents : 90x14=1000 27x38=800

  8. LMDZ sur titane Mixte OpenMP/MPI 96x95x39 avec/sans aérosols

  9. LMDZ sur titane Mixte OpenMP/MPI 96x95x39 et 144x142x39 sans aérosols

  10. Parallélisme O(1000-10000) • On y travaille … aussi • OK avec simulations courtes et (très) haute résolution, composantes seules • Besoin de travail pour simulations plus longues, en couplé et résolutions ad hoc : • nouvelle dynamique, nouveau maillage : sans filtre et points singuliers, • IO déportées (IO server), • coupleur oasis(4), … • Attention aux spécificités des machines : besoin d’anticiper • Voir demande CEA + CNRS • Coopération internationale : Isenes • Support Oasis3 et 4 en octobre 2009 • Coopérations sur les IO 

  11. Les autres groupes internationaux • Toutes les équipes sont concentrées sur CMIP5 • Toutes les équipes ont renouvelé récemment leurs calculateurs : • MetOffice, UK : IBM, 125 Tflops, 1Pflops en 2011 • DKRZ, D : IBM, 158 Tflops • CMCC, I : IBM, 1000 procs, 18 Tflops, NEC SX9, 112 procs, 11 Tflops • Enjeux sur les données : • description des modèles et des résultats : questionnaire Metafor, CIM, … • diffusion des données : multisites, ESG, • Prodiguer : • Distribution depuis centres producteurs : CCRT et IDRIS, … • Distribution depuis IPSL, Météo-France, Cerfacs

More Related