130 likes | 237 Views
Parc Nationale. Parc local L3M. Le Calcul Haute Performance au L3M – moyens locaux. Issus des programmes : Contrat de Plan Etat-Région; 1990-94 (1,9 MF) Contrat Région-Ville de Marseille; 1994-95 (1 MF) Acquisition d’un « cluster » i860
E N D
Parc Nationale Parc local L3M
Le Calcul Haute Performance au L3M – moyens locaux Issus des programmes : • Contrat de Plan Etat-Région; 1990-94 (1,9 MF) • Contrat Région-Ville de Marseille; 1994-95 (1 MF) • Acquisition d’un « cluster » i860 • Contrat Communautaire FEDER-RENAVAL (Ville de Marseille); pôle d'excellence technologique); 1995-96 (1,9 MF) • Acquisition d’une SGI SMP 6 processeurs • Acquisition d’un « cluster » Parsytec 4 processeurs • Contrat FEDER- Objectif2 (1,4 MF) • Acquisition d’un cluster AMD 25 Bi-processeurs
Calcul Haute Performance au L3M Le parc • SiliconGraphics Power-Challenge (6 processeurs R10000-196MHz; • iPSC/860 (8 processeurs i860; 320 Mflops 64 bits; 16 MO/ processeur) 1 GO RAM-SMP; 2MO cache / processeur); 8 GO DD. • G40 -IBM (4 processeurs PowerPC-604 ; 256 MO RAM-SMP ; 0.5 MO cache). • Parsytec CC System (4 processeurs PC-604; 32 MO RAM / processeur) • Sun E250 (2 processeurs UtraSparc; 400 Mflops 64 bits; 1GoRAM,16GoDD) • 3 SGI indigo2/extreme et octanes (128Mo RAM, 10 Go DD) • 2PC bi-pro pIII1K, et 4 P4 (1Go RAM, 2x20Go DD scsci et IDE)
Calcul Haute Performance au L3M L’environnement logiciel • Solveurs en Mécanique des Fluides • Nekton (pre/post) :I860, Sun(cross-comp);(E.Spect) • FIDAP (pre/post): SUN, SGI,IBM; (Meth El.finis) • FLUENT:SUN,SGI,IBM, Linux ; (Meth. Vol.finis) • Pre/Post Traitement • Gambit, Tgrid: SUN,IBM,SGI,Linux • FieldView : SGI, WinNT • DataExplorer : SUN, IBM • Les bibliothèques: • MPI,PVM • Blas, Lapack, Scalapack, FFT2D, FFT3D //
Calcul Haute Performance au L3M L’environnement logiciel (2) • Compilateurs • Suite HPc.v7 SGI: F77,F95,C++,Prof, dbg • Suite Forte6 SUN: F77,F95,C++,Prof, dbg • Compilateurs IBM: F77,C,Prof, dbg • Suite Motorola Parsytec : mcc,mf77,gdb, parix epx cross-compiler • Suite gnu sur toutes les machines
Calcul Haute Performance au L3M L’environnement logiciel (3) • Les systèmes d’exploitation • Solaris 7/8/PC et i860 « cube cross expl » • AIX4.3 • IRIX6.5 • Parix (epx) et AIX4.1 PowerPC • Unix/Sco et i860 « cube cross expl » • Linux Mandrake, Redhat.
Calcul Haute Performance au L3M L’environnement réseau • Matériel • Extreme Sumit1iTx (8x100/Giga ethernet) • Switchs 10/100 (HP) pour LAN et Cluster • Switch Gigabit (Pro1000HP) pour Cluster • Politique d’accès • Filtrage par listes d’accès • Protocoles ftp, telnet, http, ssh/scp
Le Calcul Haute Performance au L3M: Cluster FEDER • Dominique Fougère IR U-Méditérannée • Solange Fayolle IR U-Provence(fayolle@l3m.univ-mrs.fr) http://www-l3m.univ-mrs.fr/CHP
Chœur.l3m.univ-mrs.frConfiguration Matérielle • 27 AMD bi processeurs Athlon MP2K/1800+ • 17 cartes mère TYAN K7, AMD760MP (33MHz) • 10 cartes mère TYAN K7X, AMD760MPX (66MHz) • Processeur : 1.53 /1.66GHz, L2 cache : 256Kb • RAM : 1 et 2 Go DDR266 • 27 cartes 100Mbs (2 switch HP ,stack gigabit) • 22 cartes gigabit (switch HP1000) • 6 cartes SCI/Dolphin PCI-64 2D (2.5G) • 32 Disques Durs IDE (1200 tours)40 et 80 Go
Chœur.l3m.univ-mrs.frConfiguration Logicielle • Cluster CLIC (Mandrake9, k2.14) • CLIC: Administration du Cluster, Open-PBS • NFS, SSH, PVFS (en test) • Compilateurs PortlandGroup :pgf77, pgCC, pgcc, pgHPF, pgprof, pgdbg • Totalview : debugger // • LAM,PMICH,PVM (100Mbs,Gigabit) • Fluent, M-Implicit, FieldView, ATLAS
scali.l3m.univ-mrs.frConfiguration Logicielle • Cluster Scali (redhat7.3, k2.14) • Scali: Administration du Cluster, Scheduleur • SSH, PVFS (en test) • Compilateurs PortlandGroup :pgf77, pgCC, pgcc, pgHPF, pgprof, pgdbg • Scali-MPI (SCI, 2.5Gbps) • Fluent
Les perspectives de Grille au L3M • PPF 2004-2007 : « CHP sur une grille de Clusters ; modélisation et simulation numérique en Mécanique » • GRID@PACA • Grille Marseille-Lyon (L3M-Université Claude Bernard). • Grille franco-germano-russe (USM-FGR) • Grille US-L3M: Anciens doctorants en poste aux US;Indianapolis: A.Ecer(Nato Sc.Prog); Purdue University (Scheduler GRID développé par IPU)