280 likes | 427 Views
HPC ’11 Kellenek-e szupersz ámítógépek?. Máray Tamás NIIF Intézet. RICOMNET 201 1 konferencia. HPC. HPC = High Performance Computing Szuper számítástechnika Extrém nagy számítási teljesítmény Extrém nagy adatmennyiség Szuperszámítógépek. Mitől szuper a szuperszámítógép?.
E N D
HPC ’11Kellenek-e szuperszámítógépek? Máray Tamás NIIF Intézet RICOMNET 2011 konferencia
HPC HPC = High Performance Computing Szuperszámítástechnika Extrém nagy számítási teljesítmény Extrém nagy adatmennyiség Szuperszámítógépek
Mitől szuper a szuperszámítógép? • A hétköznapinál min. 2 nagyságrenddel nagyobb (sebesség, számítási teljesítmény, memória, háttértár) • Rendszerint speciális felépítést, párhuzamos architektúrát igényel • Speciális alkalmazásfejlesztési módszerek szükségesek
TOP500 lista • A világ 500 legerősebb számítógépe • www.top500.org • 19 éve vezetik • Évente 2x publikálják • Egységes teljesítménymérési módszer • Linpack benchmark • Teljesítményen kívül számos más fontos paraméter is
Teljesítmény adat: flop/sec (flops) • Tflop: billió (1012) számítási művelet (1,000,000,000,000) • 1 Tflop/sec = 1 billió művelet / másodperc • 1 Tflop/sec – mintha a Földön élő minden ember külön-külön 143 számítási műveletet elvégezne 1 másodperc alatt! • 1 Pflop/sec = 1000 Tflops = 1000 billió művelet/másodperc
Versenyfutás • Számítógép gyártók • Processzor gyártók • GPU gyártók • Országok és szuperszámítógép központok között • Teljesítmény, energiahatékonyság, ár
Miért kell mindez? • A kutatás-fejlesztés létszükségletévé vált – az innováció alapja! • Elmélet->modell->numerikus módszerek->eredmény • Gyakorlati kísérletek csak ezután következnek (mert drága, nehéz és lassú) • Versenyképes tudomány
Az európai válasz PRACE Stratégiailag kiemelt program, az eInfrastruktúra egyik alapja
PRACE • Európai HPC együttműködés • 100 mEuro nagyságrendű EU támogatás • Jelentős tagi önrész • PRACE 1IP, 2IP és 3IP projektek • Hierarchikus infrastruktúra • Összehangolt szolgáltatások • 6 db Tier-0 központ, Pflops kapacitással
És Magyarország? „Kétfajta kutató létezik: aki már használ szuperszámítógépet, és aki használni fog” Szabó Gábor akadémikus SZTE rektor
NIIF szuperszámítógép szolgáltatás – a kezdetek • 2001 • Sun E10k • 60 Gflops • SMP architektúra • 96 UltraSparc processzor • 48 GB memória • TOP500 (428.hely) • Upgrade több lépcsőben (utolsó 2009-ben) • Sun F15k • ~900 Gflops • 216 processzor (mag) • 400 GB memória
NIIF szuperszámítógép szolgáltatás • Kihasználtság: ~100% • Felhasználók: ~130 kutató csoport (projekt) • Felhasználási területek: kémia, fizika, biológia, csillagászat, geológia, informatika, matematika, orvostudomány, stb.
A szolgáltatás teljes megújítása • Igényfelmérés, tervezés (2009) • Tendereljárás (2010) • Megvalósulás (2011) • Főbb jellemzők • Több számítógép • Különböző architektúrák • Elosztott kialakítás (4 helyszín) • 2 nagyságrend teljesítménynövekedés
Helyszínek • Debreceni Egyetem • Pécsi Tudományegyetem • Szegedi Tudományegyetem • NIIF Intézet, Budapest
Pécs • SGI UltraViolet 1000 (UV) • ccNUMA („SMP”) architektúra • Intel Xeon Nehalem-EX processzorok • 10.5 Tflops • 1152 db core (2.66 GHz) • Numalink 5 interconnect • 6 TB memória • 500 TB diszk • Linux (egyetlen op. rendszer), SLES11 • Vízhűtéses rackek • Nvidia Quadro FX5800 alapú vizualizációs alrendszer (szerver)
Debrecen • SGI Altix ICE 8400 • Cluster architektúra • Intel Westmere-EP processzorok • 18 Tflops • 1536 db core (3.33 GHz) • Redundáns Infiniband QDR interconnect • 6 TB memória • 500 TB diszk (Lustre FS) • Linux SLES11 • Vízhűtéses rackek • Nvidia Quadro FX5800 alapú vizualizációs alrendszer (szerver)
Szeged • HP CP4000BL • Fat node cluster architektúra • AMD Opteron Magny-Cours processzor • 14 Tflops • 2112 db core (2.2 GHz) • 48 core/node (SMP node-ok) • Redundáns Infiniband QDR interconnect (mesh) • 5 TB memória • 240 TB diszk (Ibrix parallel FS) • Linux RHEL • Login node, admin node • Nvidia Quadro FX5800 alapú vizualizációs alrendszer (szerver)
Budapest • HP CP4000SL • Fat node cluster architektúra • AMD Opteron Magny-Cours processzor • 5 Tflops • 768 db core (2.2 GHz) • 24 core/node (SMP node-ok) • Redundáns Infiniband QDR interconnect • 2 TB memória • 50 TB diszk (Ibrix parallel FS) • Linux RHEL • Login node, admin node • Vízhűtéses rack
NIIF szuperszámítógép szolgáltatás • Összesített teljesítmény: ~50 Tflops • Dedikált optikai kapcsolatokra épülő HPC hálózat (HBONE+ alapon) • Óriási felhasználói érdeklődés • PRACE tagság • PRACE Tier-1 szint az európai infrastruktúrában • Bővítési tervek (rövid távon GPU kiegészítés, hosszú távon újabb központ) • Hatékony user support kialakítása
Köszönöm a figyelmet! Máray Tamás NIIF Intézet