330 likes | 445 Views
Computing in der Hochenergiephysik Von der N or D zum Grid. Rainer Mankel DESY Hamburg. Dortmund, 30-Nov-2002. Ü bersicht. Die Vergangenheit: ruhe sie in Frieden. Die Gegenwart. Computing eines Collider-Experiments. Wie man Commodity Hardware z ä hmt. Massenspeicher im Petabyte-Bereich.
E N D
Computing in der Hochenergiephysik Von der NorD zum Grid Rainer Mankel DESY Hamburg Dortmund, 30-Nov-2002 R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik
Übersicht Die Vergangenheit: ruhe sie in Frieden... Die Gegenwart • Computing eines Collider-Experiments • Wie man Commodity Hardware zähmt • Massenspeicher im Petabyte-Bereich • Internet-fähige Kollaborationsanwendungen Die Zukunft auf dem Grid R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik
Computing an der UniDo vor 25 Jahren • Eine IBM/370 mit 20 interaktiven Terminals(Time Sharing Option) • Hollerith-Lochkartenstanzung in einer kryptischen Jobkontrollsprache (JCL) • Lochkarten-Kurierservice (1x taeglich) zum Dispatcher im “AVZ” • Turnaround 1-2 Tage Lochkarte Wann konnte man nach Hause gehen? • Wenn man kein “privilegiertes” Terminal reserviert hatte • Wenn der Kurier für heute schon weg war • Wenn die paar kByte Filespace vollwaren (also eigentlich immer...) Taschenrechner R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik
Beginn einer Aera: die Nord... • Ein komplettes Mainframe-System (!) für zwei Lehrstühle • Betriebssystem SINTRAN-III • Editor “MOPS” • 2 Wechselplattenlaufwerke • 2 Magnetbandlaufwerke (6250 dpi) • CPU Leistung eines ND-500 Prozessors entspricht etwa der eines Intel 486DX4-Prozessors R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik
Die ND (cont’d) geballte 300 MB Plattenspeicher ermöglichen neueste Physikresultate R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik
Schreibringe Cut & Paste Der Terminalraum: Ort des Dialogs • Wer früh aufsteht, bekommt das Fullscreen-Terminal... • Tippen bis der Wachhund kommt Wann konnte man nach Hause gehen? • Bei “FATAL ERROR FROM SWAPPER” • Wenn “NERO” oder “Messerli” die Maschine komplett blockierten • Wenn das Wechselplattenlaufwerk im laufenden Betrieb geöffnet worden war R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik
DESY-Computing anno Dazumal Wann konnte man nach Hause gehen? • Wenn die DESY IBM abstürzte • Wenn jemand die 3270-Emulator-Diskette zum Atari verschlampt hatte • Wenn jemand aus dem Experiment schon morgens (!) das CPU-Tagesbudget verprasst hatte • MVS3, Newlib, IPS Grafik System, Ataris mit IBM-3270-Emulation... R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik
Tape storage incr. 20-40 TB/year MC production Data processing/ reprocessing Data mining Disk storage 3-5 TB/year ~450 Users Computing in der Hochenergiephysik heute O(1 M) detector channels 50 M 200 M Events/year Interactive Data Analysis R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik
Mainframe, SMP Commodity hardware DM, Lit, Pta, ... Technologien: Generelle Übergänge IRIX, HP-UX, … R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik
Vom SMP Cluster zur PC Farm • SGI Challenge XL Maschinen haben ausgedient, z.B. bei ZEUS im Frühjahr 2002 • Vendor-Systeme unwirtschaftlich Commodity Komponenten R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik
Heute: PC Farmen R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik
Rekonstruktion mit modernen Farmen 3 M 2 M Events/day Rekonstruierte Ereignisse (pro Tag) 1.5 M 450 k R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik
Die zweite Säule: Monte Carlo • Klassische Domäne der Universitäten • im Falle H1 besonders von einer... • Auch MC-Produktion profitiert von Commodity Komponenten (nach Zahlen von D. Lüke) R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik
Commodity Computing: Fluch & Segen • HERA-Experimente verwenden ca. 100 Farm-PCs pro Experiment • ca. 500 Farm-PCs bei DESY-HH • Typische “Lebensdauer” 3-4 Jahre • 1999: 350 MHz 2002: Dual 2.2 GHz • Sehr wichtig: • Hardware-Installationssupport • Linux-Support • Konsolzugang • Konfigurationspflege • Daß PC-Spiele und HEP-Analyseprogramme dieselbe Hardware benutzen, ist vermutlich nur ein Zwischenstadium • 1U-Server ? • Systemlösungen? • Was kommt nach Linux? R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik
Zum Vergleich: Fermilab • Fermilab hat im September auf einen Schlag 434 PCs geliefert bekommen • beachtliche logistische Herausforderung: was tun wenn der Laster kommt? • wohin mit all den Kartons („Burn-in Phase“), wo einstöpseln? • Abwärme • Verdoppelt die Zahl der Einheiten (bei gleichbleibendem Personalstand) • Auch wir müssen lernen, wie man wirklich große Systeme unterstützen kann R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik
Commodity File Server • Geänderte Paradigmen: Vergrößerung desPlattenspeichers reduziert Zahl der Zugriffe auf die Tape Library • ZEUS Disk Space (Ereignisdaten): • Anfang 2000: 3 TB davon FC+SCSI: 100% • Mitte 2001: 9 TB 67% • Mitte 2002: 18 TB 47% • Notwendiges Wachstum war in der Form nur mit Commodity Komponenten möglich • Commodity Komponenten benötigen ein „Fabric“ das Ausfälle abfedert R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik
“The mass storage system is fundamental to the success of theexperiment” – Ian Bird at CHEP01 in Beijing R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik
Massenspeicher • HERA-II wird mit 1 fb-1 integrierter Luminosität in den Petabyte-Bereich vorstoßen • DESY benutzt 4 STK Powderhorn Tape Silos (miteinander verbunden) • neue Medien bieten 200 GB pro Kassette (statt 20 GB) • Zugriffszeiten im Bereich < 1 min R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik
Haben Magnetbänder eine Zukunft? • Tape • 100 $ pro Cartridge (200 GB), 5000 Cartridges pro Silo • 100 k$ pro Silo • 30 k$ pro Laufwerk (typische Anzahl: 10) • 0.9 $ / GB • Disk • 8 k$ pro DELFI2 Server (1 TB) • 8 $ / GB • Beide Medien profitieren von Erhöhung der Schreibdichte • An dieser Relation wird sich in näherer Zukunft nicht viel ändern • optimaler Einsatz von Platten als Cache • transparenter File-Zugriff (nach V. Gülzow) R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik
Ein Cache in einem Cache in einem Cache Zugriffszeit Klassisches Bild CPU 10-9 s Primary Cache 2nd Level Cache Memory Cache Disk Controller Cache 10-3 s Disk Tape Library 102 s R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik
“All-Cache” Philosophie CPU • Disk files sind nur Cache-Images von Dateien in der Tape Library • Zugriff über einen einheitlichen Pfad, unabhängig vom Namen des Servers • optimierte I/O Protokolle Primary Cache 2nd Level Cache Memory Cache Disk Controller Cache Fabric Disk Cache Tape Library R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik
Tape Library d C a c h e HSM Distributed disk cache servers Analysis platform Physicists R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik
Tape Library HSM Distributed disk cache servers d C a c h e Analysis platform • Eingebaute Redundanz auf allen Ebenen • Bei Ausfall eines Cache Servers erfolgt automatisches Staging des angefordertes Files auf einen anderen Server (unterbrechungsfrei) R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik
Analysesoftware für Kollaborationen • Immer wichtiger werden Applikationen, die die Datenanalyse über das Internet hinweg ermöglichen & die beteiligten Institute besser vernetzen. • Ziel: Unterschiede in der Arbeitsumgebung zwischen Beschleunigerlabor und beteiligten Instituten verschwinden Beispiel: neues ZEUS Event Display“ZeVis” Idee: Internet-basierter Zugriff auf ein beliebiges von 200 Millionen Ereignissen innerhalb von Sekunden (z.B. von Bonn, Toronto, Tsukuba...) Volle Integration von 2D und 3D Grafik R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik
ZeVis: Grafisches Interface R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik
event request ZeVis server experiment data (zevis01) ApacheHTTP server dCache commonHTTPrequest method z2root /data raw2root zesagent ZES .root file cache ZeVis: Client-Server Konzept ZeVis client application R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik
Internet-basierter Zugriff auf Online-Events downscaled event stream O(0.1 Hz) Latency O(1 min) R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik
Verallgemeinerung: Grid-Computing • Logische Fortsetzung des “World Wide Web” R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik
Eine Lösung und ihr Problem? Datenmengen bei LHC R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik
LHC (Forts.) • CERN wird die Resourcen für die Rekonstruktion der Rohdaten bereitstellen, aber nur einen kleinen Teil der Analysekapazität • Ausweg: Tier-Zentren (MONARC-Modell) • Grid-Technologie R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik
Monte Carlo Produktion a la Grid starke Ähnlichkeit mit ZEUS/Funnel... aber: Middleware Industriestandard R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik
Datenanalyse a la Grid • “Die kBytes zu den PBytes bringen und nicht umgekehrt” R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik
Zusammenfassung • Die rasanten technischen Fortschritte im Bereich der Computing-Technologie sind eine wesentliche Voraussetzung für den Erfolg in der Hochenergiephysik • Commodity-Komponenten machen Leistung erschwinglich, benötigen aber ein spezielles “Fabric” mit viel Redundanz, um zuverlässig betrieben werden zu können • Die Standards bei der Physikanalyse bzgl Geschwindigkeit und Zuverlässigkeit sind erheblich gestiegen • Das Grid wird den Computing-Bereich weiter revolutionieren, auch über die Hochenergiephysik hinaus Wann wird man nach Hause gehen können? • wenn der Resource-Broker überlastet ist • wenn das eigene VO-Zertifikat abgelaufen ist • wenn das Tier-Zentrum aufgrund einer DoS-Attacke lahmgelegt ist ... R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik