250 likes | 467 Views
YÜKSEK ENERJI FİZİĞİ VE GRID Ramazan Sever ORTA DOĞU TEKNİK ÜNİVERSİTESİ ULUSAL GRID ÇALIŞTAYI 2005 21-22 Eylül 2005, Ankara. KONULAR. • LHC Çarpıştırıcısı • Grid ve Yüksek Enerji Fizği • Grid Yapılanması • Geleckteki durum . Bilgisayar Ağları, Grid ve Large Hadron Collider (LHC).
E N D
YÜKSEK ENERJI FİZİĞİ VE GRID Ramazan Sever ORTA DOĞU TEKNİK ÜNİVERSİTESİ ULUSAL GRID ÇALIŞTAYI 2005 21-22 Eylül 2005, Ankara
KONULAR • LHC Çarpıştırıcısı • Grid ve Yüksek Enerji Fizği • Grid Yapılanması • Geleckteki durum
Bilgisayar Ağları, Grid ve Large Hadron Collider (LHC)
LHC – the Large Hadron Collider 27 Km of magnetswith a field of 8.4 Tesla Super-fluid Heliumcooled to 1.9°K Two counter-circulating proton beams Collisionenergy 7 + 7 TeV The world’s largest super-conducting structure
CMS ATLAS LHCb 4 büyük dedektör Depolama – Veri Kayıt Hızı 0.1 – 1GByte/s Depolanan veri 10-14 PetaBytes/yıl ~ 20 milyon CD Gerekli İşlem gücü – En hızlı 100,000 kişisel bilgisayar
LHC DATA 1Megabyte(1MB)A digital Photo 1 Gigabyte(1GB) A DVD Movie 1 Terabyte(1 TB)=1000GB World Annual book production 1 Petabyte(1PB) Annual production of one LHC exp. 1 Exabyte(1EB)=1000 PB World annual Information production 40 million collisions per second After filtering, 100 collisions of interest per second A Megabyte of data digitised for each collision = recording rate of 0.1 Gigabyte/sec 10 to 10 collisions recorded each year =10 Petabytes/year of data
TİPİK BİR OLAY İlk Hali Son hali
Bilgi işlem zorlukları: Petabytes, Petaflops • Temel Zorluklar: • Uzaktan haberleşme ve işbirliği • Küresel veri ve bilgi işlem gücünün yönetilmesi • Ortak yazılım geliştirilmesi ve fiziksel analizler
Çözüm Daha önce birbirinden bağımsız çalışan bilgi işlem merkezlerinin artık bağlanarak birlikte çalışmalarının sağlanması. İşbirliği yapan kuruluşların bilgi işlem kaynaklarını da birleştirmeleri. Yani GRID Ağ Kapasitesi Merkezler arasında 10 - 40 Gbps bağlantılar
Grid Nedir? • World Wide Web yoluyla farklı coğrafyalardaki milyonlarca bilgisayarda bulunan bilgiye limitsiz ve sınırsız ulaşıyoruz • Dünya üstündeki bilgi işlem gücü ve veriye sınırsız ulaşmanın yolu olan yeni altyapının adıysa Grid’dir • Grid adı elektrik güç dağıtım sisteminden gelmektedir.
Grid Nedir? Kaynakların (işlem güçü, depo, veri...) esnek, güvenli, eşgüdümlü olarak, kişi ve kuruluşlar tarafından paylaşımı. Ortak hedeflere ulaşmak üzere çalışan grupların (sanal organizasyonlar), coğrafik olarak dağıtık kaynakları paylaşması; Bunu yaparken • Merkez • Merkezi kontrol • Herşeyi bilen kişiler • Güvene dayalı ilişkiler olmayacağını bilmesi.
HPSS HPSS HPSS LHC Data Grid Hierarchy CERN/Outside Resource Ratio ~1:2Tier0/( Tier1)/( Tier2) ~1:1:1 ~PByte/sec Online System 100-400 MBytes/sec Tier 0 +1 CERN 700k SI95 ~1 PB Disk; Tape Robot Tier 1: 10 GpsG HPSS • IN2P3 Center INFN Center FNAL: 200k SI95; 600 TB RAL Center Tier 2: 2.5/10 Gbps Tier2 Center Tier2 Center Tier 3: ~2.5 Gbps Institute ~0.25TIPS Institute Institute Physics data cache Tier 4: 0.1–1 Gbps Workstations Workstations
Lab m Uni x CERN Tier 1 Uni a UK USA Lab a France Tier 1 Tier3 physics department Uni n Tier2 ………. Italy CERN Tier 0 Desktop Lab b Germany ………. Lab c Uni y Uni b LHC Computing Model
Lab m Uni x Uni a CERN Tier 1 UK Lab a USA France Tier 1 Fizik Bölümü Uni n Tier2 Japan Italy CERN Tier 0 Germany ………. Lab b Lab c Uni y Uni b
Kullanım Modları • T1-T1 ve T1-T2 arasında arka plan veri değişimi – dağıtımı • Uç birimlerden T1 ve T2 merkezlerine verilen analiz işlerinde veri ve işlem gücü Kaotik ve talep üzerine • T0 dan T1’e veri transferi “Buffered real-time”
Bilgisayar ağ’ı altyapı hedefleri Ağ altyapısının grid uygulamalarına neredeyse saydam hale getirilmesi • Ne kadar başarılabilecek??? Yüksek hızlı Ağ (WAN) çalıştırılması (50-100 Gbps) Daha iyi LAN (WAN’dan daha hızlı?) Sınırsız LAN – WAN bağlantıları Firewall ne olacak??? Şu anda neredeyiz: bellekten belleğe: 6.5Gbps disk’ten disk’e: 400MB/s (Linux), 1.2MB/s (Windows 2003 server/NewiSys)
The LHC Computing Grid Project Two phases Phase 1 – 2002-04 • Development and prototyping • Approved by CERN Council 20 September 2001 Phase 2 –2005-07 • Installation and operation of the full world-wide initial production Grid
The LHC Computing Grid Project Phase 1 Goals – • Prepare the LHC computing environment • provide the common tools and infrastructure for the physics application software • establish the technology for fabric, network and grid management (buy, borrow, or build) • develop models for building the Phase 2 Grid • validate the technology and models by building progressively more complex Grid prototypes • operate a series of data challenges for the experiments • maintain reasonable opportunities for the re-use of the results of the project in other fields • Deploy a 50% model* production GRID including the committed LHC Regional Centres • Produce a Technical Design Report for the full LHC Computing Grid to be built in Phase 2 of the project
Funding of Phase 1 at CERN Funding for R&D activities at CERN during 2002-2004 partly through special contributions from member and associate states • Major funding – people and materials - from • United Kingdom – as part of PPARC’s GridPP project • Italy – INFN • Personnel and some materials at CERN also promised by – Austria, Belgium, Bulgaria, Czech Republic, France, Germany, Greece, Hungary, Israel, Spain, Switzerland • Industrial funding – CERN openlab • European Union – Datagrid, DataTag • Funded so far - all of the personnel, ~1/3 of the materials
Areas of Work Computing System • Physics Data Management • Fabric Management • Physics Data Storage • LAN Management • Wide-area Networking • Security • Internet Services Grid Technology • Grid middleware • Scheduling • Data Management • Monitoring • Error Detection & Recovery • Standard application services Applications Support & Coordination • Application Software Infrastructure – libraries, tools • Object persistency, data models • Common Frameworks – Simulation, Analysis, .. • Adaptation of Physics Applications to Grid environment • Grid tools, Portals Grid Deployment • Data Challenges • Integration of the Grid & Physics Environments • Regional Centre Coordination • Network Planning • Grid Operations