1 / 25

YÜKSEK ENERJI FİZİĞİ VE GRID Ramazan Sever ORTA DOĞU TEKNİK ÜNİVERSİTESİ ULUSAL GRID ÇALIŞTAYI 2005 21-22 Eylül 2005, An

YÜKSEK ENERJI FİZİĞİ VE GRID Ramazan Sever ORTA DOĞU TEKNİK ÜNİVERSİTESİ ULUSAL GRID ÇALIŞTAYI 2005 21-22 Eylül 2005, Ankara. KONULAR. • LHC Çarpıştırıcısı • Grid ve Yüksek Enerji Fizği • Grid Yapılanması • Geleckteki durum . Bilgisayar Ağları, Grid ve Large Hadron Collider (LHC).

cambria
Download Presentation

YÜKSEK ENERJI FİZİĞİ VE GRID Ramazan Sever ORTA DOĞU TEKNİK ÜNİVERSİTESİ ULUSAL GRID ÇALIŞTAYI 2005 21-22 Eylül 2005, An

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. YÜKSEK ENERJI FİZİĞİ VE GRID Ramazan Sever ORTA DOĞU TEKNİK ÜNİVERSİTESİ ULUSAL GRID ÇALIŞTAYI 2005 21-22 Eylül 2005, Ankara

  2. KONULAR • LHC Çarpıştırıcısı • Grid ve Yüksek Enerji Fizği • Grid Yapılanması • Geleckteki durum

  3. Bilgisayar Ağları, Grid ve Large Hadron Collider (LHC)

  4. LHC – the Large Hadron Collider 27 Km of magnetswith a field of 8.4 Tesla Super-fluid Heliumcooled to 1.9°K Two counter-circulating proton beams Collisionenergy 7 + 7 TeV The world’s largest super-conducting structure

  5. CMS ATLAS LHCb 4 büyük dedektör Depolama – Veri Kayıt Hızı 0.1 – 1GByte/s Depolanan veri 10-14 PetaBytes/yıl ~ 20 milyon CD Gerekli İşlem gücü – En hızlı 100,000 kişisel bilgisayar

  6. LHC DATA 1Megabyte(1MB)A digital Photo 1 Gigabyte(1GB) A DVD Movie 1 Terabyte(1 TB)=1000GB World Annual book production 1 Petabyte(1PB) Annual production of one LHC exp. 1 Exabyte(1EB)=1000 PB World annual Information production 40 million collisions per second After filtering, 100 collisions of interest per second A Megabyte of data digitised for each collision = recording rate of 0.1 Gigabyte/sec 10 to 10 collisions recorded each year =10 Petabytes/year of data

  7. TİPİK BİR OLAY İlk Hali Son hali

  8. Bilgi işlem zorlukları: Petabytes, Petaflops • Temel Zorluklar: • Uzaktan haberleşme ve işbirliği • Küresel veri ve bilgi işlem gücünün yönetilmesi • Ortak yazılım geliştirilmesi ve fiziksel analizler

  9. SORUNUN NEDENI VE SONUC

  10. Çözüm Daha önce birbirinden bağımsız çalışan bilgi işlem merkezlerinin artık bağlanarak birlikte çalışmalarının sağlanması. İşbirliği yapan kuruluşların bilgi işlem kaynaklarını da birleştirmeleri. Yani GRID Ağ Kapasitesi Merkezler arasında 10 - 40 Gbps bağlantılar

  11. Grid Nedir? • World Wide Web yoluyla farklı coğrafyalardaki milyonlarca bilgisayarda bulunan bilgiye limitsiz ve sınırsız ulaşıyoruz • Dünya üstündeki bilgi işlem gücü ve veriye sınırsız ulaşmanın yolu olan yeni altyapının adıysa Grid’dir • Grid adı elektrik güç dağıtım sisteminden gelmektedir.

  12. Grid Nedir? Kaynakların (işlem güçü, depo, veri...) esnek, güvenli, eşgüdümlü olarak, kişi ve kuruluşlar tarafından paylaşımı. Ortak hedeflere ulaşmak üzere çalışan grupların (sanal organizasyonlar), coğrafik olarak dağıtık kaynakları paylaşması; Bunu yaparken • Merkez • Merkezi kontrol • Herşeyi bilen kişiler • Güvene dayalı ilişkiler olmayacağını bilmesi.

  13. HPSS HPSS HPSS LHC Data Grid Hierarchy CERN/Outside Resource Ratio ~1:2Tier0/( Tier1)/( Tier2) ~1:1:1 ~PByte/sec Online System 100-400 MBytes/sec Tier 0 +1 CERN 700k SI95 ~1 PB Disk; Tape Robot Tier 1: 10 GpsG HPSS • IN2P3 Center INFN Center FNAL: 200k SI95; 600 TB RAL Center Tier 2: 2.5/10 Gbps Tier2 Center Tier2 Center Tier 3: ~2.5 Gbps Institute ~0.25TIPS Institute Institute Physics data cache Tier 4: 0.1–1 Gbps Workstations Workstations

  14. Lab m Uni x CERN Tier 1 Uni a UK USA Lab a France Tier 1 Tier3 physics department Uni n Tier2 ………. Italy CERN Tier 0 Desktop Lab b Germany ………. Lab c  Uni y Uni b   LHC Computing Model

  15. Lab m Uni x Uni a CERN Tier 1 UK Lab a USA France Tier 1 Fizik Bölümü Uni n Tier2 Japan Italy CERN Tier 0 Germany ……….  Lab b Lab c  Uni y Uni b 

  16. CPU GEREKSİNİMİ

  17. DİSK GEREKSİNİMİ

  18. TEYP GEREKSİNİMİ

  19. Kullanım Modları • T1-T1 ve T1-T2 arasında arka plan veri değişimi – dağıtımı • Uç birimlerden T1 ve T2 merkezlerine verilen analiz işlerinde veri ve işlem gücü Kaotik ve talep üzerine • T0 dan T1’e veri transferi “Buffered real-time”

  20. Bilgisayar ağ’ı altyapı hedefleri Ağ altyapısının grid uygulamalarına neredeyse saydam hale getirilmesi • Ne kadar başarılabilecek??? Yüksek hızlı Ağ (WAN) çalıştırılması (50-100 Gbps) Daha iyi LAN (WAN’dan daha hızlı?) Sınırsız LAN – WAN bağlantıları Firewall ne olacak??? Şu anda neredeyiz: bellekten belleğe: 6.5Gbps disk’ten disk’e: 400MB/s (Linux), 1.2MB/s (Windows 2003 server/NewiSys)

  21. The LHC Computing Grid Project Two phases Phase 1 – 2002-04 • Development and prototyping • Approved by CERN Council 20 September 2001 Phase 2 –2005-07 • Installation and operation of the full world-wide initial production Grid

  22. The LHC Computing Grid Project Phase 1 Goals – • Prepare the LHC computing environment • provide the common tools and infrastructure for the physics application software • establish the technology for fabric, network and grid management (buy, borrow, or build) • develop models for building the Phase 2 Grid • validate the technology and models by building progressively more complex Grid prototypes • operate a series of data challenges for the experiments • maintain reasonable opportunities for the re-use of the results of the project in other fields • Deploy a 50% model* production GRID including the committed LHC Regional Centres • Produce a Technical Design Report for the full LHC Computing Grid to be built in Phase 2 of the project

  23. Funding of Phase 1 at CERN Funding for R&D activities at CERN during 2002-2004 partly through special contributions from member and associate states • Major funding – people and materials - from • United Kingdom – as part of PPARC’s GridPP project • Italy – INFN • Personnel and some materials at CERN also promised by – Austria, Belgium, Bulgaria, Czech Republic, France, Germany, Greece, Hungary, Israel, Spain, Switzerland • Industrial funding – CERN openlab • European Union – Datagrid, DataTag • Funded so far - all of the personnel, ~1/3 of the materials

  24. Areas of Work Computing System • Physics Data Management • Fabric Management • Physics Data Storage • LAN Management • Wide-area Networking • Security • Internet Services Grid Technology • Grid middleware • Scheduling • Data Management • Monitoring • Error Detection & Recovery • Standard application services Applications Support & Coordination • Application Software Infrastructure – libraries, tools • Object persistency, data models • Common Frameworks – Simulation, Analysis, .. • Adaptation of Physics Applications to Grid environment • Grid tools, Portals Grid Deployment • Data Challenges • Integration of the Grid & Physics Environments • Regional Centre Coordination • Network Planning • Grid Operations

More Related