120 likes | 226 Views
Aspetti critici rete LAN e WAN per i Tier-2. R.Gomezel. Modello rete FARM. SAN. Rack_farm. STK Tape Library. Rack_farm. NAS. Caratteristiche collegamenti. Usare switch a 48 porte per ogni rack + numero uplink Porte 10/100/1000 rame per le unit à di calcolo
E N D
Modello rete FARM SAN Rack_farm STK Tape Library Rack_farm NAS
Caratteristiche collegamenti • Usare switch a 48 porte per ogni rack + numero uplink • Porte 10/100/1000 rame per le unità di calcolo • 1 porta 10 Gbit uplink al Core Switch (4 porte 10Gbit per sfruttare banda 1 Gbps della singola unità di calcolo) • in alternativa trunking di più porte a 1Gbit verso il Core Switch o di porte a 10Gbit • Core Switch • Porte a 10 Gbit per i disk server • In alternativa bonding di più porte Gbit dai disk server al Core Switch • Porta/e a 10Gbit per connettere switch di ogni rack • In alternativa trunking di più porte da ogni switch di rack • Porta per connetterlo al router della rete locale e accesso al GARR • se accesso max 1Gbit – sufficiente porta a 1 Gbit • Se 2.5 o maggiore • Porta a 10Gb o trunking di più porte a 1 Gbit
Suggerimenti • Disaccoppiare Core switch da switch level-3 o router che consente accesso alla rete locale sezione e alla rete geografica • Per evitare sovraccarico del traffico interno tra nodi farm, disk server e librerie di nastri sul core switch di sezione • Per evitare che attacchi DoS e problemi di sicurezza coinvolgano i nodi della FARM • Prevedere almeno la ridondanza nell’alimentazione degli apparati • Se possibili connettere i due alimentatori su differenziali diversi • Per garantire una migliore gestibilità degli apparati e nel caso del trunking che non ci siano problemi di compatibilità si suggerisce l’utilizzo di un vendor omogeneo per gli apparati del tier ( non è mandatorio ma consigliato)
Ridondanza Core Switch • Qualora il budget lo consentisse potrebbe avere senso ridondare lo switch di core • Vantaggi: • un risparmio sui costi della manutenzione • Soluzione fault tolerant in caso di problemi hw su un core switch • Svantaggi: • Costo duplicato iniziale per gli apparati • Duplicazione delle interfacce sui disk server e sugli switch di rack con relativo aumento dei costi
Osservazioni sui progetti Tier-2 presentati • CMS-Roma: • Scambiata BEA per BGA • il centro stella ha connessione diretta con la rete e svolge funzioni di switch tra disk server e switch di rack a 10Gbps • BGA: 200 Mbps – BEA: 1 Gbps • CMS-Pisa: • Generica descrizione centro stella e non della topologia • BGA: 200 Mbps – BEA: 1 Gbps -> 10Gbps
Osservazioni sui progetti Tier-2 presentati • ATLAS – Roma: • Non sono integrate le richieste con CMS per quanto riguarda banda accesso al GARR • Uso centro stella nella stessa topologia prevista da CMS • BGA: 1 Gbps – BEA: 10 Gbps • ATLAS –Napoli: • Centro stella Cisco 4006 80 porte (10/100 rame e 22 porte Gbit – 1 riservata per il Tier2) con rete locale sezione • Centro stella dedicato al Tier2 per connettere • Disk server – a 1 Gbit al centro stella • Rack di unità calcolo – switch 48 porte 10/100/1000 + uplink 10Gbit • Prevedono di avere inizialmente centro stella con porte a 1 Gb e in futuro di disporre di porte a 10Gb • Non viene indicata capacità trasmissiva link Tier2-router accesso GARR • BGA: 32Mbps – BEA: 64Mbps – a regime 1 Gbps (non si capisce perché nel 2006 BGA=BEA)
Osservazioni sui progetti Tier-2 presentati • ATLAS – Milano: • Topologia a stella a 2 livelli • Switch centro stella collegato a 1 Gb al router con accesso al GARR • Al centro stella a 10 Gbit connessi i disk server e gli uplink a 10 Gbit degli switch di rack • BGA: a crescere negli anni da 100 a 1Gbps – BEA sempre a 1 Gbps • Indicano banda richiesta per sezione con picchi a 25Mbps
Osservazioni sui progetti Tier-2 presentati • ATLAS – LNF: • Previsto acquisto nel 2006 switch centro stella con porte a 10Gbit per il Tier2 • A questo verranno connessi a 10Gbit i disk server e gli switch di rack a 48 porte • Fibra ottica tra la sede Tier2 e il POP GARR con 2 link a 2.5Gb/s • BGA: da 44Mbps a 1 Gbps BEA: da 96Mbps a 2.5 Gbps
Osservazioni sui progetti Tier-2 presentati • Tier2 integrato LNL (Alice + CMS): • Switch centro stella a 48 porte Gbit • A cui si connettono a 1 Gbit I disk server e con al massimo 4 uplink da 1Gbit gli switch di rack a 48 porte 10/100/1000 • Nel 2007 pensano di passare ad un backbone di 10Gbit • 4 uplink a 10Gb per ogni rack di CPU • 5 uplink da 10Gbit per ogni rack di dischi • Collegamento in fibra al router dei LNL che è a sua volta connesso in fibra al GigaPOP di PD • BGA: 100 Mbps – 1.2Gbps BEA: 1Gbps
Osservazioni sui progetti Tier-2 presentati • Tier-2 integrato BARI (Alice + CMS): • Switch centro stella con connessioni a 10 Gbit con i disk server e a 1 Gbit con le unità di calcolo • Non specificato uso di switch di rack • Indicata invece configurazione macchine in rete privata – mentre connettività con l’esterno garantita da una o più macchine gateway con indirizzo sia pubblico che privato • Collegamento tra LAN sezione e Tier2 con 2 fibre monomodali a da 1 a 10Gbps da installare (200m il percorso - ~3Keuro il costo) • BGA: da 16 Mbps a 1 Gbps BEA: da 100Mbps a 2.5 Gbps • Non è chiaro come evolve questa funzionalità di gw per colloquio rete pubblica e privata con l’evoluzione della rete del Tier2 (possibile collo di bottiglia e non chiaro come verrà gestito il NAT)
Osservazioni sui progetti Tier-2 presentati • ALICE – Catania: • Utilizzo di una fibra ottica indipendente per accesso al GARR • con backup del link della sezione INFN • Switch 3COM 7700R centro stella ridondato in alimentazione e intelligenza • 68 porte 10/100/1000 rame usate per connettere I disk server e gli uplink degli switch di rack; presenti 2 uplink in fibra per le connessioni al GigaPOP GARR e al router sezione Catania • I 10 Gbps esulano dal progetto Tier2 di Catania • BGA: da 600 Mps a 1 Gbps BEA: da 1 Gbps a 2.5Gbps • Perplessità sull’evoluzione delle necessità future e espandiblità dello switch utilizzato