410 likes | 614 Views
Linux sui sistemi dell’Università di Palermo. Massimo Tartamella [ max@unipa.it ]. Palermo – 22 e 23 novembre 2002. Indice. Cronologia degli eventi rilevanti Infrastruttura della rete universitaria I Server di rete Il progetto GARR-B per l’Università di Palermo Firewall, IDS, …
E N D
Linux sui sistemi dell’Università di Palermo Massimo Tartamella [max@unipa.it] Palermo – 22 e 23 novembre 2002
Indice • Cronologia degli eventi rilevanti • Infrastruttura della rete universitaria • I Server di rete • Il progetto GARR-B per l’Università di Palermo • Firewall, IDS, … • Open Mosix: cluster per il calcolo distribuito • LVS (Linux Virtual Server): cluster per il bilanciamento dei servizi di rete
Approccio a Linux e progetto di una rete metropolitana e geografica finanziata dal MURST • Febbraio 2000: “Sviluppo della rete nazionale della ricerca (rete GARR-B)”: • potenziamento reti regionali (18 milioni di Euro) • Formazione specialisti di rete (2 milioni di Euro) • Dicembre 2000: migrazione dei servizi web, posta elettronica e autenticazione RADIUS per i 90 accessi analogici/ISDN • Gennaio 2001: implementazione di un Log Server e MRTG server • Giugno 2001: Server Linux distribuiti con funzioni di file server con SAMBA e proxy server con Squid • Ottobre 2001: backup centralizzati con rsync, mirrordir, wget, … • Febbraio 2002: implementazione di Firewall con Iptables • Giugno 2002: implementazione di antivirus mail server • Luglio 2002: sistemi IDS • Agosto 2002: avvio formazione specialisti di rete (12 allievi + tutor) - Cluster MOSIX, LVS e programmazione SQL/PHP • Novembre 2002: installazione del mainframe IBM Z800 con sistema operativo Z/VM e Linux • Novembre/Dicembre 2002: installazioni ponti laser, nodi ATM, switch/router a 1000 Mbps, 25 server di rete biprocessore, firewall, ids e log server
Infrastruttura di rete attuale Parco d’Orleans, Ist. Di Fisica (c/o Oss. Astr.), Ist. Di Radiologia (Policlinico), Rettorato e via Archirafi • 2 link a 1000 Mbps • 5 link a 100 Mbps via ponti ottici (tecnologia laser) • 15 link a 11 Mbps via radio frequenza a 2,4 GHz • 25 Link a 100 Mbps Tecnologia di rete adottata • Fast Ethernet (100 Mbps) • Gigabit Ethernet (1Gbps) • IEEE 802.11b, wireless ethernet (11 Mbps)
Infrastruttura di rete a breve Parco d’Orleans, Ist. Di Fisica (c/o Oss. Astr.), Ist. Di Radiologia (Policlinico), Rettorato e via Archirafi • 25 Link a 1000 Mbps • 5 link a 155 Mbps via ponti ottici • 15 link a 11 Mbps via radio a 2,4 GHz Tecnologie di rete da adottare • Gigabit Ethernet (1Gbps) • ATM (155 Mbps) • Fast Ethernet (100 Mbps) • IEEE 802.11b, wireless Ethernet (11 Mbps) Nuovi apparati di rete • N. 1 Cisco 7606 (router di frontiera): ATM e Gigabit Ethernet • N. 1 Cisco Catalyst 6509 (switch router di campus): ATM e Gigabit Ethernet • N.25 Cisco Catalyst 3550 (switch router di periferia): Gigabit e Fast Ethernet • N.5 Alcatel OMNI-5WX-PLUS:ATM e Fast Ethernet
Altre connessioni • HDSL Wind: 11 link • HDSL Telecom: 5 Link • ADSL Telecom: 20 link • CDN Telecom: 40 link • Accessi analogici/ISDN: 90 • ATM Telecom a 28 Mbps: accesso alla rete GARR-B
Server di rete attualmente gestiti dal Centro Universitario di Calcolo n. 3 server con CPU ALPHA • Server Oracle per procedura Contabilità (Tru64) • Server Oracle per procedura Stipendi (Tru64) • Server Oracle per sistema Aleph (Tru64) n. 1 server SPARC • Server SilverPlatter (Solaris) n. 29 server con CPU INTEL (Red Hat Linux) • Servizi di web server, mail server, proxy, dns, dhcp server, nfs server, ftp server, log server, mrtg server, samba server, appleshare, firewall, IDS
Server di rete in arrivo al Centro Universitario di Calcolo n. 20 server HP/COMPAQ ML530 • 2 GB DDR SDRAM • 2 processori Intel Xeon MP 2.4 GHz 512Kb Cache • 2 schede di rete Ethernet 10/100/1000Mbps • 3 hd 18GB in RAID n. 5 server HP/COMPAQ DL580, unità da rack • 2 GB DDR SDRAM • 2 processori Intel Xeon MP 1.6GHz 1Mbyte Cache • 2 schede di rete Ethernet 10/100/1000Mbps • 3 hd 18GB in RAID n. 1 SAN (Storage Area Network) HP/COMPAQ MA8000 da rack • 1 TB di spazio disco complessivo da utilizzare in RAID • Supporto x Linux n. 1 Armadio rack HPCOMPAQ Rack 10000 da 42 HE con switch e monitor flat panel 15”
Configurazione dell’IBM Z800 • z/Architecture: 64-bit a 1000 MHz • 1 way Model A01 (CPU Tradizionale) • 1 Added IFL (CPU dedicata a Linux) • 8 GB di RAM • 12 canali ESCON attivi • 4 porte ethernet 10/100 Mbps • Parallel Channel Attached Using 9034-001 • Può gestire fino a 15 partizioni logiche (PRSM) • E’ una soluzione basata sul sistema operativo zVM • 420 GB effettivi in RAID 5 di spazio disco utilizzabili in SAN (ESS 2105) 2
Z800 Applications Architecture IBM Z800 System Hypersocket New Environment - IFL Traditional CPU Segreteria Studenti zVM 4.3 zVM 4.3 VSEOther Virtual LAN or IUCV Linux AFP Srv ESCON Linux Linux Linux FTP/NFS Srv RSCS TCP/IP Stack SNA Srv TCP/IP Stack and Gateway AFP Printers OSA OSA OSA OSA IEEE 802.3 ESCON SNA Ctrl TN3270 Srv TCP/IP Ext TCP/IP SNA Printers TCP/IP SNA Ntwrk TCP/IP Intranet SNA Terminals 3
Un tool per lo storage consolidation IBM Z800 System Hypersocket New Environment - IFL Traditional CPU Escon Segreteria Studenti zVM 4.3 zVM 4.3 VSEOther Virtual LAN or IUCV Linux (SOD) AFP Srv ESCON Linux Linux Linux FTP/NFS Srv RSCS TCP/IP Stack SNA Srv TCP/IP Stack and Gateway AFP Printers OSA OSA OSA OSA IEEE 802.3 ESCON SNA Ctrl TN3270 Srv TCP/IP Ext TCP/IP SNA Printers TCP/IP SNA Ntwrk TCP/IP Intranet SNA Terminals ESS IBM 2105 FiberChannel SCSI 4
Schema delle connessioni via ponti ottici (in tecnologia laser) Dipartimento di Matematica Palazzo Marina Rettorato Dip.to di Fisica (Os.rio Ast.co) A.O.U.P.G. Radiologia Fibra ottica multimodale 62,5/125 C.U.C. (Ingegneria DIE) Centro Univeritario di Calcolo
Rete Parco D’ORLEANS Gigabit!
C.U.C. HDSL Wind HDSL Telecom ADSL Telecom Collegamento con le sedi esterne
Cos’è OpenMOSIX ? Descrizione Openmosix è un sistema open source utilizzabile in ambito scientifico per la realizzazione di cluster che sfrutta il load-balancing in ambienti x86. E’ possibile con questo sistema, realizzare calcolatori virtuali con elevata potenza di calcolo, utilizzando risorse, CPU e RAM, di una rete di computer. URL http://www.mosix.org
Introduzione a OpenMOSIX Modalità di avvio della Farm • La farm è costituita da una serie di nodi linux basati tecnologia x86 connessi attraverso LAN a 100/1000Mbit Livello di Implementazione • Linux kernel
Architettura di OpenMOSIX • network L’utente connesso e le applicazioni vedono l’intero cluster come un unico sistema locale • migrazione dei processi Ogni processo d’utente,può migrare su ogni nodo disponibile in modo del tutto trasparente in qualunque istante • load balancing Viene effettuato un controllo continuo in rete per ridurre al minimo le differenze di carico tra i nodi e migrare dinamicamente i processi tra i nodi con carico minore (sulla base delle variazioni del carico dei nodi, velocità di esecuzione dei processi, numero dei nodi in rete, ..) • memory sharing Viene presa una decisione sul processo da migrare sulla base della memoria disponibile sugli altri nodi e viene evitato l’utilizzo della swap memory • Kernel communication È sviluppato per ridurre il sovraccarico delle comunicazioni interne del kernel e utilizza un protocollo veloce e affidabile • Controllo decentralizzato e Autonomia Ogni nodo e’ capace di operare indipendentemente dagli altri
Una idea sull’utilizzo di OpenMOSIX I test sono stati effettuati generando contemporaneamente una serie di chiavi crittate su un nodo del Cluster
Progetto per l’integrazione di OpenMOSIX nelleAule Didattiche
Progetto per Cluster Scientifico Gigabit Gigabit 20 Server 12 PC Aula Corsi Facoltà di Lettere Aula Tortorici Gigabit Gigabit 40 Macchine 20 + 20 Macchine Aula F 100 Facoltà di Economia e Commercio 76 Macchine: n°28 PIV 256MB RAM1500Mhz n°48 IBM256MB RAM1000Mhz 50 Macchine
LVS Linux Virtual Server Esigenze nell’ambito dei servizi di rete • Gestione di servizi con carico elevato • Continuità e alta affidabilità dei servizi offerti • Scalabilità del sistema e manutenzione trasparente dei server
LVS Linux Virtual Server Internet FTP WEB IP3 IP1 IP2 MAIL
Architettura tradizionale Vantaggi Svantaggi • Semplice implementazione dell’architettura di rete • Configurazione standard dei servizi • Minima adattabilità all’aumentare del carico • Scalabilità solo a livello del singolo server • Nessuna ridondanza dei servizi • Gestione aggiuntiva del sistema dei servizi di backup.
Load Balancing Cresce l’uso di Internet . Come assicurare il proprio investimento avendo sempre una continuità del servizio, ed una efficente e crescente performance dei propri server? Incrementare le capacità dei Server Server overload Server farms Cresce la popolarità di internet La soluzione Servers più potenti
LVS Linux Virtual Server Con il Load Balancing si incrementano le performance dei servizi attraverso il bilanciamento del carico su tutti i server. L V S FTP WEB MAIL Ottimizzazione dei servizi Servizi non bilanciati
Director LVS • Il director LVS offre il bilanciamento dei carichi a livello IP in modo da far apparire più servizi paralleli del cluster come servizi virtuali disponibili su un singolo indirizzo server (con un unico indirizzo IP). • Tutte le richieste vengono inviate all’ IP virtuale (VIP) attribuito al director, che avrà il compito di smistarle secondo degli algoritmi di balancing o scheduling definiti (Round-Robin, Weighted Round-Robin, Least Connection, Weighted Least Connection)
Internet Internet L V S IP3 IP2 IP1 Unico Virtual Ip per tutti i servizi Unico indirizzo ip per tutti i servizi attivi della farm. Virtual IP Linux Virtual Server IP3 IP2 IP1 IP3 Multpli Indirizzi Ip di accesso Unico Indirizzo Ip di accesso
IP3 IP2 IP1 LVS Linux Virtual Server Anche se un singolo server dovesse risultare non disponibile il servizio viene sempre erogato. Internet Linux Virtual Server
LVS Linux Virtual Server La soluzione deve essere flessibile e crescere all’aumentare della domanda; il tutto deve avvenire in una modalità “trasparente”, ottenendo un’ottima scalabilità. Linux Virtual Server
LVS al Centro Univ. di Calcolo • La finalità del progetto è di implementare inizialmente i servizi di web, proxy, ftp, mail e samba server sotto LVS utilizzando la soluzione in modalità LVS-Nat. • Per assicurare la massima ridondanza verrà installato un Director LVS di backup configurato secondo l’ High-Availability Linux Project. • Inoltre tutti i server verranno collegati alle SAN (Storage Area Network) IBM e Compaq per l’accesso ad uno spazio di disco condiviso
Internet Linux Virtual Server Linux Virtual Server Backup FTP WEB MAIL SAN Storage Area Network