550 likes | 905 Views
Estrategias de Alta Disponibilidad y diseño del almacenamiento en entornos de virtualización. David Cervigón Luna Ingeniero Preventa - Virtualización david.cervigon@microsoft.com http://blogs.technet.com/davidcervigon. Agenda. Introducción Repaso y Novedades de Failover Cluster en 2008 R2
E N D
Estrategias de Alta Disponibilidad y diseño del almacenamiento en entornos de virtualización David Cervigón Luna Ingeniero Preventa - Virtualización david.cervigon@microsoft.com http://blogs.technet.com/davidcervigon
Agenda • Introducción • Repaso y Novedades de FailoverCluster en 2008 R2 • Configuración y diseño de la red • Configuración del Almacenamiento SAN • Geo-Clusters, Stretch-Clusters • GuestClustering • Dimensionamiento y configuración fina
Windows Server 2008 R2 Hyper-V vs. Microsoft Hyper-V Server 2008 R2 Microsoft Hyper-V Server Hyper-V como role de Windows Server 2008 R2 Microsoft Hyper-V Server 2008 R2 (HVS) VM VM Parent Partition Hyper-V Windows hypervisor MISMAS FUNCIONALIDADES Hardware VM VM Windows (parent partition) Windows hypervisor Hardware Descargagratuitaqueincluye el hypervisor y todos los componentesnecesariosparavirtualizar (Windows Kernel, drivers, red, almacenamiento…) Disponiblecomo role en unainstalación “full” o “Server Core” de Windows Server 2008
Host ClusteringHA, Quick Migration, Live Migration, CSVs NIC3 - 192.168.100.2 NIC3 - 192.168.100.1 Red de HeartBeat NODO2 NODO1 Server Core Server Core NIC1 - 192.168.0.1 NIC1 - 192.168.0.2 Red Pública NIC2 - 10.10.10.1 NIC2 - 10.10.10.2 “Intranet” Red Virtual DC 192.168.0.100 Almacenamiento SAN 192.168.0.100
Alta Disponibilidad en entornos virtualizadosRepaso y novedades de FailoverCluster en 2008 R2
Requerimientos del Almacenamiento para Clustering en Windows Server 2008 • Solo se soporta el almacenamiento que admita PersistentReservations (SCSI-3) • No se soporta a parallel-SCSI Tipos de BUS compartido soportados: SAS Fibre Channel iSCSI
Nuevo modelo de Quorum • Membresía al cluster basada en “Mayorías” • Quien y qué tiene un voto es totalmente configurable • Eliminación de puntos de fallo • El diseño original asumía que el almacenamiento siempre estaría disponible • Ahora el cluester puede sobrevivir a una perdida de conexión con los nodos • Nuevo modelo de quorum • Híbrido del antiguo MajorityNode Set (MNS) y Quorum basado en disco compartido • Este nuevo modelo reemplaza a los dos anteriores
Mayoría de Disco y Nodos • Mayoría de nodos con un” modelo de quorum basado en un “disco testigo” • 3 votos en total, con dos necesarios para la mayoría • El Cluster puede sobrevivir a la pérdida de cualquiera de los elementos con un voto Voto Voto Cada nodo tiene 1 voto SAN Voto El dispositivo del almacenamiento compartido tiene 1 voto
Mayoria de Nodos • Solamente los nodos tienen voto • Se requieren 3+ nodos, y no hay necesidad de tener almacenamiento compartido • Se requiere la mayoría de los nodos para operar el Cluster Voto Voto Voto SAN
Mayoría de nodos y carpeta compartida • Un File Share Witness (testigo) permite tener un Cluster de dos nodos sin disco compartido • Excelente solución para Clusteres geográficamente dispersos • Un servidor de ficheros puede usarse para albergar los testigos de múltiples clústeres Testigo Carpeta compartida en un servidor independiente Voto Voto Cada nodo tiene 1 voto SAN
Solo disco • Solamente un disco compartido tiene voto • Los nodos no tienen voto, por lo que el disco de Quorum es el master • El Cluster estará vivo solamente si un nodo puede alcanzar el disco • Mismo comportamiento que el tradicional modelo de Quorum • Generalmente no recomendado SAN El dispositivo de almacenamiento compartido es el master Voto
Mejoras en la Validación • Se puede correr antes, durante o después del despliegue del cluster • Incluye comprobaciones adicionales de buenas prácticas • Configuración del Quorum • Estado de los recursos del cluster • Configuración del Network Name en un clustermulti-site • Ofrece una guía prescriptiva para lograr mayor disponibilidad • Recoge información acerca de la configuración para documentación y soporte
PowerShell • Línea de comandos, lenguaje de scripting e interfaz programática • Gestión mejorada • Corre la validación • Crea clusteres y clusteriza roles • Gestiona Hyper-V y CSV • Genera informes de dependecias • Server Core, Hyper-V Server 2008 R2, & Cliente RSAT • Reemplaza a cluster.exe como herramienta CLI
Acceso en modo solo lectura • Acceso en solo lectura a la Cluster API • Privilegios reducidos • Ver el cluster • Sin poder llevar a cabo acciones • Minimiza el riesgo • Seguridad mejorada • Útil para la primera capa de soporte, colaboración entre equipos, administración e investigación • Soportado por Powershell
Quick Migration vs. Live Migration • Live Migration • (Windows Server 2008 R2Hyper-V) • Estado de la VM y Transferencia de la Memoria • Crea la VM en el destino • Mueve páginas de memoria desde el origen al destino via Ethernet de manera iterativa • Transferencia final del estado y restauración de la VM • Pausa la máquina virtual • Mueve el almacenamiento desde el origen al destino • Continua la ejecución • Quick Migration • (Windows Server 2008 Hyper-V) • Salva el estado de ejecución • Crea la VM en el destino • Escribe la memoria de la VM en el almacenamiento compartido • Mueve la VM • Mueve la conectividad del almacenamiento del host origen al host destino • Restaura el estado y continua la ejecución • Lee la memoria de la VM del almacenamiento compartido y la restaura en el host destino • Continua la ejecución Host 2 Host 1 Host 1 Host 2
Cluster Shared Volumes • Todos los servidores del cluster tienen acceso simultáneo a las mismas LUN del almacenamiento • Utiliza NTFS, elimina los problemas de letras de unidad, mismas herramientas, sin modificaciones en la SAN…
Alta Disponibilidad en entornos virtualizadosConfiguración y Diseño de la red
Hyper-V Networking • Partición Padre • Redes Virtuales enlazadas a NICs físicas • Externas – Limitadas por el número de NICs • Internas – Ilimitadas • Privadas – Ilimitadas • Solo NICs Ethernet (no Wireless) • Soporta VLANs • Trunking (VTP Protocol) • Máquina Virtual • NIC Sintética • NIC Legacy (Intel 21140) • 12 NICs por VM • 8 sintéticas • 4 legacy • Hasta 10Gb/s • Soporta VLANs NIC enlazada a Hyper-V NIC dedicada (Gestión)
Switches virtuales – Switches físicos VM1 VM2 VLAN2 VLAN1 VMBUS Los puertos del Switch Virtual son troncales Virtual Switch Tarjeta física del Host VLAN2 VLAN1 Trunk Port Physical Network Switch
Cómo repartir las NICs • Mínimo 2, máximo… y mejor Gigabit • 2 NICs • NIC1: HeartBeat + LiveMigration • NIC2: Gestión + vSwitch • 3 NICs • NIC1: HeartBeat + LiveMigration • NIC2: Gestión • NIC3: vSwitch • 4 NICs • NIC1: HeartBeat + LiveMigration • NIC2: Gestión • NIC3: vSwitch1 • NIC4: vSwitch2 • Si se va a utilizar iSCSI es conveniente dedicar una o dos (MultiPath) tarjetas conectadas a redes Gigabit • Importante segmentar/repartir el trafico en diferentes switches físicos • Rendimiento • Tolerancia a fallos
DEMOConfiguración de las redes preferidas para Live Migration
Windows Server 2008 Hyper-V R2Configuración del Almacenamiento SAN
Fiber Channel vs. ISCSI Host Host VSP Virtual Storage Provider VSP Virtual Storage Provider VDS/VSS Hardware Provider VDS/VSS Hardware Provider MPIO Store Port Driver MPIO Store Port Driver HBA1 HBA2 NIC1 NIC2 FC Switches Switches de red Nivel 3 SP1 SP1 SP2 SP2 LUN2 LUN2 LUN1 LUN1 Disk ArrayGroup Disk ArrayGroup
Receta • Instalar el Sistema Operativo • Instalar los drivers del fabricante • Instalar Roles y Funcionalidades • Hyper-V • Multipath I/O • FailoverCluster • Desde el almacenamiento • Crear las LUNs sobre los discos, con el nivel de RAID deseado • Presentar las LUNs que conformaran el almacenamiento compartido a todos los WWNames de los puertos correspondientes de las HBAs de todos los nodos del cluster. • Instalar el DeviceSpecific Module (DSM) de la cabina de almacenamiento • Es frecuente ver los volúmenes correspondientes a cada LUN duplicados en el Administrador de Discos • BOOT from SAN • Es conveniente utilizar diferentes HBAs y Fabrics para separar el I/O de las LUNs de sistema y las LUNs del almacenamiento compartido
Los CSVs son LUNs normales • Solo cambia la forma en la que las maneja el cluster • En todos los nodos se montan en el mismo path: C:\ClusterStorage\VolumeXX • Hay que habilitar su soporte a nivel de cluster • Interfaz gráfica • Cluster.exe /propEnableSharedVolumes=1 • Receta: • Presentar la LUN que queremos que sea un CSV a todos los nodos del cluster • Tener en cuenta que tendrá un gran volumen de datos y un alto I/O • Agregar la LUN al cluster (conviene re-validar el cluster) • Agregar el nuevo disco que aparece como almacenamiento disponible como un nuevo CSVs
Redirected I/O Redirección del I/O por SMB La VM corriendo en el nodo 2 no esafectada Volumenmontado en e l Nodo 1 Fallo de conectividad a la SAN SAN Las VMs todavía se pueden mover por Live Migration VHD
CSVs vs. LUNs dedicadas CSVs • Pros • Simplifica el diseño del almacenamiento y el uso de herramientas específicas (p.eBackup, Clone, Mirror, etc.) • Ahorra espacio • Facilita la gestión del entorno virtualizado • Mejores tiempos de respuesta en Live Migrations • Cons • Muchos huevos en la misma cesta • Rendimiento (discutible) • No permite Pass-Through LUNs Dedicadas • Pros • Rendimiento (discutible) • Aislamiento • Pass-throug • Geo-Clustering • Migraciones vía SAN transfers/NPIV • Cons • Complica el diseño almacenamiento • Complica el aprovisionamiento de nuevas VMs • Peores tiempos de Live Migration
Alta Disponibilidad en entornos virtualizadosGeo-Clusters, Multi-SiteClusters, StretchClusters Ver: Windows Server 2008 Multi-Site Clustering Whitepaper
De HA a HA + DR + DP Continuidad del Negocio • Hyper-V + FailoverCluster ofrecen: • Alta Disponibilidad • Movimientos de máquinas virtuales sin tiempo de parada • La posibilidad de extender estas ventajas a sites geográficamente separados, convirtiéndose además en una excelente solución de Recuperación ante desastres y de protección continua de datos Sitio Primario Sitio Secundario Disaster Recovery (DR) Alta Disponibilidad (HA) Storage Array Storage Array VHD Backup/Recovery Clustering Disaster Recovery Almacnamiento Quick/Live Migration Backup/Recovery Backup/Recovery Backup/Recovery 33
Geo-Clusters, Stretch Clusters, Multi-Site Clusters • El cluster se extiende a diferenten localizaciones físicas • En cada Site los nodos acceden a su propio sistema de almacenamiento • El almacenamiento replica la información entre los diferentes Sites • En caso de desastre en un Site, el failover se lleva a cabo de manera automática Site A Site B Replicación
Mayoría de nodos en Multi-Site ¿Puedocomunicarme con la mayoría de los nodos del cluster? No, me apago ¿Puedocomunicarme con la mayoría de los nodos del cluster? Si, continúoencendido Cluster de 5 nodos Mayoría = 3 Site A Site B SAN SAN Pérdida de conectividad entre Sites Mayoría en el nodoprimario
Mayoría de nodos en Multi-Site ¿Puedocomunicarme con la mayoría de los nodos del cluster? Si, continúoencendido Cluster de 5 nodos Mayoría = 3 El Site entero se cae Site A Site B SAN SAN Mayoría en el nodoprimario
Mayoría de nodos en Multi-Site ¿Puedocomunicarme con la mayoría de los nodos del cluster? No, me apago Cluster de 5 nodos Mayoría = 3 El site entero se cae Se necesitaforzar el Quorum manualmente Site A Site B SAN SAN Majority in Primary Site
Mayoría de Nodos y File Share Site C ¿Puedocomunicarme con la mayoria de votos en el cluster? Si, continúoencendido File Share en un Site independiente WAN Site A Site B SAN SAN El sitioentero se cae Cluster de 5 nodos Mayoría = 3
Mayoría de Nodos y File Share Site C ¿Puedocomunicarme con la mayoria de votos en el cluster? No, me apago ¿Puedocomunicarme con la mayoria de votos en el cluster? Si, continúoencendido File Share en un Site independiente WAN Site A Site B SAN SAN Pérdida de conectividad entre Sites Cluster de 5 nodos Mayoría = 3
Replicación Síncrona • El host recibe la confirmación de escritura solamente después de que el almacenamineto notifique la correcta replicación del dato Write request Replicación Write Complete Dato Dato Confirmación Almacenamiento Primario Almacenamiento Secundario
Replicación Asíncrona • El host recibe la confirmación de escritura del almacenamoento cuanddo el dato se ha escrito correctamente en el almacenamiento primario • No usar nunca en multi-site clusters a menos que el mecanismo de replicación garantice que el orden de las operaciones de I/O se preservan Write request Replicación Write Complete Dato Dato Almacenamiento Secundario Almacenamiento Primario
Síncrona vs. Asíncrona • Síncrona • Cortas distancias • Sin pérdida de datos • Requiere conexiones de alto ancho de banda y baja latencia • La latencia en las escrituras puede impactar en el rendimiento • Asíncrona • Mayores distancias • Perdida potencial de datos en caso de fallo hardware • Requiere un ancho de banda suficiente para transmitir datos a suficiente velocidad • Sin impacto en rendimiento • Las aplicaciones pueden recuperarse bien de caídas mientras están en estado consistente, pero difícilmente lo harán si las operaciones de I/O se han realizado fuera de secuencia. • ¿DFS, DFS-R o Robocopy?. Buen intento, pero mejor no, gracias.
CSVs y Multi-SiteClusters • Por lo general los CSVs no pueden utilizarse en configuraciones Multi-Site • En ambos sites, el CSV se utilizaría en lectura-escritura • La replicación suele ser por LUN y unidireccional • Las LUNs replicadas suelen estar ocultas o en solo lectura en el site destino • Hay fabricantes que resuelven el problema haciendo que la replicación del almacenamiento sea transparente al host • Ej. NetAppMetroCluster
NetApp Data Protection/Business Continuity Products OperaciónContínua LAN/WANClustering ReplicaciónSíncrona Clusters Síncronos ReplicaciónAsincrona Herramientaspropias del almacenamiento Replicación Software Backup Incremental a nivel de bloque Herramientaspropias del almacenamiento Herramientas de Backup Replicación Software Disponibilidad Cost Herramientaspropias del almacenamiento Herramientas de Backup Recuperación de Aplicaciones Herramientaspropias del almacenamiento Herramientas de Backup Herramientas de Backup Backup Recuperaciónremota Recuperaciónremota– BajoRTO Recuperación local Capacidad
Replicación • Double-Take • http://www.doubletake.com/english/products/double-take-virtualization/Pages/Double-Take-for-Hyper-V.aspx • http://www.doubletake.com/Documents/Hyper-V/DBTK_MSFT_HyperV_Solution_Sheet_GC-Product-Overview-0607.pdf • NetAppSnapMirror & MetroCluster • http://www.netapp.com/us/products/protection-software/snapmirror.html • http://www.netapp.com/us/products/protection-software/metrocluster.html • HP Continuous Access • http://h18006.www1.hp.com/products/storage/software/conaccesseva/index.html • http://h18006.www1.hp.com/products/storage/software/continuousaccess/index.html • EMC SRDF • http://www.emc.com/products/detail/software/srdf.htm • Hitachi HDS TrueCopy • http://www.hds.com/solutions/applications/microsoft/hyper-v.html • http://www.hds.com/assets/pdf/synchronous-data-replication-solutionsbrief.pdf • http://www.hds.com/assets/pdf/asynchronous-long-distance-data-replication-sb.pdf • NEC ExpressCluster • http://www.nec.com/global/prod/expresscluster/
Alta Disponibilidad en entornos virtualizadosClusteres Virtuales (GuestClustering)
DEMOCómo crear el almacenamiento compartido por iSCSI para un Cluster Virtual