Cloud Computing

INTRODUCCIÓN

  • En estos sistemas se ha pasado de almacenamiento NAS a SAN, ya que es más económico.
  • Actualmente se virtualizan servidores, el almacenamiento y la infraestructura de comunicaciones. En las infraestructuras de red se utiliza FCoE, que es donde CISCO es fuerte. Ej en los Nexus1000V, que se mete en UCS, otro sector del mercado en el que CISCO ha entrado en parte.
  • CISCO ofrece una solución unificada para una gestión común de cada capa de virtualización y sus funciones.
  • Las empresas se actualizan a esta tecnología por varios factores: Competir en el mercado, ahorro de costes ó por su propia evolución.
  • A la larga se produce un ahorro de materiales, en horas de mantenimiento y se hacen necesarias menos actualizaciones de la infraestructura física.
  • Para el entorno virtualizado hay que intentar utilizar materiales preparados para el software de gestión de la virtualización.
  • Hay drivers de dispositivos, por ejemplo tarjetas de red, que están orientados a la virtualización, de manera que el rendimiento de la virtualización es mejor, debido a que se libera de carga a la CPU central, al tomar los propios dispositivos implicación física en el procesamiento. Esto elimina posibles cuellos de botella por saturación de la CPU del procesador central.

VIRTUALIZACIÓN DE SERVIDORES

  • Es donde están las máquinas virtuales (VM – Virtual Machines), con VmWare y similares.
  • Los nuevos procesadores de Intel soportan virtualización por hardware.
  • Las generaciones de servidores han sufrido varias evoluciones:
  • V1.0: En grandes mainframes (Muy potentes). Necesitan arquitecturas y aplicaciones compatibles con la virtualización.
  • V2.0: Trabaja sobre plataformas Intel, con muchos servidores físicos pequeños.

Anteriormente, sin virtualización, los servidores trabajaban sobre:

  • Aplicaciones distribuidas en varios servidores
  • Cada servidor se dedica a una sola aplicación, con lo que en general se usan más servidores y el costo se eleva.
  • Para buscar la redundancia se necesitan más servidores para duplicar equipos, volviendo a ampliar los costos.
  • Hay servidores infrautilizados para el servicio que ofrecen (Recursos perdidos). Para aprovechar esos recursos hay que recentralizar servicios y aparece la virtualización.

V3.0: Recentralización.

Se utilizan hypervisores para crear maquinas virtuales, con lo que aparecen máquinas Intel implementadas por software, conocidas como “Guest Operating System”, que tienen el tamaño adecuado para cada aplicación. Es lo que se conoce como Sistema Virtualizado.

Con un servidor físico se pueden gestionar varios sistemas virtualizados para varias aplicaciones de servidor distintas. Con esto se obtienen las siguientes ventajas:

  • Más concentración de aplicaciones por máquina física.
  • Alta disponibilidad. Las máquinas son fácilmente recuperables y la máquina física falla.

CISCO ofrece su solución con las unidades UCS (Unified Computing System) con servidores integrados de 64 bits. Aunque se pueden instalar sistemas operativos directamente en la máquina, Windows o Linux por ejemplo, es recomendable instalar un hypervisor como sistema operativo, como VmWare, Cytrix, Hyper-V, para crear una capa de virtualización sobre la que instalar máquinas virtuales.

El esquema del sistema virtualizado es uno de los dos siguientes. En el esquema en donde aparece el UCS de CISCO existe una ventaja adicional, ya que se pueden crear service-profiles desde la aplicación de gestión UCS-Manager, que presenta un perfil de la máquina virtual personalizado a la capa de virtualización superior.

CISCO UCS

El cambio de una máquina física a otra es sencillo con el service-profile. Se apaga la máquina virtual y con ayuda del software UCS-Manager, se tranlada el service-profile a la otra máquina junto con el hypervisor y se arranca de nuevo la maquina virtual. El hypervisor no es consciente del cambio de hardware gracias a que el UCS-Manager gestiona el UUID (Universally Unique Identifier) de la máquina física, las direcciones MAC, el WWNN (World Wide Node Name), el WWPN (World Wide Port Name) y parte de la BIOS. El service-profile lo enmascara y simula a la máquina anterior.

La tarjeta de red se puede virtualizar en el UCS de manera que una tarjeta física se puede presentar como 128 virtuales en V1.0, o como 256 virtuales en V2.0. Se puede asignar una tarjeta de red virtual a cada una de las máquins virtuales, gestionandose el tráfico y la seguridad por separado en cada una de ellas.

Ventajas de la máquina virtual:

  • Aislamiento entre máquinas.
  • Encapsulación: Cada máquina es un directorio en el hypervisor, que es fácilmente transladable. Muy relacionado con el LUN (Logical Unit Identifier).
  • Seguridad mejorada, como consecuencia del aislamiento entre máquinas.
  • Independencia del hardware del servidor físico. Por ejemplo se puede personalizar el hadware virtual para instalar software viejo, Windows95, en una máquina nueva, que no reconocería el hardware actual.
  • Espacio físico reducido.
  • Menor consumo energético. Aunque cada máquina es más potente y consume más potencia, el DataCenter completo tiene un consumo total menor que un DataCenter convencional.
  • Necesidad de personal más cualificado, con lo que la plantilla de personal menos cualificado se reduce.
  • Se pueden comprar equipos Appliance, en donde se vende la máquina virtual instalada y completamente configurada, máquina virtual + Guest Operating System + Aplicación.

Cluster VmWare

Los UCS son los servidores físicos.

Una máquina virtual puede pertener a varias UCS a la vez, por si cae alguna.

Los discos de arranque de las máquinas virtuales son los discos de las cabinas de discos situadas en la red de almacenamiento, que pueden contener sistemas FailOver mediante sistemas RAID avanzados. Con las cabinas de disco el precio por byte disminuye. Se crean LUN's (Logical Unit Number) en los bloques SAN.

vMotion es mover una máquina virtual a una UCS distinta con los usuarios completamente conectados.

Alta disponibilidad: Si cae un UCS con dos máquinas virtuales funcionando, estas dejan de funcionar hasta que se arrancan en otra UCS válidas. El arranque de estas máquinas es muy rápido, con lo que se acorta el tiempo de reparación del fallo.

Si una UCS está a punto de saturarse, se pueden mover máquinas virtuales a otra UCS más libre (Reparto de cargas).

Cada máquina física tiene internamente un switch virtual (vSwitch) que conecta la tarjeda de red de la máquina virtual con la tarjeta de red de la máquina física. VmWare lo puede controlar, con lo que puede aplicar políticas de seguridad a una máquina determianda en ese switch. Hay que tener en cuenta que al portar la máquina virtual a otra máquina física hay que aplicar esas reglas de seguridad en el nuevo sitio.

En sistemas CISCO esa parte la gestiona también el software de control, siempre que se hayan comprado tarjetas VIC (Virtual Interface Card), que se presentan en el hypervisor.Hay por lo tanto tarjetas vNIC, NIC virtuales. Con esto se puede sustituir o eliminar el software vSwitch de vMWare, que consumía recursos de la CPU, mientras que este sistema lo hace por hardware.

Las UCS de CISCO solo pueden tener 2 CPU con varios nucleos, pero contiene más bancos de ampliación de memoria RAM que el resto de equipos de la competencia.

USC de Cisco

Cisco tiene dos formatos de unidades UCS:

  • Blades (UCS-B): Requiren del hardware adicional Fabric Interconnect, con el software UCS-Manager para poder crear Service-Profiles. Son cabinas de servidores en formato cuchilla. El Fabric Interconnect conecta los distintos UCS con cables FCoE y los sistemas de almacenamiento con canal de fibra óptica.
  • Equipos enracables (UCS-C): Tienen dos modos de trabajo posibles. Stand Alone, tienen almacenamiento local y no existe la posibilidad de crear service-profiles, no se usa el software UCS-Manager. Es la opción más barata. Modo Managed, en donde hay una conexión con el Fabric Interconnect, tienen el software UCS-Manager a su disposición y se pueden crear service-profiles.

Fabric Interconnect

Las siguientes figuras muestran como se realiza la conexión del Fabric Interconnect con el resto de dispositivos.

La conexión entre los dos dispositivos Fabric Interconnect son cables de red que se utilizan para la conexión interna entre los dos dispositivos (Forman un cluster), no llevan tráfico de red. Funcionan en modo Activo-StandBy para información de control y en modo Active-Active para modo datos, con lo que se mejora la velocidad de transferencia entre ellos dos.

Cada cabina de servidores blade admite dos extensiones de entrada-salida (IO-Module) para conectarse con el Fabric Interconect, dependiendo de la versión tienen 4 u 8 conexiones de 10Gbps con protocolo FCoE sobre Ethernet. Se trata de chasis 5108.

Los equipos blade admiten en sus 4 ranuras hasta 4 tarjetas grandes u 8 de tamaño medio. Se le puede conectar internamente tarjetas VIC Mezzanine que admiten el protolo de red FCoE. Tambien virtual HBA (vHBA)

Las siguientes imagenes muestran como son fisicamente los equipos y las tarjetas.

El Fabric Interconnect no puede tener bucles entre sus conexiones redundantes, lo evita por otros medios sin la necesidad de usar Spanning Tree.

Las tarjetas Mezzanine no son tarjetas de red que se integran con el chasis, no se puede acceder a ellas desde el exterior.

Lo normal es que los sistemas operativos arranquen desde el sistema de almacenamiento. Los discos del blade no se utilizan para sistemas operativos. Cuando se ha creado un service-profile se puede proceder a la instalación del sistema operativo.

Las cabinas de discos se pueden conectar con el Fabric Interconnect a traves de un switch de fibra con el protocolo HBA o bien a traveés de cables ethernet utilizando el protocolo iSCSI.

Service-Profile

Las operaciones a la hora de instalar un sistema operativo son: 1. Asociar un service-profile a través del UCS Manager y 2. Instalar VmWare y sus máquinas virtuales.

LUN's: Son directorios para instalar hypervisores.

Hay un modo de trabajo de mantenimiento en el que se le quitan recursos a una máquina poco a poco, hasta que se queda vacia. Luego se puede apagar la máquina y hacer el mantenimiento correspondiente. Una vez que se le quita el service-profile se apaga , se reasigna o asocia a otro blade, que no tiene por que ser igual, y cargamos las máquinas que teníamos activas en la nueva ubicación.

No puede haber dos service-profile con el mismo identificador funcionando a la vez.

Ventajas del UCS:

  • Mayor número de bancos de memoria.
  • Tarjetas de red VIC, con 128 virtuales en V1.0 y 256 en V2.0
  • UCS-C: Con alta densidad de disco locales y uso de RAID avanzado.
  • Service-Profile en UCS-B y UCS-C (modo managed)

Extra en UCS-B. Uso de Driver Fusio de entrada y salida. Es un disco flash SSD para ciertas aplicaciones, con un acceso de lectura y escritura muy superior a los discos mecánicos. Se utiliza para swap y cractch, operaciones orientadas a fuertes demandas de tráfico puntual a ciertas horas del dia. Por ejemplo cuando se utilizan virtualizaciones de escritorio desde cualquier tipo de dispositivo, en donde solo se ve la pantalla y la información nunca llega al dispositivo final. Le está dando mucho bombo CISCO últimamente.

ALMACENAMIENTO REMOTO VIRTUALIZADO

Tipos de almacenamiento:

  • Local (DAS): Direct Attach Storage. En este modo no tenemos vMotion ni Service-Profile.
  • Remoto. Hay dos, fichero compartido (NAS) y modo bloque (SAN).

NAS: Es un sistema operativo externo que comparte el almacenamiento de datos. No es un almacenamiento directo, funciona sobre TCP con NFS3.0 y NFS4.0, requiere de una red TCP/IP en la que se recomienda utilizar QoS para minimizar la latencia de red. Se suelen utilizar VLAN's en las que se cambia el tamaño por defecto de la MTU a 4K, 8K o 16K (Jumbo Frame). Tambien se puede utilizar CIFS (Common Internet File System).

SAN: Funciona en modo bloque y es un modo de acceso directo al disco, a los cilindros del disco duro (LUN), que son unidades de espacio de una asociación de disco. En este tipo de configuración el dispositivo final ve un solo disco, aunque en realidad esta compuesto por sistemas rendundantes RAID en donde el tamaño final del disco es inferior al realmente instalado. Esto es porque parte del espacio se utiliza para recuperación de fallos físicos de los discos.

Cuando comenzó su desarrollo SAN era una versión avanzada de NAS, antiguo SCSI 3.0. Las conexiones eran:

No se utilizaban retransmisiones. Las conexiones se abren según necesidad, se abren LUN's. Por defecto todas las conexiones están cerradas. Es una red poco agil ya que hay muchos controles para evitar retransmisiones. Es una red muy cara ya que se venden pocas unidades, aunque el servicio es muy bueno. La velocidad de funcionamiento es de 1, 2, 4, 8 y 16Gbps.

En contrapartida NAS utiliza ethernet para sus transferencias y puesto que ha evolucionado mucho NAS funciona con velocidades de 1, 10, 40 y 100Gbps, lo que hace que sea más rápido que SAN y mucho más barato.

iSCSI: Es la alternativa barata de SAN. Se puede hacer con:

HBA-------------------Dominio Fabric ------ Cabina de discos

Con tarjeta de red NIC------TCP/IP ----------FCIP/iSCSI

Con FCIP se utiliza canal de fibra sin perdida de paquetes mientras que con iSCSI se utilizan direcciones IP normales y auque puede haber perdidas de paquetes la capa TCP lo soluciona como es su funcion. Es la solución buena y barata.

Se utilizan switches IOS y Nexus.

Por parte de CISCO se utilizan equipos MDS-9000 para comunicar con redes SAN, que tienen como sistema operativo a SAN-OS en V1.0, V2.0 y V3.0. Ahora han sido sustituidos por equipos NEXUS con sistema operativo NX-OS V4.0

Los equipos MDS-9000 se pueden actualizar a NX-OS aunque no tengan hardware Nexus.

Los equipos actuales de CISCO para 1 o 2 RU (Rack Unit) son los 9100 y 9200, mientras que los equipos modulares son los 9500 (tradicional) y 9710 (Director) que es el de mayor capacidad del mercado, a nivel de varios Tbps de transferencia de datos.

Los dominios Fabric son dominios de una red SAN al igual que los dominios Windows son dominios de usuarios.

Otra posibilidad es utilizar FCoE sin TCP/IP pero con FC (Ethernet LOSSLESS), aunque no funciona con switches con IOS, en su lugar hay que utilizar los de la línea MDS o Nexus.

Los Nexus 5000 y 6000 están orientados ha hacer FCoE con LOSSLESS

Red SAN HBA ---- Equipos 9000 Red SAN FCoE --------------Equipos 5000 y 6000

FCoE + Red Fabric + Canal de fibra y HBA

Se muestra un diagrama en donde se interconcetan dos redes de datos con formatos distintos a través de un conversor que traduce los mensajes de HBA a FCoE lossless, siempre que se mantengan los mismos tamaños de paquete entre los dos sistemas (MTU grande).

Los mensajes son iguales, la única diferencia es que FCoE tiene cabecera IP y HBA no. En la parte de FCoE hay una sola VLAN que utiliza tagging 802.1q y trabaja en modo lossless junto con mensajes de control que no hay en TCP. Se suele activar QoS en esta VLAN para dar prioridad a este tipo de tráfico.

La tarjeta CNA se encarga de hacer trunk 10Gbps o superior. CNA (Converge Network Adapter)

Se está haciendo HBA barato y no se puede utilizar un Catalyst 6500. Se reduce el cableado.

VIRTUALIZACIÓN DE COMUNICACIONES

Se utiliza como soporte físico los nuevos switches de la seria Nexus de Cisco. Son muy rápidos y soportan conexiones de hasta 100Gbps. Soportan:

  • Ethernet NIC
  • Almacenamiento FC
  • Interface FCoE
  • Virtual Port Channel (VPC) para hacer Etherchannel entre distintos Nexus
  • Fabric Path, equivalente Cisco al estandar público TRILL. Se permite redundancia entre origen y destino, hasta 16 caminos distintos con trafico que se reparte entre ellos. Con STP solo se utilizaba uno la vez, dejando el resto de caminos deshabilitados. Se utiliza STP de los data center hacia afuera y TRILL dentro de ellos.
  • OTV (Nexus 7000). Overlay Transport Virtualization, es una VLAN que pasa entre los distintos data center, que pueden estar incluso en distintas ciudades. Se tiende hacia la replicación de datos entre los data center.

Se realiza una comunicación interna a nivel superior entre los distintos Data Center. La velociadad máxima entre ellos hasta ahora era de 720Gbps, con los Cisco 6500 llegó a unos 2Tbps y ahora se rondan los 10Tbps.

Algunos Nexus de las series 5000 y 6000 con Fabric Interconnect pueden tener Unified Ports que pueden hacerse funcionar en modo HBA ó FCoE configurandolos por software.

Existen extensores Nexus 2000, que a través de cables de 10Gbps, pueden ampliar el número de puertos de los Nexus 6000. No tienen configuración propia, ya que se configuran directamente a través del switch del que dependen.

Con respecto a vPC se puede utilizar para conectar equipos Catalyst 6500 como si fueran uno solo, de manera que si uno de los Nexus deja de funcionar el ancho de banda disponible para un servidor, conectado como indica la siguiente figura, se reduce a la mitad, pero no deja de transferir tráfico como pasaba con el sistema Spanning Tree. Se puede decir que su convergencia es instantanea.

* Es un Etherchannel entre distinto Nexus que asegura que el servidor siempre tendrá una conexión activa.

También se puede hacer un Etherchannel global entre Nexus para asegurar una continuidad del servicio.

NEXUS 1000V

Es un switch virtual que puede sustituir al vSwitch de VmWare que se instala por defecto en las máquinas virtuales de VmWare.

VmWare tiene:

  • Standard vSwitch
  • Distributed vSwitch (DvS). Plano de control común al cluster
  • DvS de terceros. Es donde esta el Cisco 1000V, IBM.....

El Nexus 1000V tiene comandos similares a IOS y es fácil de aprender, con más funciones que vSwitch de VmWare.

Este DvS en vez de configurarlo un técnico de sistemas lo configurará un técnico de comunicaciones.

Hay dos versiones, la estandar que es gratuita y la Extended que es de pago VGA que incluye una parte de firewall.