Hiperconvergencia, que ganamos y que perdemos implementandola

hiperconvergencia

La hiper-convergencia no es un término tan nuevo como parece. Su primo hermano tuvo lugar hace aproximadamente 8 años atrás con la aparición de la tecnología de blades de la mano de fabricantes como IBM, HP o Dell.
El concepto de integrar todo en un mismo chasis (computo, memoria, networking y la red SAN) dotaron de gran fama a estas soluciones dado que se alcanzaban altísimos ratios de consolidación vs el consumo e inversión necesaria. Eso si, estas soluciones no eran lo suficientemente practicas para empresas que no estaban dispuestas a llenar el chasis en los próximos 18 meses, en esos casos la solución de blades quizás no era la mas adecuada.

Sin embargo con el paso del tiempo, la virtualización cambió el paradigma de la gestión de los centros de computos,
y facilitó el surgimiento de empresas como Nutanix, Simplivity y otras que pemiten crear infraestructuras modulares a partir de dos o cuatro hosts hasta llegar a 32 nodos, generalmente en pequeños chasis de dos o cuatro unidades de rack. Esta clase de soluciones traen como novedad la capacidad de tener incorporada también la gestión del almacenamiento. O sea que es algunas variantes se logra tener 4 hosts con vmware y 16 o 32 TB de disco en un espacio mínimo, sin cables, ni grandes chasis vacios y con grandes aspectos de funcionalidad como deduplicacion, auto tiering, encriptacion y replicacion entre sitios.

Estas soluciones han comenzado a popularizarse en USA y Europa, donde IBM, Dell y HP crearon sus propias ofertas de hardware para competir con la precursoras del nuevo concepto.
Con el nuevo impulso del datacenter definido por software de vmware, la hiperconvergencia salta las barreras de la exclusividad que tenian ciertas marcas a realizar gestiones propias del hardware para pasar a ser “estandarizadas” por el hipervisor de vmware, por ejemplo la SAN ( vsan) y las redes (nsx).
Tal es el efecto que ha generado vmware que en el pasado vmworld lanzó una arquitectura de referencia para hiperconvergencia llamada “vRails” y “vRacks”.

Que Ganamos?

Optar por soluciones hiper-convergentes tienen los siguientes beneficio:

  • Facilidad en el despliegue inicial
  • Facilidad en la administración de la solución
  • Eliminar puntos de fallas intermedios (cables,switches de San, etc)
  • Escalabilidad a medida que el negocio lo demanda
  • Independencia del fabricante de hardware (modulos de 4 compatibles entre vendors)
  • Performance, nuevos nodos agregan mas computo y controladoras de disco en paralelo.
  • Simplifica la gestión de oficinas remotas.
  • Facilidad de actualizar o migrar de versiones.

Que Perdemos?

Al adoptar la hiper-convergencia puede llegar a incidir negativamente en:

  • Aplicaciones que requieren performance intensa, dado que las opciones de aumentar la cantidad de IOPS dentro de una solución generalmente requiera adicionar servidores/discos adicionales.
  • Baja integración del storage con mundo físico. Dado que las soluciones generalmente presentan el storage a los servidores que se encuentran dentro de ella y no dan visibilidad al mundo físico.
  • Centrado en el fabricante del software (vmware). Es dificil poder integrar soluciones multi hipervisor. En esos casos se debe caer en otras arquitectural basadas en modelos como openstack.
  • Baja Flexibilidad a cambios de arquitectura. Los equipos que pertenecen a clusters hiper-convergentes se utilizan para ese fin únicamente.

Consideraciones para tomar la decisión

La propuesta para adoptar la hiper-convergencia es mediante la formación de clusters para dar servicios de nube privada o VDI. Un buen ejemplo es iniciar un proyecto interno, para generar el auto aprovisionamiento de entornos de desarrollo o desktops virtuales. Ese será un buen puntapié para ir adoptando este tipo de soluciones escalables. Una vez que se necesiten más recursos, se puede adquirir un nuevo bloque y sumarlo al existente con la gran ventaja que gracias al software, ambas serán 100% compatibles.