100Gbps Ethernet, ¿el próximo paso en el datacenter?
A tres años de ratificación del estándar (IEEE 802.3ba), cabe preguntarse si ya es hora de actualizar las redes de centros de datos. Según Cisco, el crecimiento del tráfico IP en el centro de datos a lo largo de los próximos tres años se dará a tasas del 31% anual, por lo que en cinco años podría cuadruplicarse, y también está aumentando la diversidad de ese tráfico: aplicaciones, dispositivos virtualizados, video, páginas web cada vez más complejas, y la lista sigue. ¿Es hora de dar el gran salto en el datacenter? |
Según el Global Cloud Index de Cisco, el 76% el tráfico hoy permanece dentro del centro de datos. Buena parte de ese tráfico se relaciona con la separación de funciones localizadas en los diferentes servidores dentro del centro de datos, como aplicaciones, almacenamiento y bases de datos. Y luego el tráfico generado por las copias respaldo y la replicación, y el tráfico de lectoescritura dentro del centro de datos. Por otra parte, las páginas web son cada vez más complejas, y requieren accesos a distintos puntos de centro de datos.
Las redes de los centros de datos comienzan a cambiar para acomodarse a este tráfico cambiante de datos. En lugar del conocido esquema norte-sur (donde el tráfico va del servidor al borde de la red y viceversa), la red se está convirtiendo en un entramado (o fabric), que interconecta todos los nodos, habilitando ancho de banda de alta velocidad también en a dirección este-oeste. Esto ocasiona una demanda mayor de ancho de banda.
En un reciente informe de Computer Weekly, el periodista y consultor Manek Dubash destacaba algunos números de la IEEE. Según un reporte de 2012, hay un gran cambio en camino desde 1GbE (Gigabit Ethernet) en el centro de datos a 10Gbps. En 2011 los puertos en servidores de 10Gbps sumaron el 17% del total, pero se espera que el año que viene lleguen al 59%, en la medida que vayan entrando en línea nuevos equipos con buses PCIe 3.0. En otras palabras, 10GbE ya se encuentra entre nosotros, y no falta mucho para que 10GbE sea el nuevo estándar de servidores.
El reporte asegura que “La próxima generación de PCIe soportará 100Gbps en una configuración x8, pero el futuro de PCIe no es seguro. Se sugiere que PCIe 4.0 podría comenzar a habilitar puertos duales de servidores de 100Gbps Ethernet a partir de 2015”. Los servidores actuales de high end incluyen puertos 10GbE, pero la IEEE proyecta que 40GbE reemplazará a éste en un año o poco más, con 100GbE entrando al ruedo en 2015. Algunos opinan que PCIe 4.0 (que arribaría en 2017 o 2018) podría no ser adecuado para las necesidades de 100GbE.
En otro plano de consideración, los racks de servidores de forma rutinaria entregan y reciben cientos de Gigabits por segundo utilizando agregación, que por lo general son enlaces de 10 GbE ó 40GbE. Según Brian Yoshinaka, ingeniero de marketing de producto de la División de Acceso de LAN de Intel, citado en la nota, es allí donde veremos el grueso del 40GbE y 100GbE usado en el corto y mediano plazo. Los proveedores como Cisco, Juniper y Brocade ya tienen switches y routers habilitados para 100GbE, principalmente destinados a fabrics de centros de datos ara usuarios muy grandes, como operadores de telecomunicaciones y proveedores de cloud. Las grandes empresas ya tienen las herramientas para crear redes de fabric, y la tecnología existe, de modo que es posible crear esta clase de redes de alta velocidad. Pero el costo de los puertos conmutados de 40GbE, que en origen ronda los US$ 2.500 cada uno en promedio, hacen que 100GbE esté lejos de ser una opción barata.
Las empresas están recién empezando a comprar puertos de 10Gbps de manera significativa, según Dubash, de modo que los precios de las velocidades superiores seguirán siendo altos por un tiempo. Por esta y otras cuestiones, es probable que 40GbE sea una ruta más efectiva en costos en el mediano plazo. Al mismo tiempo, existe la posibilidad de que muchas empresas tercericen volúmenes importantes de tráfico hacia una gama de proveedores de nube, de modo que esto podría liberar a los responsables de datacenters de pensar en pagar por costosas actualizaciones de la red.