Redes Definidas por Software - Software-Defined Networking, SDN - Parte I

Redes Definidas por Software - Software-Defined Networking, SDN - Parte I Redes Definidas por Software - Software-Defined Networking, SDN - Parte I

 “Todo definido por Software”

Las “redes definidas por software(Software-Defined Networking, SDN) son un concepto que desde hace un par de años ha comenzado a posicionarse en la industria y al cual le apuestan muchos jugadores.

De hecho, el mercado asociado a SDN presenta una tasa de crecimiento anual compuesta del 117,42%, movida – en parte- porque esta infraestructura de red se integra con las grandes tendencias que mueven los entornos TIC de las empresas, como: automatización, virtualización, cloud computing y centros de datos de nueva generación.

Específicamente, según IDC, el volumen de ingresos por productos SDN –infraestructura de red, aplicaciones y servicios profesionales asociados para empresas y proveedores de servicios- pasarán de los 360 millones de euros que generarán este año, a 3.700 millones en 2016. Una evolución que se justifica por el rol clave que hoy juegan estas tecnologías de red.

Al separar los equipos de red de los elementos que facilitan su configuración y control, las redes ganan en flexibilidad, dinamismo y escala, ventajas clave para los actuales entornos de centro de datos y de cloud computing, donde las cargas de trabajo y los recursos están virtualizados y requieren arquitecturas de red ‘planas’ y ágiles.

SDN es la solución estándar que permite programar los recursos de la red vía un controlador de software externo, desacoplando los planos de conmutación y de control, extrayendo éste último de los elementos de red, que pasan a estar virtualizados, como un fabric único, en el que las aplicaciones pueden demandar los recursos que necesiten.

Es la capa que es usada por las aplicaciones para demandar recursos de red, a través de una API estandarizada, y que usa múltiples tecnologías para poder configurar los flujos en el “fabric único virtual” como: OpenFlow, SNMP, scripts de CLI, RESTful, XML, CORBA, etc.

Esta arquitectura aporta la posibilidad, de una provisión bajo demanda de servicios de red, es multiplataforma y reacciona a la medida de los requerimientos de las aplicaciones. Aporta, por tanto, flexibilidad, abstracción, visión global de toda la red (al tener el plano de control centralizado), aislamiento entre aplicaciones, y soporte multifabricante.

El estándar emergió gracias al desarrollo del protocolo OpenFlow y la formación de la Open Networking Foundation (ONF) en 2011. Pero desde entonces, los fabricantes han desarrollado de forma propia otras herramientas SDN que cubren las actuales carencias de OpenFlow. Para conseguir un enfoque común, se creó el OpenDaylight, apoyado por Linux Foundation, y en el cual colaboran firmas como: Cisco Systems, VMware, Juniper Networks y Ericsson, que contribuirán con código y esfuerzos de ingeniería para construir un software común de infraestructura para SDN. También participan en la iniciativa Brocade, Citrix, Big Switch Networks, IBM, HP, Microsoft, Dell, Intel, NEC, Arista Networks y Nuage Networks, startup de Alcatel-Lucent especializada en SDN.

La ONF colaborará ahora con OpenDaylight, cuyos desarrollos de software serán distribuidos bajo licencia pública Eclipse. Vale la pena aclarar que a pesar de contar con el apoyo de Linux Foundation, su software no se limitará a Linux.

Tecnologías híbridas

Pero mientras sigue en aumento la oferta de soluciones que soportan SDN, las nuevas tecnologías consideran cada vez más la integración de conceptos tales como globalización, productividad, colaboración, innovación y orientación a los negocios, lo cual impone mejoras en la red para gestionar el crecimiento de voz y vídeo sobre IP, así como la proliferación de dispositivos inalámbricos conectados a la red, virtualización y el crecimiento de la computación en nube.

De acuerdo con una encuesta reciente de IDC, realizada a líderes de tecnología en la región, más del 53% de las empresas afirman que requieren una red más robusta en América Latina y el 61% de ellos afirmaron que la disponibilidad de ancho de banda es una de las principales preocupaciones.

La estrategia de la tecnología será un híbrido e implicará una serie de estrategias combinadas, donde la tecnología fija (fibra - FTTx) y la tecnología móvil (3G - 4G) se complementarán entre sí. Desde un punto de vista técnico, Wi -Fi  aparecerá como una solución clave para la saturación de la red y del espectro, lo cual se mostrará como una opción atractiva, con costos bajos de instalación y de tasas regulatorias.

Según IDC, en 2014, los mercados de América Latina comenzarán a ver los planes multimedia integradas con la Mbps como la unidad de consumo de los precios, así como más modelos de servicios transaccionales. IDC ve que más del 70% de las empresas de América Latina tendrá en cuenta la mejora de la seguridad en WAN como su principal objetivo dentro de sus planes de optimización de la red.

Otro aspecto, será el crecimiento de inversión en infraestructura convergente (IC), que aumentó más del 60% durante el primer semestre de 2013. La creciente adopción de la Infraestructura Convergente ha sido especialmente rápida en los mercados verticales como finanzas, telecomunicaciones, retail y manufactura.

IDC estima un crecimiento de dos dígitos de la Infraestructura Convergente para el 2014, derivada de una propuesta de valor dirigida por la industria, así como la mayor capacidad de integración a través de la capa de middleware. En muchos casos, las arquitecturas de la Infraestructura Convergente se posicionan como un siguiente paso en el camino hacia la virtualización, en un contexto de aprovisionamiento dinámico, en el que la carga de trabajo y, por lo tanto, el software es el que va a definir la demanda de infraestructura.

En 2014 la expresión aprovisionamiento dinámico será una expresión común y estará fuertemente relacionada con cualquier iniciativa de entrega como servicio (as a Service) de una carga de trabajo; últimamente el camino es el aprovisionamiento dinámico también llevará hacia lo que se denomina “todo definido por Software (SDx)”.

El SDx permite a la infraestructuras de computación ser virtualizada y ser entregada como un servicio, donde cómputo, redes, almacenamiento o incluso el servicio completo de data center son automatizados por software programable, lo que resulta en soluciones más dinámicas y rentables.

El SDx está presentado como un concepto de gerenciamiento de red más simple, resaltando atributos como optimización de capacidad de la red, integración de más allá del core de la red, mejores estándares de interoperabilidad, suma de nuevas capas de inteligencia de la red y, por ende, nuevas métricas de desempeño de la red.

Facilitará la optimización de capacidad de la red, integración de más allá del core de la red, mejores estándares de interoperabilidad, suma de nuevas capas de inteligencia de la red y nuevas métricas de desempeño de la red.

En ese sentido, coincide Gartner, al darle el papel protagónico al software, en la red y en todo el ambiente empresarial. Según la consultora, en sus pronósticos de 2014, Software Defined Anything (SDx) incorpora varias iniciativas como OpenStack, OpenFlow, Open Compute Project y Open Rack, que comparten visiones similares. A medida que los silos de tecnologías SDX particulares evolucionan y se crean consorcios a su alrededor, las empresas han de buscar estándares, pero retando a los proveedores a que demuestren su compromiso con ellos.

Lo que se pretende con “todo definido por software” es  la oportunidad de ganar en simplicidad, reducir costos y consolidar de un modo eficiente.

VER PARTE II

Comparte en redes sociales
Scroll