Posts etiquetados ‘Redes’

El tráfico en las redes IP tiene fundamentalmente dos componentes. Por una parte está el tráfico que se establece entre usuarios y servicios que presta esa red IP. Si se establecen sesiones P2P (Peer to Peer) entre clientes de una misma red IP, ese tráfico permanece dentro de dicha red IP. En cambio, si el cliente busca información que no se encuentra disponible en la red IP, saldrá hacia las interconexiones para buscarlo, en otras redes IP del mismo país, o hacia la salida internacional, en busca de redes IP de otros países donde se conectan los servidores en los que reside la información y/o el servicio que el usuario anda buscando.

Cuando los programas P2P hicieron su aparición se produjo dos efectos principales en las grandes redes IP. Por una parte, el tráfico sufrió un incremento considerable. Por la otra, gran parte de ese incremento fue asumido dentro de las propias redes, ya que se establecían conexiones entre clientes de la misma red. Estamos hablando de la época de oro del emule y demás familiares y los torrents.

Con la aparición de páginas de descarga directa, el perfil del tráfico sufrió un importante cambio. Como los servidores de este tipo de páginas se encontraban en países muy concretos y te ofrecían la posibilidad de acceder a los contenidos de manera mucho más rápida, el tráfico P2P fue decreciendo lentamente a la par que se incrementaba el tráfico que iba dirigido a las interconexiones, en busca de esos pocos países donde residían los servidores de descarga directa. Estamos hablando de Megaupload, Rapidshare y demás familiares.

Ahora llega el FBI y pega un portazo a una de las principales páginas de descarga directa, y el resto aplican el dicho de…cuando las barbas de tu vecino veas pelar…Consecuencias inmediatas, el tráfico de interconexión desciende drásticamente mientras se va recuperando las antiguas costumbres peer to peer.

La moraleja de este cuento es que el tráfico IP crece, más o menos rápido, pero crece. Lo que no sabemos es cómo. Creo que ha quedado claro que las aplicaciones y los usos serán los que determinen como dimensionar y planificar una red IP. No es lo mismo llevarlo todo a un punto o un par de puntos que distribuirlo por toda tu red.

La cuestión es que en cualquier momento puede aparecer cualquier nueva killer application que te vuelva a poner patas arriba los patrones de tráfico de tu red y tire por tierra todas tus previsiones de planificación y gestión de recursos. Con esta incertidumbre manifiesta, una integración entre el plano IP y el plano óptico empieza a cobrar sentido por encima de las pretensiones de algunos jugadores específicos que siempre habían apostado por ello.

La red IP enruta el tráfico estupendamente, pero si no tiene asociada una red óptica que transporte los paquetes de un router a otro, nos vale de bien poco.

En la mayoría de las redes de los grandes proveedores de servicio, red IP y red óptica conforman dos mundos independientes en todos los sentidos, operativo, diseño, planificación, gestión… Pero en estos tiempos revueltos, empieza a  tomar forma la idea de que si dispongo de una planificación flexible , dinámica y conjunta de mis recursos IP y de mis recursos ópticos seré mucho más eficiente a la hora de enfrentarme a nuevos cambios del veleta tráfico IP, afrontándolos de manera ágil, dinámica y por supuesto efectiva en costes.

Eso sólo sería viable si existe algún tipo de integración entre los planos de control de ambos mundos. Es decir, si la red IP se constituye como cliente de la red óptica y es capaz de solicitar servicios de conectividad en tiempo real. Y la red óptica es capaz de servirlos.

Pero esa es otra historia, de la que hablaremos en otro cuento…

Anuncios

El concepto de super-channel, o super-canal está asociado a velocidades superiores a los 100 Gbps. ¿Por qué se necesitan velocidades tan elevadas? Porque el tráfico en Internet crece, y crece y parezca que no tenga límite. Cada vez son más los usuarios y cada vez son más los contenidos. Además cada vez son más las diferentes formas y lugares desde los que podemos acceder a Internet. La explosión del video, en concreto los formatos de alta definición y los smartphones, tablets y demás dispositivos con sus posibilidades infinitas hace que las necesidades de ancho de banda sean inconmesurables. Ni hablemos de cuando lo que se conoce como Internet de las Cosas y todo lo que se engloba bajo el concepto de La Nube sean una realidad palpable.

Esta explosión es una oportunidad clara para los proveedores de servicio, los que mejor sepan captar las experiencias de los usuarios en este entorno dinámico in extremis, serán los que capturen más mercado. Claro, estos proveedores de servicio tienen que estar preparados para que sus redes escalen de manera dramática, y por supuesto minimizando los costes capitales y operacionales, de manera que el precio del Gbps sera el mínimo posible.

El punto de partida para esta revolución se encuentra en las redes de transporte, pilares de las comunicaciones de larga distancia.

Para emprender este camino, los mecanismos de transmisión óptica DWDM deben también adaptarse a las nuevas necesidades. El concepto de supercanal es una nueva aproximación a las promesas de capacidad que el DWDM puede ofrecer ante el incremento creciento del tráfico.

¿Qué es un Supercanal?

DWDM  es una tecnoogía que permite que en una sola fibra óptica viajen en paralelo varias portadoras ópticas, de manera que el uso de dicha fibra es mucho más eficiente, ya que en lugar de un único canal de información, se transmitirán muchos más (cada portadora óptica es un canal).

Se trata de una tecnología ampliamente desplegada y que ahora se encuentra en el entorno de los 100 Gbps por cada portadora óptica. Pero con las espectativas en cierne de crecimiento exacerbado, puede que esta capacidad no sea capaz de asumirlas. Hay que incrementar el ancho de banda sin incrementar la complejidad operacional.

En respuesta a la pregunta, ¿qué vienen despues de los 100 Gbps?, aparece el supercanal como la mejor posicionada. El supercanal es una evolución del DWDM en la que varias portadoras ópticas se combinan para crear una señal de línea compuesta de la capacidad deseada, y que se provisiona de una sola vez. Por supuesto, para el cliente, el uso de supercanales es algo transparente.

Implementando Super-Canales

A día de hoy no se disponen de estándares para implementar super-canales. Además, aspectos tales como el número de portadoras, las velocidades de las mismas, incluso si deben ser portadoras contiguas o no, y el nivel de integración de componentes, son temas que están totalmente abiertos.

Existen dos opciones de implementación obvias para desarrollar transpondedores de una única portadora que funcionen a velocidades por encima de los 100 Gbps. Una es transmitir más símbolos de modulación por segundo y la otra es codificar más bits por símbolo de modulación. Incluso una combinación de ambos.

Incrementar el número de bits por símbolo implica incrementar la eficiencia espectral, y eso no siempre es fácil ni puede pagarse el precio que puede costar.

La tecnología de los super-canales añade una tercera opción, la posibilidad de manejar múltiples portadoras como si fuera una sola.

La importancia de la integración fotónica

Los super-canales permiten una capacidad de 1 Tbps DWDM provisionada de una sola vez sin penalizaciones en la eficiencia espectral y con el mismo alcance óptico que el de los transpondedores de 100 Gbps coherentes actuales.

Es evidente que un super-canal de 10 portadoras necesita establecer 10 componentes ópticos en una tarjeta de línea. Implementando este tipo de interfaz usando componentes ópticos discretos podría ser totalmente inviable.

 Usando PIC, Circuitos Fotónicos Integrados, uno en transmisión y otro en recepción, las 10 portadoras podrían implementarse en una única tarjeta de línea compacta, consumiendo menos potencia que 10 transpondedores discretos.

Los PIC aportarían a la ingeniería de los super-canales lo que la integración electrónica aportó en su momento a las CPU multi-core. Los PIC eliminarían las limitaciones de la complejidad de los componentes ópticos y permitiría que la ingeniería correcta fuera aplicada. Si quieres saber algo más sobre los PIC pincha aquí

Flexibilidad es la clave para el éxito de los super-canales

Los supercanales deben ser extremadamente flexibles en una serie de parámetros:

  • ¿Qué tipo de modulación debería usar?
  • ¿Cual es la mejor manera de optimizar la eficiencia espectral y el alcance
  • ¿Qué espaciado deben tener las portadoras?
  • ¿Cual debería ser la anchura total de un super-canal?

Un super-canal ideal  debería permitir seleccionar todos estos parámetros mediante software. De manera que el operador pudiera escoger, en el momento de la provisión, la combinación óptima de parámetros para cada circuito.

El concepto de rejilla flexible, parece que es una opción que no se podrá descartar para obtener velocidades en torno a 1 Tbps de manera eficiente, y eso implica que será imprescindible que el espaciado y la anchura de los canales sea dinámico y configurable por SW. El horizonte temporal de disponibilidad no va más allá de los 4 años.

Puedes encontrar un interesante Whitepaper con mucha más documentación en Super-Channels DWDM Transmission Beyond 100 Gbps

Cuando se habla de velocidades de 40 Gbps y superiores, las cuales podríamos definir como ultravelocidades, el empleo de nuevas técnicas de modulación se convierte en una necesidad imperiosa.

El espectro del que disponemos en una fibra óptica es el que es. Y como limitado que está, si queremos seguir aumentando la velocidad en las transmisiones, la única posibilidad es aumentar la eficiencia espectral, es decir, meter más bits por Hertzio.

Además, hay que tener muy claro, que cuando en la fibra se corretea con velocidades muy elevadas, superiores a los 40 Gbps, los fenómenos no lineales, que para velocidades inferiores apenas representan problemas, se pueden convertir en un auténtico quebradero de cabeza que eche al traste algunos enlaces ya establecidos. Las dispersiones cromática y la producida por el modo de polarización también tienen su protagonismo indeseado conforme aumentamos la velocidad de las señalas a transmitir. Será por tanto necesario compensar en el receptor todos estos fenómenos perniciosos para así poder recomponer correctamente la señal transmitida.

Es decir, si queremos transmitir velocidades por encima de los 40 Gbps necesitamos formatos de modulación que aumenten la eficiencia espectral y que utilicen ciertos mecanismos para compensar los fenómenos perniciosos que se producen a esas velocidades. Estamos hablando, ni más ni menos, de detección coherente con DSP (Digital Signal Processing). Los sistemas de transmisión, por lo tanto, están evolucionando hacia sistemas con detección coherente y procesado de señal.

Profundicemos, sólo un poco, en los fenómenos adversos que hay que tener en consideración a velocidades superiores a 40 Gbps:

  • CD, Dispersión Cromática. La dispersión es un ensanchamiento que sufre el pulso, en este caso, debido a las propiedades del medio de transmisión, que presenta diferente índice de refracción para las diferentes longitudes de onda que componen la señal. Es decir, que la luz cuando viaja por la fibra, va rebotando dentro del núcleo, y cada color que la compone viaja a una velocidad diferente, con lo que el pulso cuando llega a su destino es más ancho. Puede llegar un momento, en que sea tan ancho que se superponga con el pulso anterior y/o posterior, con las consiguientes interferencias que generarán errores en la decodificación de la información que transportaba el pulso original.
  • PMD, Dispersión por el modo de polarización. En este caso la dispersión se produce debido al hecho de que la fibra es un material birrefrigerante. Es decir, el índice de refracción es diferente para el modo vertical y horizontal, que son los dos modos ortogonales de polarización que presenta la señal, de manera que el ensanchamiento del pulso se produce esta vez porque la componente vertical de la señal se mueve  a una velocidad diferente que la componente horizontal. Como depende de la fabricación de la fibra, es un parámetro estadístico, y por lo tanto difícil de compensar.
  • Fenómenos no lineales. Tienen dos orígenes fundamentals. Cuando la intensidad de la luz sobrepasa una determinada potencia, la variación del índice de refracción de la fibra provoca diferentes fenómenos como la auto modulación de fase (Self- Phase Modulation (SPM)), la modulación de fase cruzada (Cross-Phase Modulation (XPM ó CPM)),y la mezcla de cuatro ondas (Four Wave Mixing (FWM)). Otro tipo de fenómenos no lineales se debe a la interacción de los fotones incidentes con algunos modos de vibración del material que se conocen como Fonones, de esta interacción resultan dos tipos de dispersiones: La Dispersión Estimulada de Raman (Stimulated Raman Scattering (SRS)) y la Dispersión Estimulada de Brillouin. (Stimulated Brillouin Scattering (SBS).

Todas ellos, en su combinación, degradan las señales de ultravelocidad. La relación óptica señal a ruido que caracteriza el sistema, OSNR (Optical Signal to Noise Ratio), viene determinada por una tasa de error en la recepción, BER (Bit Error Rate). Para que la comunicación sea viable, la BER  tiene que ser menor que el umbral del FEC (Fordward Error Correction). Es decir, las técnicas que se utilizan para corregir posibles errores acaecidos en la transmisión tienen que resolver los errores provocados por los fenómenos perniciosos, de manera que se siga manteniendo la BER necesaria. Estos además, son más perniciosos cuanto mayor es la velocidad de transmisión.

A todo lo expuesto, debemos añadir el hecho de que las redes de transmisión ópticas no suelen ser fibras punto a punto, sino que es la estructura de malla, por su fiabilidad y robustez, la que se posiciona como favorita. Y cuando se producen fallos en los enlaces establecidos, las restauraciones de los mismos pueden conllevar cambios repentinos en la señal recibida. El proceso de restauración debe ser lo suficientemente rápido como para que la interrupción del servicio sea apenas perceptible. Pero cuando tratamos con velocidades superiores a los 40 Gbps, la compensación de la dispersión cromática, que hay que calcular despues de obtener el nuevo camino de restauración puede ser más lenta de lo deseado.

Las tecnologías tradicionales utilizan detección directa, o bien de la intensidad de la señal transmitida (OOK) o bien de la combinación entre la señal transmitida y una réplica retardada (xPSK) que convierte diferencias de fase en diferencias de amplitud.

 En la detección directa, la potencia del canal se convierte en intensidad de corriente en un fotodiodo. Con un filtro paso banda en el último equipo ROADM del enlace seleccionamos el canal. Se trata de una solución de fácil implementación y sobre todo barata. Pero presenta una baja sensibilidad y muy baja capacidad para compensar los fenómenos adversos.

Necesitamos por tanto de algún mecanismo que aumente la sensibilidad de la señal y que nos permita compensar los crecientes fenómenos adversos.

Si procedemos a mezclar nuestra señal original con un oscilador local, esto nos permite obtener la amplitud y la fase de la señal. Y mediante un procesado digital sería posible compensar la CD y la PMD, bastante nocivos, como ya hemos advertido, en los sistemas de alta velocidad. Además, la señal que se recibe es de mucha mayor potencia debido al mezclado con el oscilador local, y se realiza un filtrado intrínseco de la señal, ya que el oscilador se sintoniza entorno al canal o canales que se quieran detectar, con lo que se simplifica la arquitectura de los nodos ROADM.

 De manera que, para asegurarnos que la transmisión de velocidades superiores a los 40 Gbps sea una realidad, es necesario el empleo de formatos de modulación coherente.

Profundizaremos en los diversos aspectos aquí comentados en entradas posteriores.

IP, Internet Protocol, es el lenguaje de Internet, con matices, como ya expliqué en la entrada de Las Redes IP.

Este protocolo, se encuentra desplegado en su versión 4, que es lo que se conoce como IPv4. Pero como sucede siempre en el mundo de la tecnología, ésta se queda obsoleta, y demasiadas veces muy rápidamente. ¿Cuantas veces te has cambiado de teléfono móvil? Pues eso.

En el caso del IPv4, ha durado más de lo que muchos gurús decían. Hace años que la amenaza se cierne sobre el IPv4…la espada de Damocles acechaba detrás de cualquier router, pero el IPv4 seguía aguantando el tirón. Hasta que llegó el día en el que ya no pudo más, y ahora sufre una lenta y agónica marcha hacia su desaparición definitiva…la cual probablemente dure más que su propia vida, ya sabemos eso de que las cosas de palacio…van despacio…

¿Cual ha sido el detonante para este vil y cruel destino? Entremos un poquito en harina. El IPv4, como todo protocolo que se precie, se puede equiparar a una caja con dos compartimentos. Uno de ellos se llama cabecera, y ahí es donde se mete toda la información relacionada con la metafísica…¿quien soy? ¿a dónde voy?¿de donde vengo?¿cual es mi tamaño?¿que  tipo de carga transporto?¿cuanto me queda de vida?…típicas preguntas que cualquier paquete se haría. Esta información la necesitan los routers para hacer sus cositas. En el otro compartimento iría la información que realmente interesa al usuario final, las transparencias con gatitos, los correos en cadena…ya sabes.

En el compartimento de la cabecera en el IPv4 existen a su vez varias cajas. La que ha sido responsable de todo este lio es la caja que contiene las direcciones IP, que resulta que es demasiado pequeña. A los gurus que inventaron el protocolo, no se les ocurrió, ni en sus sueños más húmedos, que harían falta más de  4.294.967.296 direcciones IP, es decir, rondando los 4.300 millones de direcciones. Este número tan curioso sale de los 32 bits que caben en una caja de direcciones IP…2 elevado a 32 sale justo eso. Ni más ni menos.

Hace ya unos cuantos años, los organismos que manejan las direcciones dieron la voz de alarma…se nos están acabando las direcciones IP…como la cosa parecía que iba en serio, los que tenían direcciones que ya no utlizaban empezaron a devolverlas. Con eso aguantamos unos cuantos años más. Pero parece que ahora sí que viene el lobo, y todos los grandes operadores de redes IP están haciendo sus números y sus cálculos.

Para solventar el problema, lo que hacemos es cambiar de versión de protocolo IP, nos pasamos a la IPv6, que tiene una caja de bits mas grande…caben 128 bits…eso significan…me mareo sólo de pensarlo, ¿os acordaís del número de Avogadro y de lo que era un mol? Pues más…estamos hablando de 3,4 por 10 elevado a 38 ceros. Nuestro cerebro no está capacitado para asumir tantos ceros. Típicas comparaciones divertidas, la equivalencia entre el IPv4 y el IPv6 sería como comparar el peso de un átomo (da igual, escoge tu elemento favorito de la tabla periódica) con el de una ballena de 80 toneladas, percebe  arriba, percebe abajo.

Aparte de aumentar INCREIBLEMENTE el número de direcciones IP disponibles para repartir por el mundo mundial, el IPv6 presenta otras ventajas adicionales, como una caja de cabecera más simple que facilita el trabajo de los routers, más fácil para gestionar la movilidad, es más seguro…claro una nueva versión siempre mejora a la anterior.

Que quede claro que se trata de una evolución, no de una revolución. Con este cambio, hasta la cesta de las patatas podrá tener su dirección IP, para así mandarte una alerta al móvil avisándote de que se están brotando. Lo que inventa el  sapiens…

Lo más gracioso de todo esto, va a ser cómo se van a ir migrando las redes de un protocolo a otro. Ríete tú del efecto 2000, aquí si que se puede liar parda. Hay diferentes estrategias para hacerlo. Diría que tantas como operadores de redes IP, que si no se acerca al número de estrellas en la galaxia, debe andar por ahí por ahí. Algunos aguantarán con el IPv4 hasta que revienten. Otros irán de vanguardistas y pondrán el IPv6 si no lo han puesto ya, que haberlos haylos. Dentro de cada red se pueden establecer islas de IPv6 rodeadas de IPv4. Puedes hacer que tu red funcione en IPv6, pero luego haces traducciones a IPv4 para conectarte con otras redes o con tus clientes finales. Puedes seguir prestando tus servicios de toda la vida en IPv4, y los nuevos con IPv6. Puedes complicarlo o simplificarlo tanto como puedas o necesites.

Para los humildes mortales, que por ahora no necesitamos un millón de direcciones a repartir entre tus cosas de casa, nos la trae un poco al pairo, y no vamos a salir en masa a la calle a manifestarnos para que todo sea IPv6. Pero hay una cosa que se llama M2M, Machine to Machine, que probablemente sea lo que tire hacia delante de las migraciones. Cada vez son más las máquinas que se interconectan entre ellas para intercambiar información, y cada una de ellas con su dirección IP. La idea es que la patata avise que se brota al servidor de patatas que tendrá el verdulero, para que a su vez se conecte al servidor del mercado central de patatas, para que hable con el hortelano que vaya plantando. Por ejemplo se me ocurre…

Las Redes IP

Publicado: 27 septiembre, 2011 en Tecnología
Etiquetas:, , , ,

Internet es IP, seguro que alguna vez habrás escuchado algo parecido a esto. En realidad IP significa Internet Protocol, es decir, protocolo entre redes. Internet, la que se escribe con mayúscula, en realidad no es sólo IP, es un modelo TCP/IP. Vamos a ver todo esto que significa.

El protocolo IP es un protocolo muy potente para conectar diferentes redes, y para encaminar el tráfico hacia el destino adecuado. Los routers, que son los equipos de red que hablan IP, funcionan como los carteros. Imagínate cómo funcionaría la oficina de correos,sí, la de toda la vida, esa que ya nadie usa. Todas las cartas que llegan son separadas, por ejemplo, en cuatro grupos: locales, provinciales, nacionales, internacionales. Cada uno de esos cuatro grupos a su vez volvería a dividirse en por ejemplo en el caso de las internacionales, a Europa, a América, etc. Esa clasificación se realiza en función del destino de las cartas, que te recuerdo que aparece en la parte delantera del sobre. ¿Cuanto haces que no envías una?

Los paquetes IP serían como una carta con su sobre, y tendría la siguiente información:

  • el destino, es decir, hacia donde va ese paquete, su dirección IP destino,
  • el remitente, es decir, quíen escribe la carta o quíen está enviando el paquete IP, la dirección IP origen.
  • la carta propiamente dicha, lo que va dentro del sobre, iría dentro del paquete IP, sería la información útil que se está transportando, tu correo electrónica, la página del banco…

El router, que haría de cartero, cogería un paquete IP, miraría su dirección IP destino, y se iría a buscar en una tabla que tiene a buen recaudo y que se llama tabla de routing. En esta tabla aparecen todos los posibles destinos que se pueden alcanzar desde ese router, agrupados en lo que se llama siguiente salto o next hop.

Es decir, IP seleccionaría, de todos los routers vecinos con los que está conectado directamente, el adecuado, y le lanzaría el paquete, pero sin prestar atención a si el paquete llega correctamente a su destino o no. Su trabajo ha terminado, al menos de momento. Si Internet fuera solo IP no funcionaría, porque los paquetes perdidos nunca llegarían a su destino.

Ahora hablamos de los acompañantes del IP, porque aunque una red se diga de ella que es una red IP, este protocolo no es el único que se habla en dicha red. Está acompañado de muchos y diversos compañeros de batalla, y entre todos hacen posible la comunicación a través del mundo.

Tendríamos un protocolo que se llama TCP (Transport Control Protocol) que estaría mirando por encima del IP, y viendo que los paquetes que el IP manda llegan correctamente a su destino. Si hay algún problema y el paquete no alcanza su destino final, el TCP le dirá al IP, oye vuelve a lanzar este paquete porque no ha llegado, y el IP, que es muy obediente, retransmitirá el paquete de nuevo. Este es el modelo que funciona en Internet, al menos por ahora…

Para aplicaciones como navegar por Internet, da igual que un paquete llegue antes que otro, o que no lleguen ordenados tal y como salieron del origen. Pero hay otras aplicaciones, como por ejemplo la voz y el vídeo, en las que no tiene ningún sentido que lleguen los paquetes fuera de su momento temporal. Si un paquete se pierde, es mejor que no se retransmita, porque cuando llegue a su destino, no va a poder ser utilizado, ya que la frase a la que pertenece o el fotograma del que forma parte, ya ha pasado. En estos casos no se utilizan protocolos como el TCP, que no son válidos para aplicaciones en tiempo real, sino que en su lugar se utilizan protocolos del tipo UDP (User Datagram Protocol), que no retransmiten los paquetes perdidos y se centran en enviarlos cumpliendo los plazos.

El IP también se rodea de lo que se denomina protocolos de routing, que son los que rellenan la tabla de routing, recordemos que era donde el router miraba para saber por donde tenía que sacar el paquete que estaba analizando. Hay muchos tipos de protocolo de enrutado, y siguen diferentes filosofías, desde los más simples como el RIP (Routing Information Protocl), que rellenan la tabla de manera estática e inamovible, a los más complejos como el OSPF (Open Short Path First) o BGP (Border Gateway Protocol) que hablan entre ellos para saber en cada momento cual es el mejor camino para llegar a cualquier sitio. En este caso, por lo tanto, las tablas de rutas están continuamente actualizándose, y así el router sabe cual es el mejor camino para llegar a cada destino. Es como tú cuando conduces, sueles coger una ruta habitual, pero si escuchas en la radio que hay un atasco, o es viernes y tu experiencia te dice que lo habrá, seleccionas otro camino alternativo, que son más kilómetros pero vas a tardar menos tiempo. Eso es lo que hacen los protocolos de routing.

También tenemos al amigo MPLS (Multiprotocol Label Switch) que corre en toda red IP que se precie. El protocolo IP necesita de mucha capacidad de procesado, y la escalabilidad es complicada cuando tenemos miles, millones de redes a las que podemos llegar. Por eso, en los núcleos de las redes IP, no se habla en IP, se habla en MPLS, y sólo en los bordes de la red IP, que son los que se conectan con otras redes IP, se habla IP puro y duro. Con el MPLS en el núcleo de la red, tengo más control sobre mi tráfico, ya que lo que hace es etiquetar caminos, y todos los paquetes que vayan por el mismo camino tendrán la misma etiqueta. Sería algo parecido a este ejemplo, imagínate que te vas con todos tus amigos de fin de semana. En vez de ir 20 coches, como todos vais al mismo sitio, alquilais un bus. Los routers, que también hablarán MPLS, en lugar de mirar todas y cada una de las direcciones IP destinos de todos y cada uno de los paquetes, sólo tendrá que mirar la etiqueta para decidir el camino por el que envía el paquete.

Internet, no es ni mas ni menos, que todas las redes IP del mundo interconectadas entre ellas…todas o casi todas. Cada red IP tiene asociado bloques concretos de direcciones IP, de manera que sabiendo la dirección IP, sabes donde tienes que ir….algo parecido a los códigos postales que usamos en las ciudades. Juntando todos estos protocolos conseguimos un medio maravilloso de comunicación con posibilidades todavía desconocidas.

Las Redes de Transporte suelen ser las grandes desconocidas para los que no están directamente relacionados con el negocio de las Redes de Telecomunicación. Y sin embargo, son imprescindibles para que la comunicación fluya de un lugar a otro.

Seguro que has escuchado hablar de Redes IP, de Redes Ethernet, del ADSL, de la Fibra….pero esto del transporte te suena a coche, tren, y similares. Bueno no vas desencaminad@, porque el concepto es exactamente el mismo. Cada una de las tecnologías que intervienen en un sistema de comunicación tiene su función. La función de la Red de Transporte, o de Transmisión, es llevar, físicamente, la información de un lugar a otro, normalmente de manera transparente. Es decir, da igual que se trate de una llamada de teléfono, de un acceso a tu correo electrónico o de una película que estás viendo en tu televisor. La información al final son 1 y 0 que van de un sitio a otro. Y lo hacen mediante estas redes.

La Red de Transporte, por lo tanto, une los POP o Puntos de Presencia, de los Operadores de Telecomunicación. Y para ello se utiliza fibra óptica principalmente, ya que es el portador que mayor ancho de banda permite. También se pueden utilizar cables de cobre o coaxial, pero están tendiendo a desaparecer, por alcance y por ancho de banda. Otra alternativa interesante en zonas aisladas o de difícil acceso es utilizar las conexiones radioeléctricas. Cuando veais una torre de antenas, las que son planas y rectangulares son de servicios móviles, pero las que son como panderetas grandes o como parabólicas pequeñas pertenecen a la red de transporte.

  La arquitectura de este tipo de redes es diversa, y cada operador despliega las que mas le conviene según el tipo de zona que quiera cubrir y según el tráfico que quiera transportar. Por ejemplo se pueden utilizar topologías en forma de anillo, es decir, todos los nodos estarían conectados formando un anillo. Tiene la ventaja de que es una forma barata y fácil de desplegar una red, además presenta cierto tipo de seguridad ante la caida de un enlace, ya que siempre se puede dar la vuelta al anillo por el otro lado para llegar al destino. Las arquitecturas en forma de malla, es decir, nodos unidos unos con otros en mayor o menor grado son mucho más flexibles y versátiles, pero son más caros de desplegar, hay más enlaces entre los nodos. Y precisamente gracias a esto, una arquitectura en malla puede tener varios caminos alternativos para llegar de un punto a otro.

Las tecnologías que se utilizan en este tipo de redes suelen clasificarse en dos grandes tipos:

  • Sistemas Síncronos, se trata de equipos eléctricos, que manejan electrones para hacer los 1 y 0. La tecnología por excelencia en Europa es  SDH (Jerarquía Digital Síncrona), que podría equipararse a un tren que consta de la locomotora, y los vagones.  El tren tiene un horario que cumplir, siempre llega y sale de la estación puntualmente. En los vagones es donde se almacena la información de los distintos tipos de tráfico, desde la voz, hasta los datos, pasando por vídeo y lo que quieras.
  • Sistemas Ópticos, es decir, que manejan fotones. Aquí la tecnología estrella es el WDM, Multiplexación por División en Longitud de Onda. Cuando llueve y hace sol, la luz que emite el sol al atravesar las gotas de agua se desparraman en los colores del arcoiris. Eso es lo que hace esta tecnología. Lo que se consigue es tener una autopista de muchos carriles para ir de un lugar a otro, en lugar de una carretera de un solo sentido. Sobre una fibra óptica se transmiten muchos colores y cada color es un canal de comunicación independiente

Las Redes de Transporte, hasta ahora, han sido redes independientes y transparentes, es decir, les daba igual transportar un paquete IP, o una trama Ethernet, porque no los tocaban, solo cogían la información y la envíaban de un punto a otro. La evolución de las redes hacia el concepto de NGN, Redes de Nueva Generación está cambiando la visión y el papel de la red de transporte. Las nuevas soluciones pasarían por integrar funcionalidades de transporte en los diferentes tipos de redes, o bien, implementar nuevas tecnologías que permitan transportar los paquetes de forma eficiente. Estas tecnologías podrían ser MPLS-TP, PBB…demasiado para incluirlo aquí.

La gestión y el control de una red óptica inteligente es necesario y deseable independientemente de las arquitecturas de capas que se adopte. Un plano o capa es una construcción conceptual que se asocia con una funcionalidad. Veamos con un poco más de detalle cada una de las capas que puede componer una arquitectura de red:

Plano de Gestión: Representa la infraestructura que se utiliza para gestionar la red desde un punto de vista de Operación, Administración y Mantenimiento (OAM). Proporciona las interfaces y la infraestructura bajo el plano para configurar las redes y supervisar las funcionalides y las alarmas. Un sistema de gestión de elemento (EMS), un sistema de gestión de red (NMS), una interfaz Web para actuar manualmente (craft terminal), o una interfaz de línea de comando (CLI), son herramientas típicamente asociadas al plano de gestión.

Plano de Control: Automatiza funcionalidades dentro de una red, como añadir o eliminar circuitos ópticos y restauración de mallas. Abarca protocolos de señalización internodos e intercomponentes, descubrimiento de la topología, anuncio y reserva de recursos, cálculo de caminos y cálculos de enrutamiento e información a intercambiar, y gestión automatizada de los estados de los enlaces. El plano de control propociona interfaces al plano de gestión mediante objetos gestionables, permitiendo al plano de gestión administrar el plano de control.

Capa Óptica Automatizada: Está íntimamente relacionada con el plano de control y podría ser considerada una parte de él. Realiza ajustes automáticos dentro de una red para controlar los niveles de potencia óptica. Puede incluir un controlador de enlaces automatizado, que se encargue por ejemplo de realizar ajustes en la ganancia del amplificador óptico de manera que se optimice la relación óptica señal a ruido (OSNR) global

Red de Comunicación de Datos (DCN): Proporciona la infraestructura para transportar la gestión y la información del plano de control entre dispositivos. La DCN puede constituirse con una infraestructura diferente a la de la red de transporte a la que da servicio, pero en la mayoría de los casos, utiliza componentes que forman parte del sistema de transporte, como los canales de comunicación proporcionados por los bytes de cabecera de OTN y/o SONET/SDH, canales de sublambdas en agregación Ethernet o tarjetas muxponder, o canales supervisión ópticos dedicados (OSC). Router y/o conmutadores de nivel 2 pueden tambien ser integrados dentro del equipamiento de transporte que da soporte a una DCN.

Plano de Transporte: Se trata de los aspectos de arquitectura de un sistema que directamente soporta el transporte de los servicios y la continuidad de los mismos. Una parte importante del plano de transporte se representa a menudo por los bytes de cabecera que acompañan a un flujo de servicio para el soporte de las funcionalidades OAM y el transporte seguro de cada instancia de servicio, así como a las señales OTN o SONET/SDH. Funcionalidades comunes ofrecidas por el plano de transporte incluye la supervisión del trazado de la señal, localización de fallos, indicación remota de fallos, supervisión de la calidad de la señal y las alarmas, correción de errores FEC, tipo de carga útil e indicaciones de mapeado, y conmutación de proteción automática.

Plano de Datos: Representa los datos reales de los usuarios. Por ejemplo, los bits de información contenidos en los flujos de datos de un circuito óptico que lleva un servicio o múltiples servicios.

Una vez aclarados estos conceptos de partida, vamos a centrarnos en el papel que tiene el plano de control para automatizar la provisión de circuitos en redes ROADM.

Partamos de una red con control estático. En ella, el operador debe manualmente configurar cada ROADM y otros dispositivos que intervengan en el camino de un circuito, mediante una interfaz de gestión. Establecer un circuito de manera manual requiere el conocimiento de los recursos disponibles, así como el equipamiento físico y cuales son las longitudes de onda que están disponibles en cada enlace. El camino seleccionado manualmente debe ser el adecuado, y la OSNR (Optical Signal to Noise Ratio, Relación Señal Óptica a Ruido) resultante, la dispersión y otras restricciones acumulativas del camino seleccionado tienen que ser evaluadas para asegurar la viabilidad del circuito. En algunos casos, se requerirá regeneradores, y su localización debería ser determinada manualmente.

Con control estático, la mayoría de la información que se necesita para establecer un nuevo circuito óptico, debe estar almacenada en una base de datos separada, hojas de cálculo o cualquier otra herramienta, y/o ser extraídas mediante interfaces de gestión. Para algunas redes, los operadores prefieren usar control estático,ya que es a menudo suficiente y fácilmente entendible, particularmente en redes pequeñas.

En los enlaces de larga distancia, los niveles de potencia óptica dependen de las condiciones de carga del canal, por ello, en los sistemas ópticamente amplificados es necesario y deseable un balanceo automático de la potencia cuando se usa control estático, ya que sin él, difícilmente se podrían cumplir los acuerdos sobre el nivel del servicio (Service Level Agreement, SLA).

El concepto de plano de control normalmente se asocia a control dinámico o automatizado de la red. Un plano de control, dependiendo de su ámbito, automatiza la mayoría de los procesos descritos en las redes de control estático.

Para sistemas ópticos de transporte, el plano de control sirve las peticiones de conexión y automatiza el proceso añadiendo o eliminando circuitos ópticos. Una petición para establecer un circuito puede ser originada por una persona mediante una interfaz de gestión que directamente gestiona la red, o mediante mensajes de un protocolo que se envían a través de una interfaz de red usuario red (UNI User Network Interface), o una interfaz red red (NNI Network Network Interface). A continuación, uno o más caminos viables se calculan automáticamente mediante un elemento calculador de caminos (PCE Path Computation Element), teniendo en cuenta la disponibilidad de recursos y cualquier restricción de enrutamiento. La viabilidad de un camino debe considerar todas las restricciones que impone la red, y si es necesario una regeneración óptica-eléctrica-óptica (OEO) para el circuito, entonces también deben ser considerados el emplazamiento y la reserva de los regeneradores

Una vez que se han calculado uno o más caminos viables, se selecciona uno de ellos para el nuevo circuito, en este caso se debería usar la señalizació automatica para configurar cada componente del camino, incluyendo transceptores sintonizables y ROADMs. Después es necesario verificar la continuidad del circuito y a continuación informar al usuario que el circuito está constituido. Para mantener y supervisar la implementación del circuito durante la vida del servicio, se debería usar una interfaz de gestión de servicio asociada al circuito. En la recomendación G.8080 de la ITU-T se muestra un modelo de arquitectura para una red óptica de conmutación automática (ASON Automatically Switched Optical Network).

 

Para las redes que usan el Protocolo Internet (IP), y el Multiprotocolo de conmutación de etiquetas (MPLS Multi-Protocol Label Switching), el IETF especificó un número de protocolos para el control distribuido, tales como IS-IS (Intermedium System-Intermedium System), OSPF (Open Shortest Path First), RSVP (Protocolo de Reserva de Recursos) y LDP (Label Distribution Protocol). Tradicionalmente estos protocolos han sido usados para redes de paquetes, con mensajes de protocolo transportados a lo largo del plano de datos. Añadiendo extensiones a estos protocolos, y la habilidad de operar de manera independiente del plano de datos, los protocolos fueron generalizados permitiéndoles ser usados en cualquier tipo de red,y eso es lo que se conoce como MPLS Generalizado, o GMPLS. Por lo tanto, GMPLS puede ser usado para el control de redes que conmutan fibras, longitudes de onda, ranuras de tiempo en una red TDM (Time Division Multiplexation) o paquetes en una red de paquetes, incluso en una mezcla de todas o algunas de ellas.

Estrictamente hablando, el término GMPLS hace referencia a un concepto de arquitectura mediante el cual una etiqueta y un camino de etiquetas conmutadas se generalizan, de manera que puede aplicarse a cualquier tipo de red y de tecnología de conmutación. Por lo tanto, el concepto de GMPLS en sí mismo no implica ningún protocolo específico. El IETF, sin embargo, ha definido un conjunto de protocolos como extensiones a los protocolos MPLS existentes para conseguir los objetivos de GMPLS, esto es lo que se conoce como la suite o pila de protocolos GMPLS, los cuales se usan para implementar redes GMPLS.

El modelo de referencia para la arquitectura ASON descrita en la recomendación ITU-T G.8080, describe la conmutación automática en una red óptica; sin embargo, no hay unos requisitos específicos de protocolos para realizar una red ASON, aunque se asume que se debería utilizar preferentemente la suite GMPLS definida por el IETF. Por esta razón, el modelo se conoce como plano de control ASON/GMPLS, incluso, se podrá ver, en la literatura técnica que hable de redes ópticas automatizadas, el uso de manera intercambiable de los términos ASON y GMPLS.

La suite de protocolos GMPLS se asocia normalmente con el control distribuido, en el que los nodos automáticamente descubren la topología de la red y las funcionalidades de sus vecinos. Todos los nodos tienen la misma visión de la red. Cualquier cambio en la red se difunde automáticamente a todos los nodos para que tengan constancia del mismo. Este tipo de control distribuido se usa ampliamente en las redes de routers, pero su aplicación a redes de transporte es más complicado y se convierte en un desafio.

El control distribuido plantea una serie de ventajas, como la mayor disponibilidad y resistencia, ya que se ajusta automáticamente a los requisitos cambiantes de la red. Sin embargo, todos los nodos deben ser compatibles con los protocolos que se usen, y difundir la información de estado en redes de gran tamaño, y/o con cambios frecuentes, puede afectar a los aspectos de escalabilidad de las mismas.

Con control centralizado, una aplicación central tiene una visión completa del dominio de red y sus elementos constitutivos. Se puede automatizar completamente la tarea de establecer o eliminar circuitos, y puede integrarse de manera efectiva con un PCE, gestor inteligente de circuitos. Esta alternativa se considera generalmente un control dinámico de la red, ya que cumple los mismos objetivos que un control distribuido. Debido a que un control centralizado automatiza las tareas que de otra manera deberían ser realizadas manualmente mediante una interfaz de gestión, esta alternativa se conoce como control conducido por un EMS o NMS.

El control centralizado sólo necesita recursos de cálculo en el controlador principal.Pueden usarse controladores redundantes para proteger ante fallo o caída del principal. Cualquier cambio de software que sea necesario (para el plano de control), sólo tendrá que realizarse en un sólo nodo, y no en todos los nodos de la red.

Ya que el control centralizado implica que tanto el cálculo del camino como la visibilidad global de la red están centralizados, todos los equipos deben ser capaces de interoperar con el controlador centralizado. Por lo tanto, hay generalmente un componente distribuido embebido para el control centralizado, y los protocolos que usan el controlador centralizado y los componentes embebidos pueden formar parte de la suite de protocolos GMPLS.

El PCE debe considerar para todas las rutas, las restricciones asociadas, tales como cuáles son las longitudes de onda disponibles en cada enlace, los recursos disponibles de cada nodo, y la topología y conectividad de los recursos. En el caso de redes ópticas que usan ROADMS y amplificadores ópticos, el PCE debe además ser capaz de predecir con precisión la viabilidad de implementación de los circuitos ópticos candidatos, atendiendo a los presupuestos ópticos establecidos.

Para determinar si un circuito óptico es viable, el PCE debe conocer el tipo de fibra, pérdidas y longitud de cada vano, y el nivel de potencia óptica de cada longitud de onda a la entrada de cada vano. Esto implica que los niveles de potencia deben ser controlados en determinados puntos por la capa óptica automatizada. El PCE debe ser capaz de obtener la OSNR del sistema y la dispersión residual de un circuito. Para componentes como transmisores, receptores y filtros deben emplearse modelos que sean precisos, además de utilizar modelos para todas las fuentes de ruido producido por los efectos no lineales de la fibra, tales como la modulación de autofase (Self-Phase Modulation, SPM), Modulación de fase cruzada ( Cross-Phase Modulation, XPM) y el mezclado de cuatro ondas (Four-Wave Mixing, FWM). Márgenes apropiados deben ser establecidos para las perdidas dependientes de la polarización (Polarization Dependent Loss, PDL), Dispersión por modo de polarización (Polarization Mode Dispersion, PMD), y cualquier otras restricciones estáticas o dinámicas, como la Dispersión Cromática que afecta a canales de alta velocidad. Teniendo todas estas consideracionbes en cuenta es necesario para establecer un cálculo de rutas libres de problemas.

Aunque una arquitectura con PCE distribuido es posible, un PCE que cumpla los requisitos anteriores, se implementa mejor como PCE centralizado, de manera que tenga la visibilidad completa del dominio de red. Por lo tanto, un plano de control centralizado y un PCE con servidores redundantes es una estrategia razonable para todas las redes de circuitos ópticos que se enruten dentro de un dominio. Lo que sucede entre diferentes dominios es otra historia que habrá que contar otro día.

El término de ROADM, Multiplexor Óptico Reconfigurable de Extracción e Inserción puede tener diferentes significados dependiendo del contexto. Puede hacer referencia a un módulo óptico que se integra en un circuito, o puede ser un pequeño subsistema que se integra en un bastidor, con una interfaz de usuario básica para configurar y supervisar el dispositivo. En otros casos, un ROADM puede hacer referencia a una plataforma de red completa que incluye tanto el hardware como el software y que ocupan un bastidor al completo.

Independientemente del contexto, un ROADM, grande o pequeño, es un subsistema que permite una configuración dinámica de cómo se extraen, se insertan o se dejan pasar las longitudes de onda que componen la luz que se transmite por la fibra óptica.  Cada longitud de onda llevará una información diferente, siendo canales de información lógicos que se transportan simultáneamente por el mismo portador físico, una fibra óptica.

Las primeras generaciones de ROADM se fabricaron usando bloqueadores de longitud de onda o tecnología PLC (Planer Lightwave Circuit). Las nuevas generaciones de ROADM utilizan módulos WSS (Wavelength Selective Switch), es decir, un conmutador selectivo de longitudes de onda. Mediante avances significativos en cuanto a la integración de funcionalidades, los ROADM se pueden instalar a día de hoy ocupando realmente poco espacio, y con los consiguientes ahorros de costes y de energía. Pero aún estos aspectos se pueden seguir mejorando.

El WSS es realmente el corazón de los nuevos ROADM. Actualmente, se implementan con elementos de cristal líquido sobre Silicio (LCoS) o bien como microsistemas electromecánicos de espejos (MEMS), que dirigen o atenúan cada longitud de onda. Los MEMS aportan velocidades de conmutación realmente elevadas, del orden de los milisegundos, pero generan elevadas pérdidas de inserción. LCoS proporciona gran estabilidad pero aumenta los tiempos de conmutación, especialmente a bajas temperaturas.

 La función principal de un WSS es conmutar de manera independiente cada una de las M longitudes de onda entre un puerto común y uno de los N puertos de conmutacion, controlando la atenuación para cada una de ellas. Los WSS más comunes son aquellos con N=2,4,5,8 o 9 puertos de conmutación, aunque se pueden empezar a encontrar WSS con hasta 23 puertos de conmutación. La mayoría de los WSS actuales actúan sobre la rejilla ITU de 100 GHz o 50 GHz, en la banda C o L. En la figura se muestra un WSS de 1×4

Algunos WSS tienen integrados los aisladores y filtros de paso en una sola dirección, en otros casos los dispositivos son bidireccionales, con lo que los puertos de entrada y salida dependerán de la aplicación en concreto.

Con algunos WSS es posible dividir la intensidad de una longitud de onda dada y enroutarla hacia mas de un puerto de conmutación simultáneamente. Pero dividir la luz en el WSS para conseguir un multicast óptico complica el sistema que gestiona la potencia. Teniendo en cuenta que en la mayoría de las arquitecturas en las que se puede incluir los WSS disponen de manera inherente de un multicast óptico, el realizarlo dentro del propio WSS aporta poco valor.

Los WSS pueden tener sus puertos de acceso coloreados o no coloreados. Un puerto coloreado implica que el puerto de acceso físico (de extracción o inserción) se asignan a una longitud de onda específica, es decir, cada puerto de acceso deja pasar sólo un color. Esto significa que una vez que se ha establecido la conexión física de la fibra entre un transceptor y un puerto de acceso de un ROADM, la longitud de onda asignada al transceptor no se puede modificar de manera dinámica o remota.

Los puertos no coloreados dejan pasar cualquier longitud de onda, permitiendo el enrutado de dichas longitudes de onda a un transceptor que puede ser modificado dinámica y remotamente. Para puertos de inserción, esto significa que los transmisores deben ser completamente sintonizables. Los ROADM con puertos no coloreados se llaman ROADM no coloreados, o colorless. Pero existen muchas arquitecturas mediante las que podemos conseguir ROADM no coloreados, a base de reemplazar demultiplexores por 1:N WSS, o conectando un divisor pasivo a un conjunto de filtros sintonizables, y el multiplexor reemplazado con un combinador pasivo que se conecte a un transmisor sintonizable. Cada una de estas arquitecturas tienen sus ventajas e inconvenientes y debe ser el operador que despliega los ROADM el que analice cual es la arquitectura que optimiza sus funcionalidades. Uno de los aspectos que varía de una a otra son las pérdidas de inserción, que afectan al presupuesto óptico total y por lo tanto a los alcances de la señal.

Otro aspecto a tener en cuenta son los grados del ROADM. Un ROADM de dos grados posee dos direcciones, Este y Oeste, y se usan normalmente en topologías de anillo. Los ROADM que poseen más de dos grados se denominan de manera genérica multigrado y son ideales para topologías de malla. Actualmente se manejan cifras de 9+1 y subiendo. De manera general, un ROADM de grado N puede implementarse usando N Nx1 WSS con cada WSS sirviendo a un grado dado, mientras que adicionalmente se pueden usar WSS para las funciones de puertos de acceso no coloreados.

Los puertos de los WSS también pueden ser sin dirección, es decir, se puede acceder a todos los puertos de salida desde el puerto de entrada sin que haya ningún tipo de bloqueo. Si no disponen de esta funcionalidad, una longitud de onda concreta sólo podría conmutarse hacia un único puerto de salida.

Los ROADM también pueden tener puertos sin contención, es decir, se permite que varias señales de entrada estén sintonizadas a la misma longitud de onda siempre que salgan por diferentes puertos.

Cuando un ROADM dispone de puertos no coloreados, sin dirección y sin contención se denominan CDC ROADM (Contentionless, Directionless, Colorless)

Conseguir ROADM no coloreados, sin dirección y sin contención requiere múltiples WSS, multiplexores, demultiplexores, divisores y conmutadores ópticos. El coste y tamaño de estas soluciones puede hacerlas prohibitivas para la mayoría de las redes. Lo que realmente se necesita es una nueva clase de WSS que nos permitiera que cualquier longitud de onda o combinación de ellas pudieran ser conmutadas entre cualquier puerto de entrada y cualquier puerto de salida, sin ningún tipo de restricciones ni limitaciones en la reutilización de longitudes de onda. Para realizar un CDC ROADM, cada puerto debería asumir el papel de puerto de acceso (extracción o inserción) o puerto de enlace(entrada o salida)

Una interesante consideración para adoptar CDC ROADM es que las redes están evolucionando hacia la conmutación de paquetes, por lo que el modelo de transporte tiene que adaptarse a este nuevo paradigma, donde las tecnologías de paquetes orientadas a conexión, como MPLS-TP o PBB-TE se usan para aplicar ingeniería de tráfico. De esta manera se aprovecha totalmente la ventaja de la agregación de paquetes y la multiplexación estadística, lo cual puede reducir significativamente el número de longitudes de onda que se necesitan para cubrir las demandas de tráfico.

CDC ROADM permite la reconfiguración automática de los circuitos ópticos. Sin embargo, cuando se configura un circuito óptico, se añade un nuevo servicio o se hablita una nueva ruta como parte de una red de restauración o balanceo de carga, puede que el nuevo circuito no sea viable desde el punto del presupuesto óptico y necesite una regeneración. Desde luego siempre es deseable escoger un camino que no necesitara de dicha regeneración, pero no siempre es viable por las limitaciones de OSNR, dispersiones residuales, efectos de polarización, etc. En estos casos, el CDC ROADM es óptimo

El último gran avance en los WSS son los dispositivos con ancho de banda flexible. En  Gridless. La revolución óptica puedes ver mas detalles. Este tipo de WSS permitiría velocidades por encima de los 100 Gbps.

Por lo tanto, los ROADM ideales para las Redes de Nueva Generación serían los CDC Gridless ROADM, sin color, sin dirección, sin contención y sin rejilla. Para bajar a la realidad e implementar la solución óptima, el operador de la red tendrá que realizar su análisis pertinente, porque no en todas las redes se necesitarán todas las funcionalidades, y lo que es más importante, no todas las funcionalidades se necesitarán al mismo tiempo

 

 

Las NGN o Redes de Nueva Generación componen un nuevo concepto de arquitectura que aplica al despliegue de redes de Telecomunicación. Hasta hace muy poco, la filosofía de los operadores era desplegar prácticamente una red para cada nuevo servicio que iba surgiendo. Se parte de una única red que presta el servicio de telefonía básica analógica, ésta se digitaliza, aparece la telefonía móvil, el acceso a Internet y la explosión masiva de los servicios IP, tanto para empresas como para residenciales. Con toda esta evolución, los operadores tradicionales se han encontrado con un montón de redes que tienen que ir creciendo, operar, mantener, evolucionar. Teniendo en cuenta, que los ritmos tecnológicos son superiores a los periodos de amortización de los equipos, cuando no se ha recuperado ni la mitad de la inversión en la red, ésta ya se había quedado pequeña, o lo que es peor, obsoleta. A eso hay que añadir el hecho de que se necesita personal especializado en diferentes tipos de redes y de servicios, así como diferentes sistemas que faciliten la provisión, la supervisión y la operación y el mantenimiento.

Tenemos por lo tanto una diversidad de redes interconectadas que facilitan los diferentes servicios según el tipo de cliente y según el tipo de acceso de cada cliente. Además, los servicios por lo general implica el paso por varias redes, con lo que la cantidad de sistemas implicados para provisionar un cliente sobre un servicio existente o para la provisión y desarrollo de un nuevo servicio sobre la red, implica unos desarrollos y  unos costes extremadamente altos y nada flexibles ni dinámicos. Esto repercute directamente en que el TTM, Time To Market, es decir, el tiempo que se necesita desde que se piensa un servicio hasta que se tiene en producción, es excesivo y dificulta considerablemente la competencia en un entorno tan dinámico y hostil.

Vamos a cambiar la filosofía y vamos a dar un gran paso. Vamos a ir hacia las redes de nueva generación. El paradigma que define una red de nueva generación es bien sencillo. Se trata de una red de paquetes Multiacceso, Multiservicio y con QoS, es decir, Calidad de Servicio. La idea es que independientemente del tipo de cliente que sea, fijo, móvil o nómada, residencial o empresarial, e independientemente del tipo de tecnología con la que acceda a la red, cobre, fibra, radio, la red es única. Todos accedemos a una única red, que para ser tan versatil se divide en varios planos o niveles, como una cebolla. La cebolla es única, pero se compone de varias capas. Los circuitos desaparecen y todo se paquetiza, y sobre todo hay que hacer las cosas bien, con calidad de servicio, tema especialmente delicado en el mundo de los paquetes. Veamos las capas de la cebolla con un poco más de detenimiento.

Empecemos por el nivel o plano de acceso, que es el que estará mas cerca de los clientes finales. En este caso, los operadores tendrán que ofrecer soluciones para seguir dando conectividad y servicios a clientes tradicionales, los que no quieran o no puedan dar el salto a las nuevas tecnologías, y por otro lado tendrá que posibilitar el acceso a los clientes de nueva generación, accesos de banda ultraancha. Los clientes tradicionales serán aquellos que sigan usando telefonía con cobre en su casa, o segunda y tercera generación de tecnologías móviles. Los usuarios de nueva generación tendrán fibra o 4G. Esto disminuirá considerablemente la complejidad y diversidad de las Redes de Acceso. Aunque los clientes tradicionales no deberían notarlo, en realidad, el plano de acceso tendrá que convertir las llamadas de voz desde una señal analógica a una señal digital paquetizada. Lo que se cursará por la red será VoIP, es decir, voz sobre IP.

A continuación tendríamos el plano de transporte o de conectividad. Este posibilitaría la conexión de los clientes con los servicios. Serían como las carreteras o las vías del tren. Tienen la inteligencia justa para decidir cuales son los mejores caminos. A largo plazo este plano de conectividad estará formado por redes IP/MPLS y transporte fotónicos. A día de hoy, las Redes de Agregación siguen jugando un papel muy importante de cara a la eficiencia de costes.

Después tenemos el plano de control, que es realmente el alma mater de las NGN. Este plano es el que tiene la inteligencia y toma las decisiones. Es el que le dice al plano de conectividad el origen y destino de la conexión, así como las características de ancho de banda, retardo, variación del retardo etc, asociada a la misma. También se encarga entre otras muchas cosas de la autorización, autenticación y contabilidad de los diferentes usuarios. No todos los clientes usaremos los mismos servicios ni se nos cobrará igual. Es más, el mismo servicio según lo que cada uno paguemos tendrá unas u otras prestaciones.

Por último estaría el plano de servicios. Este es realmente el que conseguirá que una red sea de nueva generación y que un operador de telecomunicaciones pueda competir en igualdad de condiciones con un operador de contenidos, y ser algo más que una tubería. El plano de servicios, a base de arquitectura de sistemas abiertos, será estandar, de manera que cualquier proveedor podrá ofrecer sus servicios al operador de telecomunicaciones, y será “tan fácil” como “instalarlo en su sistema operativo”. Los tiempos de desarrollo y puesta en servicio pasarán de muchos meses a pocas semanas, serán muchos más flexibles y versatiles y por supuesto personalizados. Se acabará el café con leche para todos.

Esta es la teoría, pero en la praxis, de todo esto, lo único que podría considerarse una realidad sería el plano de acceso, ya hay banda ultraancha por el mundo y empieza a haber 4G. En el plano de conectividad, quien más y quien menos también va modificando sus arquitecturas hacia una foto final de NGN, pero todavía queda un gran recorrido. El plano de control a día de hoy es lo que antes se llamaba Red Inteligente, con algunas mejoras. El IMS, IP Multimedia System está todavía muy lejos de las expectativas que teóricamente plantea. El plano de servicios está aún mas lejos, no tanto desde el punto de vista tecnológico, sino de viabilidad de implementación en sistemas reales. De nuevo es la inercia social de las empresas y por supuesto la componente económica las que condicionas los tiempos.

En cualquier caso, las tendencias entre los principales operadores y vendors de la industria se van acercando al objetivo de tener NGN. Lo mismo sobre el 2020 podemos darle otra vuelta.

Debería ser que los organismos de estandarización trabajaran por el bien común de las tecnologías, los servicios y la sociedad de la información. Se supone que los individuos que forman los organismos de estandarización de las tecnologías son las mentes gurús capaces de discernir entre el bien y el mal. Pero va a ser que no. Va a ser que la misma podredumbre que afecta a la política de andar por casa afecta a estos organismos. Están compuestos fundamentalmente por representantes de los principales vendors de la industria; operadores y universidades en menor medida . Por lo tanto, cada nueva tecnología, o cada nueva funcionalidad no se decide en función de la bondad de la misma, sino en función de una lucha de poder que se establece entre los diferentes suministradores de equipos.

Según el plano de red del que se esté hablando, unos tienen más poder que otros, pero el problema de verdad aparece cuando se trata de tecnologías que están un poco en tierra de nadie, que pueden usarse de diversas maneras, canibalizando o sustituyendo tecnologías existentes. Ahí es cuando la lucha deviene encarnizada y la estandarización se ralentiza si no llega incluso a bloquearse. Este es el caso del MPLS-TP. Se trata de una adaptación del MPLS para las redes de transporte, una especie de caja de herramientas que resuelve algunos aspectos que las redes de transporte necesitan y que el MPLS no tiene. Es decir, de lo que ya tengo, una tecnología más que consolidada y utilizada en todo el planeta, cojo lo que me hace falta, añado lo que necesito, y quito lo que me sobra. De manera que el transporte de paquetes se pueda volver mucho más eficiente de lo que es actualmente con las redes tradicionales.

Uno de los aspectos fundamentales del MPLS-TP son las funcionalidades OAM que aporta, es decir, Operación y Mantenimiento, condición sine qua non para las redes de transporte. Y respecto a este tema hay una discusión planetaria desatada:

  • El IETF está enfocado en una aproximación centrada en MPLS. Se compone fundamentalmente de fabricantes de routers, por lo que apuestan por un OAM de MPLS-TP para PSN (Packet SWITCHED Network) basado en BFD/LSP-ping G.8113.2.
  • La ITU-T está enfocado en una aproximación centrada en Ethernet, se compone fundamentalmente por suministradores de equipos de agregación y transporte y apuestan por un OAM de MPLS-TP para PTN  (Packet TRANSPORT Networks) basado en Y.1731 = G.8113.1
  • A esto le añadimos que IP/MPLS ya tiene su propio OAM

Total que tenemos 3 estándares incompatibles para resolver el mismo tema, bueno 3 incompatibles para las funcionalidades OAM del MPLS, 2 para las de  MPLS-TP. 

La cuestión es que el cambio tecnológico que se está produciendo en las redes de telecomunicación es trascendental. Para ir hacia las redes de nueva generación, uno de los aspectos fundamentales es cómo realizar un transporte eficiente de paquetes. O extendemos IP infinito y más allá o lo reducimos a los extremos, y entre medio de estas dos posibilidades radicales aún quedan unas cuantas alternativas intermedias. Los fabricantes de IP apuestan por la primera opción, los que no se comen un duro en IP apuestan por el otro extremo. Al final nadie tiene en cuenta realmente cómo sería la mejor red posible, la que menos costes operativos generara, la más eficiente, la que necesitara inversiones asociadas directamente al crecimiento de tráfico. Ahora que está tan de moda la neutralidad de la red, considero mucho más prioritario la neutralidad de los organismos de estandarización. Esto es un sueño tan utópico como que hay una alternativa viable al sistema capitalista, porque al final estamos hablando exactamente de lo mismo.

 Tengo mi opinión al respecto del tema tratado. Pero no se trata de reivindicar lo que pienso en concreto de este asunto. Se trata de poner de manifiesto la forma que tiene el ser humano de resolver sus problemas. Da igual que se trate de tecnología o de hambrunas. El único aspecto que se prioriza y que domina sobre todos los demás es el interés económico.  Cuanto menos me produce sarpullidos,  malestar en general, y asco en particular….