Archivos de la categoría ‘Tecnología’

De las válvulas al Silicio

La electrónica está cambiando el mundo. El transistor es uno de los grandes inventos de la humanidad…y no me refiero a las arradios payo ;). Me refiero a esa pequeña pastilla de semiconductor que mató a la estrella de la válvula. Que sí, que la válvula mola, pero en los amplis de instrumentos.

Historias de válvulas. Válvula electrónica, termoiónica o de vacío. Se trata de un componente electrónico que amplifica, conmuta o modifica una señal eléctrica mediante el control del movimiento de los electrones en un espacio “vacío” a muy baja presión, o en presencia de gases especialmente seleccionados.

La electrónica de mediados del siglo XX se desarrolló gracias a las válvulas. Teléfono, radio, televisión, computadores….La revolución tecnológica fue explosiva. Pero nada comparable a la revolución de los transistores. Gracias a ellos y a la miniaturización que permiten, tenemos en nuestro smartphone una capacidad de procesado increíblemente superior a la de aquellas viejas computadoras antevintage que ocupaban metros y metros cuadrados. Con unos pocos Hz de velocidad de procesador llegamos a la Luna y ahora tenemos poder de GHz en nuestras manos. No te despeines.

Historias de semiconductores. Para conducir la corriente, en las válvulas se utiliza el vacío, en los transistores se utilizan semiconductores. Un semiconductor es un elemento que se comporta como un conductor o como aislante dependiendo de diversos factores, como por ejemplo el campo eléctrico o magnético, la presión, la radiación que le incide, o la temperatura del ambiente en el que se encuentre.

gapLa banda de valencia es el mayor intervalo (bandas) de energía electrónica que alcanzan los electrones en el cero absoluto. La banda de conducción es la que permite las corrientes eléctricas, y se encuentran por encima de las bandas de valencia, tienen mayor nivel energético. En los metales no hay ningún intervalo de energías prohibidas entre las bandas de valencia y de conducción. En los semiconductores y en los aislantes, en cambio, aparece una banda prohibida –gap- por encima de la banda de valencia, seguida de una banda de conducción a energías aún mayores.

La mayoría de los transistores utilizan como semiconductor el Silicio, que tiene un sistema de cristalización tetraédrico similar al del Carbono, mediante enlaces covalentes entre sus átomos. Aunque pueden existir otros materiales semiconductores, generalizaremos con el Silicio por mayoría aplastante de tecnologías. Con las moléculas cristalizadas del Silicio se obtienen unas  nanoestructuras, nanocables. Cuando el cristal se encuentra a temperatura ambiente algunos electrones pueden absorber la energía necesaria para saltar a la banda de conducción dejando el correspondiente hueco en la banda de valencia. El Silicio requiere una energía  de 1,12 eV  a temperatura ambiente. Obviamente el proceso inverso también se produce, de modo que los electrones pueden caer, desde el estado energético correspondiente a la banda de conducción, a un hueco en la banda de valencia liberando energía. Este proceso se llama recombinación. A una determinada temperatura, las velocidades de creación de pares electrón-hueco, y de recombinación se igualan, de modo que la concentración global de electrones y huecos permanece constante.

Historias de corrientes. Los electrones y los huecos son los portadores, y ambos contribuyen al paso de la corriente eléctrica. Si se somete el cristal a una diferencia de potencial se producen dos corrientes eléctricas.

Por un lado la debidesquema energeticoa al movimiento de los electrones libres de la banda de conducción,

Por el otro la debida al movimiento de los huecos; los electrones al desplazarse en la banda de valencia tenderán a saltar a los huecos próximos, originando una corriente de huecos en la dirección contraria al campo eléctrico de velocidad y magnitud muy inferior a la de la banda de conducción.

FET, MOSFET, CMOS..Historias de Transistores.

transistor MOSFET

Los transistores son dispositivos de estado sólido en los que un campo eléctrico controla el flujo de portadores en un canal de conducción. Pueden funcionar como fuentes dependientes de corriente (amplificadores, electrónica analógica) o como interruptores controlados (electrónica digital). Un transistor, por tanto, es una puerta que une dos nanocables.

Los primeros transistores fueron los de efecto de campo, FET. Son unos dispositivos electrónicos con una resistencia de entrada infinita. Los FETs son unipolares debido a que utilizan un solo tipo de carga para transportar la corriente y son controlados por voltaje. En los transistores FET la puerta es una capa de óxido (SiO2), en ambos lados: fuente y sumidero.

La patente  del principio básico de los FET la inscribió  Julius Edgar Lilienfeld en 1925. Famoso no se hizo el muchacho, porque estos transistores de efecto de campo no tuvieron demasiada relevancia. Los laboratorios Bell desarrollaron los MOSFET, y llegaron a un acuerdo con Julius, del que no se saben los términos.

La puerta del FET estaba hecha con un material metálico, Aluminio.  hasta que a alguien se le ocurrió añadir una capa de metal a continuación de la capa de óxido, modificando la puerta. Fue entonces cuando aparecieron los MOSFET, FET de tipo Metal-Óxido-Semiconductor. Si además añadimos, justo antes de llegar a la puerta, una pequeña zona de Si dopado tenemos MOSFET tipo n o tipo p, dependiendo del tipo de impureza que añadamos al Silicio.

La corriente eléctrica que atraviesa la nanoestructura de material semiconductor (Si) se encuentra justo antes de la puerta con una pequeña zona de Silicio con impurezas, que es la que está en contacto con una primera puerta de óxido (SiO2), y a continuación una segunda puerta de metal. Este nuevo diseño resultó extremadamente compacto, condición sine qua non para la integración de circuitos…. Y la integración de circuitos es lo que nos ha permitido tener en una mano más potencia tecnológica que en un centro de cálculo de hace unas décadas.

En un MOSFET por lo tanto la fuente emite portadores (electrones o huecos), el colector hace de sumidero de esos portadores e intercalada entre ambos está la puerta, que modula el paso de los portadores. El sustrato semiconductor tiene tres partes dopadas artificialmente (contaminadas con materiales específicos en cantidades específicas).  Un MOSFET tiene dos uniones bipolares, que son las uniones entre una zona p y una zona n.

En los MOSFET de canal n, la fuente S y el colector D son regiones fuertemente dopadas difundidas en un sustrato de tipo p. Una compuerta conductora G (Gate) se aísla del Silicio mediante una fina capa de SiO2.  Durante el funcionamiento ”normal activo” una tensión positiva es aplicada entre la fuente y el sustrato, lo cual produce una atracción de los conductores de la fuente y el colector creando un canal de conducción entre ellos. Se produce un enriquecimiento de carga negativa.

En los MOSFET de canal p se produce un enriquecimiento de carga positiva. Para ello se intercambian los materiales n y p con respecto a los de canal n. En consecuencia, la dirección de la corriente y las polaridades de las tensiones se ven invertidas. Por ejemplo, para que exista un canal, en un MOSFET de enriquecimiento canal p, la tensión de compuerta debe ser lo suficientemente negativa.

MOSFET P MOSFET N

Hoy la mayoría de los circuitos se construyen con tecnología CMOS (Complementary MOS) . Esta tecnología consiste en unir dos transistores MOSFET de manera complementaria y asimétrica. El diseño consiste en dos MOSFET diferentes, de canal n y de canal p, que se complementan mutuamente y consumen muy poca corriente en funcionamiento sin carga. Los Semiconductores tipo n han sido dopados con elementos que aumentan el número de electrones, en los los semiconductores de tipo p las impurezas hacen aumentar el número de huecos.

Historias de nanómetros y de límites físicos

Las tecnologías CMOS punteras están en torno a los 30nm. Nanómetro son 10 elevado a menos 9 metros…. lo que viene siendo requetepequeño. La evolución tecnológica hace deseable seguir disminuyendo ese límite, pero en el caso de la tecnología CMOS actual, existe una limitación física y es la impuesta por el Silicio, el cual, por debajo de 10nm  comienza a comportarse de manera inestable. Es decir, entran en juego fenómenos cuánticos y por tanto impredecibles. Si no se puede controlar el dispositivo no nos vale.

A medida que los transistores se hacen más pequeños, es más difícil controlar el modo en que los electrones se mueven a través del canal de silicio para encender y apagar el transistor. Al tener que hacer frente a este comportamiento ‘rebelde’ se incrementa el consumo energético. Intel anunció hace unos años que cambiaría a un nuevo diseño de transistor en tres dimensiones para su generación de chips de 22 nanómetros. Otras empresas, sin embargo, están trabajando en los llamados transistores de cuerpo ultrafino. No obstante, al margen de la forma que se le dé, el silicio es silicio, y utilizarlo a tamaños tan pequeños presenta problemas incluso en estos nuevos diseños.

Cuando hablamos de “nanómetros” en el contexto tecnológico estamos hablando por lo tanto del tamaño, precio y rendimiento de los dispositivos electrónicos.

Como hemos dicho, hoy en día las tecnologías punteras son de 30 nm, pero hay prototipos de menor tamaño, rondando el límite físico del Silicio. Si se consiguen tecnologías de menos nm significa que caben más circuitos integrados en el mismo espacio, se consume menos potencia, se aumenta el rendimiento y bajan los costes de fabricación. Cuando se usa una tecnolObleaogía que permite reducir el tamaño de los elementos de un procesador, se reduce también la temperatura de funcionamiento sin necesidad de alterar otros factores como la frecuencia de funcionamiento. Y esto a su vez nos permite hacer procesadores cada vez más potentes incrementando su frecuencia, controlando temperaturas y optimizando tamaños. A su vez, disminuir el tamaño permite fabricar en la misma unidad de superficie (oblea) mayor número de chips,  con lo que se reducen los costes de producción.

Como el Silicio, alma mater de esta tecnología, tiene un límite físico de 10 nm, hay que buscar alternativas, y los nanotubos de carbono se posicionan a la cabeza de la lista. El radio medio del Silicio se mueve entorno a los 110pm, el radio medio del Carbono está entorno a los 70pm. Pero lo realmente diferenciador, es que con el grafeno podemos hacer capas de muy poco átomos.

Del Silicio a los nanotubos de carbono

Los nanotubos podrían ser una alternativa viable al Silicio a medida que la electrónica se haga cada vez más pequeña. Un dispositivo de nueve nanómetros desarrollado por IBM es el botón de muestra.

nanotubo-carbono2Según los investigadores de IBM, el transistor de nanotubos de carbono más pequeño jamás creado, un dispositivo de nueve nanómetros, funciona mejor de lo que lo haya hecho cualquier otro transistor del mismo tamaño.

Llevábamos más de una década escuchando hablar auténticas maravillas sobre la posibilidad de utilizar nanotubos de carbono en lugar del Silicio, pero poco más que humo había hasta que estos investigadores de IBM los fabricaron. Y además aseguran que esta es la primera evidencia experimental de que el material resulta un potencial reemplazo viable del silicio a un tamaño menor de 10 nanómetros.

nanotube_trans_x220

Para comprobar cómo afecta el tamaño de un transistor de nanotubos a su rendimiento, crearon varios transistores de diferentes tamaños a lo largo de un único nanotubo. Esto les permitió controlar las posibles variaciones que puedan producirse de nanotubo a nanotubo.

  • En primer lugar, tuvieron que colocar una capa muy delgada de material aislante sobre la que asentar los nanotubos.
  • Después, desarrollaron un proceso de dos pasos para agregarles puertas eléctricas sin dañarlos.

Estas técnicas no están en absoluto listas para la manufactura, pero permitieron al grupo de IBM crear los primeros dispositivos de nanotubos de menos de 10 nanómetros y ponerlos a prueba en el laboratorio. El trabajo se describe en la revista Nano Letters, si quieres más…léete esto..

El grupo de IBM demostró que su transistor de nanotubos de nueve nanómetros tenía un consumo de energía mucho menor que otros transistores del mismo tamaño. Además, puede llevar más corriente que otros dispositivos de silicio comparables, lo que da como resultado una mejor señal.

Siguen existiendo varios problemas de ingeniería importantes.

  • En primer lugar, los investigadores tienen que encontrar mejores métodos para crear lotes puros de nanotubos semiconductores: añadir tubos metálicos a la mezcla provocaría cortocircuitos en los circuitos integrados.
  • En segundo lugar, deben crear un modo de colocar un gran número de nanotubos en una superficie con una alineación perfecta.

Los retos aún son muchos, pero el futuro parece prometedor. La tecnología cada día nos sorprende más. El ser humano ha encontrado un camino que parece no tener fín.

En este apartado hablaremos de los conceptos clave de las MLN y MRN basadas en GMPLS.  Puedes echar un vistazo primero a las Parte I y Parte II.

Una red que comprende nodos de transporte con múltiples capas de planos de datos todos con el mismo ISC o diferentes ISC, controlados por una única instancia de un plano de control GMPLS, se denomina red multicapa (MLN). Un subconjunto de MLNs consiste en redes que soportan LSPs de diferentes tecnologías de conmutación (ISCs). Una red que soporta más de una tecnología de conmutación es una red multiregión (MRN).

Capacidad de Conmutación de una Interfaz (ISC)

El concepto de ISC se introduce en GMPLS para soportar varios tipos de tecnologías de conmutación de manera unificada [RFC4202].  Un ISC está identificado mediante un tipo de conmutación.

Un tipo de conmutación (también referido con un tipo de capacidad de conmutación) describe la habilidad de un nodo de enviar datos de una tecnología de un plano de datos particular, e identifica unívocamente una región de la red. Se han definido los siguientes tipos de ISC (y por lo tanto regiones):  PSC, L2SC, capaz de TDM , LSC, y  FSC. Cada terminación de un enlace de datos (más precisamente, cada interfaz que conecta un enlace de datos con un nodo) en una red GMPLS se asocia con un ISC.

El valor del ISC se anunca como un atributo (sub-LTV) que forma parte del descriptor de la capacidad de conmutación de la interfaz (ISCD) de la terminación de un enlace TE asociado con una interfaz en particular [RFC4202].  Además del ISC, el ISCD contiene información que incluye el tipo de codificación, la granularidad del ancho de banda y el ancho de banda sin reserva de cada uno de las 8 prioridades con las que un LSP puede ser establecido. El ISCD no identifica las capas de red, únicamente caracteriza la información asociada a una o más capas de red.

El anuncio de la terminación del enlace TE puede contener múltiples ISCDs. Esto puede interpretarse como un anuncio de una terminación de un enlace TE multicapa (o capaz de multi-conmutación). Es decir, la terminación de un enlace TE (y por lo tanto el enlace TE) está presente en múltiples capas.

Capacidades de Conmutación en Interfaces Múltiples

En una MLN, los elementos de red pueden ser nodos capaces de un solo tipo de conmutación o de varios.

Los nodos de un único tipo de conmutación anuncian el mismo valor ISC como parte de su ISCD sub- TLV(s) para describir la terminación de las capacidades de cada TE link(s). Este caso se describe en  [RFC4202].

Los LSR capaces de multiconmutación se clasifican en nodos simples o híbridos, de acuerdo con la manera en que anuncian los múltiples ISCs:

  • Un nodo simple puede terminar enlaces de datos con diferentes capacidades de conmutación, donde cada enlace de datos se conecta al nodo mediante una interfaz de enlace diferente. Por lo tanto, anuncia varios TE links mediante un único valor ISC en su ISCP sub-TLV (siguiendo las reglas definidas en [RFC4206]).  Un ejemplo es un LSR con enlaces PSC y TDM cada uno de los cuales conectados al LSR mediante interfaces separadas.
  • Un nodo híbrido puede terminar enlaces de datos de diferentes tipos de conmutación conectando los enlaces de datos mediante la misma interfaz. Por lo tanto, anuncia un único TE link que contiene más de un ISCD y cada uno con un valor diferente. Por ejemplo, un nodo puede terminar enlaces de datos PSC y TDM e interconectar esos enlaces de datos externos mediante enlaces internos. Las interfaces externas conectadas al nodo tienen capacidades tanto PSC como TDM.

Adicionalmente, los anuncios de los enlaces TE realizados por un nodo simple o híbrido puede necesitar proporcionar información sobre las capacidades de ajuste interno de dichos nodos entre las diferentes tecnologías de conmutación soportadas. El término “ajuste” hace referencia a la propiedad de un nodo híbrido de interconectar diferentes capacidades de conmutación que se proporcionan a través de sus interfaces externas. La información sobre las capacidades de ajuste de los nodos en la red permite a los procesos de cálculo de rutas seleccionar un camino multicapa o multidominio que incluya enlaces con diferentes capacidades de conmutación, unidos mediante LSR que puedan adaptar la señal entre diferentes enlaces.

En la siguiente figura se muestra un ejemplo de nodo híbrido. El nodo híbrido tiene dos matrices de conmutación, las cuales soportan, por ejemplo, conmutación TDM y PSC respectivamente. El nodo termina un PSC y un enlace TDM (Enlace1 y Enlace2 respectivamente). Además tiene un enlace interno que conecta los dos elementos de conmutación. Estos dos elementos de conmutación están internamente interconectados de tal manera que es posible terminar algunos de los recursos de, por ejemplo Enlace2 y proporcionar un ajuste del tráfico PSC recibido/enviado sobre la interfaz PSC(#b).  Esta situación se modela en GMPLS conectando la terminación local del Enlace2 al elemento de conmutación TDM mediante una interfaz adicional que realiza la función de terminación/ajuste. Hay dos posibilidades para establecer el PSC LSP a través del nodo híbrido. El anuncio de los recursos disponibles debería aplicarse a ambas posibilidades.

nodo hibrido

Ingeniería de Tráfico integrada y Control de Recursos

En las redes multidominio/multicapa basadas en GMPLS, los enlaces TE pueden consolidarse en una única base de datos de ingeniería de tráfico (TED) mediante una única instancia del plano de control. Como esta base de datos contiene la información relativa a todas las capas de todos los dominios de la red, un camino a través de diferentes capas (posiblemente cruzando múltiples dominios) puede calcularse usando la información de esta TED. Además, puede conseguirse la optimización de los recursos de red entre diferentes capas de la misma región y a través de múltiples regiones.

Estos conceptos nos permiten para la operación de una capa de red sobre la topología (es decir, los enlaces TE)  proporcionada por otras capas de red (por ejemplo, el uso de una capa inferior LSC LSP que transporta PSC LSPs). A su vez, puede obtenerse un mayor grado de control e interworking, incluyendo (pero no limitado a):

  • Establecimiento dinámico  de las Forwarding Adjacency (FA) LSPs [RFC4206].
  • Provisión extremo a extremo de LSPs con disparo dinámico de FA LSPs.

Hay que considerar que en una red multicapa/multidominio que incluye nodos capaces de multiconmutación, una ruta explícita usada para establecer un LSP extremo a extremo puede especificar nodos que pertenezcan a diferentes capas o dominios. En este caso, se necesita un mecanismo para controlar la creación dinámica de los FA-LSPs. Hay un gran abanico de opciones para controlar cómo los FA-LSPs son dinámicamente establecidos. El proceso puede estar sujeto al control de una política, la cual puede establecerse mediante componentes de gestión que pueden requerir que el plano de gestión sea consultado en el momento en que el FA LSP está siendo constituido. Alternativamente, el FA-LSP puede constituirse con el plano de control requerido sin ningún plano de gestión.

Señalización disparada

Cuando un LSP atraviesa la frontera desde una capa superior a otra inferior, debe estar anidado en un FA LSP de la capa inferior que atraviese dicha capa. Desde una perspectiva de señalización, existen dos alternativas para establecer el FA LSP de la capa inferior:

  • Estática (pre-provisionada). Un FA-LSP de este tipo debe iniciarse o bien por el operador o automáticamente usando características como TE auto mesh [RFC4972]
  • Dinámica (disparada). Si este LSP de capa inferior no existe, debe ser establecido dinámicamente. Este mecanismo de establecimiento del LSP de capa inferior es lo que se conoce como señalización disparada.

FA-LSP

Una vez que se ha creado el LSP a través de una capa, desde un nodo frontera de esa capa hasta otro, puede utilizarse como enlace de datos de la capa superior. Además, puede ser anunciado como un enlace TE, permitiendo a otros nodos considerar el LSP como un enlace TE para el cálculo de sus caminos [RFC4206]. Un LSP creado tanto estática como dinámicamente por medio de una instancia del plano de control y anunciado como enlace TE dentro de esa misma instancia del plano de control se denomina Forwarding Adjacency LSP (FA-LSP). El FA-LSP se anuncia como un enlace TE y el enlace TE se llama Forwarding Adjacency (FA).

Una FA tiene la característica especial de que no necesita una adyacencia de enrutado (peering) entre sus extremos y aún así garantiza la conectividad del plano de control entre los puntos finales de los FA-LSP basados en una adyacencia de señalización. Una FA es una útil y poderosa herramienta para mejorar la escalabilidad de las redes GMPLS-TE ya que se pueden anidar (agregar) múltiples LSP de capas superiores sobre un único FA LSP. La agregación de LSPs permite la creación de una jerarquía LSP vertical (LSP anidados). Un conjunto de FA-LSPs a través o en una capa de nivel inferior puede usarse durante la selección del camino por un LSP de capa superior. Del mismo modo, los LSPs de capa superior pueden ser transportados sobre enlaces de datos dinámicos mediante LSPs (tal y como se transportaría sobre cualquier enlace de datos normal). Este proceso necesita el anidamiento de LSPs a través de un proceso jerárquico [RFC4206].  La TED contiene un conjunto de anuncios de LSP de diferentes capas que se identifican mediante el ISCD contenido dentro del anuncio del enlace TE asociado con el LSP [RFC4202].  Si un LSP de capa inferior no es anunciado como una FA, aún puede usarse para transportar un LSP de nivel superior a través de la capa inferior. Por ejemplo, si el LSP se configura usando señalización disparada, podrá ser utilizado para transportar el LSP de nivel superior que causó el disparo. Además, la capa inferior permanece disponible para ser usada por otros LSP de nivel superior que vayan llegando a la frontera. Bajo algunas circunstancias, puede ser útil controlar el anuncio de LSPs como FA durante el establecimiento de la señalización de los LSPs [DYN-HIER].

Topología de Red Virtual

Un conjunto de uno o más LSPs de  bajo nivel proporciona información para manejar de manera eficiente los caminos de las capas superiores de una MLN, es decir, proporciona una topología virtual de la red (VNT) de las capas superiores. Por ejemplo, un conjunto de LSPs, cada uno de los cuales está soportado por un LSC LSP, proporciona una VNT de las capas de la región PSC, asumiendo que la región PSC está conectada a la región LSC. Hay que considerar que un único LSP de capa inferior es un caso especial de VNT. La VNT se configura creando o destruyendo los LSPs de la capa inferior. Usando señalización GMPLS y protocolos de enrutado, la VNT puede adaptarse a las demandas de tráfico.

Un LSP de nivel inferior aparece como un enlace TE en la VNT. Independientemente de que los LSPs de capa inferior diversificadamente enrutados se usen o no, las rutas de los LSPs de capa inferior están ocultas desde la capa superior en la VNT. De esta manera, la VNT simplifica el enrutado y las decisiones de ingeniería de trafico de las capas superiores ocultando las rutas que han tomado los LSPs de las capas inferiores. Sin embargo, ocultando las rutas de los LSPs de capa inferior podemos perder importante información que puede ser necesaria para la fiabilidad de los LSPs de capa superior. Por ejemplo, el enrutado y la ingeniería de tráfico en la capa IP/MPLS no considera habitualmente cómo se forman los enlaces TE IP/MPLS desde caminos ópticos que son enrutados en la capa de fibra. Dos caminos ópticos pueden compartir el mismo enlace de fibra en la capa inferior, y por lo tanto ambos fallarán si existe un corte en la fibra. De esta manera, las propiedades de riesgo compartido de los enlaces TE en la VNT deben estar disponibles hacia la capa superior durante el cómputo del camino. Además, la topología de la VNT debería poder diseñarse de manera que cualquier corte simple de fibra no divida la VNT.

Los cambios en la demanda de tráfico, los cambios en la configuración de la topología, los requisitos de señalización de la capa superior y los fallos en la red deberían disparar la reconfiguración de la VNT. Por ejemplo, reconfigurando la VNT de acuerdo con la demanda de tráfico entre un par de nodos que hagan de fuente y destino, los factores de implementación de la red, tales como el máximo uso de un enlace o la capacidad residual de la red pueden ser optimizados. La reconfiguración se implementa calculando una nueva VNT a partir de la matriz de demanda de tráfico, y opcionalmente, desde la actual VNT. Los detalles exactos no forman parte de este documento. Sin embargo, este método puede ser confeccionado de acuerdo con la política del proveedor de servicios, teniendo en cuenta la implementación de la red y la calidad de los servicios (retardo, pérdida,utilización, capacidad residual, fiabilidad).

Los grandes desafíos a los que se enfrenten las redes de transporte del futuro son básicamente minimizar el coste del transporte por bit, maximizando el alcance sin regeneración y la capacidad de la fibra.

Podemos incrementar la capacidad de la fibra usando más longitudes de onda con un menor espaciamiento entre ellas, o más velocidad por cada longitud de onda. Si te interesa el tema puedes ver más detalles de cómo incrementar la eficiencia espectral.

Podemos incrementar el alcance sin regeneración usando mejores soluciones de amplificación óptica en las que se incluya la amplificación Raman, o híbridos EDFA (Erbium Dopped Fiber Amplifier) + Raman. Se requerirá una menor OSNR (Optical Signal to Noise Ratio) por longitud de onda gracias a tecnologías como los receptores coherentes y el FEC SD (Forward Error Correction Soft Decision).

Podemos desplazar funcionalidades desde la óptica hacia la electrónica usando sistemas coherentes que optimicen el coste y potencialmente PICs (Photonic Integrated  Circuits)  para reducir el TCO ( Total Cost of Ownership), especialmente en el borde y en la zona metro.

Por otra parte, habría que optimizar la arquitectura de los nodos para permitir la conmutación a diferentes niveles, sustituyendo los enlaces punto a punto por topologías de mallas completamente ópticas. Las interfaces ópticas de cliente son un buen ejemplo donde coste, tamaño y disipación de potencia son factores críticos.

En cualquier caso, nos interesa  incrementar y mejorar la integración fotónica de los componentes que harán viable todas estas tendencias. Existen fundamentalmente cuatro tecnologías para realizar la integración fotónica, que veremos a continuación.

Tecnologías de Integración Fotónica

Existen diferentes alternativas tecnológicas para desarrollar los circuitos fotónicos integrados (PIC).

  • CMOS Photonics. Las tecnologías de integración fotónica basadas en Silicio implementadas sobre CMOS (Complementary Metal Oxide Semiconductor) necesitan de un elevado volumen para que su fabricación sea rentable. El objetivo sería tomar ventaja de esta economía de escala que se produce en la electrónica usando las mismas  instalaciones que las que se utilizan para la fabricación CMOS, de manera que se abarataran los costes de producción de los PIC. La tecnología CMOS permite una integración íntima de óptica con electrónica en el mismo chip. La tecnología CMOS se utiliza en diferentes campos, pero para aplicaciones de telecomunicaciones, existen tres cuestiones fundamentales:
    • Fuentes de luz. Actualmente se utilizan fuentes de luz basadas en  InP o GaAs, y están integradas híbridamente en el chip de Silicio. Existen interesantes desarrollos en algunas startups, industrias de microelectrónica e investigación.
    • Como ya se ha comentado, CMOS photonics necesita de grandes volúmenes. Una fábrica de gran tamaño no es eficiente en costes a menos que se fabriquen más  100.000 unidades al año. El crecimiento de la fibra en el acceso y las conexiones de corto alcance puede ser un aliado para llegar a los volúmenes necesarios.
    • Las soluciones CMOS photonics no siempre serán las mejores aplicaciones fotónicas para las telecomunicaciones. La ventaja de la integración, la flexibilidad y el progreso en el diseño probablemente disminuirán estas limitaciones y las harán más atractivas.

 

  • InP. Los PIC basados en Fosfuro de Indio constituyen una importante innovación tecnológica que simplifica el diseño de sistemas ópticos, reduciendo espacios y consumos. Adicionalmente, disminuyendo el coste de la conversión OEO (óptica-eléctrica-óptica) en las redes ópticas, proporcionan una oportunidad de transformación para abrazar el uso de circuitos integrados electrónicos y sistemas software en una red óptica “digital”  que maximice la funcionalidad del sistema, mejorando la flexibilidad de los servicios y simplificando la operación de la red.
    • monolítico, utilizando circuitos integrados
    • híbrido, mezclando componentes discretos con circuitos integrados
  • VCSEL.Diodo Láser de Emisión Superficial con Cavidad Vertical.
    • Es un diodo semiconductor que emite luz en un haz cilíndrico vertical de la superficie de una oblea, y ofrece ventajas significativas cuando se compara con láser de emisión lateral comúnmente usados en la mayoría de comunicaciones por fibra óptica.
    • Los VCSELs pueden ser construidos con GaAs, InGaAs.
    • Para el funcionamiento del VCSEL, se requiere de una región activa de emisión de luz encerrada en un resonador que consta de dos espejos. En este caso, los espejos son parte de las películas epitaxiales, por lo que estas películas se sobreponen formando una pila. Estos espejos son conocidos como reflectores distribuidos de Bragg (DBRs).
    • Los DBR llegan a formar espesor usando entre 40 y 60 películas en cada DBR, produciéndose un espesor total de 6μm –8μm. Para crear la unión p-n se necesita que un DBR este dopado para hacerlo semiconductor tipo n y el otro DBR tipo p.
    • Los VCSELs tienen alto rendimiento y bajo costo, algunas de sus características son:
      • La estructura puede ser integrada en una configuración de arrays de 2 dimensiones.
      • Su haz circular y baja divergencia eliminan la necesidad de óptica correctiva.
      • Comercialmente la corriente de umbral de un VCSEL es de aproximadamente 4 mA.
      • Alcanza potencias ópticas del orden de 10 mW.
      • Su ancho espectral ( Dl ) es de aproximadamente 1nm.
      • Su longitud de onda central es de aproximadamente 850 nm.
      • Se puede aplicar un VCSEL en transmisión de datos en el rango de velocidad de 100 Mbs a 1 Gbs.
  • Silica on silicon. Los bloques que conforman esta tecnología son:
    • Fuentes de luz. Integración del grupo III-V en los procesos estándares CMOS
    • Guías de ondas
    • Moduladores
    • Pasivos, como AWG
    • Receptores
    • Elementos de Conmutación Óptica
    • Funciones electrónicas

La tecnología de integración Silicon Photonics es aplicable en diferentes clases de productos en diferentes momentos temporales, dependiendo de los diferentes grados de madurez de la tecnología y de los mercados.

Integración fotónica en redes de transporte

De manera equivalente a como se integran los circuitos integrados sobre Silicio agrupando un elevado número de transistores en una única pequeña pieza física que es más poderosa, más fiable y consume menos potencia y espacio, hoy en día, los circuitos fotónicos integrados (PIC) agrupan centenares de componentes ópticos en una pequeña pieza física que es también más potente, más fiable y utiliza menos potencia y espacio que la aproximación equivalente usando componentes discretos.

En Enero de 2012 Ericsson anunció su trabajo sobre tecnología fotónica sobre Silicio (silicon photonics) para los supercanales de Terabit. El proyecto comenzó en abril de 2008 y concluyó a finales de 2011. Los resultados públicos los puedes encontrar en la web del proyecto APACHE.

El proyecto APACHE propone una nueva estrategia de integración, análoga a la aproximación que se realiza en la industria electrónica. En el caso de la electrónica, los componentes se montan de manera pasiva sobre una placa de circuitos impresos de acuerdo con las funcionalidades del diseño. Estos componentes pueden ser dispositivos discretos como resistencias, o chips monolíticos como circuitos integrados.

En APACHE, usando circuitos integrados fotónicos basados en la tecnología híbrida de integración Silica on silicon , se supera el primer obstáculo para el equivalente fotónico, a través de procesos de ensamblado pasivos que proporcionan alineamientos de precisión para dispositivos ópticos monomodo, en los que la tolerancia a los alineamientos deben ser de  micras o por debajo. Usando esta aproximación, un dispositivo guíaondas planar sobre silicio actúa como la placa de circuito impreso óptico (o placa madre), proporcionando la matriz de interconexión pasiva de guíaondas

el-phot1

Los componentes monolíticos se integran de manera pasiva sobre una placa hija, que a su vez se monta sobre la placa madre planar de silicio, PLCB (Planar Lightwave Circuit Board). Para ello se necesita un método de diseño unificado para el dispositivo híbrido en el que, además de haber definido las características de alineamiento necesarias para el ensamblaje, se definen los tamaños de los modos de los componentes ópticos en las interfaces entre los elementos activos y pasivos.

Además, comparados con InP, las guíaondas pasivas basadas en silicio muestran menores pérdidas de inserción, menor dispersión por velocidad de grupo, mejor acoplamiento a fibras ópticas y menor sensibilidad con la temperatura. En APACHE, se desarrollaron las placas madre e hijas para que puedan albergar chips monolíticos más grandes, tales como arrays de moduladores InP, láseres DFB, SOAs…La característica básica de los dispositivos APACHE es la agilidad, la cual es posible gracias a la capacidad de generar, modular y regenerar señales ópticas de varios formatos de modulación usando un dispositivo multifuncional. La funcionalidad requerida se ofrece a través de “add-ons” monolíticos,  como por ejemplo láseres moduladores basados en InP, amplificadores, etc., que se ensamblan de manera pasiva en las placas hijas y consecuentemente en la placa madre. Los esfuerzos se centraron en fabricar chips activos con modulación InP, regeneración y recepción de señales >100Gbps.

A finales de enero de 2012, Huawei anunció la adquisición del Centre for Integrated Photonics Ltd. (CIP), lo que apunta a que Huawei querría desarrollar su propia fotónica integrada, sin necesidad de recurrir al mercado. Infinera dispone hace tiempo de un PIC comercial de 500 Gbps que será de 1 Tbps en su siguiente generación.

Tecnología PPXC (Petabit Photonic Cross-Connect)

Se trata de una tecnología fotónica que permitírá la conmutación OTN a nivel de Petabit  a lo largo de todo el enlace óptico con una granularidad lo suficientemente fina.

Optimizando la tecnología de un láser sintonizable de InP se pueden generar prototipos de láseres para conmutación ultrarápida, permitiendo a su vez generar equipamiento que aproveche estas ultra capacidades. Esto ya está a puntito de mostrarse públicamente y puedes encontrar la referencia aquí

La conmutación ágil y de capacidad ultragrande es una prometedora tecnología para las redes ópticas del futuro. El componente clave de esta funcionalidad es la tecnología que permite láseres sintonizables. Estamos hablando de que los láseres se sintonizarían en nanosegundos.

Una tecnología de crossconexión todo óptica dotará de una ventaja única a los clusters de conmutación OTN de capacidad ultragrande que formarán parte de los backbone de las redes de transporte del futuro, o de los grandes Data Center o cualquier otra aplicación donde sea conveniente.

El nivel de integración es clave para el futuro de los PIC.  Recientemente la compañía Oclaro demostró con éxito que los PIC completamente monolíticos en InP pueden ser usados para ofrecer elevadas prestaciones a bajo coste

Todos estos movimientos apuntan a que la integración fotónica es el futuro habilitador de las nuevas prestaciones que se requieren en las redes de transporte ópticas. Es un futuro que ya ha comenzdo.

En la Primera Parte de este resumen se establecían los objetivos de la RFC5212. A continuación se sigue abundando en los detalles más relevantes para establecer redes multicapa y multiregión bajo la misma instancia de plano de control GMPLS.

Una Red Multi Región (MRN)  siempre es una Red Multi Capa (MLN) ya que los dispositivos en las fronteras entre regiones reúnen diferentes ISC. Una MLN sin embargo, no es necesariamente una MRN ya que múltiples capas podrían estar completamente integradas en una única región. Por ejemplo, VC12, VC4 y VC4-4c son diferentes capas de la región TDM.

 Capas del Plano de Datos y Regiones del Plano de control

Una capa de un plano de datos es una colección de recursos de red capaces de terminar y/o conmutar tráfico de datos en un formato particular   [RFC4397]. Estos recursos pueden ser usados para establecer LSPs que entreguen tráfico. Por ejemplo, VC-11 y VC4-64c representan dos capas diferentes.

Desde el punto de vista del plano de control, se define una región LSP como un conjunto de una o más capas del plano de datos que comparten el mismo tipo de tecnología de conmutación. Por ejemplo, las capas VC-11, VC-4, y VC-4-7v forman parte de la misma región TDM.

Las regiones que actualmente están definidas son: PSC, L2SC, TDM, LSC, y FSC. Por lo tanto, una región LSP es un dominio de tecnología, un tipo de conmutación (identificada por el tipo de ISC) para el que los recursos del plano de datos son representados dentro del plano de control como un agregado de información TE asociada con un conjunto de enlaces (TE links). Por ejemplo, TE links VC-11 y VC-64c son parte de la misma región TDM. Por lo tanto pueden existir múltiples capas en una red de una única región.

Hay que tener en cuenta que la región puede producir una distinción dentro del plano de control. Capas de la misma región comparten la misma tecnología de conmutación y, además, usan el mismo conjunto de objetos de señalización específicos de la tecnología, y atributos del TE link cuyos valores también son específicos de la tecnología dentro del plano de control, pero las capas de diferentes regiones pueden usar objetos y valores en los atributos del TE link diferentes, específicos de la tecnología. No es posible enviar  mensajes de señalización entre los LSR que alberguen diferentes tecnologías de conmutación. Esto se debe a cambios en algunos de los objetos de señalización (por ejemplo los parámetros de tráfico) cuando se cruzan las fronteras de una región, incluso usando una única instancia del plano de control que gestione toda la MRN. Esto debe resolverse usando señalización disparada.

 Redes de capa de Servicio

Una red de un proveedor de servicios debe estar divida en diferentes capas de servicio. La red de los clientes se considera desde la perspectiva del proveedor de servicios como la capa de servicio más alta. La conectividad a través de la capa superior de servicio de la red del proveedor de servicios debe ser provisionada con el soporte de las diferentes  capas de servicio inferiores sucesivamente.

Las capas de servicio se realizan mediante la jerarquía de capas de red ubicadas generalmente en diferentes regiones y comúnmente asociadas a las capacidades de conmutación del equipamiento de la red. 

El proveedor de servicios implementa el servicio mediante una pila de capas de red ubicadas en una o más regiones de la red. Las capas de red están comúnmente agrupadas según las capacidades de conmutación de los elementos de las redes.

La relación del plano de datos soportado es una relación cliente servidor, donde las capas más bajas proporcionan un servicio para la capa superior usando los enlaces de datos que se realizan en la capa inferior.

 Integración e Interacción Vertical y Horizontal

Se define la interacción vertical como los mecanismos colaborativos dentro de un elemento de red que es capaz de soportar más de una capa o región y de establecer las relaciones cliente/servidor entre las capas o regiones. Los intercambios de protocolos entre dos controladores de red que gestionan diferentes regiones o capas también son interacción vertical.

La integración de esas interacciones como parte de un plano de control también es una interacción vertical.

Así, esto refiere a los mecanismos colaborativos dentro de una instancia de un único plano de control  manejando multiples capas de red que forman parte de la misma región o no. Este concepto es útil para construir un marco de referencia que facilita el uso eficiente de los recursos y la provisión rápida de servicios en redes de operadores que se basan en múltiples capas, tecnologías de conmutación o ISCs.

Se define la Interacción Horizontal como el protocolo de intercambio entre los controladores de red que gestionan nodos de transporte dentro de una capa o región dada. La interacción del plano de control entre dos elementos de red TDM conmutando a OC-48 es un ejemplo de interacción horizontal. Las operaciones del protocolo GMPLS manejan interacciones horizontales dentro de la misma área de enrutado. El caso en el que la interacción tiene lugar a través de una frontera del dominio, como entre dos áreas de enrutado dentro de la misma capa de red, se evalúa como parte del trabajo inter-dominio  [RFC4726], y nos referimos a ella como Integración Horizontal. Así, la integración se refiere a los mecanismos colaborativos entre particiones de red y/o divisiones administrativas como áreas de enrutado o sistemas autónomos.

Esta distinción necesita de una aclaración adicional cuando los dominios administrativos casan con las fronteras de la capa/región. La interacción horizontal se extiende para cubrir estos casos. Por ejemplo, los mecanismos colaborativos que tienen lugar entre dos áreas LSC en relación con la integración horizontal. Por otra parte, los mecanismos colaborativos que tienen lugar entre un dominio PSC (por ejemplo IP/MPLS)  un dominio separado TDM sobre el que opera una parte de la integración horizontal, mientras que puede también ser visto como un primer paso hacia la integración vertical.

 Motivación

 La aplicabilidad de GMPLS a diferentes tecnologías de conmutación proporciona una aproximación unificada al control y gestión tanto para la provisión como para la restauración de LSP.  Además, una de las principales motivaciones para la unificación de las capacidades y operaciones del plano de control GMPLS es el deseo de soportar enrutado y capacidades TE en una región multi-LSP [RFC4206] . Esto permitiría la utilización eficiente de recursos de red tanto en las regiones de paquetes/nivel 2 como en la TDM o regiones de lambdas LSP en redes de mayor capacidad.

Resumiendo, los puntos a favor de redes multil capa/multi región controladas con GMPLS son los siguientes:

  • El mantenimiento de múltiples instancias del plano de control  en los equipos que albergan más de una capacidad de conmutación no sólo incrementa la complejidad de las interacciones entre las diferentes instancias del plano de control, sino que además incrementa la cantidad total de procesado que cada instancia individual del plano de control debe manejar.
  • La unificación de los espacios de direccionamiento ayuda a evitar múltiples identificadores para el mismo objeto (un enlace, una instancia, o de manera generalizada cualquier recurso de red). Por otra parte, tal agregación no impacta en la separación entre el plano de control y el plano de datos.
  • Manteniendo una instancia única del protocolo de routing y una única base de datos de ingeniería de tráfico (DB TE) por LSR, un modelo de plano de control unificado elimina los requisitos de mantener una topología de routing dedicada por capa y además no implica un mallado total de adyacencias de routing como en el caso de planos de control superpuestos.
  • La capacidad exitente en  GMPLS para asociar la señalización en banda  de planos de control a las interfaces con las terminaciones IP del plano de control, facilita la colaboración entre las capas de las diferentes tecnologías en las que el canal de control está asociado con el canal de datos (por ejemplo planos de datos paquetes/tramas) y las capas de las diferentes tecnologías en las que el canal de control no está directamente asociado con el canal de datos (SONET/SDH, G.709, etc.)
  • Se simplifican la gestión de recursos y políticas que se aplican en los bordes de este tipo de redes MRN/MLN (menos control para gestionar interacciones) y también se vuelven más escalables (gracias al uso de información agregada).
  • La TE del tráfico Multi-región/multi-capa es facilitada como enlaces TE desde distintas regiones/capas y almacenadas en la misma base de datos TEDB.

Seguiremos en la Parte III con los conceptos clave de las MLN y MRN basadas en GMPLS.

 

La RFC5212 describe los conceptos de MRN (Multi Region Network) y MLN (Multi Layer Network) y detalla los elementos de una única instancia de un plano de control GMPLS (Generalized Multi Protocol Label Switch) que controla múltiples capas dentro de un dominio dado de TE -Traffic Engineering, Ingeniería de Tráfico- . Una instancia de un plano de control puede servir a una, dos o más capas. Otras posibles aproximaciones tales como tener múltiples instancias del plano de control sirviendo a conjuntos disjuntos de capas no se recogen en el ámbito de este documento. Es más probable que este tipo de redes Multi Layer Network (MLN) y Multi Regional Network (MRN) sean operadas por un único proveedor de servicios, pero este documento no excluye la posibilidad de que dos capas (o regiones) estén bajo diferente control administrativo ( por ejemplo, por diferentes Proveedores de Servicio que comparten una única instancia del plano de control) en los que los dominios administrativos están preparados para compartir una cantidad de información limitada.

Se asume que la interconexión de dominios TE MRN/MLN adyacentes hará uso de la  [RFC4726] cuando sus bordes también soporten extensiones interdominio  GMPLS RSVP-TE.

Al extender el MPLS a diferentes tipos de conmutación, GMPLS se convierte en un interesante marco de referencia para el plano de control de redes multicapa o multidominio. Una de las aplicaciones más complejas e interesantes del GMPLS surge cuando tenemos que atravesar dominios diferentes dentro de una red. El cálculo de caminos tiene que considerar las restricciones específicas de cada región. Adicionalmente se necesita señalización para tunelizar los diferentes tipos de conmutación y debe establecerse un correcto mapeado entre las diferentes tecnologías.

En GMPLS, un dominio de una tecnología de conmutación define una región, y una red con múltiples tipos de conmutación. Es lo que se denomina MRN (Multi Region Network). Cuando se habla de redes multicapa, las cuales  a su vez pueden consistir en una o múltiples regiones se denominan MLN (Multi Layer Network).

El MPLS Generalizado (GMPLS) extiende el MPLS para manejar múltiples tecnologías de conmutación: conmutación de paquetes, conmutación de nivel 2, conmutación TDM (Time Division Multiplexing), conmutación WDM (Wavelenght Division Multiplexing) y conmutación de fibra ([RFC3945]).

Para distinguir estas posibilidades se introduce el concepto de ISC (Interface Switching Capability) que identifica estas tecnologías de conmutación, estableciéndose los siguientes tipos de descriptores ISCD (Interface Switching Capablity Descriptor):

  • PSC Packet Switch Capable
  • L2SC Layer-2 Switch Capable
  • TDM Capable
  • LSC Lambda Switch Capable
  • FSC Fiber Switch capable

La representación en un plano de control GMPLS, de un dominio de una tecnología de conmutación se denomina región [RFC4206]. Un tipo de conmutación describe la capacidad de un nodo de enviar datos de una tecnología de un plano de datos concreto, y unívocamente identifica una región de la red.

Una capa describe un nivel de granularidad de un plano de datos de conmutación (por ejemplo VC4, VC-12). Una capa de un plano de datos se asocia con una región en el plano de control (por ejemplo VC4 se asocia con TDM, MPLS se asocia con PSC). Sin embargo, mas de una capa de plano de datos puede ser asociada a la misma región (por ejemplo tanto VC4 como VC12 asociados a TDM).

Por lo que una región del plano de control, identificada por el valor de su tipo de conmutación, puede subdividirse en componentes de redes de menos granularidad basados en capas de conmutación de plano de datos. El descriptor de la capacidad de conmutación de la interfaz,  ISCD [RFC4202], que  identifica las  capacidades de conmuntación de las interfaces -ISC-, el tipo de codificación y la granularidad del ancho de banda de conmutación, permite la caracterización de las capas asociadas.

En la RFC5212 se define:

  • Red Multi Capa (MLN) como un dominio con Ingenieria de Tráfico (TE -Traffic Engineering-) que comprende capas con múltiples planos de conmutación, todas del mismo o diferente  ISC y controladas con una única instancia de un plano de control GMPLS.
  • Red Multi Región (MRN)  como un dominio TE en el que se incluyen al menos dos tipos diferentes de conmutación, que pueden estar desplegados en el mismo o en diferentes equipos y bajo el control de una única instancia de un plano de control GMPLS.

Las MLN pueden categorizarse de acuerdo a la distribución de los ISC entre los LSR (Label Switching Routers).

  • Cada LSR debe soportar sólo un ISC. Estos LSR se conocen como LSR con  capacidad de conmutación de tipo único. La MLN debe comprender un conjunto de LSR con capacidad de conmutación de tipo único.
  • Cada LSR debe soportar más de un ISC al mismo tiempo. Estos LSR se conocen como LSR con capacidad de conmutación de tipo múltiple, y pueden además ser clasificados como simples o híbridos, tal y como se detallará más adelante.

La MLN debe construirse a partir de cualquier combinación de ambos tipos de LSR. Mientras que GMPLS proporciona un marco de comprensión para el control de diferentes capacidades de conmutación, debe usarse una instancia única GMPLS para el control MLN/MRN. Esto permite una rápida provisión de servicios y una eficiente ingenieria de tráfio a través de todas las capacidades de conmutación.

En redes de este tipo, los enlaces de ingeniería de tráfico (TE Links) se consolidan en una única base de datos (Traffic Engineering Database -TED-). Como esta  TED contiene la información relativa a todas las diferentes regiones y capas que existen en la red, un camino a través de múltiples regiones o capas puede ser calculada usándola. Con esto se consigue la optimización de los recursos de la red  conjuntamente  MLN/MRN.

Por ejemplo, supongamos una MRN compuesta de routers con capacidad de conmutación de paquetes y crosconectores TDM. Asumimos que un paquete LSP se enruta entre los routers origen y  destino con capacidad de conmutación de paquetes, y que el LSP puede ser enrutado a través de la región PSC (utilizando solo recursos de la topología de la región de paquetes). Si el LSP  no cumple su objetivo, se deben crear nuevos enlaces de ingeniería de tráfico (TE links) entre los routers con capacidad de conmutación de paquetes a través de la región TDM (por ejemplo enlaces VC12), de manera que el LSP pueda ser enrutado sobre dichos TE links. Además, incluso si el  LSP puede establecerse con éxito a través de la región PSC, los LSPs jerárquicos TDM (a través de la región TDM entre los routers con capacidad de conmutación de paquetes) deben establecerse y usarse si con ello se alcanzan los objetivos de disponibilidad de recursos en la red que el Operador se plantee.

En la siguiente entrada seguiremos con el planteamiento y la motivación de la RFC5212.

 

En esta entrada se realiza un resumen de gran parte del documento del  IETF , A framework for Black Link Management and Control (draft-kunze-black-link-management-framework-00). Así que si sigues leyendo, atente a las consecuencias.

RESUMEN

El término Black Link hace referencia a un conjunto de recomendaciones de la ITU, en las que se describen escenarios en los que un par transmisor/receptor, que pueden ser del mismo o diferente suministrador, se comunica a través de una red óptica WDM de otro suministrador. Estos estándares proporcionan las especificaciones para las interfaces de la capa física (sin gestión o control) de una serie de aplicaciones basadas en los black links.

  • G.695. línea óptica CWDM constituida en anillos punto a punto unidireccionales y bidireccionales. Sistemas de interfaces sobre una fibra monomodo multicanal (aproximación de black box) o un único canal (aproximación de black link), con una velocidad de hasta NRZ 10 G, sin amplificación y un máximo de 16 canales en la rejilla propuesta en la G.694.2
  • G.698.1. Sistemas de línea óptica DWDM punto a punto unidireccional o anillo, sobre fibra monomodo usando interfaces de canal único, con la distancia de transmisión en el rango de entre 30 Km y 80 Km (aplicaciones metro) y velocidades de 2.5 y 10 Gbps con una rejilla de 100 GHz, o de 10 Gbps en rejilla de 50 GHz (G.694.1)
  • G.698.2. Sistemas de línea óptica DWDM punto a punto unidireccional o anillo sobre fibra monomodo usando interfaces de canal único, con velocidades de 2.5 y 10 Gbps con  rejilla de 100 GHz y de 10 Gbps con rejilla de 50 GHz (G.694.1).
  • G698.3. Sistemas DWDM punto a punto bidireccionales sin amplificación, usando interfaces multicanal o de canal único, con velocidades de hasta 1.25 Gbps utilizando la rejilla de 100-GHz y distancia de unos 40 km.

 Estas recomendaciones son responsabilidad de la ITU-T, concretamente del  SG15 (questions Q6/15).  En los últimos tiempos, este grupo de trabajo se ha centrado en establecer un conjunto de parámetros y sus valores asociados para permitir la interoperabilidad multisuministrador entre los diferentes formatos de modulación existentes para 40 Gbps, revisando la G.698.2.

Un black link comprende el enlace DWDM entre el multiplexor y el demuliplexor óptico, así como los potenciales amplificadores o OADMs y la fibra que conecta el transmisor con el receptor.

Revisiones futuras podrían incluir formatos de modulación avanzados que son más apropiados para 40G, y especialmente 100G. Existe un acuerdo para la inclusión de P-DPSK, RZ-DQPSK, DP-QPSK debido  la penentración que presentan en ciertos mercados.

Dos métodos para testear estos nuevos formatos de modulación se posicionan como los más  apoyados:

  • Error Vector Magnitude for QPSK signals (propuesto por Ciena)
  • Demodulated Extinction Ratio for DPSK signals (propuesto por ALU).

Para el periodo 2013-2016, uno de las tareas más interesantes del Q6/15 será la inclusión de especificaciones de rejilla flexible para DWDM en las recomendaciones que están afectadas por esta “pregunta”, de manera que, la compatibilidad transversal (black box o black link) en un entorno multivendor multidominio pueda ser garantizado. Otras actividades serían el estudio de formatos multiportadora, como OFDM, SCM, etc, y la aplicación de técnicas de FEC a los sistemas de transmisión óptica terrena sobre todo para mejorar el margen del sistema o para relajar las especificaciones de los parámetros ópticos.

El documento proporciona un marco que describe una solución para la gestión y control de interfaces ópticas de acuerdo con la aproximación de Black Link especificada por la ITU-T G698.2. En particular examina los elementos topológicos y las medidas de gestión de red relacionadas.

El enrutado óptico y la asignación de longitud de onda basada en WSON queda fuera del ámbito de este documento. Nos centraremos en la gestión de las interfaces ópticas. La aplicación de un plano de control dinámico, para funciones como el autodescubrimiento o la distribución de parámetros de las interfaces es complementaria. En cualquier caso, este trabajo no entra en conflicto con WSON pero mejora y apoya los trabajos ya realizados para en plano de control y de gestión.

1. Introducción

El uso de black links  para redes de larga distancia y redes de agregación añade una opción adicional a los operadores para simplificar u optimizar las redes. La integración de interfaces ópticas coloreadas en los routers y en otro tipo de clientes podría aportar gran cantidad de beneficios, considerando un transporte eficiente y optimizado para servicios de alto nivel.

Los proveedores de servicio despliegan sus redes como una infraestructura que combina paquetes y transporte. Esto asegura una elevada disponibilidad y flexibilidad en el transporte de datos.

Ambas tecnologías suelen gestionarse, habitualmente de manera separada, unidades operacionales diferentes que utilizan conceptos de gestión diferente. Este es el status quo en la mayoría de las redes desplegadas hoy en día. En el caso de despliege de un black link o una friendly wavelength, donde las interfaces coloreadas se desplazan al cliente (por ejemplo, router), es necesario establecer una conexión de gestión entre el cliente que proporciona la interfaz coloreada y el correspondiente EMS (Element Management System) de la red de transporte, para asegurar que los parámetros de dicha interfaz coloreada pueden ser gestionados de la misma manera que los despliegues tradicionales permiten.

Es conveniente tener en cuenta que plano de control y de gestión son dos entidades separadas que manejan la misma información de manera diferente. En este documento se habla tanto del plano de gestión como del plano de control para diferentes casos de operación de BL (Black Links) y de FW (Friendly Wavelength).

2. Terminología y Definiciones

  • Black Link: El enlace negro (ITU.G698.2) permite soportar un par óptico transmisor/receptor de uno o diferentes suministradores para inyectar un canal DWDM y desplegarlo sobre una red óptica compuesta de amplificadores, filtros, ADM de diferentes suministradores. Además el estandar define los parámetros de entrada y salida en la interfaz Ss y Rs
  • Interfaz Coloreada: el término interfaz coloreada define una interfaz de canal óptico que se usa para enlazar largas distancias y que se conecta directamente con un sistema DWDM. Las interfaces coloreadas operan sobre una longitud de onda fija o sintonizable (en una banda). Interfaz coloreada es un término más  genérico y es un superconjunto del enlace negro.
  • Friendly Wavelength. Longitud de onda amigable es una longitud de onda que se genera u origina por una interfaz óptica que no es parte de un sistema WDM pero que es completamente gestionada y conocida por el sistema WDM.
  • Alien Wavelenght, Lambda Alien es una longitud de onda que se genera u origina en una interfaz óptica que no es parte de un sistema WDM y que ni se gestiona ni se conoce por dicho sistema WDM.
  • Forward error correction (FEC):  es una manera (imprescindible) de mejorar la implementación de sistemas de transmisión ópticos de larga distancia. El empleo de FEC  en los sistemas de transmisión ópticos da paso a un diseño de sistemas que pueden aceptar un BER (Bit Error Rate) mayor  (mucho mas que 10-12) en la línea de transmisión (antes de la decodificación).
  • Interfaz Intradominio (Intra-domain Interface (IaDI): Es el lado de línea del sistema óptico. Se trata de una interfaz física dentro de un dominio de suministrador o administrativo, que puede ser tanto estandarizada (acorde con la G.698.2 ) o propietaria.
  • Interfaz Interdominio (Inter-Domain Interface(IrDI): Es una interfaz física que representa la frontera entre dos dominios administrativos, así como la frontera entre el cliente y el dominio óptico.
  • Plano de Gestión: Soporta capacidades FCAPS (Fault, Configuration, Accounting, Performance and Security   Management)
  • Plano de Control. Soporta señalización, cálculo de caminos, enrutado, establecimiento y restauración de caminos.
  • Capa de Red Cliente (Client Network Layer): Es la capa que se sitúa sobre el nivel  WDM, desde la perspectiva de la capa WDM.
  • Transpondedor: Es un elemento de red que implementa la conversión O/E/O (Optico/Electrico/Óptico). Se hará solo referencia a transpondedores 3R como se definen en ITU.G872

3. Solución de Gestión para un Black Link DWDM

Básicamente, la gestión de FW y de BL  maneja aspectos relacionados con provisionar y establecer canales y el mantenimiento de los mismos. Estas funciones son demandadas por la capa de red cliente que esté por encima del WDM. Para la gestión de BL y FW se consideran los siguientes tipos de red WDM:

  • WDM pasivo
  • WDM punto a punto (herencia)
  • WDM con OADM (herencia)
  • Redes ópticas transparentes que soportan funciones específicas de IPoWDM, interfaces y protocolos.

Adicionalmente, podrían considerarse los siguientes casos de despliegue:

  • Despliegues exclusivos de BL
  • Despliegue de BL combinados con interfaces grises de cliente, este caso estaría motivado por el uso de equipamiento heredado que seguirían usando las conexiones tradicionales.

3.1. Descripción de la conexión WDM del lado cliente

3.1.1. Despliegues tradicionales WDM

La conexión típica de la capa cliente hacia un sistema WDM se basa a día de hoy en interfaces de cliente (grises) de cortas/medias distancias entre ambos. La señal óptica que entra al sistema WDM debe ser convertida mediante una conversión OEO a la correspondiente longitud de onda con el nivel de potencia adecuado para el camino de transmisión asignado. Esta conversión la realizza el transpondedor, tal y como se puede ver en la figura 1.

Después de esa conversión OEO la señal cumple con los parámetros que han sido especificados para ese enlace concreto WDM.

La figura 1 muestra esta interconexión cliente-WDM tradicional usando transpondedores para la conversión de las longitudes de onda. IrDI y IaDI, como se definieron en el apartado 2, especifican las diferentes áreas de demarcación relacionadas con las conexiones externas e internas.

FIGURA 1 BLACK LINK
La gestión y el control de las capas WDM y cliente se realizan mediante soluciones diferentes. Diferentes unidades operacionales suelen ser responsables de las interfaces de cliente y de la capa WDM.

3.1.2. Despliegues de Black Link

En el caso de un despliegue de Black Link, la figura 2  nos muestra con el transceptor DWDM se localiza directamente en el cliente, evitando las interfaces grises. En este caso, es necesario encontrar una solución para la gestión de esa interfaz coloreada para que sea equivalente a la gestión tradicional. Este requisito conviene que sea completamente asegurado especialmente en aquellos casos donde el equipamiento legacy y las interfaces BL y FW puedan ser usados en paralelo o conjuntamente y la forma de operar la red siga siendo la tradicional.

La figura 2 muestra un conjunto de puntos de referencias, para la aproximación de BL, para la conexión de un único canal (Ss y Rs) entre los transmisores (Tx) y los receptores (Rx). Aquí, los elementos de la red EDM incluyen un OM y un OD, , uno o más amplificadores ópticos y puede incluso incluir uno o más OADMs.

figura 2 black link

Independientemente de las redes WDM que han sido consideradas, el BL debe funcionar igual de bien en despliegues mixtos de sistemas legacy con equipamiento BL y FW.

5. Soluciones de gestión y control para los Black Link

La operación y gestión de los sistemas WDM es tradicionalmente un grupo homogéneo de tareas que podrían ser realizadas de manera más eficiente cuando se trata de un sistema de gestión único o paraguas que también  se encarga de administrar las longitudes de onda.

Este tipo de operación de red tradicional se diseñó pensando en una gran cantidad de tráfico orientado a conexión en las redes de los operadores. Este comportamiento ha cambiado completamente. Hoy en día el tráfico IP es el dominante en las redes y desde el punto de vista operacional es más beneficioso utilizar una aproximación común para la gestión y la operación. Debido a esta larga historia de separación operacional, debería ser posible gestionar los despliegues de BL de la manera tradicional.

Además, desde el punto de vista de la operación de la red, en un BL puro, o en una mezcla con equipamiento legacy (transpondedores) hay dos aproximaciones para gestionar y operar la red:

  1. Operación y gestión seaparada del cliente y de la red de transporte
    1. Enlace directo a los sistemas de gestión (EMS, OSS)
    2. Enlace indirecto al sistema de gestión, usando un protocolo entre el nodo propietario del enlace y el nodo del sistema WDM al que está directamente conectado para intercambiar información de gestión
  2. Operación y gestión común para IP y red de transporte

La primera opción mantiene el status quo en  redes de gran tamaño. En este caso, se deben asegurar por completo las funcionalidades FCAPS asociadas a la gestión (Fault, Configuration, Accounting, Performance and Security). Esto significa para el personal que gestiona la red que nada cambia. La interfaz óptica será parte del dominio definido por el sistema de gestión óptico y será gestionado por el personal de gestión del transporte.

La segunda opción debería ser la preferida si la capa de transporte WDM subyaciente se usa principalmente para interconectar nodos IP, y la restauración y creación de servicio se realiza en capas superiores (por ejemplo IP/MPLS). En este caso hay más beneficio en tener un nivel de integración y una gestión común será más eficiente.

5.1. Operación y Gestión separadas de BL

5.1.1. Conexión directa al sistema de gestión

Como se muestra en la figura 3 una posibilidad para gestionar la interfaz óptica dentro del cliente es una conexión directa con el sistema de gestión del dominio óptico. Esto asegura la gestionabilidad de la manera tradicional.

figura 3 black ling

El intercambio de información de gestión entre el cliente y el sistema de gestión asume que existe cierta forma de enlace directo entre el nodo cliente y el sistema de gestión WDM (por ejemplo EMS). Esto podría implementarse mediante un enlace Ethernet o una conexión DCN.

Debe asegurarse que la interfaz óptica pueda ser gestionada de una manera estandarizada para permitir soluciones interoperables entre los diferentes suministradores de interfaces ópticas y suministradores de software de gestión para redes ópticas.  RFC 3591 define objetos de gestión para el tipo de interfaz óptica pero no cubre los escenarios que se describen en este documento. Además, una extensión de esta MIB para la interfaz óptica se ha esquematizado en el borrador  [Black-Link-MIB].  En este caso, se utiliza SNMP para el intercambio de datos entre el cliente y el sistema de gestión del dominio WDM.

Hay que dejar claro que una actualización de los componentes de la interfaz de cliente no implica necesariamente una actualización del software del EMS, y viceversa.

5.1.2. Conexión indirecta al sistema de gestión WDM

La alternativa que se muestra en la figura 4 puede usarse en los casos en los que se aspire a una relación más automatizada entre el nodo de transporte y el router. En este caso, se utilizará una combinación de las características de un plano de control rudimentario y una gestión manual. Sería el primer paso hacia un modelo de operación más orientado hacia el plano de control.

figura 4 black link

Para el intercambio de información entre el cliente y el nodo al que está directamente conectado de la red de transporte óptica puede utilizarse la  RFC 4209.  Esta extensión de LMP puede utilizarse entre el nodo propietarios y un nodo adyacente de la red óptica, tal y como aparece en la figura 4.

LMP basado en RFC 4209 no soporta la transmisión de datos de configuración (información). Esta funcionalidad debe ser añadida a las extensiones del protocolo existentes. El uso de LMP-WDM asume que alguna forma de canal de control existe entre el nodo cliente y el equipamiento WDM. Podría ser una longitud de onda dedicada, un enlace Ethernet o un DCN. Se ha propueto el uso de una señalización fuera de banda sobre un enlace separado o DCN para asegurar mayor disponibilidad.

5.2. Consideraciones del plano de control

Básicamente no es una imposición obligatoria el uso de un plano de control en escenarios de BL o FW, al menos no en los casos más simples donde los clientes se conectarán punto a punto usando una infraestructura WDM simple (multiplexor y amplificador). Como primer paso es posible configurar el enlace al completo usando un sistema de gestión estándar y una conexión directa del router o cliente al EMS de la red de transporte. La información de configuración puede ser intercambiada usando SNMP (mirar la sección 5.1.1.)

Teniendo en cuenta el plano de control, podemos considerar dos escenarios:

  • Un plano de control común para el transporte y los clientes; esto implica un responsable único de la operación tanto para el cliente como para la gestión de la red de transporte.
  • Un plano de control separado para cliente y para red óptica sin ninguna interacción

Como se dijo en 5.1.2  deberían usarse algunas funcionalidades mejoradas del plano de control, como LMP. En un escenario tan simple es posible utilizar sólo LMP para el intercambio de información entre los nodos y el dominio óptico. LMP debe correr entre ambos puntos del extremo a extremo del enlace y entre el nodo frontera y el primer nodo de la red óptica.

Referencias

   [ITU.G.872]       International Telecommunications Union,
                     "Architecture of optical transport networks", ITU-
                     T Recommendation G.872, November 2001.

   [ITU.G698.2]      International Telecommunications Union, "Amplified
                     multichannel dense wavelength division multiplexing
                     applications with single channel optical
                     interfaces", ITU-T Recommendation G.698.2,
                     November 2009.

   [ITU.G709]        International Telecommunications Union, "Interface
                     for the Optical Transport Network (OTN)", ITU-
                     T Recommendation G.709, March 2003.

   [RFC2119]         Bradner, S., "Key words for use in RFCs to Indicate
                     Requirement Levels", BCP 14, RFC 2119, March 1997.

   [RFC3591]         Lam, H-K., Stewart, M., and A. Huynh, "Definitions
                     of Managed Objects for the Optical Interface Type",
                     RFC 3591, September 2003.

   [RFC4209]         Fredette, A. and J. Lang, "Link Management Protocol
                     (LMP) for Dense Wavelength Division Multiplexing
                     (DWDM) Optical Line Systems", RFC 4209,
                     October 2005.
  [Black-Link-MIB]  Internet Engineering Task Force, "A SNMP MIB to
                     manage the optical parameters caracteristic of a
                     DWDM Black-Link", draft-galimbe-kunze-black-link-
                     mib-00 draft-galimbe-kunze-black-link-mib-00,
                     March 2011.

En  La Incertidumbre del Tráfico IP, traté de poner de manifiesto, que era cada vez más interesante y necesario tratar de unificar los planos de paquetes y óptico.

La red IP está compuesta de routers conectados entre sí. Cada router está en una ubicación o PoP (Point of Presence) diferente. Los routers deciden para cada paquete que reciben, por dónde lo tienen que sacar. Pero hasta ahí llega su trabajo, que no es poco. Para que el paquete llegue al router destino, necesita de una red de transporte o de transmisión, que es la que facilita la conectividad, no sólo de las redes IP, sino de todas las redes en general.

La red de transporte para largas distancias es una red óptica. Se utilizan sistemas DWDM para transmitir la información. Se trata de un sistema que utiliza una multiplexación en longitud de onda, de manera que cada longitud de onda es capaz de transportar información de manera independiente, cada longitud de onda es un canal y todos los canales van sobre la misma fibra óptica.

Las redes de paquetes y las redes ópticas son dos mundos separados. Pero si hubiera algún tipo de interacción entre ellos, se produciría una eficiencia importante para afrontar la incertidumbre del tráfico IP. La red IP detectaría sus necesidades de transporte y al hablar con la red óptica, ésta le proporcionaría los caminos requeridos. A día de hoy, estos caminos se provisionan de manera estática y modificarlos o ampliarlos requiere de una serie de actuaciones y procedimientos que no son ni ágiles, ni flexibles, ni dinámicos. Agilidad, flexibilidad y dinamismo son justo las capacidades que estamos buscando en las redes de nueva generación.

Podemos entonces abordar esa integración desde dos perspectivas diferentes, que no son excluyentes sino complementarias. Es decir, podemos afrontar la integración desde cada una de ellas o combinándo ambas:

  • Integrando el plano de datos. El Plano de datos representa los datos reales de los usuarios. Por ejemplo, los bits de información contenidos en los flujos de datos de un circuito óptico que lleva un servicio o múltiples servicios.
  • Integrando el plano de control. El Plano de Control es una entidad donde reside parte de la inteligencia de la red. Automatiza funcionalidades dentro de una red, como añadir o eliminar circuitos y restaurarlos una vez que se ha solventado el fallo que produjo su caída. Abarca protocolos de señalización internodos e intercomponentes, descubrimiento de la topología, anuncio y reserva de recursos, cálculo de caminos y cálculos de enrutamiento e información a intercambiar, y gestión automatizada de los estados de los enlaces.

La interfaz UNI (User Network Interface) se posiciona como una gran valedora de este tipo de soluciones. UNI es la interfaz de señalización fuera de banda que permite a un router de la capa IP solicitar servicios de conectividad a los equipos de la capa de  red óptica de transporte, facilitando así una coordinación multicapa.

Integración del Plano de Datos

Actualmente los elementos de red que componen las redes de paquetes IP son los routers, y los elementos de red que componen las redes ópticas son, (simplificando) los ROADM (Multiplexores Ópticos de Extracción e Inserción Reconfigurables). Se trata de equipamiento diferenciado e independiente. Se ubican en sitios distintos. Es decir, hablamos de cajas diferentes que no tienen nada que ver entre ellas.

De cara a la integración del plano de datos, se plantean tres posibles alternativas:

  • Overlay: El equipamiento de  paquetes y óptico seguirán estando en dos cajas distintas, pero se hablarán entre ellos usando  UNI
  • Augmented: Los transpondedores, que son los elementos necesarios para realizar la conversión de óptico a eléctrico y viceversa y que actualmente forman parte de los ROADM, pasarían a formar parte de los routers
  • Integrado: Tenemos una única caja con todas las funcionalidades necesarias tanto a nivel de paquete como a nivel óptico. Es decir, tendríamos un nuevo elemento de red que sería la  fusión del router y el ROADM

Cada una de ellas con sus ventajas e inconvenientes, sus seguidores y detractores. Por ejemplo, considerando aspectos de flexibilidad, las propuestas integradas y aumentadas tienen bastante que perder frente a la elevada flexibilidad que ofrece la propuesta overlay.

Si hablamos de tener diferentes suministradores en las dos capas, el modelo integrado deja de tener interés.

De cara a la madurez tecnológica, el modelo overlay es el que parece mejor posicionado, y de cara a un análisis de costes no está nada claro cual sería la opción ganadora, sobre todo en abstracto, sin aplicarlo a un escenario concreto.

Integración del Plano de Control

Cada red tiene su propio plano de control.  Si conectamos los planos de control de la red de paquetes y la red óptica mediante interfaces UNI, al establecerse un flujo de comunicación entre ambas, en el mismo idioma…se entenderían.

Se plantean igualmente tres modelos posibles a seguir

  • Modelo Único: Existe un único plano de control integrado, sin separación entre capas. Es decir, no se trata de que hablen entre ellos, sino que sólo hay uno.
    • Las redes de paquetes y las redes ópticas se tratan como una única red integrada desde el punto de vista del plano de control.
    • La red IP y la red de transporte utilizan la misma instancia de los protocolos de encaminamiento y señalización.
  • Modelo Coordinados: Los planos de control están separados y hablan entre ellos.
    • Mantiene una señalización común para ambos planos mediante UNI
    • Los encaminamiento en cambio están completamente separados
    • La red IP se configuraría automáticamente mediante el sistema de gestión.
  • Modelo Separado: Los planos de control seguirían siendo completamente independientes:
    • La señalización entre ellos se realizaría mediante UNI
    • La red IP se configuraría de manera manual

De nuevo, cada uno de los modelos tienen ventajas e inconvenientes. Si hablamos de escalabilidad, el único modelo que la garantiza es el separado, en los otros dos habría que hacer estudios sobre escenarios concretos para poder hacer una estimación.

El modelo único queda descartado en una política de muchos suministradores. El modelo separado es el más maduro, seguido del coordinado y finalmente el único, que se encuentra más lejos en el tiempo.

Las implicaciones de realizar la integración de los planos de control, en cualquiera de las opciones planteadas son considerables. Los problemas asociados también. Por lo pronto, estándares y tecnologías tienen que dar el pistoletazo de salida. Pero cuando tienes claro el camino que debes tomar, no por ser farragoso hay que desanimarse…

El tráfico en las redes IP tiene fundamentalmente dos componentes. Por una parte está el tráfico que se establece entre usuarios y servicios que presta esa red IP. Si se establecen sesiones P2P (Peer to Peer) entre clientes de una misma red IP, ese tráfico permanece dentro de dicha red IP. En cambio, si el cliente busca información que no se encuentra disponible en la red IP, saldrá hacia las interconexiones para buscarlo, en otras redes IP del mismo país, o hacia la salida internacional, en busca de redes IP de otros países donde se conectan los servidores en los que reside la información y/o el servicio que el usuario anda buscando.

Cuando los programas P2P hicieron su aparición se produjo dos efectos principales en las grandes redes IP. Por una parte, el tráfico sufrió un incremento considerable. Por la otra, gran parte de ese incremento fue asumido dentro de las propias redes, ya que se establecían conexiones entre clientes de la misma red. Estamos hablando de la época de oro del emule y demás familiares y los torrents.

Con la aparición de páginas de descarga directa, el perfil del tráfico sufrió un importante cambio. Como los servidores de este tipo de páginas se encontraban en países muy concretos y te ofrecían la posibilidad de acceder a los contenidos de manera mucho más rápida, el tráfico P2P fue decreciendo lentamente a la par que se incrementaba el tráfico que iba dirigido a las interconexiones, en busca de esos pocos países donde residían los servidores de descarga directa. Estamos hablando de Megaupload, Rapidshare y demás familiares.

Ahora llega el FBI y pega un portazo a una de las principales páginas de descarga directa, y el resto aplican el dicho de…cuando las barbas de tu vecino veas pelar…Consecuencias inmediatas, el tráfico de interconexión desciende drásticamente mientras se va recuperando las antiguas costumbres peer to peer.

La moraleja de este cuento es que el tráfico IP crece, más o menos rápido, pero crece. Lo que no sabemos es cómo. Creo que ha quedado claro que las aplicaciones y los usos serán los que determinen como dimensionar y planificar una red IP. No es lo mismo llevarlo todo a un punto o un par de puntos que distribuirlo por toda tu red.

La cuestión es que en cualquier momento puede aparecer cualquier nueva killer application que te vuelva a poner patas arriba los patrones de tráfico de tu red y tire por tierra todas tus previsiones de planificación y gestión de recursos. Con esta incertidumbre manifiesta, una integración entre el plano IP y el plano óptico empieza a cobrar sentido por encima de las pretensiones de algunos jugadores específicos que siempre habían apostado por ello.

La red IP enruta el tráfico estupendamente, pero si no tiene asociada una red óptica que transporte los paquetes de un router a otro, nos vale de bien poco.

En la mayoría de las redes de los grandes proveedores de servicio, red IP y red óptica conforman dos mundos independientes en todos los sentidos, operativo, diseño, planificación, gestión… Pero en estos tiempos revueltos, empieza a  tomar forma la idea de que si dispongo de una planificación flexible , dinámica y conjunta de mis recursos IP y de mis recursos ópticos seré mucho más eficiente a la hora de enfrentarme a nuevos cambios del veleta tráfico IP, afrontándolos de manera ágil, dinámica y por supuesto efectiva en costes.

Eso sólo sería viable si existe algún tipo de integración entre los planos de control de ambos mundos. Es decir, si la red IP se constituye como cliente de la red óptica y es capaz de solicitar servicios de conectividad en tiempo real. Y la red óptica es capaz de servirlos.

Pero esa es otra historia, de la que hablaremos en otro cuento…

El concepto de super-channel, o super-canal está asociado a velocidades superiores a los 100 Gbps. ¿Por qué se necesitan velocidades tan elevadas? Porque el tráfico en Internet crece, y crece y parezca que no tenga límite. Cada vez son más los usuarios y cada vez son más los contenidos. Además cada vez son más las diferentes formas y lugares desde los que podemos acceder a Internet. La explosión del video, en concreto los formatos de alta definición y los smartphones, tablets y demás dispositivos con sus posibilidades infinitas hace que las necesidades de ancho de banda sean inconmesurables. Ni hablemos de cuando lo que se conoce como Internet de las Cosas y todo lo que se engloba bajo el concepto de La Nube sean una realidad palpable.

Esta explosión es una oportunidad clara para los proveedores de servicio, los que mejor sepan captar las experiencias de los usuarios en este entorno dinámico in extremis, serán los que capturen más mercado. Claro, estos proveedores de servicio tienen que estar preparados para que sus redes escalen de manera dramática, y por supuesto minimizando los costes capitales y operacionales, de manera que el precio del Gbps sera el mínimo posible.

El punto de partida para esta revolución se encuentra en las redes de transporte, pilares de las comunicaciones de larga distancia.

Para emprender este camino, los mecanismos de transmisión óptica DWDM deben también adaptarse a las nuevas necesidades. El concepto de supercanal es una nueva aproximación a las promesas de capacidad que el DWDM puede ofrecer ante el incremento creciento del tráfico.

¿Qué es un Supercanal?

DWDM  es una tecnoogía que permite que en una sola fibra óptica viajen en paralelo varias portadoras ópticas, de manera que el uso de dicha fibra es mucho más eficiente, ya que en lugar de un único canal de información, se transmitirán muchos más (cada portadora óptica es un canal).

Se trata de una tecnología ampliamente desplegada y que ahora se encuentra en el entorno de los 100 Gbps por cada portadora óptica. Pero con las espectativas en cierne de crecimiento exacerbado, puede que esta capacidad no sea capaz de asumirlas. Hay que incrementar el ancho de banda sin incrementar la complejidad operacional.

En respuesta a la pregunta, ¿qué vienen despues de los 100 Gbps?, aparece el supercanal como la mejor posicionada. El supercanal es una evolución del DWDM en la que varias portadoras ópticas se combinan para crear una señal de línea compuesta de la capacidad deseada, y que se provisiona de una sola vez. Por supuesto, para el cliente, el uso de supercanales es algo transparente.

Implementando Super-Canales

A día de hoy no se disponen de estándares para implementar super-canales. Además, aspectos tales como el número de portadoras, las velocidades de las mismas, incluso si deben ser portadoras contiguas o no, y el nivel de integración de componentes, son temas que están totalmente abiertos.

Existen dos opciones de implementación obvias para desarrollar transpondedores de una única portadora que funcionen a velocidades por encima de los 100 Gbps. Una es transmitir más símbolos de modulación por segundo y la otra es codificar más bits por símbolo de modulación. Incluso una combinación de ambos.

Incrementar el número de bits por símbolo implica incrementar la eficiencia espectral, y eso no siempre es fácil ni puede pagarse el precio que puede costar.

La tecnología de los super-canales añade una tercera opción, la posibilidad de manejar múltiples portadoras como si fuera una sola.

La importancia de la integración fotónica

Los super-canales permiten una capacidad de 1 Tbps DWDM provisionada de una sola vez sin penalizaciones en la eficiencia espectral y con el mismo alcance óptico que el de los transpondedores de 100 Gbps coherentes actuales.

Es evidente que un super-canal de 10 portadoras necesita establecer 10 componentes ópticos en una tarjeta de línea. Implementando este tipo de interfaz usando componentes ópticos discretos podría ser totalmente inviable.

 Usando PIC, Circuitos Fotónicos Integrados, uno en transmisión y otro en recepción, las 10 portadoras podrían implementarse en una única tarjeta de línea compacta, consumiendo menos potencia que 10 transpondedores discretos.

Los PIC aportarían a la ingeniería de los super-canales lo que la integración electrónica aportó en su momento a las CPU multi-core. Los PIC eliminarían las limitaciones de la complejidad de los componentes ópticos y permitiría que la ingeniería correcta fuera aplicada. Si quieres saber algo más sobre los PIC pincha aquí

Flexibilidad es la clave para el éxito de los super-canales

Los supercanales deben ser extremadamente flexibles en una serie de parámetros:

  • ¿Qué tipo de modulación debería usar?
  • ¿Cual es la mejor manera de optimizar la eficiencia espectral y el alcance
  • ¿Qué espaciado deben tener las portadoras?
  • ¿Cual debería ser la anchura total de un super-canal?

Un super-canal ideal  debería permitir seleccionar todos estos parámetros mediante software. De manera que el operador pudiera escoger, en el momento de la provisión, la combinación óptima de parámetros para cada circuito.

El concepto de rejilla flexible, parece que es una opción que no se podrá descartar para obtener velocidades en torno a 1 Tbps de manera eficiente, y eso implica que será imprescindible que el espaciado y la anchura de los canales sea dinámico y configurable por SW. El horizonte temporal de disponibilidad no va más allá de los 4 años.

Puedes encontrar un interesante Whitepaper con mucha más documentación en Super-Channels DWDM Transmission Beyond 100 Gbps

Esta entrada es un resumen del Acuerdo de Implementación del OIF para OFP (OTN over Packet Fabric Protocol). Se trata de un documento de gran complejidad dirigido a los expertos. Se necesita conocimiento previo de la espeficiación G.709 de la ITU para sacarle el máximo partido a esta documentación.

Iré publicando los diferentes apartados en varias entradas, para facilitar su análisis y comprensión. Por favor, si detectas algún error o traducción mejorable, por favor indícamelo. Gracias de antemano

Cambio de Tamaño de las ODUflex

El cambio de tamaño en los flujos de las ODUflex se especifica en la  ITU G.7044.  Cuando una ODUflex es sometida a un cambio en su tamaño, la velocidad de la ODUflex puede modificarse en un factor de hasta 80X. Esta cantidad en la variación se encuentra fuera del rango de Dnom ± DΔ. Sin embargo, los flujos de ODUflex(GFP)  no se utilizan para enviar información de sincronismos, especialmente durante las operaciones de cambio de tamaño.

Además, la velocidad precisa y la capacidad de señalización de fase de un tamaño de paquete variable no es necesario. La pendiente en la velocidad de la ODUflex se especifica como una velocidad fija de 512Mbps/s. El siguiente esquema se utiliza para señalizar la velocidad de la ODUflex durante el proceso de cambio de tamaño:

  1. Durante “GMP Special Mode” , las funciones SAR de entrada no necesitan generar decisiones de tamaño de paquete para establecer un seguimiento de la velocidad de las ODUflex, ya que serán ignoradas por las funciones SAR de salida. Aunque los tamaños de paquetes individuales son arbitrarios, deben estar dentro del rango de  Bnom±1.
  2. Durante “GMP Special Mode”, las funciones SAR de salida no usan las variaciones del tamaño de los paquetes para determinar la velocidad de la ODUflex. En lugar de eso, las funciones SAR de salida comparan el campo de sincronización de la cabecera OFP con el valor actual del contador de sincronización para determinar la edad del paquete. La velocidad de la ODUflex se ve incrementada si la edad de filtrado es mayor que el objetivo que se ha configurado, y decrementada si es más joven.
  3. Hasta que sea señalado para comenzar por el campo BWR_IND en la cabecera de la  ODUflex, las funciones SAR de salida cambian la velocidad de la ODUflex hasta la velocidad nominal de 512Mbps/s, sujeta al posible recorte por el filtrado en función de la edad del paquete. La pendiente se detiene cuando ha sido señalizado por BWR_IND o cuando la ODUflex ha alcanzado la velocidad final configurada. Durante la pendiente, los procesos descritos para los ajustes basados en la edad actuarán para compensar los ppm offsets entre el reloj de referencia de los Elementos de Red de subida y el reloj de referencia local.
  4. En cualquier momento durante “GMP Special Mode”, las funciones SAR de entrada y salida pueden ser reconfiguradas a la velocidad final de la ODUflex. El Elemento de Red sale “GMP Special Mode” cuando el nodo de subida ha salido “GMP Special Mode”, las funciones SAR han sido reconfiguradas y tanto las funciones SAR de salida como las de entrada se han estabilizado  a la velocidad final de la ODUflex.
  5. Al salir “GMP Special Mode”, el tamaño de paquete variable se utiliza de nuevo para señalizar la velocidad de la ODUflex entre las funciones SAR de entrada y salida.

 Resumen

El Acuerdo de Implementación para OTN sobre Matriz de Conmutación de Paquetes, OFP, define el protocolo que permite la conmutación de las unidades de datos ópticos (ODUk/ODUflex)  de la jerarquía de la  Red de Transporte Óptica (OTN) sobre una matriz de conmutación de paquetes en un elemento de red (NE). Este acuerdo de implementación proporciona las funciones de segmentación y el reensamblado necesarias para la transferencia síncrona, detección de pérdidas de paquetes y reemplazo, y compensación por las variaciones de retardo de los paquetes en los clientes ODUk/ODUflex.