Posts etiquetados ‘Telecomunicación’

En este apartado hablaremos de los conceptos clave de las MLN y MRN basadas en GMPLS.  Puedes echar un vistazo primero a las Parte I y Parte II.

Una red que comprende nodos de transporte con múltiples capas de planos de datos todos con el mismo ISC o diferentes ISC, controlados por una única instancia de un plano de control GMPLS, se denomina red multicapa (MLN). Un subconjunto de MLNs consiste en redes que soportan LSPs de diferentes tecnologías de conmutación (ISCs). Una red que soporta más de una tecnología de conmutación es una red multiregión (MRN).

Capacidad de Conmutación de una Interfaz (ISC)

El concepto de ISC se introduce en GMPLS para soportar varios tipos de tecnologías de conmutación de manera unificada [RFC4202].  Un ISC está identificado mediante un tipo de conmutación.

Un tipo de conmutación (también referido con un tipo de capacidad de conmutación) describe la habilidad de un nodo de enviar datos de una tecnología de un plano de datos particular, e identifica unívocamente una región de la red. Se han definido los siguientes tipos de ISC (y por lo tanto regiones):  PSC, L2SC, capaz de TDM , LSC, y  FSC. Cada terminación de un enlace de datos (más precisamente, cada interfaz que conecta un enlace de datos con un nodo) en una red GMPLS se asocia con un ISC.

El valor del ISC se anunca como un atributo (sub-LTV) que forma parte del descriptor de la capacidad de conmutación de la interfaz (ISCD) de la terminación de un enlace TE asociado con una interfaz en particular [RFC4202].  Además del ISC, el ISCD contiene información que incluye el tipo de codificación, la granularidad del ancho de banda y el ancho de banda sin reserva de cada uno de las 8 prioridades con las que un LSP puede ser establecido. El ISCD no identifica las capas de red, únicamente caracteriza la información asociada a una o más capas de red.

El anuncio de la terminación del enlace TE puede contener múltiples ISCDs. Esto puede interpretarse como un anuncio de una terminación de un enlace TE multicapa (o capaz de multi-conmutación). Es decir, la terminación de un enlace TE (y por lo tanto el enlace TE) está presente en múltiples capas.

Capacidades de Conmutación en Interfaces Múltiples

En una MLN, los elementos de red pueden ser nodos capaces de un solo tipo de conmutación o de varios.

Los nodos de un único tipo de conmutación anuncian el mismo valor ISC como parte de su ISCD sub- TLV(s) para describir la terminación de las capacidades de cada TE link(s). Este caso se describe en  [RFC4202].

Los LSR capaces de multiconmutación se clasifican en nodos simples o híbridos, de acuerdo con la manera en que anuncian los múltiples ISCs:

  • Un nodo simple puede terminar enlaces de datos con diferentes capacidades de conmutación, donde cada enlace de datos se conecta al nodo mediante una interfaz de enlace diferente. Por lo tanto, anuncia varios TE links mediante un único valor ISC en su ISCP sub-TLV (siguiendo las reglas definidas en [RFC4206]).  Un ejemplo es un LSR con enlaces PSC y TDM cada uno de los cuales conectados al LSR mediante interfaces separadas.
  • Un nodo híbrido puede terminar enlaces de datos de diferentes tipos de conmutación conectando los enlaces de datos mediante la misma interfaz. Por lo tanto, anuncia un único TE link que contiene más de un ISCD y cada uno con un valor diferente. Por ejemplo, un nodo puede terminar enlaces de datos PSC y TDM e interconectar esos enlaces de datos externos mediante enlaces internos. Las interfaces externas conectadas al nodo tienen capacidades tanto PSC como TDM.

Adicionalmente, los anuncios de los enlaces TE realizados por un nodo simple o híbrido puede necesitar proporcionar información sobre las capacidades de ajuste interno de dichos nodos entre las diferentes tecnologías de conmutación soportadas. El término “ajuste” hace referencia a la propiedad de un nodo híbrido de interconectar diferentes capacidades de conmutación que se proporcionan a través de sus interfaces externas. La información sobre las capacidades de ajuste de los nodos en la red permite a los procesos de cálculo de rutas seleccionar un camino multicapa o multidominio que incluya enlaces con diferentes capacidades de conmutación, unidos mediante LSR que puedan adaptar la señal entre diferentes enlaces.

En la siguiente figura se muestra un ejemplo de nodo híbrido. El nodo híbrido tiene dos matrices de conmutación, las cuales soportan, por ejemplo, conmutación TDM y PSC respectivamente. El nodo termina un PSC y un enlace TDM (Enlace1 y Enlace2 respectivamente). Además tiene un enlace interno que conecta los dos elementos de conmutación. Estos dos elementos de conmutación están internamente interconectados de tal manera que es posible terminar algunos de los recursos de, por ejemplo Enlace2 y proporcionar un ajuste del tráfico PSC recibido/enviado sobre la interfaz PSC(#b).  Esta situación se modela en GMPLS conectando la terminación local del Enlace2 al elemento de conmutación TDM mediante una interfaz adicional que realiza la función de terminación/ajuste. Hay dos posibilidades para establecer el PSC LSP a través del nodo híbrido. El anuncio de los recursos disponibles debería aplicarse a ambas posibilidades.

nodo hibrido

Ingeniería de Tráfico integrada y Control de Recursos

En las redes multidominio/multicapa basadas en GMPLS, los enlaces TE pueden consolidarse en una única base de datos de ingeniería de tráfico (TED) mediante una única instancia del plano de control. Como esta base de datos contiene la información relativa a todas las capas de todos los dominios de la red, un camino a través de diferentes capas (posiblemente cruzando múltiples dominios) puede calcularse usando la información de esta TED. Además, puede conseguirse la optimización de los recursos de red entre diferentes capas de la misma región y a través de múltiples regiones.

Estos conceptos nos permiten para la operación de una capa de red sobre la topología (es decir, los enlaces TE)  proporcionada por otras capas de red (por ejemplo, el uso de una capa inferior LSC LSP que transporta PSC LSPs). A su vez, puede obtenerse un mayor grado de control e interworking, incluyendo (pero no limitado a):

  • Establecimiento dinámico  de las Forwarding Adjacency (FA) LSPs [RFC4206].
  • Provisión extremo a extremo de LSPs con disparo dinámico de FA LSPs.

Hay que considerar que en una red multicapa/multidominio que incluye nodos capaces de multiconmutación, una ruta explícita usada para establecer un LSP extremo a extremo puede especificar nodos que pertenezcan a diferentes capas o dominios. En este caso, se necesita un mecanismo para controlar la creación dinámica de los FA-LSPs. Hay un gran abanico de opciones para controlar cómo los FA-LSPs son dinámicamente establecidos. El proceso puede estar sujeto al control de una política, la cual puede establecerse mediante componentes de gestión que pueden requerir que el plano de gestión sea consultado en el momento en que el FA LSP está siendo constituido. Alternativamente, el FA-LSP puede constituirse con el plano de control requerido sin ningún plano de gestión.

Señalización disparada

Cuando un LSP atraviesa la frontera desde una capa superior a otra inferior, debe estar anidado en un FA LSP de la capa inferior que atraviese dicha capa. Desde una perspectiva de señalización, existen dos alternativas para establecer el FA LSP de la capa inferior:

  • Estática (pre-provisionada). Un FA-LSP de este tipo debe iniciarse o bien por el operador o automáticamente usando características como TE auto mesh [RFC4972]
  • Dinámica (disparada). Si este LSP de capa inferior no existe, debe ser establecido dinámicamente. Este mecanismo de establecimiento del LSP de capa inferior es lo que se conoce como señalización disparada.

FA-LSP

Una vez que se ha creado el LSP a través de una capa, desde un nodo frontera de esa capa hasta otro, puede utilizarse como enlace de datos de la capa superior. Además, puede ser anunciado como un enlace TE, permitiendo a otros nodos considerar el LSP como un enlace TE para el cálculo de sus caminos [RFC4206]. Un LSP creado tanto estática como dinámicamente por medio de una instancia del plano de control y anunciado como enlace TE dentro de esa misma instancia del plano de control se denomina Forwarding Adjacency LSP (FA-LSP). El FA-LSP se anuncia como un enlace TE y el enlace TE se llama Forwarding Adjacency (FA).

Una FA tiene la característica especial de que no necesita una adyacencia de enrutado (peering) entre sus extremos y aún así garantiza la conectividad del plano de control entre los puntos finales de los FA-LSP basados en una adyacencia de señalización. Una FA es una útil y poderosa herramienta para mejorar la escalabilidad de las redes GMPLS-TE ya que se pueden anidar (agregar) múltiples LSP de capas superiores sobre un único FA LSP. La agregación de LSPs permite la creación de una jerarquía LSP vertical (LSP anidados). Un conjunto de FA-LSPs a través o en una capa de nivel inferior puede usarse durante la selección del camino por un LSP de capa superior. Del mismo modo, los LSPs de capa superior pueden ser transportados sobre enlaces de datos dinámicos mediante LSPs (tal y como se transportaría sobre cualquier enlace de datos normal). Este proceso necesita el anidamiento de LSPs a través de un proceso jerárquico [RFC4206].  La TED contiene un conjunto de anuncios de LSP de diferentes capas que se identifican mediante el ISCD contenido dentro del anuncio del enlace TE asociado con el LSP [RFC4202].  Si un LSP de capa inferior no es anunciado como una FA, aún puede usarse para transportar un LSP de nivel superior a través de la capa inferior. Por ejemplo, si el LSP se configura usando señalización disparada, podrá ser utilizado para transportar el LSP de nivel superior que causó el disparo. Además, la capa inferior permanece disponible para ser usada por otros LSP de nivel superior que vayan llegando a la frontera. Bajo algunas circunstancias, puede ser útil controlar el anuncio de LSPs como FA durante el establecimiento de la señalización de los LSPs [DYN-HIER].

Topología de Red Virtual

Un conjunto de uno o más LSPs de  bajo nivel proporciona información para manejar de manera eficiente los caminos de las capas superiores de una MLN, es decir, proporciona una topología virtual de la red (VNT) de las capas superiores. Por ejemplo, un conjunto de LSPs, cada uno de los cuales está soportado por un LSC LSP, proporciona una VNT de las capas de la región PSC, asumiendo que la región PSC está conectada a la región LSC. Hay que considerar que un único LSP de capa inferior es un caso especial de VNT. La VNT se configura creando o destruyendo los LSPs de la capa inferior. Usando señalización GMPLS y protocolos de enrutado, la VNT puede adaptarse a las demandas de tráfico.

Un LSP de nivel inferior aparece como un enlace TE en la VNT. Independientemente de que los LSPs de capa inferior diversificadamente enrutados se usen o no, las rutas de los LSPs de capa inferior están ocultas desde la capa superior en la VNT. De esta manera, la VNT simplifica el enrutado y las decisiones de ingeniería de trafico de las capas superiores ocultando las rutas que han tomado los LSPs de las capas inferiores. Sin embargo, ocultando las rutas de los LSPs de capa inferior podemos perder importante información que puede ser necesaria para la fiabilidad de los LSPs de capa superior. Por ejemplo, el enrutado y la ingeniería de tráfico en la capa IP/MPLS no considera habitualmente cómo se forman los enlaces TE IP/MPLS desde caminos ópticos que son enrutados en la capa de fibra. Dos caminos ópticos pueden compartir el mismo enlace de fibra en la capa inferior, y por lo tanto ambos fallarán si existe un corte en la fibra. De esta manera, las propiedades de riesgo compartido de los enlaces TE en la VNT deben estar disponibles hacia la capa superior durante el cómputo del camino. Además, la topología de la VNT debería poder diseñarse de manera que cualquier corte simple de fibra no divida la VNT.

Los cambios en la demanda de tráfico, los cambios en la configuración de la topología, los requisitos de señalización de la capa superior y los fallos en la red deberían disparar la reconfiguración de la VNT. Por ejemplo, reconfigurando la VNT de acuerdo con la demanda de tráfico entre un par de nodos que hagan de fuente y destino, los factores de implementación de la red, tales como el máximo uso de un enlace o la capacidad residual de la red pueden ser optimizados. La reconfiguración se implementa calculando una nueva VNT a partir de la matriz de demanda de tráfico, y opcionalmente, desde la actual VNT. Los detalles exactos no forman parte de este documento. Sin embargo, este método puede ser confeccionado de acuerdo con la política del proveedor de servicios, teniendo en cuenta la implementación de la red y la calidad de los servicios (retardo, pérdida,utilización, capacidad residual, fiabilidad).

Anuncios

Los grandes desafíos a los que se enfrenten las redes de transporte del futuro son básicamente minimizar el coste del transporte por bit, maximizando el alcance sin regeneración y la capacidad de la fibra.

Podemos incrementar la capacidad de la fibra usando más longitudes de onda con un menor espaciamiento entre ellas, o más velocidad por cada longitud de onda. Si te interesa el tema puedes ver más detalles de cómo incrementar la eficiencia espectral.

Podemos incrementar el alcance sin regeneración usando mejores soluciones de amplificación óptica en las que se incluya la amplificación Raman, o híbridos EDFA (Erbium Dopped Fiber Amplifier) + Raman. Se requerirá una menor OSNR (Optical Signal to Noise Ratio) por longitud de onda gracias a tecnologías como los receptores coherentes y el FEC SD (Forward Error Correction Soft Decision).

Podemos desplazar funcionalidades desde la óptica hacia la electrónica usando sistemas coherentes que optimicen el coste y potencialmente PICs (Photonic Integrated  Circuits)  para reducir el TCO ( Total Cost of Ownership), especialmente en el borde y en la zona metro.

Por otra parte, habría que optimizar la arquitectura de los nodos para permitir la conmutación a diferentes niveles, sustituyendo los enlaces punto a punto por topologías de mallas completamente ópticas. Las interfaces ópticas de cliente son un buen ejemplo donde coste, tamaño y disipación de potencia son factores críticos.

En cualquier caso, nos interesa  incrementar y mejorar la integración fotónica de los componentes que harán viable todas estas tendencias. Existen fundamentalmente cuatro tecnologías para realizar la integración fotónica, que veremos a continuación.

Tecnologías de Integración Fotónica

Existen diferentes alternativas tecnológicas para desarrollar los circuitos fotónicos integrados (PIC).

  • CMOS Photonics. Las tecnologías de integración fotónica basadas en Silicio implementadas sobre CMOS (Complementary Metal Oxide Semiconductor) necesitan de un elevado volumen para que su fabricación sea rentable. El objetivo sería tomar ventaja de esta economía de escala que se produce en la electrónica usando las mismas  instalaciones que las que se utilizan para la fabricación CMOS, de manera que se abarataran los costes de producción de los PIC. La tecnología CMOS permite una integración íntima de óptica con electrónica en el mismo chip. La tecnología CMOS se utiliza en diferentes campos, pero para aplicaciones de telecomunicaciones, existen tres cuestiones fundamentales:
    • Fuentes de luz. Actualmente se utilizan fuentes de luz basadas en  InP o GaAs, y están integradas híbridamente en el chip de Silicio. Existen interesantes desarrollos en algunas startups, industrias de microelectrónica e investigación.
    • Como ya se ha comentado, CMOS photonics necesita de grandes volúmenes. Una fábrica de gran tamaño no es eficiente en costes a menos que se fabriquen más  100.000 unidades al año. El crecimiento de la fibra en el acceso y las conexiones de corto alcance puede ser un aliado para llegar a los volúmenes necesarios.
    • Las soluciones CMOS photonics no siempre serán las mejores aplicaciones fotónicas para las telecomunicaciones. La ventaja de la integración, la flexibilidad y el progreso en el diseño probablemente disminuirán estas limitaciones y las harán más atractivas.

 

  • InP. Los PIC basados en Fosfuro de Indio constituyen una importante innovación tecnológica que simplifica el diseño de sistemas ópticos, reduciendo espacios y consumos. Adicionalmente, disminuyendo el coste de la conversión OEO (óptica-eléctrica-óptica) en las redes ópticas, proporcionan una oportunidad de transformación para abrazar el uso de circuitos integrados electrónicos y sistemas software en una red óptica “digital”  que maximice la funcionalidad del sistema, mejorando la flexibilidad de los servicios y simplificando la operación de la red.
    • monolítico, utilizando circuitos integrados
    • híbrido, mezclando componentes discretos con circuitos integrados
  • VCSEL.Diodo Láser de Emisión Superficial con Cavidad Vertical.
    • Es un diodo semiconductor que emite luz en un haz cilíndrico vertical de la superficie de una oblea, y ofrece ventajas significativas cuando se compara con láser de emisión lateral comúnmente usados en la mayoría de comunicaciones por fibra óptica.
    • Los VCSELs pueden ser construidos con GaAs, InGaAs.
    • Para el funcionamiento del VCSEL, se requiere de una región activa de emisión de luz encerrada en un resonador que consta de dos espejos. En este caso, los espejos son parte de las películas epitaxiales, por lo que estas películas se sobreponen formando una pila. Estos espejos son conocidos como reflectores distribuidos de Bragg (DBRs).
    • Los DBR llegan a formar espesor usando entre 40 y 60 películas en cada DBR, produciéndose un espesor total de 6μm –8μm. Para crear la unión p-n se necesita que un DBR este dopado para hacerlo semiconductor tipo n y el otro DBR tipo p.
    • Los VCSELs tienen alto rendimiento y bajo costo, algunas de sus características son:
      • La estructura puede ser integrada en una configuración de arrays de 2 dimensiones.
      • Su haz circular y baja divergencia eliminan la necesidad de óptica correctiva.
      • Comercialmente la corriente de umbral de un VCSEL es de aproximadamente 4 mA.
      • Alcanza potencias ópticas del orden de 10 mW.
      • Su ancho espectral ( Dl ) es de aproximadamente 1nm.
      • Su longitud de onda central es de aproximadamente 850 nm.
      • Se puede aplicar un VCSEL en transmisión de datos en el rango de velocidad de 100 Mbs a 1 Gbs.
  • Silica on silicon. Los bloques que conforman esta tecnología son:
    • Fuentes de luz. Integración del grupo III-V en los procesos estándares CMOS
    • Guías de ondas
    • Moduladores
    • Pasivos, como AWG
    • Receptores
    • Elementos de Conmutación Óptica
    • Funciones electrónicas

La tecnología de integración Silicon Photonics es aplicable en diferentes clases de productos en diferentes momentos temporales, dependiendo de los diferentes grados de madurez de la tecnología y de los mercados.

Integración fotónica en redes de transporte

De manera equivalente a como se integran los circuitos integrados sobre Silicio agrupando un elevado número de transistores en una única pequeña pieza física que es más poderosa, más fiable y consume menos potencia y espacio, hoy en día, los circuitos fotónicos integrados (PIC) agrupan centenares de componentes ópticos en una pequeña pieza física que es también más potente, más fiable y utiliza menos potencia y espacio que la aproximación equivalente usando componentes discretos.

En Enero de 2012 Ericsson anunció su trabajo sobre tecnología fotónica sobre Silicio (silicon photonics) para los supercanales de Terabit. El proyecto comenzó en abril de 2008 y concluyó a finales de 2011. Los resultados públicos los puedes encontrar en la web del proyecto APACHE.

El proyecto APACHE propone una nueva estrategia de integración, análoga a la aproximación que se realiza en la industria electrónica. En el caso de la electrónica, los componentes se montan de manera pasiva sobre una placa de circuitos impresos de acuerdo con las funcionalidades del diseño. Estos componentes pueden ser dispositivos discretos como resistencias, o chips monolíticos como circuitos integrados.

En APACHE, usando circuitos integrados fotónicos basados en la tecnología híbrida de integración Silica on silicon , se supera el primer obstáculo para el equivalente fotónico, a través de procesos de ensamblado pasivos que proporcionan alineamientos de precisión para dispositivos ópticos monomodo, en los que la tolerancia a los alineamientos deben ser de  micras o por debajo. Usando esta aproximación, un dispositivo guíaondas planar sobre silicio actúa como la placa de circuito impreso óptico (o placa madre), proporcionando la matriz de interconexión pasiva de guíaondas

el-phot1

Los componentes monolíticos se integran de manera pasiva sobre una placa hija, que a su vez se monta sobre la placa madre planar de silicio, PLCB (Planar Lightwave Circuit Board). Para ello se necesita un método de diseño unificado para el dispositivo híbrido en el que, además de haber definido las características de alineamiento necesarias para el ensamblaje, se definen los tamaños de los modos de los componentes ópticos en las interfaces entre los elementos activos y pasivos.

Además, comparados con InP, las guíaondas pasivas basadas en silicio muestran menores pérdidas de inserción, menor dispersión por velocidad de grupo, mejor acoplamiento a fibras ópticas y menor sensibilidad con la temperatura. En APACHE, se desarrollaron las placas madre e hijas para que puedan albergar chips monolíticos más grandes, tales como arrays de moduladores InP, láseres DFB, SOAs…La característica básica de los dispositivos APACHE es la agilidad, la cual es posible gracias a la capacidad de generar, modular y regenerar señales ópticas de varios formatos de modulación usando un dispositivo multifuncional. La funcionalidad requerida se ofrece a través de “add-ons” monolíticos,  como por ejemplo láseres moduladores basados en InP, amplificadores, etc., que se ensamblan de manera pasiva en las placas hijas y consecuentemente en la placa madre. Los esfuerzos se centraron en fabricar chips activos con modulación InP, regeneración y recepción de señales >100Gbps.

A finales de enero de 2012, Huawei anunció la adquisición del Centre for Integrated Photonics Ltd. (CIP), lo que apunta a que Huawei querría desarrollar su propia fotónica integrada, sin necesidad de recurrir al mercado. Infinera dispone hace tiempo de un PIC comercial de 500 Gbps que será de 1 Tbps en su siguiente generación.

Tecnología PPXC (Petabit Photonic Cross-Connect)

Se trata de una tecnología fotónica que permitírá la conmutación OTN a nivel de Petabit  a lo largo de todo el enlace óptico con una granularidad lo suficientemente fina.

Optimizando la tecnología de un láser sintonizable de InP se pueden generar prototipos de láseres para conmutación ultrarápida, permitiendo a su vez generar equipamiento que aproveche estas ultra capacidades. Esto ya está a puntito de mostrarse públicamente y puedes encontrar la referencia aquí

La conmutación ágil y de capacidad ultragrande es una prometedora tecnología para las redes ópticas del futuro. El componente clave de esta funcionalidad es la tecnología que permite láseres sintonizables. Estamos hablando de que los láseres se sintonizarían en nanosegundos.

Una tecnología de crossconexión todo óptica dotará de una ventaja única a los clusters de conmutación OTN de capacidad ultragrande que formarán parte de los backbone de las redes de transporte del futuro, o de los grandes Data Center o cualquier otra aplicación donde sea conveniente.

El nivel de integración es clave para el futuro de los PIC.  Recientemente la compañía Oclaro demostró con éxito que los PIC completamente monolíticos en InP pueden ser usados para ofrecer elevadas prestaciones a bajo coste

Todos estos movimientos apuntan a que la integración fotónica es el futuro habilitador de las nuevas prestaciones que se requieren en las redes de transporte ópticas. Es un futuro que ya ha comenzdo.

En la Primera Parte de este resumen se establecían los objetivos de la RFC5212. A continuación se sigue abundando en los detalles más relevantes para establecer redes multicapa y multiregión bajo la misma instancia de plano de control GMPLS.

Una Red Multi Región (MRN)  siempre es una Red Multi Capa (MLN) ya que los dispositivos en las fronteras entre regiones reúnen diferentes ISC. Una MLN sin embargo, no es necesariamente una MRN ya que múltiples capas podrían estar completamente integradas en una única región. Por ejemplo, VC12, VC4 y VC4-4c son diferentes capas de la región TDM.

 Capas del Plano de Datos y Regiones del Plano de control

Una capa de un plano de datos es una colección de recursos de red capaces de terminar y/o conmutar tráfico de datos en un formato particular   [RFC4397]. Estos recursos pueden ser usados para establecer LSPs que entreguen tráfico. Por ejemplo, VC-11 y VC4-64c representan dos capas diferentes.

Desde el punto de vista del plano de control, se define una región LSP como un conjunto de una o más capas del plano de datos que comparten el mismo tipo de tecnología de conmutación. Por ejemplo, las capas VC-11, VC-4, y VC-4-7v forman parte de la misma región TDM.

Las regiones que actualmente están definidas son: PSC, L2SC, TDM, LSC, y FSC. Por lo tanto, una región LSP es un dominio de tecnología, un tipo de conmutación (identificada por el tipo de ISC) para el que los recursos del plano de datos son representados dentro del plano de control como un agregado de información TE asociada con un conjunto de enlaces (TE links). Por ejemplo, TE links VC-11 y VC-64c son parte de la misma región TDM. Por lo tanto pueden existir múltiples capas en una red de una única región.

Hay que tener en cuenta que la región puede producir una distinción dentro del plano de control. Capas de la misma región comparten la misma tecnología de conmutación y, además, usan el mismo conjunto de objetos de señalización específicos de la tecnología, y atributos del TE link cuyos valores también son específicos de la tecnología dentro del plano de control, pero las capas de diferentes regiones pueden usar objetos y valores en los atributos del TE link diferentes, específicos de la tecnología. No es posible enviar  mensajes de señalización entre los LSR que alberguen diferentes tecnologías de conmutación. Esto se debe a cambios en algunos de los objetos de señalización (por ejemplo los parámetros de tráfico) cuando se cruzan las fronteras de una región, incluso usando una única instancia del plano de control que gestione toda la MRN. Esto debe resolverse usando señalización disparada.

 Redes de capa de Servicio

Una red de un proveedor de servicios debe estar divida en diferentes capas de servicio. La red de los clientes se considera desde la perspectiva del proveedor de servicios como la capa de servicio más alta. La conectividad a través de la capa superior de servicio de la red del proveedor de servicios debe ser provisionada con el soporte de las diferentes  capas de servicio inferiores sucesivamente.

Las capas de servicio se realizan mediante la jerarquía de capas de red ubicadas generalmente en diferentes regiones y comúnmente asociadas a las capacidades de conmutación del equipamiento de la red. 

El proveedor de servicios implementa el servicio mediante una pila de capas de red ubicadas en una o más regiones de la red. Las capas de red están comúnmente agrupadas según las capacidades de conmutación de los elementos de las redes.

La relación del plano de datos soportado es una relación cliente servidor, donde las capas más bajas proporcionan un servicio para la capa superior usando los enlaces de datos que se realizan en la capa inferior.

 Integración e Interacción Vertical y Horizontal

Se define la interacción vertical como los mecanismos colaborativos dentro de un elemento de red que es capaz de soportar más de una capa o región y de establecer las relaciones cliente/servidor entre las capas o regiones. Los intercambios de protocolos entre dos controladores de red que gestionan diferentes regiones o capas también son interacción vertical.

La integración de esas interacciones como parte de un plano de control también es una interacción vertical.

Así, esto refiere a los mecanismos colaborativos dentro de una instancia de un único plano de control  manejando multiples capas de red que forman parte de la misma región o no. Este concepto es útil para construir un marco de referencia que facilita el uso eficiente de los recursos y la provisión rápida de servicios en redes de operadores que se basan en múltiples capas, tecnologías de conmutación o ISCs.

Se define la Interacción Horizontal como el protocolo de intercambio entre los controladores de red que gestionan nodos de transporte dentro de una capa o región dada. La interacción del plano de control entre dos elementos de red TDM conmutando a OC-48 es un ejemplo de interacción horizontal. Las operaciones del protocolo GMPLS manejan interacciones horizontales dentro de la misma área de enrutado. El caso en el que la interacción tiene lugar a través de una frontera del dominio, como entre dos áreas de enrutado dentro de la misma capa de red, se evalúa como parte del trabajo inter-dominio  [RFC4726], y nos referimos a ella como Integración Horizontal. Así, la integración se refiere a los mecanismos colaborativos entre particiones de red y/o divisiones administrativas como áreas de enrutado o sistemas autónomos.

Esta distinción necesita de una aclaración adicional cuando los dominios administrativos casan con las fronteras de la capa/región. La interacción horizontal se extiende para cubrir estos casos. Por ejemplo, los mecanismos colaborativos que tienen lugar entre dos áreas LSC en relación con la integración horizontal. Por otra parte, los mecanismos colaborativos que tienen lugar entre un dominio PSC (por ejemplo IP/MPLS)  un dominio separado TDM sobre el que opera una parte de la integración horizontal, mientras que puede también ser visto como un primer paso hacia la integración vertical.

 Motivación

 La aplicabilidad de GMPLS a diferentes tecnologías de conmutación proporciona una aproximación unificada al control y gestión tanto para la provisión como para la restauración de LSP.  Además, una de las principales motivaciones para la unificación de las capacidades y operaciones del plano de control GMPLS es el deseo de soportar enrutado y capacidades TE en una región multi-LSP [RFC4206] . Esto permitiría la utilización eficiente de recursos de red tanto en las regiones de paquetes/nivel 2 como en la TDM o regiones de lambdas LSP en redes de mayor capacidad.

Resumiendo, los puntos a favor de redes multil capa/multi región controladas con GMPLS son los siguientes:

  • El mantenimiento de múltiples instancias del plano de control  en los equipos que albergan más de una capacidad de conmutación no sólo incrementa la complejidad de las interacciones entre las diferentes instancias del plano de control, sino que además incrementa la cantidad total de procesado que cada instancia individual del plano de control debe manejar.
  • La unificación de los espacios de direccionamiento ayuda a evitar múltiples identificadores para el mismo objeto (un enlace, una instancia, o de manera generalizada cualquier recurso de red). Por otra parte, tal agregación no impacta en la separación entre el plano de control y el plano de datos.
  • Manteniendo una instancia única del protocolo de routing y una única base de datos de ingeniería de tráfico (DB TE) por LSR, un modelo de plano de control unificado elimina los requisitos de mantener una topología de routing dedicada por capa y además no implica un mallado total de adyacencias de routing como en el caso de planos de control superpuestos.
  • La capacidad exitente en  GMPLS para asociar la señalización en banda  de planos de control a las interfaces con las terminaciones IP del plano de control, facilita la colaboración entre las capas de las diferentes tecnologías en las que el canal de control está asociado con el canal de datos (por ejemplo planos de datos paquetes/tramas) y las capas de las diferentes tecnologías en las que el canal de control no está directamente asociado con el canal de datos (SONET/SDH, G.709, etc.)
  • Se simplifican la gestión de recursos y políticas que se aplican en los bordes de este tipo de redes MRN/MLN (menos control para gestionar interacciones) y también se vuelven más escalables (gracias al uso de información agregada).
  • La TE del tráfico Multi-región/multi-capa es facilitada como enlaces TE desde distintas regiones/capas y almacenadas en la misma base de datos TEDB.

Seguiremos en la Parte III con los conceptos clave de las MLN y MRN basadas en GMPLS.

 

La RFC5212 describe los conceptos de MRN (Multi Region Network) y MLN (Multi Layer Network) y detalla los elementos de una única instancia de un plano de control GMPLS (Generalized Multi Protocol Label Switch) que controla múltiples capas dentro de un dominio dado de TE -Traffic Engineering, Ingeniería de Tráfico- . Una instancia de un plano de control puede servir a una, dos o más capas. Otras posibles aproximaciones tales como tener múltiples instancias del plano de control sirviendo a conjuntos disjuntos de capas no se recogen en el ámbito de este documento. Es más probable que este tipo de redes Multi Layer Network (MLN) y Multi Regional Network (MRN) sean operadas por un único proveedor de servicios, pero este documento no excluye la posibilidad de que dos capas (o regiones) estén bajo diferente control administrativo ( por ejemplo, por diferentes Proveedores de Servicio que comparten una única instancia del plano de control) en los que los dominios administrativos están preparados para compartir una cantidad de información limitada.

Se asume que la interconexión de dominios TE MRN/MLN adyacentes hará uso de la  [RFC4726] cuando sus bordes también soporten extensiones interdominio  GMPLS RSVP-TE.

Al extender el MPLS a diferentes tipos de conmutación, GMPLS se convierte en un interesante marco de referencia para el plano de control de redes multicapa o multidominio. Una de las aplicaciones más complejas e interesantes del GMPLS surge cuando tenemos que atravesar dominios diferentes dentro de una red. El cálculo de caminos tiene que considerar las restricciones específicas de cada región. Adicionalmente se necesita señalización para tunelizar los diferentes tipos de conmutación y debe establecerse un correcto mapeado entre las diferentes tecnologías.

En GMPLS, un dominio de una tecnología de conmutación define una región, y una red con múltiples tipos de conmutación. Es lo que se denomina MRN (Multi Region Network). Cuando se habla de redes multicapa, las cuales  a su vez pueden consistir en una o múltiples regiones se denominan MLN (Multi Layer Network).

El MPLS Generalizado (GMPLS) extiende el MPLS para manejar múltiples tecnologías de conmutación: conmutación de paquetes, conmutación de nivel 2, conmutación TDM (Time Division Multiplexing), conmutación WDM (Wavelenght Division Multiplexing) y conmutación de fibra ([RFC3945]).

Para distinguir estas posibilidades se introduce el concepto de ISC (Interface Switching Capability) que identifica estas tecnologías de conmutación, estableciéndose los siguientes tipos de descriptores ISCD (Interface Switching Capablity Descriptor):

  • PSC Packet Switch Capable
  • L2SC Layer-2 Switch Capable
  • TDM Capable
  • LSC Lambda Switch Capable
  • FSC Fiber Switch capable

La representación en un plano de control GMPLS, de un dominio de una tecnología de conmutación se denomina región [RFC4206]. Un tipo de conmutación describe la capacidad de un nodo de enviar datos de una tecnología de un plano de datos concreto, y unívocamente identifica una región de la red.

Una capa describe un nivel de granularidad de un plano de datos de conmutación (por ejemplo VC4, VC-12). Una capa de un plano de datos se asocia con una región en el plano de control (por ejemplo VC4 se asocia con TDM, MPLS se asocia con PSC). Sin embargo, mas de una capa de plano de datos puede ser asociada a la misma región (por ejemplo tanto VC4 como VC12 asociados a TDM).

Por lo que una región del plano de control, identificada por el valor de su tipo de conmutación, puede subdividirse en componentes de redes de menos granularidad basados en capas de conmutación de plano de datos. El descriptor de la capacidad de conmutación de la interfaz,  ISCD [RFC4202], que  identifica las  capacidades de conmuntación de las interfaces -ISC-, el tipo de codificación y la granularidad del ancho de banda de conmutación, permite la caracterización de las capas asociadas.

En la RFC5212 se define:

  • Red Multi Capa (MLN) como un dominio con Ingenieria de Tráfico (TE -Traffic Engineering-) que comprende capas con múltiples planos de conmutación, todas del mismo o diferente  ISC y controladas con una única instancia de un plano de control GMPLS.
  • Red Multi Región (MRN)  como un dominio TE en el que se incluyen al menos dos tipos diferentes de conmutación, que pueden estar desplegados en el mismo o en diferentes equipos y bajo el control de una única instancia de un plano de control GMPLS.

Las MLN pueden categorizarse de acuerdo a la distribución de los ISC entre los LSR (Label Switching Routers).

  • Cada LSR debe soportar sólo un ISC. Estos LSR se conocen como LSR con  capacidad de conmutación de tipo único. La MLN debe comprender un conjunto de LSR con capacidad de conmutación de tipo único.
  • Cada LSR debe soportar más de un ISC al mismo tiempo. Estos LSR se conocen como LSR con capacidad de conmutación de tipo múltiple, y pueden además ser clasificados como simples o híbridos, tal y como se detallará más adelante.

La MLN debe construirse a partir de cualquier combinación de ambos tipos de LSR. Mientras que GMPLS proporciona un marco de comprensión para el control de diferentes capacidades de conmutación, debe usarse una instancia única GMPLS para el control MLN/MRN. Esto permite una rápida provisión de servicios y una eficiente ingenieria de tráfio a través de todas las capacidades de conmutación.

En redes de este tipo, los enlaces de ingeniería de tráfico (TE Links) se consolidan en una única base de datos (Traffic Engineering Database -TED-). Como esta  TED contiene la información relativa a todas las diferentes regiones y capas que existen en la red, un camino a través de múltiples regiones o capas puede ser calculada usándola. Con esto se consigue la optimización de los recursos de la red  conjuntamente  MLN/MRN.

Por ejemplo, supongamos una MRN compuesta de routers con capacidad de conmutación de paquetes y crosconectores TDM. Asumimos que un paquete LSP se enruta entre los routers origen y  destino con capacidad de conmutación de paquetes, y que el LSP puede ser enrutado a través de la región PSC (utilizando solo recursos de la topología de la región de paquetes). Si el LSP  no cumple su objetivo, se deben crear nuevos enlaces de ingeniería de tráfico (TE links) entre los routers con capacidad de conmutación de paquetes a través de la región TDM (por ejemplo enlaces VC12), de manera que el LSP pueda ser enrutado sobre dichos TE links. Además, incluso si el  LSP puede establecerse con éxito a través de la región PSC, los LSPs jerárquicos TDM (a través de la región TDM entre los routers con capacidad de conmutación de paquetes) deben establecerse y usarse si con ello se alcanzan los objetivos de disponibilidad de recursos en la red que el Operador se plantee.

En la siguiente entrada seguiremos con el planteamiento y la motivación de la RFC5212.

 

En esta entrada se realiza un resumen de gran parte del documento del  IETF , A framework for Black Link Management and Control (draft-kunze-black-link-management-framework-00). Así que si sigues leyendo, atente a las consecuencias.

RESUMEN

El término Black Link hace referencia a un conjunto de recomendaciones de la ITU, en las que se describen escenarios en los que un par transmisor/receptor, que pueden ser del mismo o diferente suministrador, se comunica a través de una red óptica WDM de otro suministrador. Estos estándares proporcionan las especificaciones para las interfaces de la capa física (sin gestión o control) de una serie de aplicaciones basadas en los black links.

  • G.695. línea óptica CWDM constituida en anillos punto a punto unidireccionales y bidireccionales. Sistemas de interfaces sobre una fibra monomodo multicanal (aproximación de black box) o un único canal (aproximación de black link), con una velocidad de hasta NRZ 10 G, sin amplificación y un máximo de 16 canales en la rejilla propuesta en la G.694.2
  • G.698.1. Sistemas de línea óptica DWDM punto a punto unidireccional o anillo, sobre fibra monomodo usando interfaces de canal único, con la distancia de transmisión en el rango de entre 30 Km y 80 Km (aplicaciones metro) y velocidades de 2.5 y 10 Gbps con una rejilla de 100 GHz, o de 10 Gbps en rejilla de 50 GHz (G.694.1)
  • G.698.2. Sistemas de línea óptica DWDM punto a punto unidireccional o anillo sobre fibra monomodo usando interfaces de canal único, con velocidades de 2.5 y 10 Gbps con  rejilla de 100 GHz y de 10 Gbps con rejilla de 50 GHz (G.694.1).
  • G698.3. Sistemas DWDM punto a punto bidireccionales sin amplificación, usando interfaces multicanal o de canal único, con velocidades de hasta 1.25 Gbps utilizando la rejilla de 100-GHz y distancia de unos 40 km.

 Estas recomendaciones son responsabilidad de la ITU-T, concretamente del  SG15 (questions Q6/15).  En los últimos tiempos, este grupo de trabajo se ha centrado en establecer un conjunto de parámetros y sus valores asociados para permitir la interoperabilidad multisuministrador entre los diferentes formatos de modulación existentes para 40 Gbps, revisando la G.698.2.

Un black link comprende el enlace DWDM entre el multiplexor y el demuliplexor óptico, así como los potenciales amplificadores o OADMs y la fibra que conecta el transmisor con el receptor.

Revisiones futuras podrían incluir formatos de modulación avanzados que son más apropiados para 40G, y especialmente 100G. Existe un acuerdo para la inclusión de P-DPSK, RZ-DQPSK, DP-QPSK debido  la penentración que presentan en ciertos mercados.

Dos métodos para testear estos nuevos formatos de modulación se posicionan como los más  apoyados:

  • Error Vector Magnitude for QPSK signals (propuesto por Ciena)
  • Demodulated Extinction Ratio for DPSK signals (propuesto por ALU).

Para el periodo 2013-2016, uno de las tareas más interesantes del Q6/15 será la inclusión de especificaciones de rejilla flexible para DWDM en las recomendaciones que están afectadas por esta “pregunta”, de manera que, la compatibilidad transversal (black box o black link) en un entorno multivendor multidominio pueda ser garantizado. Otras actividades serían el estudio de formatos multiportadora, como OFDM, SCM, etc, y la aplicación de técnicas de FEC a los sistemas de transmisión óptica terrena sobre todo para mejorar el margen del sistema o para relajar las especificaciones de los parámetros ópticos.

El documento proporciona un marco que describe una solución para la gestión y control de interfaces ópticas de acuerdo con la aproximación de Black Link especificada por la ITU-T G698.2. En particular examina los elementos topológicos y las medidas de gestión de red relacionadas.

El enrutado óptico y la asignación de longitud de onda basada en WSON queda fuera del ámbito de este documento. Nos centraremos en la gestión de las interfaces ópticas. La aplicación de un plano de control dinámico, para funciones como el autodescubrimiento o la distribución de parámetros de las interfaces es complementaria. En cualquier caso, este trabajo no entra en conflicto con WSON pero mejora y apoya los trabajos ya realizados para en plano de control y de gestión.

1. Introducción

El uso de black links  para redes de larga distancia y redes de agregación añade una opción adicional a los operadores para simplificar u optimizar las redes. La integración de interfaces ópticas coloreadas en los routers y en otro tipo de clientes podría aportar gran cantidad de beneficios, considerando un transporte eficiente y optimizado para servicios de alto nivel.

Los proveedores de servicio despliegan sus redes como una infraestructura que combina paquetes y transporte. Esto asegura una elevada disponibilidad y flexibilidad en el transporte de datos.

Ambas tecnologías suelen gestionarse, habitualmente de manera separada, unidades operacionales diferentes que utilizan conceptos de gestión diferente. Este es el status quo en la mayoría de las redes desplegadas hoy en día. En el caso de despliege de un black link o una friendly wavelength, donde las interfaces coloreadas se desplazan al cliente (por ejemplo, router), es necesario establecer una conexión de gestión entre el cliente que proporciona la interfaz coloreada y el correspondiente EMS (Element Management System) de la red de transporte, para asegurar que los parámetros de dicha interfaz coloreada pueden ser gestionados de la misma manera que los despliegues tradicionales permiten.

Es conveniente tener en cuenta que plano de control y de gestión son dos entidades separadas que manejan la misma información de manera diferente. En este documento se habla tanto del plano de gestión como del plano de control para diferentes casos de operación de BL (Black Links) y de FW (Friendly Wavelength).

2. Terminología y Definiciones

  • Black Link: El enlace negro (ITU.G698.2) permite soportar un par óptico transmisor/receptor de uno o diferentes suministradores para inyectar un canal DWDM y desplegarlo sobre una red óptica compuesta de amplificadores, filtros, ADM de diferentes suministradores. Además el estandar define los parámetros de entrada y salida en la interfaz Ss y Rs
  • Interfaz Coloreada: el término interfaz coloreada define una interfaz de canal óptico que se usa para enlazar largas distancias y que se conecta directamente con un sistema DWDM. Las interfaces coloreadas operan sobre una longitud de onda fija o sintonizable (en una banda). Interfaz coloreada es un término más  genérico y es un superconjunto del enlace negro.
  • Friendly Wavelength. Longitud de onda amigable es una longitud de onda que se genera u origina por una interfaz óptica que no es parte de un sistema WDM pero que es completamente gestionada y conocida por el sistema WDM.
  • Alien Wavelenght, Lambda Alien es una longitud de onda que se genera u origina en una interfaz óptica que no es parte de un sistema WDM y que ni se gestiona ni se conoce por dicho sistema WDM.
  • Forward error correction (FEC):  es una manera (imprescindible) de mejorar la implementación de sistemas de transmisión ópticos de larga distancia. El empleo de FEC  en los sistemas de transmisión ópticos da paso a un diseño de sistemas que pueden aceptar un BER (Bit Error Rate) mayor  (mucho mas que 10-12) en la línea de transmisión (antes de la decodificación).
  • Interfaz Intradominio (Intra-domain Interface (IaDI): Es el lado de línea del sistema óptico. Se trata de una interfaz física dentro de un dominio de suministrador o administrativo, que puede ser tanto estandarizada (acorde con la G.698.2 ) o propietaria.
  • Interfaz Interdominio (Inter-Domain Interface(IrDI): Es una interfaz física que representa la frontera entre dos dominios administrativos, así como la frontera entre el cliente y el dominio óptico.
  • Plano de Gestión: Soporta capacidades FCAPS (Fault, Configuration, Accounting, Performance and Security   Management)
  • Plano de Control. Soporta señalización, cálculo de caminos, enrutado, establecimiento y restauración de caminos.
  • Capa de Red Cliente (Client Network Layer): Es la capa que se sitúa sobre el nivel  WDM, desde la perspectiva de la capa WDM.
  • Transpondedor: Es un elemento de red que implementa la conversión O/E/O (Optico/Electrico/Óptico). Se hará solo referencia a transpondedores 3R como se definen en ITU.G872

3. Solución de Gestión para un Black Link DWDM

Básicamente, la gestión de FW y de BL  maneja aspectos relacionados con provisionar y establecer canales y el mantenimiento de los mismos. Estas funciones son demandadas por la capa de red cliente que esté por encima del WDM. Para la gestión de BL y FW se consideran los siguientes tipos de red WDM:

  • WDM pasivo
  • WDM punto a punto (herencia)
  • WDM con OADM (herencia)
  • Redes ópticas transparentes que soportan funciones específicas de IPoWDM, interfaces y protocolos.

Adicionalmente, podrían considerarse los siguientes casos de despliegue:

  • Despliegues exclusivos de BL
  • Despliegue de BL combinados con interfaces grises de cliente, este caso estaría motivado por el uso de equipamiento heredado que seguirían usando las conexiones tradicionales.

3.1. Descripción de la conexión WDM del lado cliente

3.1.1. Despliegues tradicionales WDM

La conexión típica de la capa cliente hacia un sistema WDM se basa a día de hoy en interfaces de cliente (grises) de cortas/medias distancias entre ambos. La señal óptica que entra al sistema WDM debe ser convertida mediante una conversión OEO a la correspondiente longitud de onda con el nivel de potencia adecuado para el camino de transmisión asignado. Esta conversión la realizza el transpondedor, tal y como se puede ver en la figura 1.

Después de esa conversión OEO la señal cumple con los parámetros que han sido especificados para ese enlace concreto WDM.

La figura 1 muestra esta interconexión cliente-WDM tradicional usando transpondedores para la conversión de las longitudes de onda. IrDI y IaDI, como se definieron en el apartado 2, especifican las diferentes áreas de demarcación relacionadas con las conexiones externas e internas.

FIGURA 1 BLACK LINK
La gestión y el control de las capas WDM y cliente se realizan mediante soluciones diferentes. Diferentes unidades operacionales suelen ser responsables de las interfaces de cliente y de la capa WDM.

3.1.2. Despliegues de Black Link

En el caso de un despliegue de Black Link, la figura 2  nos muestra con el transceptor DWDM se localiza directamente en el cliente, evitando las interfaces grises. En este caso, es necesario encontrar una solución para la gestión de esa interfaz coloreada para que sea equivalente a la gestión tradicional. Este requisito conviene que sea completamente asegurado especialmente en aquellos casos donde el equipamiento legacy y las interfaces BL y FW puedan ser usados en paralelo o conjuntamente y la forma de operar la red siga siendo la tradicional.

La figura 2 muestra un conjunto de puntos de referencias, para la aproximación de BL, para la conexión de un único canal (Ss y Rs) entre los transmisores (Tx) y los receptores (Rx). Aquí, los elementos de la red EDM incluyen un OM y un OD, , uno o más amplificadores ópticos y puede incluso incluir uno o más OADMs.

figura 2 black link

Independientemente de las redes WDM que han sido consideradas, el BL debe funcionar igual de bien en despliegues mixtos de sistemas legacy con equipamiento BL y FW.

5. Soluciones de gestión y control para los Black Link

La operación y gestión de los sistemas WDM es tradicionalmente un grupo homogéneo de tareas que podrían ser realizadas de manera más eficiente cuando se trata de un sistema de gestión único o paraguas que también  se encarga de administrar las longitudes de onda.

Este tipo de operación de red tradicional se diseñó pensando en una gran cantidad de tráfico orientado a conexión en las redes de los operadores. Este comportamiento ha cambiado completamente. Hoy en día el tráfico IP es el dominante en las redes y desde el punto de vista operacional es más beneficioso utilizar una aproximación común para la gestión y la operación. Debido a esta larga historia de separación operacional, debería ser posible gestionar los despliegues de BL de la manera tradicional.

Además, desde el punto de vista de la operación de la red, en un BL puro, o en una mezcla con equipamiento legacy (transpondedores) hay dos aproximaciones para gestionar y operar la red:

  1. Operación y gestión seaparada del cliente y de la red de transporte
    1. Enlace directo a los sistemas de gestión (EMS, OSS)
    2. Enlace indirecto al sistema de gestión, usando un protocolo entre el nodo propietario del enlace y el nodo del sistema WDM al que está directamente conectado para intercambiar información de gestión
  2. Operación y gestión común para IP y red de transporte

La primera opción mantiene el status quo en  redes de gran tamaño. En este caso, se deben asegurar por completo las funcionalidades FCAPS asociadas a la gestión (Fault, Configuration, Accounting, Performance and Security). Esto significa para el personal que gestiona la red que nada cambia. La interfaz óptica será parte del dominio definido por el sistema de gestión óptico y será gestionado por el personal de gestión del transporte.

La segunda opción debería ser la preferida si la capa de transporte WDM subyaciente se usa principalmente para interconectar nodos IP, y la restauración y creación de servicio se realiza en capas superiores (por ejemplo IP/MPLS). En este caso hay más beneficio en tener un nivel de integración y una gestión común será más eficiente.

5.1. Operación y Gestión separadas de BL

5.1.1. Conexión directa al sistema de gestión

Como se muestra en la figura 3 una posibilidad para gestionar la interfaz óptica dentro del cliente es una conexión directa con el sistema de gestión del dominio óptico. Esto asegura la gestionabilidad de la manera tradicional.

figura 3 black ling

El intercambio de información de gestión entre el cliente y el sistema de gestión asume que existe cierta forma de enlace directo entre el nodo cliente y el sistema de gestión WDM (por ejemplo EMS). Esto podría implementarse mediante un enlace Ethernet o una conexión DCN.

Debe asegurarse que la interfaz óptica pueda ser gestionada de una manera estandarizada para permitir soluciones interoperables entre los diferentes suministradores de interfaces ópticas y suministradores de software de gestión para redes ópticas.  RFC 3591 define objetos de gestión para el tipo de interfaz óptica pero no cubre los escenarios que se describen en este documento. Además, una extensión de esta MIB para la interfaz óptica se ha esquematizado en el borrador  [Black-Link-MIB].  En este caso, se utiliza SNMP para el intercambio de datos entre el cliente y el sistema de gestión del dominio WDM.

Hay que dejar claro que una actualización de los componentes de la interfaz de cliente no implica necesariamente una actualización del software del EMS, y viceversa.

5.1.2. Conexión indirecta al sistema de gestión WDM

La alternativa que se muestra en la figura 4 puede usarse en los casos en los que se aspire a una relación más automatizada entre el nodo de transporte y el router. En este caso, se utilizará una combinación de las características de un plano de control rudimentario y una gestión manual. Sería el primer paso hacia un modelo de operación más orientado hacia el plano de control.

figura 4 black link

Para el intercambio de información entre el cliente y el nodo al que está directamente conectado de la red de transporte óptica puede utilizarse la  RFC 4209.  Esta extensión de LMP puede utilizarse entre el nodo propietarios y un nodo adyacente de la red óptica, tal y como aparece en la figura 4.

LMP basado en RFC 4209 no soporta la transmisión de datos de configuración (información). Esta funcionalidad debe ser añadida a las extensiones del protocolo existentes. El uso de LMP-WDM asume que alguna forma de canal de control existe entre el nodo cliente y el equipamiento WDM. Podría ser una longitud de onda dedicada, un enlace Ethernet o un DCN. Se ha propueto el uso de una señalización fuera de banda sobre un enlace separado o DCN para asegurar mayor disponibilidad.

5.2. Consideraciones del plano de control

Básicamente no es una imposición obligatoria el uso de un plano de control en escenarios de BL o FW, al menos no en los casos más simples donde los clientes se conectarán punto a punto usando una infraestructura WDM simple (multiplexor y amplificador). Como primer paso es posible configurar el enlace al completo usando un sistema de gestión estándar y una conexión directa del router o cliente al EMS de la red de transporte. La información de configuración puede ser intercambiada usando SNMP (mirar la sección 5.1.1.)

Teniendo en cuenta el plano de control, podemos considerar dos escenarios:

  • Un plano de control común para el transporte y los clientes; esto implica un responsable único de la operación tanto para el cliente como para la gestión de la red de transporte.
  • Un plano de control separado para cliente y para red óptica sin ninguna interacción

Como se dijo en 5.1.2  deberían usarse algunas funcionalidades mejoradas del plano de control, como LMP. En un escenario tan simple es posible utilizar sólo LMP para el intercambio de información entre los nodos y el dominio óptico. LMP debe correr entre ambos puntos del extremo a extremo del enlace y entre el nodo frontera y el primer nodo de la red óptica.

Referencias

   [ITU.G.872]       International Telecommunications Union,
                     "Architecture of optical transport networks", ITU-
                     T Recommendation G.872, November 2001.

   [ITU.G698.2]      International Telecommunications Union, "Amplified
                     multichannel dense wavelength division multiplexing
                     applications with single channel optical
                     interfaces", ITU-T Recommendation G.698.2,
                     November 2009.

   [ITU.G709]        International Telecommunications Union, "Interface
                     for the Optical Transport Network (OTN)", ITU-
                     T Recommendation G.709, March 2003.

   [RFC2119]         Bradner, S., "Key words for use in RFCs to Indicate
                     Requirement Levels", BCP 14, RFC 2119, March 1997.

   [RFC3591]         Lam, H-K., Stewart, M., and A. Huynh, "Definitions
                     of Managed Objects for the Optical Interface Type",
                     RFC 3591, September 2003.

   [RFC4209]         Fredette, A. and J. Lang, "Link Management Protocol
                     (LMP) for Dense Wavelength Division Multiplexing
                     (DWDM) Optical Line Systems", RFC 4209,
                     October 2005.
  [Black-Link-MIB]  Internet Engineering Task Force, "A SNMP MIB to
                     manage the optical parameters caracteristic of a
                     DWDM Black-Link", draft-galimbe-kunze-black-link-
                     mib-00 draft-galimbe-kunze-black-link-mib-00,
                     March 2011.

El tráfico en las redes IP tiene fundamentalmente dos componentes. Por una parte está el tráfico que se establece entre usuarios y servicios que presta esa red IP. Si se establecen sesiones P2P (Peer to Peer) entre clientes de una misma red IP, ese tráfico permanece dentro de dicha red IP. En cambio, si el cliente busca información que no se encuentra disponible en la red IP, saldrá hacia las interconexiones para buscarlo, en otras redes IP del mismo país, o hacia la salida internacional, en busca de redes IP de otros países donde se conectan los servidores en los que reside la información y/o el servicio que el usuario anda buscando.

Cuando los programas P2P hicieron su aparición se produjo dos efectos principales en las grandes redes IP. Por una parte, el tráfico sufrió un incremento considerable. Por la otra, gran parte de ese incremento fue asumido dentro de las propias redes, ya que se establecían conexiones entre clientes de la misma red. Estamos hablando de la época de oro del emule y demás familiares y los torrents.

Con la aparición de páginas de descarga directa, el perfil del tráfico sufrió un importante cambio. Como los servidores de este tipo de páginas se encontraban en países muy concretos y te ofrecían la posibilidad de acceder a los contenidos de manera mucho más rápida, el tráfico P2P fue decreciendo lentamente a la par que se incrementaba el tráfico que iba dirigido a las interconexiones, en busca de esos pocos países donde residían los servidores de descarga directa. Estamos hablando de Megaupload, Rapidshare y demás familiares.

Ahora llega el FBI y pega un portazo a una de las principales páginas de descarga directa, y el resto aplican el dicho de…cuando las barbas de tu vecino veas pelar…Consecuencias inmediatas, el tráfico de interconexión desciende drásticamente mientras se va recuperando las antiguas costumbres peer to peer.

La moraleja de este cuento es que el tráfico IP crece, más o menos rápido, pero crece. Lo que no sabemos es cómo. Creo que ha quedado claro que las aplicaciones y los usos serán los que determinen como dimensionar y planificar una red IP. No es lo mismo llevarlo todo a un punto o un par de puntos que distribuirlo por toda tu red.

La cuestión es que en cualquier momento puede aparecer cualquier nueva killer application que te vuelva a poner patas arriba los patrones de tráfico de tu red y tire por tierra todas tus previsiones de planificación y gestión de recursos. Con esta incertidumbre manifiesta, una integración entre el plano IP y el plano óptico empieza a cobrar sentido por encima de las pretensiones de algunos jugadores específicos que siempre habían apostado por ello.

La red IP enruta el tráfico estupendamente, pero si no tiene asociada una red óptica que transporte los paquetes de un router a otro, nos vale de bien poco.

En la mayoría de las redes de los grandes proveedores de servicio, red IP y red óptica conforman dos mundos independientes en todos los sentidos, operativo, diseño, planificación, gestión… Pero en estos tiempos revueltos, empieza a  tomar forma la idea de que si dispongo de una planificación flexible , dinámica y conjunta de mis recursos IP y de mis recursos ópticos seré mucho más eficiente a la hora de enfrentarme a nuevos cambios del veleta tráfico IP, afrontándolos de manera ágil, dinámica y por supuesto efectiva en costes.

Eso sólo sería viable si existe algún tipo de integración entre los planos de control de ambos mundos. Es decir, si la red IP se constituye como cliente de la red óptica y es capaz de solicitar servicios de conectividad en tiempo real. Y la red óptica es capaz de servirlos.

Pero esa es otra historia, de la que hablaremos en otro cuento…

El concepto de super-channel, o super-canal está asociado a velocidades superiores a los 100 Gbps. ¿Por qué se necesitan velocidades tan elevadas? Porque el tráfico en Internet crece, y crece y parezca que no tenga límite. Cada vez son más los usuarios y cada vez son más los contenidos. Además cada vez son más las diferentes formas y lugares desde los que podemos acceder a Internet. La explosión del video, en concreto los formatos de alta definición y los smartphones, tablets y demás dispositivos con sus posibilidades infinitas hace que las necesidades de ancho de banda sean inconmesurables. Ni hablemos de cuando lo que se conoce como Internet de las Cosas y todo lo que se engloba bajo el concepto de La Nube sean una realidad palpable.

Esta explosión es una oportunidad clara para los proveedores de servicio, los que mejor sepan captar las experiencias de los usuarios en este entorno dinámico in extremis, serán los que capturen más mercado. Claro, estos proveedores de servicio tienen que estar preparados para que sus redes escalen de manera dramática, y por supuesto minimizando los costes capitales y operacionales, de manera que el precio del Gbps sera el mínimo posible.

El punto de partida para esta revolución se encuentra en las redes de transporte, pilares de las comunicaciones de larga distancia.

Para emprender este camino, los mecanismos de transmisión óptica DWDM deben también adaptarse a las nuevas necesidades. El concepto de supercanal es una nueva aproximación a las promesas de capacidad que el DWDM puede ofrecer ante el incremento creciento del tráfico.

¿Qué es un Supercanal?

DWDM  es una tecnoogía que permite que en una sola fibra óptica viajen en paralelo varias portadoras ópticas, de manera que el uso de dicha fibra es mucho más eficiente, ya que en lugar de un único canal de información, se transmitirán muchos más (cada portadora óptica es un canal).

Se trata de una tecnología ampliamente desplegada y que ahora se encuentra en el entorno de los 100 Gbps por cada portadora óptica. Pero con las espectativas en cierne de crecimiento exacerbado, puede que esta capacidad no sea capaz de asumirlas. Hay que incrementar el ancho de banda sin incrementar la complejidad operacional.

En respuesta a la pregunta, ¿qué vienen despues de los 100 Gbps?, aparece el supercanal como la mejor posicionada. El supercanal es una evolución del DWDM en la que varias portadoras ópticas se combinan para crear una señal de línea compuesta de la capacidad deseada, y que se provisiona de una sola vez. Por supuesto, para el cliente, el uso de supercanales es algo transparente.

Implementando Super-Canales

A día de hoy no se disponen de estándares para implementar super-canales. Además, aspectos tales como el número de portadoras, las velocidades de las mismas, incluso si deben ser portadoras contiguas o no, y el nivel de integración de componentes, son temas que están totalmente abiertos.

Existen dos opciones de implementación obvias para desarrollar transpondedores de una única portadora que funcionen a velocidades por encima de los 100 Gbps. Una es transmitir más símbolos de modulación por segundo y la otra es codificar más bits por símbolo de modulación. Incluso una combinación de ambos.

Incrementar el número de bits por símbolo implica incrementar la eficiencia espectral, y eso no siempre es fácil ni puede pagarse el precio que puede costar.

La tecnología de los super-canales añade una tercera opción, la posibilidad de manejar múltiples portadoras como si fuera una sola.

La importancia de la integración fotónica

Los super-canales permiten una capacidad de 1 Tbps DWDM provisionada de una sola vez sin penalizaciones en la eficiencia espectral y con el mismo alcance óptico que el de los transpondedores de 100 Gbps coherentes actuales.

Es evidente que un super-canal de 10 portadoras necesita establecer 10 componentes ópticos en una tarjeta de línea. Implementando este tipo de interfaz usando componentes ópticos discretos podría ser totalmente inviable.

 Usando PIC, Circuitos Fotónicos Integrados, uno en transmisión y otro en recepción, las 10 portadoras podrían implementarse en una única tarjeta de línea compacta, consumiendo menos potencia que 10 transpondedores discretos.

Los PIC aportarían a la ingeniería de los super-canales lo que la integración electrónica aportó en su momento a las CPU multi-core. Los PIC eliminarían las limitaciones de la complejidad de los componentes ópticos y permitiría que la ingeniería correcta fuera aplicada. Si quieres saber algo más sobre los PIC pincha aquí

Flexibilidad es la clave para el éxito de los super-canales

Los supercanales deben ser extremadamente flexibles en una serie de parámetros:

  • ¿Qué tipo de modulación debería usar?
  • ¿Cual es la mejor manera de optimizar la eficiencia espectral y el alcance
  • ¿Qué espaciado deben tener las portadoras?
  • ¿Cual debería ser la anchura total de un super-canal?

Un super-canal ideal  debería permitir seleccionar todos estos parámetros mediante software. De manera que el operador pudiera escoger, en el momento de la provisión, la combinación óptima de parámetros para cada circuito.

El concepto de rejilla flexible, parece que es una opción que no se podrá descartar para obtener velocidades en torno a 1 Tbps de manera eficiente, y eso implica que será imprescindible que el espaciado y la anchura de los canales sea dinámico y configurable por SW. El horizonte temporal de disponibilidad no va más allá de los 4 años.

Puedes encontrar un interesante Whitepaper con mucha más documentación en Super-Channels DWDM Transmission Beyond 100 Gbps

Esta entrada es un resumen del Acuerdo de Implementación del OIF para OFP (OTN over Packet Fabric Protocol). Se trata de un documento de gran complejidad dirigido a los expertos. Se necesita conocimiento previo de la espeficiación G.709 de la ITU para sacarle el máximo partido a esta documentación.

Iré publicando los diferentes apartados en varias entradas, para facilitar su análisis y comprensión. Por favor, si detectas algún error o traducción mejorable, por favor indícamelo. Gracias de antemano.

Modelos de segmentación y reensamblado (SAR)

Introducción

En el contexto del OFP, un elemento de red consiste en una serie de funciones OTN de entrada, funciones SAR de entrada, una matriz de paquetes,  funciones SAR de salida y funciones OTN de salida.

Un reloj de referencia (REFCLK) y un pulso de sincronización (SYNC) deben ser distribuidos hacia todas las funciones SAR de entrada y salida. Ambos deben ser derivados de una referencia de tiempo común y  estarán en fase.

Las funciones OTN de entrada consisten en un entramador OTUk el cual terminará las cabeceras OTUk, implementará el FEC (Forward Error Correction) y las salidas correspondientes con el flujo ODUk de alto orden. Además, debería tener uno o mas etapas de demultiplexación ODTUjk, las cuales extraerían los clientes ODUj/ODUflex de bajo orden  desde el flujo portador de los ODUk. 

Las funciones SAR de entrada segmentan en paquetes los flujos de alto orden o de bajo orden y los envía hacia la matriz de paquetes.

La matriz de paquetes conmuta el tráfico, que será reensamblado por las funciones SAR de salida y convertidos de nuevo en un flujo de datos ODU que serán procesados en las funciones OTN de salida.

En las funciones OTN de salida, los flujos ODUk de alto orden pueden ser adaptados para convertirse en flujos OTUk añadiendo una cabecera OTUk y los bytes de comprobación del FEC. Los flujos ODUj/ODUflex de bajo orden son multiplexados en flujos ODUk de alto orden. El sistema al completo mantendrá la integridad de la sincronización de los flujos ODU desde la entrada hasta la salida.

Funciones SAR de entrada

A continuación veremos los bloques funcionales de las funciones de segmentación reensamblado de entrada, junto con una representación de las funciones OTN de entrada, tanto con como sin multiplexación de ODTU. Hay que considerar que se trata de representaciones lógicas y en ningún caso están enfocadas a limitar la implementación. Los bloques que están directamente relacionados con OFP están en azul.

En ambos casos, la OTUk será recuperada y procesada:

En el caso del REGENERADOR, el reloj de la ODUk  es un filtro paso bajo, en el caso de la multiplexación, la ODUj/ODUflex  se extrae y se filtra en banda base, antes de ser enviado a la función que decide el tamaño del paquete, PSD (Packet Size Decision).

El filtro paso-bajo representa el filtro desincronizador de 300 Hz estandar, que aparece en los estándares OTN. Los datos de la ODUk o de la  ODUj/ODUflex se envían a la función formateador de paquetes, PF (Packet Formatter).

La función toma decisiones sobre el tamaño del paquete en función de la velocidad del reloj de la ODUk o de la ODUj/ODUflex filtradas.  Decisiones de tamaño de paquetes se generan con una velocidad de N decisiones cada T ciclos del reloj de referencia del SAR, por ejemplo 1 decisión cada 237 ciclos o 32 decisiones cada 943 ciclos.

El PF construye paquetes con el tamaño que el PSD dicta. Además, los paquetes son construidos con una velocidad media de un paquete cada T/N ciclos del reloj de referencia del SAR y podría tener un tamaño medio de (ODUk/ODUflex Rate * T) / (8 * REFCLK * N) bytes. Generar una decisión de tamaño de paquete cada  T/N ciclos podría ser inviable en algunas implementaciones. Por lo tanto, sería deseable generar una decisión de tamaño de paquete cada T ciclos, y consecuentemente segmentarla en N decisiones de tamaño de paquete individuales.

Las decisiones de tamaño de paquete son equivalentes a una función de transporte común conocida como justificación. Los mecanismos tradicionales de  justificación pueden producir discontinuidades de fase de muy baja frecuencia en la sincronización de la señal cliente, difíciles de filtrar. Una técnica bien conocida para generar las decisiones de justificación (o el tamaño del paquete) que minimiza este problema es un modulador Sigma-Delta, que realiza decisiones de justificación muy frecuentemente para proporcionar  modelado de frecuencias de las discontinuidades de fase. Esta técnica debería ser utilizada en la función PSD para generar decisiones de tamaño de paquete agregadas, de manera que se mejoren las prestaciones de la transferencia de sincronismo. Las decisiones de tamaño de paquete individuales se escriben en una cola FIFO de decisión de tamaño. El PF, bajo el control de las decisiones individuales de tamaño de paquete lee desde la cola FIFO de decisión de tamaño, produciendo paquetes de datos del tamaño apropiado. Además le añade la cabecera apropiada requerida por el OFP. Esta cabecera incluye una referencia temporal la cual es determinada por un contador que se incrementa en uno con cada ciclo REFCLK, y se reinicia en cero con la pendiente creciente del pulso SYNC . Esta referencia temporal es utilizada por la función SAR de entrada para compensar las variaciones de latencia de los paquetes. Otra cabecera incluye la asignación de bits para la tolerancia a errores, particualmente pérdida de paquetes y los informes sobre el estado de la señal cliente desde las funciones de entrada a las de salida.

La función PSD se rige por una serie de ecuaciones, que pueden encontrarse en el documento. Una decisión de tamaño de paquete agregada (D) se genera cada T ciclos del reloj de referencia de 311.04MHz (REFCLK).

Dada la elevada velocidad de generación de decisión, la contribución de fase por el jitter/wander es insignificante. Un flujo de entrada ODUflex puede tener un offset de frecuencia de  hasta  ±100ppm. Cuando se acopla con el reloj de referencia local se podría incrementar hasta ±20ppm, con lo que el offset total efectivo sería de  ±120ppm.

Finalmente, los segmentos PSD agregan las decisiones de tamaño de paquete en N decisiones de tamaño paquete individuales. Cada paquete debería tener un tamaño de Bnom ± 1 bytes. La suma de los tamaños de paquete individuales debería codificar la decisión de tamaño de paquete agregada (D) sin ninguna pérdida. Los paquetes deberían ser generados con una velocidad media de  T/N ciclos del sistema del reloj de referencia de 311.04MHz .

Los datos de la ODUk  se envían al formateador de paquetes (PF), que lee las decisiones de tamaño de paquete individual (B) desde la cola FIFO de Decisión de Tamaño, y formatea los datos de la ODUk en paquetes del tamaño dirigido. El formateador de paquete mantiene un contador para la referencia temporal que se incrementa con cada ciclo del reloj de referencia de 311.04MHz (REFCLK).  El valor del contador de referencia temporal en el momento de la creación del paquete se captura en los bytes de cabecera del paquete.

El chip de la interfaz de la matriz  ( Fabric Interface Chip -FIC-) recoge paquetes construidos por el formateador de paquetes mediante un bus de aplicación para paquetes estandar, como OIF SPI-S, o Interlaken, y añade bytes de cabecera específicos de la matriz. Los paquetes se envían al corazón de la matriz para conmutar hacia la tarjeta de línea de salida. En el caso de una tarjeta de línea de entrada híbrida, que se utiliza tanto para clientes OTN como paquetes , el FIC debería segmentar el tráfico de paquete en segmentos más pequeños para transferirlos a través de la matriz.

Funciones SAR de Salida

En las siguientes figuras se puede observar el diagrama de bloques funcionales de dos clases de funciones de salida, configuración de regenerador y configuración de multiplexación de una ODUj/ODUflex en ODUk . Se trata de representaciones lógicas que no pretenden limitar la implementación. Los bloques directamente relacionados con la OFP están en azul.

 

 

 

 

 

 Los paquetes ODUk  son entregados por la matriz de paquetes. Las funciones de re-ensamblado de paquetes (Packet Re-assembly -PR-)  eliminan los bytes de cabecera del OFP y convierte el flujo de paquetes en un flujo serie continuo de ODUk/ODUflex . La función de extracción del tamaño de paquete (Packet Size Extraction -PSE-), como su nombre indica, extrae el tamaño de cada paquete. Dichos tamaños son cargados en la cola FIFO y extraidos a una velocidad media de uno cada T/N ciclos del reloj de referencia. La información resultante del reloj se filtra paso bajo, eliminando el ruido generado por el conformador de ruido de la entrada. Midiendo la velocidad de las actualizaciones de los tamaños de los paquetes en el filtro con un período preciso, las variaciones de retardo de la matriz de paquetes no tienen impacto en el jitter y wander del transmisor de ODUk/ODUflex.

La función SAR de salida mantiene un contador de referencia de tiempo que se incrementa con cada ciclo del reloj de referencia. El contador de referencia de tiempo se inicializa con el pulso SYNC. La función SAR de salida también proporciona una cola FIFO de la variación del retardo de paquete  para cada flujo ODUk/ODUflex. Estas FIFO almacenan tal cantidad de datos que el flujo transmitido ODUk/ODUflex no se ve  interrumpido por las variaciones del retardo en la matriz. Despues de reinicializar, la longitud de la cola FIFO se inicializa suspendiente la operación de lectura hasta que el paquete en la cabeza de la cola FIFO es de una edad configurada. El proceso de inicialización de la cola FIFO puede utilizarse para asegurarse que todos los flujos ODUk/ODUflex tienen la misma latencia a través de los elementos de red, sin tener en cuenta las variaciones de retardo en la matriz.

El flujo de datos de salida y su reloj filtrado son entonces procesados por las funciones OTN. Para una aplicación de regenerador esta información se pasa hacia el fragmentador OTN de salida. Si lo que se quiere es una configuración de multiplexación ODUj/ODUflex, entonces la información se utiliza por el multiplexor y la señal multiplexada se procesa por el fragmentador OTN.

Esta entrada es un resumen del Acuerdo de Implementación del OIF para OFP (OTN over Packet Fabric Protocol). Se trata de un documento de gran complejidad dirigido a los expertos. Se necesita conocimiento previo de la espeficiación G.709 de la ITU para sacarle el máximo partido a esta documentación.

Iré publicando los diferentes apartados en varias entradas, para facilitar su análisis y comprensión. Por favor, si detectas algún error o traducción mejorable, por favor indícamelo. Gracias de antemano.

Introducción

El protocolo OFP se basa en el mapeado de clientes CBR en una ODUk y en la multiplexación de una ODUj de bajo orden en una ODUk de alto orden, tal y como se define en la especificación G.709 de la ITU.

Una cantidad variable de datos provenientes de clientes CBR o de ODUj se mapea en cada ODUk, la cual tiene un periodo fijo. La variación de la cantidad de datos codifica la velocidad del cliente CBR o del flujo ODUj que se transporta dentro de la ODUk. Esta técnica, comunmente referida a los estándar  OTN, se llama justificación y se reutiliza aquí como la técnica para codificar la información de sincronización del ODUk/ODUflex conmutado a través de la matriz de paquetes. La velocidad del cliente ODUk se codifica variando la cantidad de datos en cada paquete, los cuales se construyen sobre un mismo periodo de tiempo fijado.

Requisitos del OFP

Para que el OFP pueda soportar el transporte de los clientes ODUk/ODUflex entre los elementos de red y las matrices de conmutación de paquetes con una variedad de características  de implementación, es necesario que cumpla una serie de requisitos.

OFP debería:

  • Proporcionar un mecanismo para transferir la información de sincronismo de las señales cliente ODUk/ODUflex a través de la matriz de paquetes, tal y como se recoge en la recomendación G.8251 ODCr  y Cp de la ITU-T, donde las especificaciones de sincronismo se siguen cumpliendo sin reducción en el máximo número de elemenos de red permitidos por el modelo de referencia hipotétito de la G.8251
  • Proporcionar un mecanismo para transferir la información de sincronismo de las señales cliente ODUk/ODUflex a través de una matriz de paquete que sea agnóstica de la latencia de la matriz y de las variaciones de latencia.
    • Soportar implementaciones de matriz de paquetes con un máximo de latencia de hasta 100μs y un máximo en la variación de la latencia de hasta  50μs.
    • Proporcionar un mecanismo para compensar la latencia de la matriz de paquetes, que tenga valor configurable mayor o igual que la máxima latencia de la matriz y menor o igual que  100μs, con una resolución mejor que 5ns.
  • Proporcionar un mecaniscmo para señalizar el estado del cliente ODUk/ODUflex (Status = No Defect,Signal Degrade, Signal Fail)
  • Proporcionar un mecanismo de protección contra el re-entramado del flujo ODUk/ODUflex ante la pérdida de un único paquete por parte de la matriz  de paquetes
  • Soportar el uso de un reloj de referencia común de 311.04MHz, que esté en fase con un pulso de sincronización de  8kHz
  • Soportar matrices de paquetes con una variedad de tamaños de paquete interno entre 128 y 512 bytes y una paquetización de ODUk/ODUflex que permita un uso óptimo del ancho de banda de la matriz de paquetes
  • Soporte para implementaciones de receptor y transmisor interoperables

No se requiere que las matrices de paquetes manejen paquetes fuera de servicio. La entrega ordenada de paquetes a través de la matriz de paquetes es responsabilidad de ella misma.

A continuación señalamos una serie de objetivos adicionales que debería cumplir OFP para garantizar el transporte de clientes ODUk/ODUflex a través de elementos de red y matrices de conmutación de paquetes con una variedad de características de implementación. OFP debería:

  • Proporcionar un mecanismo de protección contra un re-entramado del flujo ODUk/ODUflex ante la pérdida de paquete doble (consecutiva) producida en la matriz de paquete.

Las redes de comunicación ópticas están evolucionando desde una orientación puramente TDM (SONET/SDH) hacia una red convergente de paquetes (Ethernet) y TDM (OTN).

Históricamente, los elementos de red presentaban matrices separadas, por un lado los paquetes y por otro el tráfico TDM. Una única matriz simplificaría espacios y consumos.

Es una realidad que el tráfico se está desplazando progresivamente de TDM a paquetes, sería económicamente ventajoso construir elementos de red con matrices de conmutación orientadas a paquetes, y emplear técnicas de emulación de circuitos para convertir flujos de clientes OTN en un formato de paquete que sean conmutados por la matriz de paquetes.

El OIF  (Optical Internetworking Forum) ha aprobado recientemente un acuerdo de implementación para un protocolo de OTN sobre paquetes, OFP. El objetivo es facilitar a los desarrolladores el crear una única matriz de conmutación que sirva tanto para la red de transporte óptico (OTN) como para el tráfico basado en paquetes.

El acuerdo de implementación define el mapeo de protocolos necesario para convertir un flujo OTN en paquetes que mantengan frecuencia y fase. El protocolo puede ser implementado mediante ASSP (producto estandar para una aplicación específica), FPGA (matriz de puertas programable) o ASIC (circuitos integrados de aplicación específica).

Este acuerdo de implementación ha sido la respuesta que ha dado el OIF a los operadores que buscan una manera eficiente de gestionar, con una única matriz de conmutación, tráficos tan dispares como OTN y Ethernet/IP.

A día de hoy, la mayoría de suministradores ofrecen matrices de conmutación separadas, para OTN y cualquier otro tipo de tráfico. Esto conlleva que el espacio utilizado en las centrales para alojar los equipos y el consumo eléctrico es muy elevado.

Con este acuerdo de implementación se pretende acelerar la convergencia de tráfico de paquetes y tráfico OTN, adecuándose a las necesidades de la industria.

El acuerdo de implementación OFP  (OTN Over Packet Fabric Protocol) define los protocolos que habilitan la conmutación de flujos ODUk/ODUflex que llegan a las tarjetas  de cliente de un elemento de red y salen por la tarjeta de línea de una matriz de conmutación orientada a paquetes. Este nuevo acuerdo de implementación establece la segmentación y reensamblado de los flujos ODUk/ODUflex de manera que la frecuencia y la fase de dichos flujos se mantenga.

En breve más detalles, sólo aptos para ultratecnólogos y masoquistas.