Posts etiquetados ‘Interfaces’

MOTIVACIÓN Y ÁMBITO DEL PROYECTO

El OIF (Optical Internetworking Forum ) creó un proyecto 100G DWDM con la intención de acelerar la disponibilidad de la tecnología de transmisión a 100 Gbps para redes DWDM de larga distancia. Estableció un documento marco donde se recoge lo que se espera del desarrollo de estas interfaces:

  • La modulación  escogida: DP-QPSK con detección coherente  y el porqué de esta elección.
  • Identifica una arquitectura funcional para un módulo transceptor y la descompone en diferentes bloques
  • Añade los aspectos más relevantes para la implementación, para los que hay que llegar a un acuerdo, de manera que se fundamente  una interoperabilidad básica

Las aplicaciones de Red tienen como meta y objetivos los siguientes aspectos:

  • Los canales de 100 Gbps, requieren intrínsecamente una OSNR 10 veces superior a los canales de 10 Gbps. Esto supone unas restricciones de tolerancia muy exigentes respecto al ruido de emisión espontánea de los amplificadores ópticos existentes.
  • Además es necesario que tanto el coste como el consumo de la interfaz de 100Gbps sea menor que 10 veces el coste de una interfaz de 10 Gbps,
  • El requisito de mantener la rejilla de 50 GHz hace que sea necesario el uso de una modulación mas eficiente que la de las interfaces de 10 Gbps
  • El requisito de tolerancia mas alta al ruido implica escoger una modulación y un receptor que tengan la tolerancia al ruido mas alta
  • FEC es una herramienta adicional que permite esta mejora,
  • La industria ha aprendido de la experiencia con los 40 Gbps que con técnicas ópticas pueden mitigarse la CD yla PMD, pero incrementando costes y espacio.
 ARQUITECTURA DEL TRANSCEPTOR

MÓDULO DE TRANSMISIÓN DP-QPSK

El proyecto asumió la modulación DP-QPSK (Dual Polarization Quadrature Phase Shift Keying ) con recepción coherente como la óptima para cumplir todos los requisitos impuestos, fundamentalmente debido a la baja velocidad de símbolo que reduce el impacto de la dispersión cromática además de una mejor eficiencia espectral.

A continuación, detallamos el modo de funcionamiento de un módulo de transmisión DP-QPSK:

  • Un láser de transmisión genera la señal de luz que se divide en cuatro componentes, dos para la polarización horizontal y dos para la polarización vertical.
  • El desplazador de la polarización (Pol Rot) gira una de las señales en relación con la otra.
  • Después ambas señales se combinan para generar una única señal
  • En cada polarización hay una señal en fase y la otra en cuadratura de fase y cada una de ellas requiere de un modulador para codificar los datos.
  • Los moduladores representan una interesante oportunidad de  reducción de coste y tamaño, ya que son candidatos a la integración como dispositivos. El OIF ha creado un proyecto específico para desarrollar este aspecto.

 MÓDULO DE RECEPCIÓN DP-QPSK

El módulo de recepción DP-QPSK consiste en una serie de componentes ópticos pasivos que forman un demodulador, seguido de detectores ópticos y amplificadores de transimpendancia. Se pueden aplicar tecnologías de integración para reducir costes y tamaños del transceptor.

El OIF  creará especificaciones para acuerdos de implementación para el módulo de recepción integrado.

FEC

La necesidad de una OSNR 10 veces superior a la de las señalas de 10 Gbps se enfocará mediante la combinación de varios métodos, uno de los cuales serán las técnicas FEC.

Los enlaces de 10G usan FEC que producen ganancias de 8.5 dB, por lo que hay que introducir FEC de mayor ganancia para acercarnos a la OSNR requerida en los 100 Gbps. En cambio el límite de Shannon impide que se cubra por completo el recorrido necesario, por lo que los diseños de FEC sólo podrán acercarse asintóticamente a dichos límites.

Se obtienen diferentes ganancias con FEC en función de la velocidad de las cabeceras, pudiendo adoptar dos técnicas diferentes de decodificación:

  • En la decodificación dura hay un discriminador que elige 0 o 1
  • En la blanda, divide el espacio de la señal en franjas mas pequeñas y se usa una información mas rica para elegir entre 1 y 0

Parece que el FEC de decisión suave presenta más ganancia, pero también impone mayores requisitos en la transferencia de datos entre el DSP y el decodificador FEC

Se necesita trabajo adicional para identificar mejoras en la ganancia y para ello el OIF ha creado un proyecto específico que ha originado en mayo de 2010, como primer paso el Whitepaper del FEC.

Algunas consideraciones de cara a la implementación serían:

  • Las implementaciones que usan un overhead del 7% (típicos en la transmisión de 10Gbps) pueden incluir el FEC dentro o fuera del módulo, ya que la interfaz eléctrica de alta velocidad podría asumir el incremento de velocidad
  • Los FEC que utilicen menos de un 7% de overhead tienden a usar codificación dura
  • Los FEC que utilicen implementaciones de mas de 7% de overhead tienen que ser instalados dentro del módulo (sin interfaz con el DSP) debido a las limitaciones de velocidad del mismo.

MÓDULOS ELECTROMECÁNICOS

Respecto a los módulos electromecánicos, las especificaciones incluirán

  • Tamaño máximo
  • Disipación máxima
  • Interfaz eléctrica
  • Conector
  • Protocolo de control

 Todos los bloques estarían incluidos en una única placa de circuito impreso

El módulo electromecánico incluye láser, fotónica integrada, codificadores QPSK, convertidores A/D y DSP, puede incluir opcionalmente el FEC cuando sea ventajosa su integración.

TRANSMISIÓN

  • Los datos se enmarcan de acuerdo a las especificaciones de OTN antes de aplicar el FEC
  • La señal entonces pasa al módulo transceptor
  • Los datos se convierten para controlar los moduladores ópticos
  • Un láser de transmisión proporciona la fuente de luz para los moduladores

RECEPCIÓN

  • La señal entrante se mezcla con un oscilador local
  • Demodulado sus componentes, detectado, amplificado y digitalizado entonces llega al DSP
  • Un flujo de bits llega al decodificador FEC que puede estar dentro o fuera del módulo
  • El paso final es el entramado OTN

Por primera vez el IEEE publica en una misma especificación dos interfaces diferentes. El motivo es evidente. El objetivo fundamental de esta especificación es preservar el formato de trama  Ethernet determinado en la 802.3 (10 Gbps),es decir, utiliza la subcapa MAC IEEE 802.3, manteniendo los tamaños máximo y mínimos y sin que afecten a los protocolos de nivel 2 y 3. A su vez proporciona MAC Ethernet full duplex, un BER <=10-12 y por supuesto el soporte adecuado para OTN G.709.

 Para las interfaces de 10G, en la recomendación 802.3, en el apartado 49.1.4.2 aparece la definición de la interfaz WIS (WAN Interface Sublayer),cuya arquitectura se muestra a continuación:
 
—Le da al PCS un significado independiente del medio  para que opere sobre enlaces WAN
—Se crea una codificación 10GBASE-W encapsulando los datos previamente codificados con PCS 10GBASE-R en tramas compatibles con SDH/SONET
nEn 802.3ba sólo se habla de modelo LAN.
 
 
Para las interfaces 40G y 100G no se ha definido la capa WIS, es decir, no está definido el encapsulado SDH/SONET, sino que la trama es compatible únicamente con el encapsulado en OTN. Lógico por otra parte, porque a estas velocidades la jerarquía síncrona se queda corta.

Respecto a las condiciones de retardo, El máximo acumulado de los retardos de MAC control, MAC y RS (Resolution), es decir, la suma de los retardos de transmisión y recepción,  deben ser inferior a 409.6 ns para el caso de los 40 Gbs, e inferior a 245,75 para los 100 Gbps.

Se define una nueva subcapa de codificación física (PCS) para 40 y 100 Gbps, que es común para ambas implementaciones de capa física (40GBASE-R y 100GBASE-R), y que se basa en la existente para 10 Gbps 10GBASE-R 64B/66B. En ambos casos la PCS se hace fuera del módulo óptico. 

La capa física, tanto 40GBASE-R como 100GBASE-R, consiste en PCS transmisores y PCS receptores, que pueden o no corresponder con canales físicos y que se estructuran para incluir marcas de alineamiento y distribuir los datos en diferentes láseres. Los canales PCS (PCS lanes) son críticos para las implementaciones de 40 y 100G.  El número de canales requeridos es el mínimo común múltiplo de n canales eléctricos y m canales opticos PMD

  • 40 Gbps usa 4 canales PCS, (mínimo común múltiplo para 4 canales eléctricos (10,3125 Gbps) y 4 lambdas)
  • 100 Gpbs usa 20 canales PCS, (mínimo común múltiplo de 10 canales eléctricos (10,3125 Gbps) y 4 lambdas)

 Los datos de cada canal PCS siempre se reciben en el receptor PCS en el orden correcto. La alineación de marcadores permite al receptor PCS implementar compensación asimétrica (skew), realineando todos los canales PCS y juntándolos todos en un único flujo agregado cuya tasa de transmisión serie es de 40 o 100 Gbps ( con todos los bloques 64B/66B en el orden correcto).  La placa madre, basada en la existente 10GBASE-R con 64B/66B, es la que maneja la codificación y ensamblado de la PCS. Los datos se distribuyen entre los n canales PCS (4 para 40Gbps y 20 para 100Gbps), en bloques de 66 bits cada vez, usando algoritmo Round Robin.

 A cada canal PCS se añaden bloques de alineamiento periódicos que contienen los marcadores de canales.  Los marcadores de alineación se usan para alinear y reordenar los canales PCS en el receptor PCS. Por cada canals PCS se realiza un chequeo de paridad con 8 bits entrelazados (BIP8) 

En cada canal PCS se inserta marcadores de alienamiento únicos, que ayudan al receptor PCS a identificar cada uno de los canales PCS. Los marcadores de canales no está ni codificados ni ensamblados. Cada marcador de canal es una palabra de 8 bytes, que se transmite períódicamente cada 16.384 bloques de 66 bits.

  • Para 40 Gbps, esto es cada 104,8 microsegundos
  • Para 100 Gbps esto es cada 209,7 microsegundos

Los marcadores de alineación interrumpen cualquier transferencia de datos que esté ocurriendo, de manera que deben ser insertados en todos los canales PCS al mismo tiempo.

La subcapa PMA (Phisycal Medium Attachment) interconecta la subcapa PCS con la subcapa PMD (Physical Medium Dependent), y contiene las funciones necesarias para la transmisión, recepción y (dependiendo de la capa PHY) detección de colisión, recuperación de reloj y realineamiento.

Debido al amplio rango de interfaces soportadas y de opciones de implementación de las mismas, para explicar al completo la funcionalidad de la PMA es necesario dividir las funciones PMA en diferentes subcapas. Dos ejemplos de implementaciones específicas de arquitectura serían:

• 100GBASE-LR4, donde se definen 4 longitudes de onda de 25 Gbps por longitud de onda en una fibra monomodo.

• 100GBASE-SR10, donde se definen 10 longitudes de onda de 10 Gbps cada una de ellas y en 10 fibras multimodo en paralelo.

 Como se dijo anteriormente, para los 100 GbEthe, PCS crea 20 canales. En los ejemplos de arquitectura que se han puesto, la funcionalidad de la PMA es dividir en dos dispositivos PMA que están interconectados mediante una interfaz electrica conocida como CAUI (100 Gbps Attachment Unit Interface), la cual está basada en una interfaz de 10 Gbps por canal y 10 canales. En esta implementación, la subcapa PMA en la entrada de la CAUI multiplexa 20 canales PCS en 10 canales físicos. La subcapa PMA a la salida de la CAUI implementa tres funciones:
  1. Resincroniza las señales provenientes de los canales eléctricas de entrada
  2. Los canales eléctricos son convertidos de nuevo en 20 canales PCS
  3. Estos se multiplexan en 4 canales que son los necesarios para la subcapa PMD de 100 GBASE -LR

 Sin embargo, la implementación de la arquitectura para 100GBASE-SR10 es diferente. En este caso, un chip anfitrión se conecta directamente con un transceptor óptico que se conecta a su vez a 10 fibras paralelas para cada dirección. La subcapa PMA reside en el mismo dispositivo que la subcapa PCS, y multiplexa los 20 canales PCS en 10 canales eléctricos de la interfaz física paralela (PPI),  interfaz eléctrica que conecta PMA con PMD sin resincronización.

En resumen, las funcionalidades de alto nivel de la PMA tanto de multiplexar como de recuperar reloj siguen existiendo, pero la implementación concreta de las mismas depende de la PMD específica que se esté usando.

 Existen varias interfaces, que en el caso de la IEEE 802.3ba se han definido como lógicas, intra-chip, en contraposición a otras especificaciones pasadas donde se definen interfaces físicas, interchip. La especificación de una interfaz lógica sólo especifica las señales y sus comportamientos, mientras que una especificación de una interfaz física además especifica los parámetros eléctricos y de sincronismo de las señales. Existen tres chips de interfaces definidos, los cuales tienen una arquitectura común para ambas velocidades:

  • MII (Medium Independent Interface) es una interfaz lógica que conecta la capa MAC y la subcapa PCS. Proporciona caminos para la transmisión y recepción de datos en bloques de 64 bits. Estos caminos se agrupan en 8 canales de 8 bits, con un bit de control asociado a cada canal, para saber si es información de datos o de control en cada momento. Existe un único reloj asociado al camino de transmisión y un único reloj asociado al camino de recepción . Estos relojes operan a un 64avo de la velocidad de transmisión.
    • XGMII para 10 Gbps
    • XLGMII para 40 Gbps, reloj de 625 MHz
    • CGMII para 100 Gbps, reloj de 1.5625 GHz
  • AUI (Attachement Unit Interface) es una interfaz física que extiende la conexión entre el PCS y el PMA, con un bajo número de pines en el conector. Se trata de una interfaz con su propio reloj, multi-canal, con enlaces serie que utilizan codificación 64B/66B. Cada canal opera a una velocidad efectiva de 10 Gbps, que cuando se codifican a 64B/66B resulta una velocidad efectiva de 10.3125 Gbaudios/s. Los canales utilizan señalización diferencial balanceada acoplada AC de baja oscilación, lo que le permite alcanzar hasta25 cm. Se trata fundamentalmente de una interfaz chip2chip,
    • XAUI para 10 Gbps
    • XLAUI para 40 Gbps. 4 canales de transmisión y 4 de recepción de 10 Gbps, resultando 8 pares o 16 señales.
    • CAUI para 100 Gbps. 10 canales de transmisión y 10 canales de recepción de 10 Gbps, resultando un total de 20 pares o 40 señales.
  • PPI (Parallel Physical Interface), interfaz física para la conexión entre PMA y PMD de 40GBASE-SR4 100GBASESR10 PMDs.

Si quieres acceder al documento original del IEEE, que la fuerza te acompañe…

Las NGN o Redes de Nueva Generación componen un nuevo concepto de arquitectura que aplica al despliegue de redes de Telecomunicación. Hasta hace muy poco, la filosofía de los operadores era desplegar prácticamente una red para cada nuevo servicio que iba surgiendo. Se parte de una única red que presta el servicio de telefonía básica analógica, ésta se digitaliza, aparece la telefonía móvil, el acceso a Internet y la explosión masiva de los servicios IP, tanto para empresas como para residenciales. Con toda esta evolución, los operadores tradicionales se han encontrado con un montón de redes que tienen que ir creciendo, operar, mantener, evolucionar. Teniendo en cuenta, que los ritmos tecnológicos son superiores a los periodos de amortización de los equipos, cuando no se ha recuperado ni la mitad de la inversión en la red, ésta ya se había quedado pequeña, o lo que es peor, obsoleta. A eso hay que añadir el hecho de que se necesita personal especializado en diferentes tipos de redes y de servicios, así como diferentes sistemas que faciliten la provisión, la supervisión y la operación y el mantenimiento.

Tenemos por lo tanto una diversidad de redes interconectadas que facilitan los diferentes servicios según el tipo de cliente y según el tipo de acceso de cada cliente. Además, los servicios por lo general implica el paso por varias redes, con lo que la cantidad de sistemas implicados para provisionar un cliente sobre un servicio existente o para la provisión y desarrollo de un nuevo servicio sobre la red, implica unos desarrollos y  unos costes extremadamente altos y nada flexibles ni dinámicos. Esto repercute directamente en que el TTM, Time To Market, es decir, el tiempo que se necesita desde que se piensa un servicio hasta que se tiene en producción, es excesivo y dificulta considerablemente la competencia en un entorno tan dinámico y hostil.

Vamos a cambiar la filosofía y vamos a dar un gran paso. Vamos a ir hacia las redes de nueva generación. El paradigma que define una red de nueva generación es bien sencillo. Se trata de una red de paquetes Multiacceso, Multiservicio y con QoS, es decir, Calidad de Servicio. La idea es que independientemente del tipo de cliente que sea, fijo, móvil o nómada, residencial o empresarial, e independientemente del tipo de tecnología con la que acceda a la red, cobre, fibra, radio, la red es única. Todos accedemos a una única red, que para ser tan versatil se divide en varios planos o niveles, como una cebolla. La cebolla es única, pero se compone de varias capas. Los circuitos desaparecen y todo se paquetiza, y sobre todo hay que hacer las cosas bien, con calidad de servicio, tema especialmente delicado en el mundo de los paquetes. Veamos las capas de la cebolla con un poco más de detenimiento.

Empecemos por el nivel o plano de acceso, que es el que estará mas cerca de los clientes finales. En este caso, los operadores tendrán que ofrecer soluciones para seguir dando conectividad y servicios a clientes tradicionales, los que no quieran o no puedan dar el salto a las nuevas tecnologías, y por otro lado tendrá que posibilitar el acceso a los clientes de nueva generación, accesos de banda ultraancha. Los clientes tradicionales serán aquellos que sigan usando telefonía con cobre en su casa, o segunda y tercera generación de tecnologías móviles. Los usuarios de nueva generación tendrán fibra o 4G. Esto disminuirá considerablemente la complejidad y diversidad de las Redes de Acceso. Aunque los clientes tradicionales no deberían notarlo, en realidad, el plano de acceso tendrá que convertir las llamadas de voz desde una señal analógica a una señal digital paquetizada. Lo que se cursará por la red será VoIP, es decir, voz sobre IP.

A continuación tendríamos el plano de transporte o de conectividad. Este posibilitaría la conexión de los clientes con los servicios. Serían como las carreteras o las vías del tren. Tienen la inteligencia justa para decidir cuales son los mejores caminos. A largo plazo este plano de conectividad estará formado por redes IP/MPLS y transporte fotónicos. A día de hoy, las Redes de Agregación siguen jugando un papel muy importante de cara a la eficiencia de costes.

Después tenemos el plano de control, que es realmente el alma mater de las NGN. Este plano es el que tiene la inteligencia y toma las decisiones. Es el que le dice al plano de conectividad el origen y destino de la conexión, así como las características de ancho de banda, retardo, variación del retardo etc, asociada a la misma. También se encarga entre otras muchas cosas de la autorización, autenticación y contabilidad de los diferentes usuarios. No todos los clientes usaremos los mismos servicios ni se nos cobrará igual. Es más, el mismo servicio según lo que cada uno paguemos tendrá unas u otras prestaciones.

Por último estaría el plano de servicios. Este es realmente el que conseguirá que una red sea de nueva generación y que un operador de telecomunicaciones pueda competir en igualdad de condiciones con un operador de contenidos, y ser algo más que una tubería. El plano de servicios, a base de arquitectura de sistemas abiertos, será estandar, de manera que cualquier proveedor podrá ofrecer sus servicios al operador de telecomunicaciones, y será “tan fácil” como “instalarlo en su sistema operativo”. Los tiempos de desarrollo y puesta en servicio pasarán de muchos meses a pocas semanas, serán muchos más flexibles y versatiles y por supuesto personalizados. Se acabará el café con leche para todos.

Esta es la teoría, pero en la praxis, de todo esto, lo único que podría considerarse una realidad sería el plano de acceso, ya hay banda ultraancha por el mundo y empieza a haber 4G. En el plano de conectividad, quien más y quien menos también va modificando sus arquitecturas hacia una foto final de NGN, pero todavía queda un gran recorrido. El plano de control a día de hoy es lo que antes se llamaba Red Inteligente, con algunas mejoras. El IMS, IP Multimedia System está todavía muy lejos de las expectativas que teóricamente plantea. El plano de servicios está aún mas lejos, no tanto desde el punto de vista tecnológico, sino de viabilidad de implementación en sistemas reales. De nuevo es la inercia social de las empresas y por supuesto la componente económica las que condicionas los tiempos.

En cualquier caso, las tendencias entre los principales operadores y vendors de la industria se van acercando al objetivo de tener NGN. Lo mismo sobre el 2020 podemos darle otra vuelta.

Actualmente, los backbone de red que más tráfico manejan se conectan con interfaces de 100Gbps. Por ahora son muy pocos los operadores que tienen este tipo de enlaces, y básicamente es por aquello de  yo fui el primero. Realmente la necesidad todavía no es imperiosa. Pero lo será, y en breve.

Independientemente de la realidad y las necesidades, el mundo del I+D+i y de las universidades ya están perfilando las modulaciones y necesidades para velocidades por encima de los 100 Gbps. ¿Cual será el siguiente salto? A 200 Gbps parece demasiado conservador, mejor pensemos en 400 Gbps, quizás empiece a ser interesante…pero que tal si el salto lo damos de verdad y nos colocamos en 1 Tbps…esto está a punto de petar…de petar porque rondamos el Petabit por segundo. Me mareo tan rápido.

Los requisitos necesarios para alcanzar estas velocidades monstruosas son considerablemente exigentes. Tenemos que incrementar la eficiencia espectral y los alcances, con lo que se necesita una OSNR aún mayor. Todo un reto. Los efectos lineales que se producen en la fibra a estas velocidades son un handicap a superar. Si además le metemos una detección coherente en el receptor vamos bien encaminados.

Pero la clave será la modulación escogida. En el siguiente dibujo se platean una serie de alternativas que podrían ser interesantes:

Si pensamos en un corto plazo, por disponibilidad tecnológica la primera alternativa parece la apropiada para la corta o media distancia, en cambio para largos alcances es conveniente la cuarta. Pero pensando en un horizonte temporal tenemos soluciones que se presentan como las más eficientes y óptimas que serían la segunda y tercera opción. Las dos últimas no son muy convenientes por su extrema complejidad.

También está otro aspecto determinante de cara al desarrollo de estas velocidades, y es el espectro flexible, o entorno gridless…pero de eso mejor hablamos en otra ocasión porque tiene su propia enjundia.

Por supuesto, todo esto hay que hacerlo con costes bajos, consumos bajos, poco espacio…¡Tonterias las justas!