Posts etiquetados ‘Transporte’

Los grandes desafíos a los que se enfrenten las redes de transporte del futuro son básicamente minimizar el coste del transporte por bit, maximizando el alcance sin regeneración y la capacidad de la fibra.

Podemos incrementar la capacidad de la fibra usando más longitudes de onda con un menor espaciamiento entre ellas, o más velocidad por cada longitud de onda. Si te interesa el tema puedes ver más detalles de cómo incrementar la eficiencia espectral.

Podemos incrementar el alcance sin regeneración usando mejores soluciones de amplificación óptica en las que se incluya la amplificación Raman, o híbridos EDFA (Erbium Dopped Fiber Amplifier) + Raman. Se requerirá una menor OSNR (Optical Signal to Noise Ratio) por longitud de onda gracias a tecnologías como los receptores coherentes y el FEC SD (Forward Error Correction Soft Decision).

Podemos desplazar funcionalidades desde la óptica hacia la electrónica usando sistemas coherentes que optimicen el coste y potencialmente PICs (Photonic Integrated  Circuits)  para reducir el TCO ( Total Cost of Ownership), especialmente en el borde y en la zona metro.

Por otra parte, habría que optimizar la arquitectura de los nodos para permitir la conmutación a diferentes niveles, sustituyendo los enlaces punto a punto por topologías de mallas completamente ópticas. Las interfaces ópticas de cliente son un buen ejemplo donde coste, tamaño y disipación de potencia son factores críticos.

En cualquier caso, nos interesa  incrementar y mejorar la integración fotónica de los componentes que harán viable todas estas tendencias. Existen fundamentalmente cuatro tecnologías para realizar la integración fotónica, que veremos a continuación.

Tecnologías de Integración Fotónica

Existen diferentes alternativas tecnológicas para desarrollar los circuitos fotónicos integrados (PIC).

  • CMOS Photonics. Las tecnologías de integración fotónica basadas en Silicio implementadas sobre CMOS (Complementary Metal Oxide Semiconductor) necesitan de un elevado volumen para que su fabricación sea rentable. El objetivo sería tomar ventaja de esta economía de escala que se produce en la electrónica usando las mismas  instalaciones que las que se utilizan para la fabricación CMOS, de manera que se abarataran los costes de producción de los PIC. La tecnología CMOS permite una integración íntima de óptica con electrónica en el mismo chip. La tecnología CMOS se utiliza en diferentes campos, pero para aplicaciones de telecomunicaciones, existen tres cuestiones fundamentales:
    • Fuentes de luz. Actualmente se utilizan fuentes de luz basadas en  InP o GaAs, y están integradas híbridamente en el chip de Silicio. Existen interesantes desarrollos en algunas startups, industrias de microelectrónica e investigación.
    • Como ya se ha comentado, CMOS photonics necesita de grandes volúmenes. Una fábrica de gran tamaño no es eficiente en costes a menos que se fabriquen más  100.000 unidades al año. El crecimiento de la fibra en el acceso y las conexiones de corto alcance puede ser un aliado para llegar a los volúmenes necesarios.
    • Las soluciones CMOS photonics no siempre serán las mejores aplicaciones fotónicas para las telecomunicaciones. La ventaja de la integración, la flexibilidad y el progreso en el diseño probablemente disminuirán estas limitaciones y las harán más atractivas.

 

  • InP. Los PIC basados en Fosfuro de Indio constituyen una importante innovación tecnológica que simplifica el diseño de sistemas ópticos, reduciendo espacios y consumos. Adicionalmente, disminuyendo el coste de la conversión OEO (óptica-eléctrica-óptica) en las redes ópticas, proporcionan una oportunidad de transformación para abrazar el uso de circuitos integrados electrónicos y sistemas software en una red óptica “digital”  que maximice la funcionalidad del sistema, mejorando la flexibilidad de los servicios y simplificando la operación de la red.
    • monolítico, utilizando circuitos integrados
    • híbrido, mezclando componentes discretos con circuitos integrados
  • VCSEL.Diodo Láser de Emisión Superficial con Cavidad Vertical.
    • Es un diodo semiconductor que emite luz en un haz cilíndrico vertical de la superficie de una oblea, y ofrece ventajas significativas cuando se compara con láser de emisión lateral comúnmente usados en la mayoría de comunicaciones por fibra óptica.
    • Los VCSELs pueden ser construidos con GaAs, InGaAs.
    • Para el funcionamiento del VCSEL, se requiere de una región activa de emisión de luz encerrada en un resonador que consta de dos espejos. En este caso, los espejos son parte de las películas epitaxiales, por lo que estas películas se sobreponen formando una pila. Estos espejos son conocidos como reflectores distribuidos de Bragg (DBRs).
    • Los DBR llegan a formar espesor usando entre 40 y 60 películas en cada DBR, produciéndose un espesor total de 6μm –8μm. Para crear la unión p-n se necesita que un DBR este dopado para hacerlo semiconductor tipo n y el otro DBR tipo p.
    • Los VCSELs tienen alto rendimiento y bajo costo, algunas de sus características son:
      • La estructura puede ser integrada en una configuración de arrays de 2 dimensiones.
      • Su haz circular y baja divergencia eliminan la necesidad de óptica correctiva.
      • Comercialmente la corriente de umbral de un VCSEL es de aproximadamente 4 mA.
      • Alcanza potencias ópticas del orden de 10 mW.
      • Su ancho espectral ( Dl ) es de aproximadamente 1nm.
      • Su longitud de onda central es de aproximadamente 850 nm.
      • Se puede aplicar un VCSEL en transmisión de datos en el rango de velocidad de 100 Mbs a 1 Gbs.
  • Silica on silicon. Los bloques que conforman esta tecnología son:
    • Fuentes de luz. Integración del grupo III-V en los procesos estándares CMOS
    • Guías de ondas
    • Moduladores
    • Pasivos, como AWG
    • Receptores
    • Elementos de Conmutación Óptica
    • Funciones electrónicas

La tecnología de integración Silicon Photonics es aplicable en diferentes clases de productos en diferentes momentos temporales, dependiendo de los diferentes grados de madurez de la tecnología y de los mercados.

Integración fotónica en redes de transporte

De manera equivalente a como se integran los circuitos integrados sobre Silicio agrupando un elevado número de transistores en una única pequeña pieza física que es más poderosa, más fiable y consume menos potencia y espacio, hoy en día, los circuitos fotónicos integrados (PIC) agrupan centenares de componentes ópticos en una pequeña pieza física que es también más potente, más fiable y utiliza menos potencia y espacio que la aproximación equivalente usando componentes discretos.

En Enero de 2012 Ericsson anunció su trabajo sobre tecnología fotónica sobre Silicio (silicon photonics) para los supercanales de Terabit. El proyecto comenzó en abril de 2008 y concluyó a finales de 2011. Los resultados públicos los puedes encontrar en la web del proyecto APACHE.

El proyecto APACHE propone una nueva estrategia de integración, análoga a la aproximación que se realiza en la industria electrónica. En el caso de la electrónica, los componentes se montan de manera pasiva sobre una placa de circuitos impresos de acuerdo con las funcionalidades del diseño. Estos componentes pueden ser dispositivos discretos como resistencias, o chips monolíticos como circuitos integrados.

En APACHE, usando circuitos integrados fotónicos basados en la tecnología híbrida de integración Silica on silicon , se supera el primer obstáculo para el equivalente fotónico, a través de procesos de ensamblado pasivos que proporcionan alineamientos de precisión para dispositivos ópticos monomodo, en los que la tolerancia a los alineamientos deben ser de  micras o por debajo. Usando esta aproximación, un dispositivo guíaondas planar sobre silicio actúa como la placa de circuito impreso óptico (o placa madre), proporcionando la matriz de interconexión pasiva de guíaondas

el-phot1

Los componentes monolíticos se integran de manera pasiva sobre una placa hija, que a su vez se monta sobre la placa madre planar de silicio, PLCB (Planar Lightwave Circuit Board). Para ello se necesita un método de diseño unificado para el dispositivo híbrido en el que, además de haber definido las características de alineamiento necesarias para el ensamblaje, se definen los tamaños de los modos de los componentes ópticos en las interfaces entre los elementos activos y pasivos.

Además, comparados con InP, las guíaondas pasivas basadas en silicio muestran menores pérdidas de inserción, menor dispersión por velocidad de grupo, mejor acoplamiento a fibras ópticas y menor sensibilidad con la temperatura. En APACHE, se desarrollaron las placas madre e hijas para que puedan albergar chips monolíticos más grandes, tales como arrays de moduladores InP, láseres DFB, SOAs…La característica básica de los dispositivos APACHE es la agilidad, la cual es posible gracias a la capacidad de generar, modular y regenerar señales ópticas de varios formatos de modulación usando un dispositivo multifuncional. La funcionalidad requerida se ofrece a través de “add-ons” monolíticos,  como por ejemplo láseres moduladores basados en InP, amplificadores, etc., que se ensamblan de manera pasiva en las placas hijas y consecuentemente en la placa madre. Los esfuerzos se centraron en fabricar chips activos con modulación InP, regeneración y recepción de señales >100Gbps.

A finales de enero de 2012, Huawei anunció la adquisición del Centre for Integrated Photonics Ltd. (CIP), lo que apunta a que Huawei querría desarrollar su propia fotónica integrada, sin necesidad de recurrir al mercado. Infinera dispone hace tiempo de un PIC comercial de 500 Gbps que será de 1 Tbps en su siguiente generación.

Tecnología PPXC (Petabit Photonic Cross-Connect)

Se trata de una tecnología fotónica que permitírá la conmutación OTN a nivel de Petabit  a lo largo de todo el enlace óptico con una granularidad lo suficientemente fina.

Optimizando la tecnología de un láser sintonizable de InP se pueden generar prototipos de láseres para conmutación ultrarápida, permitiendo a su vez generar equipamiento que aproveche estas ultra capacidades. Esto ya está a puntito de mostrarse públicamente y puedes encontrar la referencia aquí

La conmutación ágil y de capacidad ultragrande es una prometedora tecnología para las redes ópticas del futuro. El componente clave de esta funcionalidad es la tecnología que permite láseres sintonizables. Estamos hablando de que los láseres se sintonizarían en nanosegundos.

Una tecnología de crossconexión todo óptica dotará de una ventaja única a los clusters de conmutación OTN de capacidad ultragrande que formarán parte de los backbone de las redes de transporte del futuro, o de los grandes Data Center o cualquier otra aplicación donde sea conveniente.

El nivel de integración es clave para el futuro de los PIC.  Recientemente la compañía Oclaro demostró con éxito que los PIC completamente monolíticos en InP pueden ser usados para ofrecer elevadas prestaciones a bajo coste

Todos estos movimientos apuntan a que la integración fotónica es el futuro habilitador de las nuevas prestaciones que se requieren en las redes de transporte ópticas. Es un futuro que ya ha comenzdo.

El concepto de super-channel, o super-canal está asociado a velocidades superiores a los 100 Gbps. ¿Por qué se necesitan velocidades tan elevadas? Porque el tráfico en Internet crece, y crece y parezca que no tenga límite. Cada vez son más los usuarios y cada vez son más los contenidos. Además cada vez son más las diferentes formas y lugares desde los que podemos acceder a Internet. La explosión del video, en concreto los formatos de alta definición y los smartphones, tablets y demás dispositivos con sus posibilidades infinitas hace que las necesidades de ancho de banda sean inconmesurables. Ni hablemos de cuando lo que se conoce como Internet de las Cosas y todo lo que se engloba bajo el concepto de La Nube sean una realidad palpable.

Esta explosión es una oportunidad clara para los proveedores de servicio, los que mejor sepan captar las experiencias de los usuarios en este entorno dinámico in extremis, serán los que capturen más mercado. Claro, estos proveedores de servicio tienen que estar preparados para que sus redes escalen de manera dramática, y por supuesto minimizando los costes capitales y operacionales, de manera que el precio del Gbps sera el mínimo posible.

El punto de partida para esta revolución se encuentra en las redes de transporte, pilares de las comunicaciones de larga distancia.

Para emprender este camino, los mecanismos de transmisión óptica DWDM deben también adaptarse a las nuevas necesidades. El concepto de supercanal es una nueva aproximación a las promesas de capacidad que el DWDM puede ofrecer ante el incremento creciento del tráfico.

¿Qué es un Supercanal?

DWDM  es una tecnoogía que permite que en una sola fibra óptica viajen en paralelo varias portadoras ópticas, de manera que el uso de dicha fibra es mucho más eficiente, ya que en lugar de un único canal de información, se transmitirán muchos más (cada portadora óptica es un canal).

Se trata de una tecnología ampliamente desplegada y que ahora se encuentra en el entorno de los 100 Gbps por cada portadora óptica. Pero con las espectativas en cierne de crecimiento exacerbado, puede que esta capacidad no sea capaz de asumirlas. Hay que incrementar el ancho de banda sin incrementar la complejidad operacional.

En respuesta a la pregunta, ¿qué vienen despues de los 100 Gbps?, aparece el supercanal como la mejor posicionada. El supercanal es una evolución del DWDM en la que varias portadoras ópticas se combinan para crear una señal de línea compuesta de la capacidad deseada, y que se provisiona de una sola vez. Por supuesto, para el cliente, el uso de supercanales es algo transparente.

Implementando Super-Canales

A día de hoy no se disponen de estándares para implementar super-canales. Además, aspectos tales como el número de portadoras, las velocidades de las mismas, incluso si deben ser portadoras contiguas o no, y el nivel de integración de componentes, son temas que están totalmente abiertos.

Existen dos opciones de implementación obvias para desarrollar transpondedores de una única portadora que funcionen a velocidades por encima de los 100 Gbps. Una es transmitir más símbolos de modulación por segundo y la otra es codificar más bits por símbolo de modulación. Incluso una combinación de ambos.

Incrementar el número de bits por símbolo implica incrementar la eficiencia espectral, y eso no siempre es fácil ni puede pagarse el precio que puede costar.

La tecnología de los super-canales añade una tercera opción, la posibilidad de manejar múltiples portadoras como si fuera una sola.

La importancia de la integración fotónica

Los super-canales permiten una capacidad de 1 Tbps DWDM provisionada de una sola vez sin penalizaciones en la eficiencia espectral y con el mismo alcance óptico que el de los transpondedores de 100 Gbps coherentes actuales.

Es evidente que un super-canal de 10 portadoras necesita establecer 10 componentes ópticos en una tarjeta de línea. Implementando este tipo de interfaz usando componentes ópticos discretos podría ser totalmente inviable.

 Usando PIC, Circuitos Fotónicos Integrados, uno en transmisión y otro en recepción, las 10 portadoras podrían implementarse en una única tarjeta de línea compacta, consumiendo menos potencia que 10 transpondedores discretos.

Los PIC aportarían a la ingeniería de los super-canales lo que la integración electrónica aportó en su momento a las CPU multi-core. Los PIC eliminarían las limitaciones de la complejidad de los componentes ópticos y permitiría que la ingeniería correcta fuera aplicada. Si quieres saber algo más sobre los PIC pincha aquí

Flexibilidad es la clave para el éxito de los super-canales

Los supercanales deben ser extremadamente flexibles en una serie de parámetros:

  • ¿Qué tipo de modulación debería usar?
  • ¿Cual es la mejor manera de optimizar la eficiencia espectral y el alcance
  • ¿Qué espaciado deben tener las portadoras?
  • ¿Cual debería ser la anchura total de un super-canal?

Un super-canal ideal  debería permitir seleccionar todos estos parámetros mediante software. De manera que el operador pudiera escoger, en el momento de la provisión, la combinación óptima de parámetros para cada circuito.

El concepto de rejilla flexible, parece que es una opción que no se podrá descartar para obtener velocidades en torno a 1 Tbps de manera eficiente, y eso implica que será imprescindible que el espaciado y la anchura de los canales sea dinámico y configurable por SW. El horizonte temporal de disponibilidad no va más allá de los 4 años.

Puedes encontrar un interesante Whitepaper con mucha más documentación en Super-Channels DWDM Transmission Beyond 100 Gbps

Esta entrada es un resumen del Acuerdo de Implementación del OIF para OFP (OTN over Packet Fabric Protocol). Se trata de un documento de gran complejidad dirigido a los expertos. Se necesita conocimiento previo de la espeficiación G.709 de la ITU para sacarle el máximo partido a esta documentación.

Iré publicando los diferentes apartados en varias entradas, para facilitar su análisis y comprensión. Por favor, si detectas algún error o traducción mejorable, por favor indícamelo. Gracias de antemano

Cambio de Tamaño de las ODUflex

El cambio de tamaño en los flujos de las ODUflex se especifica en la  ITU G.7044.  Cuando una ODUflex es sometida a un cambio en su tamaño, la velocidad de la ODUflex puede modificarse en un factor de hasta 80X. Esta cantidad en la variación se encuentra fuera del rango de Dnom ± DΔ. Sin embargo, los flujos de ODUflex(GFP)  no se utilizan para enviar información de sincronismos, especialmente durante las operaciones de cambio de tamaño.

Además, la velocidad precisa y la capacidad de señalización de fase de un tamaño de paquete variable no es necesario. La pendiente en la velocidad de la ODUflex se especifica como una velocidad fija de 512Mbps/s. El siguiente esquema se utiliza para señalizar la velocidad de la ODUflex durante el proceso de cambio de tamaño:

  1. Durante “GMP Special Mode” , las funciones SAR de entrada no necesitan generar decisiones de tamaño de paquete para establecer un seguimiento de la velocidad de las ODUflex, ya que serán ignoradas por las funciones SAR de salida. Aunque los tamaños de paquetes individuales son arbitrarios, deben estar dentro del rango de  Bnom±1.
  2. Durante “GMP Special Mode”, las funciones SAR de salida no usan las variaciones del tamaño de los paquetes para determinar la velocidad de la ODUflex. En lugar de eso, las funciones SAR de salida comparan el campo de sincronización de la cabecera OFP con el valor actual del contador de sincronización para determinar la edad del paquete. La velocidad de la ODUflex se ve incrementada si la edad de filtrado es mayor que el objetivo que se ha configurado, y decrementada si es más joven.
  3. Hasta que sea señalado para comenzar por el campo BWR_IND en la cabecera de la  ODUflex, las funciones SAR de salida cambian la velocidad de la ODUflex hasta la velocidad nominal de 512Mbps/s, sujeta al posible recorte por el filtrado en función de la edad del paquete. La pendiente se detiene cuando ha sido señalizado por BWR_IND o cuando la ODUflex ha alcanzado la velocidad final configurada. Durante la pendiente, los procesos descritos para los ajustes basados en la edad actuarán para compensar los ppm offsets entre el reloj de referencia de los Elementos de Red de subida y el reloj de referencia local.
  4. En cualquier momento durante “GMP Special Mode”, las funciones SAR de entrada y salida pueden ser reconfiguradas a la velocidad final de la ODUflex. El Elemento de Red sale “GMP Special Mode” cuando el nodo de subida ha salido “GMP Special Mode”, las funciones SAR han sido reconfiguradas y tanto las funciones SAR de salida como las de entrada se han estabilizado  a la velocidad final de la ODUflex.
  5. Al salir “GMP Special Mode”, el tamaño de paquete variable se utiliza de nuevo para señalizar la velocidad de la ODUflex entre las funciones SAR de entrada y salida.

 Resumen

El Acuerdo de Implementación para OTN sobre Matriz de Conmutación de Paquetes, OFP, define el protocolo que permite la conmutación de las unidades de datos ópticos (ODUk/ODUflex)  de la jerarquía de la  Red de Transporte Óptica (OTN) sobre una matriz de conmutación de paquetes en un elemento de red (NE). Este acuerdo de implementación proporciona las funciones de segmentación y el reensamblado necesarias para la transferencia síncrona, detección de pérdidas de paquetes y reemplazo, y compensación por las variaciones de retardo de los paquetes en los clientes ODUk/ODUflex.

Las redes de comunicación ópticas están evolucionando desde una orientación puramente TDM (SONET/SDH) hacia una red convergente de paquetes (Ethernet) y TDM (OTN).

Históricamente, los elementos de red presentaban matrices separadas, por un lado los paquetes y por otro el tráfico TDM. Una única matriz simplificaría espacios y consumos.

Es una realidad que el tráfico se está desplazando progresivamente de TDM a paquetes, sería económicamente ventajoso construir elementos de red con matrices de conmutación orientadas a paquetes, y emplear técnicas de emulación de circuitos para convertir flujos de clientes OTN en un formato de paquete que sean conmutados por la matriz de paquetes.

El OIF  (Optical Internetworking Forum) ha aprobado recientemente un acuerdo de implementación para un protocolo de OTN sobre paquetes, OFP. El objetivo es facilitar a los desarrolladores el crear una única matriz de conmutación que sirva tanto para la red de transporte óptico (OTN) como para el tráfico basado en paquetes.

El acuerdo de implementación define el mapeo de protocolos necesario para convertir un flujo OTN en paquetes que mantengan frecuencia y fase. El protocolo puede ser implementado mediante ASSP (producto estandar para una aplicación específica), FPGA (matriz de puertas programable) o ASIC (circuitos integrados de aplicación específica).

Este acuerdo de implementación ha sido la respuesta que ha dado el OIF a los operadores que buscan una manera eficiente de gestionar, con una única matriz de conmutación, tráficos tan dispares como OTN y Ethernet/IP.

A día de hoy, la mayoría de suministradores ofrecen matrices de conmutación separadas, para OTN y cualquier otro tipo de tráfico. Esto conlleva que el espacio utilizado en las centrales para alojar los equipos y el consumo eléctrico es muy elevado.

Con este acuerdo de implementación se pretende acelerar la convergencia de tráfico de paquetes y tráfico OTN, adecuándose a las necesidades de la industria.

El acuerdo de implementación OFP  (OTN Over Packet Fabric Protocol) define los protocolos que habilitan la conmutación de flujos ODUk/ODUflex que llegan a las tarjetas  de cliente de un elemento de red y salen por la tarjeta de línea de una matriz de conmutación orientada a paquetes. Este nuevo acuerdo de implementación establece la segmentación y reensamblado de los flujos ODUk/ODUflex de manera que la frecuencia y la fase de dichos flujos se mantenga.

En breve más detalles, sólo aptos para ultratecnólogos y masoquistas.

 

El procesado digital se hace imprescindible en la recepción de señales de elevada velocidad. Al incrementar la velocidad de las señales que viajan por la fibra, se incrementa considerablemente los fenómenos adversos que la atacan, degradándola hasta hacerla prácticamente indecodificable. Como algunas de estas interferencias son lineales, o siguen algún patrón matemático conocido que se puede calcular a priori, si disponemos en la recepción de un módulo que se encargue de desfacer los entuertos acaecidos en el viaje de la luz, recuperaremos la señal original, o algo que se le parece bastante. Esto  es lo que se conoce como módulo DSP.

El DSP sería como un pequeño ordenador capaz de realizar una gran cantidad de operaciones numéricas. Se incorpora en los receptores de algunas señales como un módulo adicional, compuesto de hardware y software. El DSP trabaja con señales digitales, por lo tanto, si lo queremos incorporar a un sistema de transmisión de señales sobre fibra óptica, teniendo en cuenta que se trata de una señal analógica lo que estoy transmitiendo, el DSP necesitará un elemento que convierta la señal analógica en una señal digital que pueda procesar. Es decir, conversores A/D o ADC.

Pero no sólo hay que digitalizar la señal. Para extraer la información de la señal modulada que llega al receptor, un DSP debe realizar las siguientes operaciones:

  • ADC. Como ya hemos comentado, se realiza un muestreo y digitalización de la señal analógica. En el caso de una modulación DP-QPSK, que es la que se utiliza para los 100Gbps, se obtienen las componentes I y Q de la señal  y sus respectivas polarizaciones X e Y
  • Recuperación de Reloj. Lo siguiente que tenemos que hacer es recuperar el reloj de la señal original para poder sincronizar la información recibida. Una vez extraido el reloj la señal digital se somete a un nuevo muestreo.
    • Para señales QPSK codificadas sobre un tren de pulsos RZ extraemos el reloj a partir de la señal transmitida mediante un detector de intensidad  y un circuito estándar de recuperación de reloj. Las fotocorrientes muestreadas en el ADC están en sintonía con el reloj y en este caso no necesitaríamos remuestreo. También podríamos extraer el reloj de la señal muestreada, en este caso tendríamos que muestrear la señal a una velocidad superior al doble de la frecuencia máxima de la señal transmitida, para realizar posteriormente una interpolación de las muestras en el dominio del tiempo y reconstruyendo la envolvente de los pulsos que facilite el remuestreo.
    • En el caso de señales QPSK codificadas sobre un tren de pulsos NRZ, se procede al muestreo y detección de bordes mediante derivación de interpolación y muestreo.
  • Corrección de Polarización. Se realiza una alineación de los estados de polarización y se realiza una combinación de polarizaciones.
  • Ecualización. Se realiza una ecualización fundamentalmente para compensar la CD, dispersión cromática, la PMD, polarización por el modo de polarización, y en general cualquier tipo de efecto adverso.
  • Estimación de la fase de la portadora. Basada en el hecho de que la variación de fase de la portadora es más lenta que la modulación de fase.
  • Decodificación. Se produce la discriminación de símbolo realizando la decodificación de la señal con modulación multinivel
  • Símbolo. Finalmente obtenemos el símbolo

Las técnicas FEC (Forward Error Correction) también se hacen imprescindibles en los sistemas de transmisión, especialmente en los de ultravelocidad. Al ir aumentando la velocidad del canal, la OSNR requerida va incrementándose en paralelo. Transmitir a 100 Gbps requiere de una OSNR que es 4 dB superior al caso de transmisiones a 40Gbps, y 10 dB superior al caso de transmitir 10 Gbps.

Este tipo de técnicas se basan en añadir a la información útil que queremos transmitir, cierta carga de información adicional. Se transmite información redundante que se utilizará en el receptor para detectar y corregir posibles errores acaecidos durante el proceso de transmisión. Es decir, enviamos más información de la que necesitamos, a cambio de asegurarnos que la información que necesitamos es decodificable. Esta información adicional es lo que se conoce como overhead.

Existen dos tipos principales de técnicas FEC, las conocidas como HD, Hard Decision, y las SD, Soft Decision.

  • Las técnicas HD basan su decisión en 1 y 0, es decir, la entrada al módulo FEC se cuantifica en dos niveles
  • Las técnicas SD incrementan la complejidad, la latencia y el consumo. Pero se consigue mejoras considerables con el mismo overhead respecto a las técnicas HD, ya que se incrementa la información de entrada al sistema, aportando como un nuevo parámetro: la fiabilidad de una decisión. Por lo tanto, la entrada del sistema está cuantificada en 3 niveles, el bit 1, el bit 0 y el nivel de confianza de la decisión. Necesitamos ADC muy rápidos y circuitos en paralelo

Al aumentar el overhead aumenta la ganancia de codificación, pero esto no puede incrementarse hasta donde queramos, ya que una cabecera mayor origina un mayor ensanchamiento espectral, produciéndose la consiguiente penalización por filtrado pasobanda adicional en los WSS de los ROADMs, además para la misma potencia de transmisión se reduciría la SNR en el receptor debido a que la densidad de potencia es menor. Con técnicas de ecualización podemos compensar en parte la penalización producida por el filtrado. El OIF ha fijado  un 20% de cabecera como límite práctico superior debido al poco incremento de ganancia para cabeceras mayores.

Cuanto mayor sea el número de no linealidades, menor será el porcentaje de FEC óptimo. Con lo que el overhead a utilizar será determinado por cada escenario en concreto. Por ejemplo:

  • Con un FEC del 7% se utiliza HD, ya que la pequeña ganancia que se produce con SD no compensa el incremento de complejidad, y el FEC puede estar dentro o fuera del módulo DSP, ya que existen interfaces eléctricas de alta velocidad que pueden soportar tasas de datos con cabeceras del 7%.
  • En cambio, cuando el FEC es mayor del 7%, suele estar incorporado dentro del módulo DSP  y las tecnologías y estándares, disponibles a día de hoy, establecen una limitación en el ancho de banda de las interfaces del módulo.

Combinando por tanto un DSP y técnicas FEC en el receptor, puedo ir incrementando la velocidad de línea de los sistemas de tranmisión… ¿Infinito y más allá?…

El espectro que se puede utilizar en la fibra está limitado. Es decir, contamos con un conjunto determinado de frecuencias para transmitir la información.  La eficiencia espectral es un parámetro que define el número de bits por segundo que puedo transmitir por cada Hertzio. Si los hertzios que tengo para transmitir digamos que son constantes, y quiero seguir aumentando mi velocidad de transmisión, la única opción que me queda es aumentar el número de bits por segundo que puedo “meter” en cada hertzio del que dispongo. Es, decir, tengo que encontrar alguna manera de aumentar la eficiencia espectral.

 En Formatos de Modulación Coherentes, ya puse de manifiesto la necesidad de incrementar la eficiencia espectral si queremos seguir aumentando la velocidad de nuestros canales. Y para ello se pueden utilizar diferentes tipos de modulación y detección coherente. En esta entrada, se plantea un objetivo más concreto: aumentar la eficiencia espectral. ¿ Cuales podrían ser las diferentes alternativas para conseguir nuestro objetivo? Veamos algunas de ellas.

Por una parte, en lugar de enviar la información en una única señal, podríamos enviar la información multiplexada sobre 2 señales, que serían ortogonales para minimizar la interferencia entre ellas, y en polarización en el mismo canal. Esta técnica es la que utiliza la modulación denominada POLMUX, o DP-QPSK (Dual Polarization Quadrature  Phase  Shift  Keying),  que se  utiliza fundamentalmente en los sistemas de 40 Gbps de segunda generación y en los 100 Gbps. En este tipo de modulación, un láser de transmisión genera la señal de luz que se divide en cuatro componentes, dos para la polarización horizontal y dos para la polarización vertical. A continuación se gira una de las señales en relación con la otra. Después ambas señales se combinan para generar una única señal, de manera que en cada polarización hay una señal en fase y la otra en cuadratura de fase. Con esta alternativa obtendríamos una eficiencia espectral de 2, es decir 2 bits/s/Hz, o 2 bits por símbolo.

También podemos utilizar formatos de modulación más complejos, los denominados nQAM (Quadrature Amplitude Modulation). Modificando la amplitud y la fase de la señal obtendríamos una eficiencia espectral de n bits por símbolo. El inconveniente principal de estas modulaciones es que la distancia entre símbolos es menor, y tanto menor cuanto mayor es el índice n. Esto implica que presentan baja tolerancia a la OSNR (Optical Signal to Noise Ratio), lo que se convierte directamente en una disminución de los alcances. Podría utilizarse exclusivamente en entornos metro, quedando descartadas para redes de larga distancia y ultralarga distancia.

Por otra parte, podríamos someter a la señal a un filtrado considerablemente mayor, para que su ocupación espectral disminuya (Nyquist WDM). Esta técnica se denomina Prefiltrado Nyquist- WDM, y consiste en limitar la anchura espectral de los canales transmitidos, de manera que se incremente la capacidad total de la fibra, ya que podríamos incluir más canales. El prefiltrado Nyquist-WDM consiste el empleo de filtros ópticos con una función de transferencia aproximadamente rectangular, o bien, en un pre-procesado eléctrico de la señal de forma que la transmisión que se realiza sea un tren de señales sinc solapadas, obteniendo un espectro rectangular. Recordemos que la función sinc normalizada, que es la que se utiliza en procesado digital de la señal, se definía como  sinc (x)= sen(pi x)/pi x. En los sistemas WDM convencionales, se transmite con una distancia entre canales de 2 veces la tasa de símbolo. Aplicando estas técnicas podemos llegar a reducir la distancia hasta 1.1.

Por último, podrían utilizarse técnicas de solapamiento de señales logrando su ortogonalidad en espectro, es decir, aplicando OFDM (Orthogonal Frequency Division Multiplexing), Multiplexación por división en frecuencias ortogonales. Esta técnica es la que se utiliza, por ejemplo, en la cuarta generación de redes móviles, LTE, o la que se utiliza en la familia DSL, sólo que allí se conoce como DMT (Discrete Multi Tone).  Divido el espectro en una serie de frecuencias, cuya distancia entre ellas hace que sean ortogonales, con lo que aún sin haber banda de guarda, no se producen interferencias, con la consiguiente eficiencia a la hora de usar el espectro. Para originar señales ortogonales se puede emplear un procesado eléctrico, óptico, o una combinación de ambos. Este procesado consiste normalmente en la implementación de un módulo iFFT (Transformada Rápida  de Fourier inversa) en el transmisor y un módulo FFT en el receptor, aunque en el caso de que el procesado fuera óptico, podríamos prescindir del módulo iFFT y utilizar señales portadoras espaciadas un ancho de banda equivalente a la tasa de símbolos. Es una modulación muy robusta que permite obtener la información de las diferentes portadoras aún existiendo diferentes retardos entre ellas y diferentes amplitudes.

 De cara a la implementación de los sistemas de ultravelocidad como los 400 Gbps o 1 Tbps, las técnicas OFDM son las que se posicionan como las favoritas, pero aún queda un largo trecho de investigación y experimentación para que estén afinadas. La disponibilidad a día de hoy de este tipo de interfaces se encuentra a nivel de prototipos en los laboratorios de las universidades punteras y de algunos suministradores.
 
La tecnología Gridless o rejilla flexible,  también consigue aumentar la eficiencia espectral, pero de una manera completamente diferente, no se trata tanto de meter más bits/s por hertzio, que es lo que hemos tratado en esta entrada, sino de optimizar los canales, adecuando el tamaño del canal al tamaño de la señal a transmitir, de manera que no se desperdicie ni un solo hertzio…o que se minimice el despilfarro. Aquí puedes encontrar un poco más de información al respecto.

Cuando se habla de velocidades de 40 Gbps y superiores, las cuales podríamos definir como ultravelocidades, el empleo de nuevas técnicas de modulación se convierte en una necesidad imperiosa.

El espectro del que disponemos en una fibra óptica es el que es. Y como limitado que está, si queremos seguir aumentando la velocidad en las transmisiones, la única posibilidad es aumentar la eficiencia espectral, es decir, meter más bits por Hertzio.

Además, hay que tener muy claro, que cuando en la fibra se corretea con velocidades muy elevadas, superiores a los 40 Gbps, los fenómenos no lineales, que para velocidades inferiores apenas representan problemas, se pueden convertir en un auténtico quebradero de cabeza que eche al traste algunos enlaces ya establecidos. Las dispersiones cromática y la producida por el modo de polarización también tienen su protagonismo indeseado conforme aumentamos la velocidad de las señalas a transmitir. Será por tanto necesario compensar en el receptor todos estos fenómenos perniciosos para así poder recomponer correctamente la señal transmitida.

Es decir, si queremos transmitir velocidades por encima de los 40 Gbps necesitamos formatos de modulación que aumenten la eficiencia espectral y que utilicen ciertos mecanismos para compensar los fenómenos perniciosos que se producen a esas velocidades. Estamos hablando, ni más ni menos, de detección coherente con DSP (Digital Signal Processing). Los sistemas de transmisión, por lo tanto, están evolucionando hacia sistemas con detección coherente y procesado de señal.

Profundicemos, sólo un poco, en los fenómenos adversos que hay que tener en consideración a velocidades superiores a 40 Gbps:

  • CD, Dispersión Cromática. La dispersión es un ensanchamiento que sufre el pulso, en este caso, debido a las propiedades del medio de transmisión, que presenta diferente índice de refracción para las diferentes longitudes de onda que componen la señal. Es decir, que la luz cuando viaja por la fibra, va rebotando dentro del núcleo, y cada color que la compone viaja a una velocidad diferente, con lo que el pulso cuando llega a su destino es más ancho. Puede llegar un momento, en que sea tan ancho que se superponga con el pulso anterior y/o posterior, con las consiguientes interferencias que generarán errores en la decodificación de la información que transportaba el pulso original.
  • PMD, Dispersión por el modo de polarización. En este caso la dispersión se produce debido al hecho de que la fibra es un material birrefrigerante. Es decir, el índice de refracción es diferente para el modo vertical y horizontal, que son los dos modos ortogonales de polarización que presenta la señal, de manera que el ensanchamiento del pulso se produce esta vez porque la componente vertical de la señal se mueve  a una velocidad diferente que la componente horizontal. Como depende de la fabricación de la fibra, es un parámetro estadístico, y por lo tanto difícil de compensar.
  • Fenómenos no lineales. Tienen dos orígenes fundamentals. Cuando la intensidad de la luz sobrepasa una determinada potencia, la variación del índice de refracción de la fibra provoca diferentes fenómenos como la auto modulación de fase (Self- Phase Modulation (SPM)), la modulación de fase cruzada (Cross-Phase Modulation (XPM ó CPM)),y la mezcla de cuatro ondas (Four Wave Mixing (FWM)). Otro tipo de fenómenos no lineales se debe a la interacción de los fotones incidentes con algunos modos de vibración del material que se conocen como Fonones, de esta interacción resultan dos tipos de dispersiones: La Dispersión Estimulada de Raman (Stimulated Raman Scattering (SRS)) y la Dispersión Estimulada de Brillouin. (Stimulated Brillouin Scattering (SBS).

Todas ellos, en su combinación, degradan las señales de ultravelocidad. La relación óptica señal a ruido que caracteriza el sistema, OSNR (Optical Signal to Noise Ratio), viene determinada por una tasa de error en la recepción, BER (Bit Error Rate). Para que la comunicación sea viable, la BER  tiene que ser menor que el umbral del FEC (Fordward Error Correction). Es decir, las técnicas que se utilizan para corregir posibles errores acaecidos en la transmisión tienen que resolver los errores provocados por los fenómenos perniciosos, de manera que se siga manteniendo la BER necesaria. Estos además, son más perniciosos cuanto mayor es la velocidad de transmisión.

A todo lo expuesto, debemos añadir el hecho de que las redes de transmisión ópticas no suelen ser fibras punto a punto, sino que es la estructura de malla, por su fiabilidad y robustez, la que se posiciona como favorita. Y cuando se producen fallos en los enlaces establecidos, las restauraciones de los mismos pueden conllevar cambios repentinos en la señal recibida. El proceso de restauración debe ser lo suficientemente rápido como para que la interrupción del servicio sea apenas perceptible. Pero cuando tratamos con velocidades superiores a los 40 Gbps, la compensación de la dispersión cromática, que hay que calcular despues de obtener el nuevo camino de restauración puede ser más lenta de lo deseado.

Las tecnologías tradicionales utilizan detección directa, o bien de la intensidad de la señal transmitida (OOK) o bien de la combinación entre la señal transmitida y una réplica retardada (xPSK) que convierte diferencias de fase en diferencias de amplitud.

 En la detección directa, la potencia del canal se convierte en intensidad de corriente en un fotodiodo. Con un filtro paso banda en el último equipo ROADM del enlace seleccionamos el canal. Se trata de una solución de fácil implementación y sobre todo barata. Pero presenta una baja sensibilidad y muy baja capacidad para compensar los fenómenos adversos.

Necesitamos por tanto de algún mecanismo que aumente la sensibilidad de la señal y que nos permita compensar los crecientes fenómenos adversos.

Si procedemos a mezclar nuestra señal original con un oscilador local, esto nos permite obtener la amplitud y la fase de la señal. Y mediante un procesado digital sería posible compensar la CD y la PMD, bastante nocivos, como ya hemos advertido, en los sistemas de alta velocidad. Además, la señal que se recibe es de mucha mayor potencia debido al mezclado con el oscilador local, y se realiza un filtrado intrínseco de la señal, ya que el oscilador se sintoniza entorno al canal o canales que se quieran detectar, con lo que se simplifica la arquitectura de los nodos ROADM.

 De manera que, para asegurarnos que la transmisión de velocidades superiores a los 40 Gbps sea una realidad, es necesario el empleo de formatos de modulación coherente.

Profundizaremos en los diversos aspectos aquí comentados en entradas posteriores.

MOTIVACIÓN Y ÁMBITO DEL PROYECTO

El OIF (Optical Internetworking Forum ) creó un proyecto 100G DWDM con la intención de acelerar la disponibilidad de la tecnología de transmisión a 100 Gbps para redes DWDM de larga distancia. Estableció un documento marco donde se recoge lo que se espera del desarrollo de estas interfaces:

  • La modulación  escogida: DP-QPSK con detección coherente  y el porqué de esta elección.
  • Identifica una arquitectura funcional para un módulo transceptor y la descompone en diferentes bloques
  • Añade los aspectos más relevantes para la implementación, para los que hay que llegar a un acuerdo, de manera que se fundamente  una interoperabilidad básica

Las aplicaciones de Red tienen como meta y objetivos los siguientes aspectos:

  • Los canales de 100 Gbps, requieren intrínsecamente una OSNR 10 veces superior a los canales de 10 Gbps. Esto supone unas restricciones de tolerancia muy exigentes respecto al ruido de emisión espontánea de los amplificadores ópticos existentes.
  • Además es necesario que tanto el coste como el consumo de la interfaz de 100Gbps sea menor que 10 veces el coste de una interfaz de 10 Gbps,
  • El requisito de mantener la rejilla de 50 GHz hace que sea necesario el uso de una modulación mas eficiente que la de las interfaces de 10 Gbps
  • El requisito de tolerancia mas alta al ruido implica escoger una modulación y un receptor que tengan la tolerancia al ruido mas alta
  • FEC es una herramienta adicional que permite esta mejora,
  • La industria ha aprendido de la experiencia con los 40 Gbps que con técnicas ópticas pueden mitigarse la CD yla PMD, pero incrementando costes y espacio.
 ARQUITECTURA DEL TRANSCEPTOR

MÓDULO DE TRANSMISIÓN DP-QPSK

El proyecto asumió la modulación DP-QPSK (Dual Polarization Quadrature Phase Shift Keying ) con recepción coherente como la óptima para cumplir todos los requisitos impuestos, fundamentalmente debido a la baja velocidad de símbolo que reduce el impacto de la dispersión cromática además de una mejor eficiencia espectral.

A continuación, detallamos el modo de funcionamiento de un módulo de transmisión DP-QPSK:

  • Un láser de transmisión genera la señal de luz que se divide en cuatro componentes, dos para la polarización horizontal y dos para la polarización vertical.
  • El desplazador de la polarización (Pol Rot) gira una de las señales en relación con la otra.
  • Después ambas señales se combinan para generar una única señal
  • En cada polarización hay una señal en fase y la otra en cuadratura de fase y cada una de ellas requiere de un modulador para codificar los datos.
  • Los moduladores representan una interesante oportunidad de  reducción de coste y tamaño, ya que son candidatos a la integración como dispositivos. El OIF ha creado un proyecto específico para desarrollar este aspecto.

 MÓDULO DE RECEPCIÓN DP-QPSK

El módulo de recepción DP-QPSK consiste en una serie de componentes ópticos pasivos que forman un demodulador, seguido de detectores ópticos y amplificadores de transimpendancia. Se pueden aplicar tecnologías de integración para reducir costes y tamaños del transceptor.

El OIF  creará especificaciones para acuerdos de implementación para el módulo de recepción integrado.

FEC

La necesidad de una OSNR 10 veces superior a la de las señalas de 10 Gbps se enfocará mediante la combinación de varios métodos, uno de los cuales serán las técnicas FEC.

Los enlaces de 10G usan FEC que producen ganancias de 8.5 dB, por lo que hay que introducir FEC de mayor ganancia para acercarnos a la OSNR requerida en los 100 Gbps. En cambio el límite de Shannon impide que se cubra por completo el recorrido necesario, por lo que los diseños de FEC sólo podrán acercarse asintóticamente a dichos límites.

Se obtienen diferentes ganancias con FEC en función de la velocidad de las cabeceras, pudiendo adoptar dos técnicas diferentes de decodificación:

  • En la decodificación dura hay un discriminador que elige 0 o 1
  • En la blanda, divide el espacio de la señal en franjas mas pequeñas y se usa una información mas rica para elegir entre 1 y 0

Parece que el FEC de decisión suave presenta más ganancia, pero también impone mayores requisitos en la transferencia de datos entre el DSP y el decodificador FEC

Se necesita trabajo adicional para identificar mejoras en la ganancia y para ello el OIF ha creado un proyecto específico que ha originado en mayo de 2010, como primer paso el Whitepaper del FEC.

Algunas consideraciones de cara a la implementación serían:

  • Las implementaciones que usan un overhead del 7% (típicos en la transmisión de 10Gbps) pueden incluir el FEC dentro o fuera del módulo, ya que la interfaz eléctrica de alta velocidad podría asumir el incremento de velocidad
  • Los FEC que utilicen menos de un 7% de overhead tienden a usar codificación dura
  • Los FEC que utilicen implementaciones de mas de 7% de overhead tienen que ser instalados dentro del módulo (sin interfaz con el DSP) debido a las limitaciones de velocidad del mismo.

MÓDULOS ELECTROMECÁNICOS

Respecto a los módulos electromecánicos, las especificaciones incluirán

  • Tamaño máximo
  • Disipación máxima
  • Interfaz eléctrica
  • Conector
  • Protocolo de control

 Todos los bloques estarían incluidos en una única placa de circuito impreso

El módulo electromecánico incluye láser, fotónica integrada, codificadores QPSK, convertidores A/D y DSP, puede incluir opcionalmente el FEC cuando sea ventajosa su integración.

TRANSMISIÓN

  • Los datos se enmarcan de acuerdo a las especificaciones de OTN antes de aplicar el FEC
  • La señal entonces pasa al módulo transceptor
  • Los datos se convierten para controlar los moduladores ópticos
  • Un láser de transmisión proporciona la fuente de luz para los moduladores

RECEPCIÓN

  • La señal entrante se mezcla con un oscilador local
  • Demodulado sus componentes, detectado, amplificado y digitalizado entonces llega al DSP
  • Un flujo de bits llega al decodificador FEC que puede estar dentro o fuera del módulo
  • El paso final es el entramado OTN

Por primera vez el IEEE publica en una misma especificación dos interfaces diferentes. El motivo es evidente. El objetivo fundamental de esta especificación es preservar el formato de trama  Ethernet determinado en la 802.3 (10 Gbps),es decir, utiliza la subcapa MAC IEEE 802.3, manteniendo los tamaños máximo y mínimos y sin que afecten a los protocolos de nivel 2 y 3. A su vez proporciona MAC Ethernet full duplex, un BER <=10-12 y por supuesto el soporte adecuado para OTN G.709.

 Para las interfaces de 10G, en la recomendación 802.3, en el apartado 49.1.4.2 aparece la definición de la interfaz WIS (WAN Interface Sublayer),cuya arquitectura se muestra a continuación:
 
—Le da al PCS un significado independiente del medio  para que opere sobre enlaces WAN
—Se crea una codificación 10GBASE-W encapsulando los datos previamente codificados con PCS 10GBASE-R en tramas compatibles con SDH/SONET
nEn 802.3ba sólo se habla de modelo LAN.
 
 
Para las interfaces 40G y 100G no se ha definido la capa WIS, es decir, no está definido el encapsulado SDH/SONET, sino que la trama es compatible únicamente con el encapsulado en OTN. Lógico por otra parte, porque a estas velocidades la jerarquía síncrona se queda corta.

Respecto a las condiciones de retardo, El máximo acumulado de los retardos de MAC control, MAC y RS (Resolution), es decir, la suma de los retardos de transmisión y recepción,  deben ser inferior a 409.6 ns para el caso de los 40 Gbs, e inferior a 245,75 para los 100 Gbps.

Se define una nueva subcapa de codificación física (PCS) para 40 y 100 Gbps, que es común para ambas implementaciones de capa física (40GBASE-R y 100GBASE-R), y que se basa en la existente para 10 Gbps 10GBASE-R 64B/66B. En ambos casos la PCS se hace fuera del módulo óptico. 

La capa física, tanto 40GBASE-R como 100GBASE-R, consiste en PCS transmisores y PCS receptores, que pueden o no corresponder con canales físicos y que se estructuran para incluir marcas de alineamiento y distribuir los datos en diferentes láseres. Los canales PCS (PCS lanes) son críticos para las implementaciones de 40 y 100G.  El número de canales requeridos es el mínimo común múltiplo de n canales eléctricos y m canales opticos PMD

  • 40 Gbps usa 4 canales PCS, (mínimo común múltiplo para 4 canales eléctricos (10,3125 Gbps) y 4 lambdas)
  • 100 Gpbs usa 20 canales PCS, (mínimo común múltiplo de 10 canales eléctricos (10,3125 Gbps) y 4 lambdas)

 Los datos de cada canal PCS siempre se reciben en el receptor PCS en el orden correcto. La alineación de marcadores permite al receptor PCS implementar compensación asimétrica (skew), realineando todos los canales PCS y juntándolos todos en un único flujo agregado cuya tasa de transmisión serie es de 40 o 100 Gbps ( con todos los bloques 64B/66B en el orden correcto).  La placa madre, basada en la existente 10GBASE-R con 64B/66B, es la que maneja la codificación y ensamblado de la PCS. Los datos se distribuyen entre los n canales PCS (4 para 40Gbps y 20 para 100Gbps), en bloques de 66 bits cada vez, usando algoritmo Round Robin.

 A cada canal PCS se añaden bloques de alineamiento periódicos que contienen los marcadores de canales.  Los marcadores de alineación se usan para alinear y reordenar los canales PCS en el receptor PCS. Por cada canals PCS se realiza un chequeo de paridad con 8 bits entrelazados (BIP8) 

En cada canal PCS se inserta marcadores de alienamiento únicos, que ayudan al receptor PCS a identificar cada uno de los canales PCS. Los marcadores de canales no está ni codificados ni ensamblados. Cada marcador de canal es una palabra de 8 bytes, que se transmite períódicamente cada 16.384 bloques de 66 bits.

  • Para 40 Gbps, esto es cada 104,8 microsegundos
  • Para 100 Gbps esto es cada 209,7 microsegundos

Los marcadores de alineación interrumpen cualquier transferencia de datos que esté ocurriendo, de manera que deben ser insertados en todos los canales PCS al mismo tiempo.

La subcapa PMA (Phisycal Medium Attachment) interconecta la subcapa PCS con la subcapa PMD (Physical Medium Dependent), y contiene las funciones necesarias para la transmisión, recepción y (dependiendo de la capa PHY) detección de colisión, recuperación de reloj y realineamiento.

Debido al amplio rango de interfaces soportadas y de opciones de implementación de las mismas, para explicar al completo la funcionalidad de la PMA es necesario dividir las funciones PMA en diferentes subcapas. Dos ejemplos de implementaciones específicas de arquitectura serían:

• 100GBASE-LR4, donde se definen 4 longitudes de onda de 25 Gbps por longitud de onda en una fibra monomodo.

• 100GBASE-SR10, donde se definen 10 longitudes de onda de 10 Gbps cada una de ellas y en 10 fibras multimodo en paralelo.

 Como se dijo anteriormente, para los 100 GbEthe, PCS crea 20 canales. En los ejemplos de arquitectura que se han puesto, la funcionalidad de la PMA es dividir en dos dispositivos PMA que están interconectados mediante una interfaz electrica conocida como CAUI (100 Gbps Attachment Unit Interface), la cual está basada en una interfaz de 10 Gbps por canal y 10 canales. En esta implementación, la subcapa PMA en la entrada de la CAUI multiplexa 20 canales PCS en 10 canales físicos. La subcapa PMA a la salida de la CAUI implementa tres funciones:
  1. Resincroniza las señales provenientes de los canales eléctricas de entrada
  2. Los canales eléctricos son convertidos de nuevo en 20 canales PCS
  3. Estos se multiplexan en 4 canales que son los necesarios para la subcapa PMD de 100 GBASE -LR

 Sin embargo, la implementación de la arquitectura para 100GBASE-SR10 es diferente. En este caso, un chip anfitrión se conecta directamente con un transceptor óptico que se conecta a su vez a 10 fibras paralelas para cada dirección. La subcapa PMA reside en el mismo dispositivo que la subcapa PCS, y multiplexa los 20 canales PCS en 10 canales eléctricos de la interfaz física paralela (PPI),  interfaz eléctrica que conecta PMA con PMD sin resincronización.

En resumen, las funcionalidades de alto nivel de la PMA tanto de multiplexar como de recuperar reloj siguen existiendo, pero la implementación concreta de las mismas depende de la PMD específica que se esté usando.

 Existen varias interfaces, que en el caso de la IEEE 802.3ba se han definido como lógicas, intra-chip, en contraposición a otras especificaciones pasadas donde se definen interfaces físicas, interchip. La especificación de una interfaz lógica sólo especifica las señales y sus comportamientos, mientras que una especificación de una interfaz física además especifica los parámetros eléctricos y de sincronismo de las señales. Existen tres chips de interfaces definidos, los cuales tienen una arquitectura común para ambas velocidades:

  • MII (Medium Independent Interface) es una interfaz lógica que conecta la capa MAC y la subcapa PCS. Proporciona caminos para la transmisión y recepción de datos en bloques de 64 bits. Estos caminos se agrupan en 8 canales de 8 bits, con un bit de control asociado a cada canal, para saber si es información de datos o de control en cada momento. Existe un único reloj asociado al camino de transmisión y un único reloj asociado al camino de recepción . Estos relojes operan a un 64avo de la velocidad de transmisión.
    • XGMII para 10 Gbps
    • XLGMII para 40 Gbps, reloj de 625 MHz
    • CGMII para 100 Gbps, reloj de 1.5625 GHz
  • AUI (Attachement Unit Interface) es una interfaz física que extiende la conexión entre el PCS y el PMA, con un bajo número de pines en el conector. Se trata de una interfaz con su propio reloj, multi-canal, con enlaces serie que utilizan codificación 64B/66B. Cada canal opera a una velocidad efectiva de 10 Gbps, que cuando se codifican a 64B/66B resulta una velocidad efectiva de 10.3125 Gbaudios/s. Los canales utilizan señalización diferencial balanceada acoplada AC de baja oscilación, lo que le permite alcanzar hasta25 cm. Se trata fundamentalmente de una interfaz chip2chip,
    • XAUI para 10 Gbps
    • XLAUI para 40 Gbps. 4 canales de transmisión y 4 de recepción de 10 Gbps, resultando 8 pares o 16 señales.
    • CAUI para 100 Gbps. 10 canales de transmisión y 10 canales de recepción de 10 Gbps, resultando un total de 20 pares o 40 señales.
  • PPI (Parallel Physical Interface), interfaz física para la conexión entre PMA y PMD de 40GBASE-SR4 100GBASESR10 PMDs.

Si quieres acceder al documento original del IEEE, que la fuerza te acompañe…

Las Redes de Transporte suelen ser las grandes desconocidas para los que no están directamente relacionados con el negocio de las Redes de Telecomunicación. Y sin embargo, son imprescindibles para que la comunicación fluya de un lugar a otro.

Seguro que has escuchado hablar de Redes IP, de Redes Ethernet, del ADSL, de la Fibra….pero esto del transporte te suena a coche, tren, y similares. Bueno no vas desencaminad@, porque el concepto es exactamente el mismo. Cada una de las tecnologías que intervienen en un sistema de comunicación tiene su función. La función de la Red de Transporte, o de Transmisión, es llevar, físicamente, la información de un lugar a otro, normalmente de manera transparente. Es decir, da igual que se trate de una llamada de teléfono, de un acceso a tu correo electrónico o de una película que estás viendo en tu televisor. La información al final son 1 y 0 que van de un sitio a otro. Y lo hacen mediante estas redes.

La Red de Transporte, por lo tanto, une los POP o Puntos de Presencia, de los Operadores de Telecomunicación. Y para ello se utiliza fibra óptica principalmente, ya que es el portador que mayor ancho de banda permite. También se pueden utilizar cables de cobre o coaxial, pero están tendiendo a desaparecer, por alcance y por ancho de banda. Otra alternativa interesante en zonas aisladas o de difícil acceso es utilizar las conexiones radioeléctricas. Cuando veais una torre de antenas, las que son planas y rectangulares son de servicios móviles, pero las que son como panderetas grandes o como parabólicas pequeñas pertenecen a la red de transporte.

  La arquitectura de este tipo de redes es diversa, y cada operador despliega las que mas le conviene según el tipo de zona que quiera cubrir y según el tráfico que quiera transportar. Por ejemplo se pueden utilizar topologías en forma de anillo, es decir, todos los nodos estarían conectados formando un anillo. Tiene la ventaja de que es una forma barata y fácil de desplegar una red, además presenta cierto tipo de seguridad ante la caida de un enlace, ya que siempre se puede dar la vuelta al anillo por el otro lado para llegar al destino. Las arquitecturas en forma de malla, es decir, nodos unidos unos con otros en mayor o menor grado son mucho más flexibles y versátiles, pero son más caros de desplegar, hay más enlaces entre los nodos. Y precisamente gracias a esto, una arquitectura en malla puede tener varios caminos alternativos para llegar de un punto a otro.

Las tecnologías que se utilizan en este tipo de redes suelen clasificarse en dos grandes tipos:

  • Sistemas Síncronos, se trata de equipos eléctricos, que manejan electrones para hacer los 1 y 0. La tecnología por excelencia en Europa es  SDH (Jerarquía Digital Síncrona), que podría equipararse a un tren que consta de la locomotora, y los vagones.  El tren tiene un horario que cumplir, siempre llega y sale de la estación puntualmente. En los vagones es donde se almacena la información de los distintos tipos de tráfico, desde la voz, hasta los datos, pasando por vídeo y lo que quieras.
  • Sistemas Ópticos, es decir, que manejan fotones. Aquí la tecnología estrella es el WDM, Multiplexación por División en Longitud de Onda. Cuando llueve y hace sol, la luz que emite el sol al atravesar las gotas de agua se desparraman en los colores del arcoiris. Eso es lo que hace esta tecnología. Lo que se consigue es tener una autopista de muchos carriles para ir de un lugar a otro, en lugar de una carretera de un solo sentido. Sobre una fibra óptica se transmiten muchos colores y cada color es un canal de comunicación independiente

Las Redes de Transporte, hasta ahora, han sido redes independientes y transparentes, es decir, les daba igual transportar un paquete IP, o una trama Ethernet, porque no los tocaban, solo cogían la información y la envíaban de un punto a otro. La evolución de las redes hacia el concepto de NGN, Redes de Nueva Generación está cambiando la visión y el papel de la red de transporte. Las nuevas soluciones pasarían por integrar funcionalidades de transporte en los diferentes tipos de redes, o bien, implementar nuevas tecnologías que permitan transportar los paquetes de forma eficiente. Estas tecnologías podrían ser MPLS-TP, PBB…demasiado para incluirlo aquí.