Posts etiquetados ‘Tecnología’

Esta entrada es un resumen del Acuerdo de Implementación del OIF para OFP (OTN over Packet Fabric Protocol). Se trata de un documento de gran complejidad dirigido a los expertos. Se necesita conocimiento previo de la espeficiación G.709 de la ITU para sacarle el máximo partido a esta documentación.

Iré publicando los diferentes apartados en varias entradas, para facilitar su análisis y comprensión. Por favor, si detectas algún error o traducción mejorable, por favor indícamelo. Gracias de antemano.

Modelos de segmentación y reensamblado (SAR)

Introducción

En el contexto del OFP, un elemento de red consiste en una serie de funciones OTN de entrada, funciones SAR de entrada, una matriz de paquetes,  funciones SAR de salida y funciones OTN de salida.

Un reloj de referencia (REFCLK) y un pulso de sincronización (SYNC) deben ser distribuidos hacia todas las funciones SAR de entrada y salida. Ambos deben ser derivados de una referencia de tiempo común y  estarán en fase.

Las funciones OTN de entrada consisten en un entramador OTUk el cual terminará las cabeceras OTUk, implementará el FEC (Forward Error Correction) y las salidas correspondientes con el flujo ODUk de alto orden. Además, debería tener uno o mas etapas de demultiplexación ODTUjk, las cuales extraerían los clientes ODUj/ODUflex de bajo orden  desde el flujo portador de los ODUk. 

Las funciones SAR de entrada segmentan en paquetes los flujos de alto orden o de bajo orden y los envía hacia la matriz de paquetes.

La matriz de paquetes conmuta el tráfico, que será reensamblado por las funciones SAR de salida y convertidos de nuevo en un flujo de datos ODU que serán procesados en las funciones OTN de salida.

En las funciones OTN de salida, los flujos ODUk de alto orden pueden ser adaptados para convertirse en flujos OTUk añadiendo una cabecera OTUk y los bytes de comprobación del FEC. Los flujos ODUj/ODUflex de bajo orden son multiplexados en flujos ODUk de alto orden. El sistema al completo mantendrá la integridad de la sincronización de los flujos ODU desde la entrada hasta la salida.

Funciones SAR de entrada

A continuación veremos los bloques funcionales de las funciones de segmentación reensamblado de entrada, junto con una representación de las funciones OTN de entrada, tanto con como sin multiplexación de ODTU. Hay que considerar que se trata de representaciones lógicas y en ningún caso están enfocadas a limitar la implementación. Los bloques que están directamente relacionados con OFP están en azul.

En ambos casos, la OTUk será recuperada y procesada:

En el caso del REGENERADOR, el reloj de la ODUk  es un filtro paso bajo, en el caso de la multiplexación, la ODUj/ODUflex  se extrae y se filtra en banda base, antes de ser enviado a la función que decide el tamaño del paquete, PSD (Packet Size Decision).

El filtro paso-bajo representa el filtro desincronizador de 300 Hz estandar, que aparece en los estándares OTN. Los datos de la ODUk o de la  ODUj/ODUflex se envían a la función formateador de paquetes, PF (Packet Formatter).

La función toma decisiones sobre el tamaño del paquete en función de la velocidad del reloj de la ODUk o de la ODUj/ODUflex filtradas.  Decisiones de tamaño de paquetes se generan con una velocidad de N decisiones cada T ciclos del reloj de referencia del SAR, por ejemplo 1 decisión cada 237 ciclos o 32 decisiones cada 943 ciclos.

El PF construye paquetes con el tamaño que el PSD dicta. Además, los paquetes son construidos con una velocidad media de un paquete cada T/N ciclos del reloj de referencia del SAR y podría tener un tamaño medio de (ODUk/ODUflex Rate * T) / (8 * REFCLK * N) bytes. Generar una decisión de tamaño de paquete cada  T/N ciclos podría ser inviable en algunas implementaciones. Por lo tanto, sería deseable generar una decisión de tamaño de paquete cada T ciclos, y consecuentemente segmentarla en N decisiones de tamaño de paquete individuales.

Las decisiones de tamaño de paquete son equivalentes a una función de transporte común conocida como justificación. Los mecanismos tradicionales de  justificación pueden producir discontinuidades de fase de muy baja frecuencia en la sincronización de la señal cliente, difíciles de filtrar. Una técnica bien conocida para generar las decisiones de justificación (o el tamaño del paquete) que minimiza este problema es un modulador Sigma-Delta, que realiza decisiones de justificación muy frecuentemente para proporcionar  modelado de frecuencias de las discontinuidades de fase. Esta técnica debería ser utilizada en la función PSD para generar decisiones de tamaño de paquete agregadas, de manera que se mejoren las prestaciones de la transferencia de sincronismo. Las decisiones de tamaño de paquete individuales se escriben en una cola FIFO de decisión de tamaño. El PF, bajo el control de las decisiones individuales de tamaño de paquete lee desde la cola FIFO de decisión de tamaño, produciendo paquetes de datos del tamaño apropiado. Además le añade la cabecera apropiada requerida por el OFP. Esta cabecera incluye una referencia temporal la cual es determinada por un contador que se incrementa en uno con cada ciclo REFCLK, y se reinicia en cero con la pendiente creciente del pulso SYNC . Esta referencia temporal es utilizada por la función SAR de entrada para compensar las variaciones de latencia de los paquetes. Otra cabecera incluye la asignación de bits para la tolerancia a errores, particualmente pérdida de paquetes y los informes sobre el estado de la señal cliente desde las funciones de entrada a las de salida.

La función PSD se rige por una serie de ecuaciones, que pueden encontrarse en el documento. Una decisión de tamaño de paquete agregada (D) se genera cada T ciclos del reloj de referencia de 311.04MHz (REFCLK).

Dada la elevada velocidad de generación de decisión, la contribución de fase por el jitter/wander es insignificante. Un flujo de entrada ODUflex puede tener un offset de frecuencia de  hasta  ±100ppm. Cuando se acopla con el reloj de referencia local se podría incrementar hasta ±20ppm, con lo que el offset total efectivo sería de  ±120ppm.

Finalmente, los segmentos PSD agregan las decisiones de tamaño de paquete en N decisiones de tamaño paquete individuales. Cada paquete debería tener un tamaño de Bnom ± 1 bytes. La suma de los tamaños de paquete individuales debería codificar la decisión de tamaño de paquete agregada (D) sin ninguna pérdida. Los paquetes deberían ser generados con una velocidad media de  T/N ciclos del sistema del reloj de referencia de 311.04MHz .

Los datos de la ODUk  se envían al formateador de paquetes (PF), que lee las decisiones de tamaño de paquete individual (B) desde la cola FIFO de Decisión de Tamaño, y formatea los datos de la ODUk en paquetes del tamaño dirigido. El formateador de paquete mantiene un contador para la referencia temporal que se incrementa con cada ciclo del reloj de referencia de 311.04MHz (REFCLK).  El valor del contador de referencia temporal en el momento de la creación del paquete se captura en los bytes de cabecera del paquete.

El chip de la interfaz de la matriz  ( Fabric Interface Chip -FIC-) recoge paquetes construidos por el formateador de paquetes mediante un bus de aplicación para paquetes estandar, como OIF SPI-S, o Interlaken, y añade bytes de cabecera específicos de la matriz. Los paquetes se envían al corazón de la matriz para conmutar hacia la tarjeta de línea de salida. En el caso de una tarjeta de línea de entrada híbrida, que se utiliza tanto para clientes OTN como paquetes , el FIC debería segmentar el tráfico de paquete en segmentos más pequeños para transferirlos a través de la matriz.

Funciones SAR de Salida

En las siguientes figuras se puede observar el diagrama de bloques funcionales de dos clases de funciones de salida, configuración de regenerador y configuración de multiplexación de una ODUj/ODUflex en ODUk . Se trata de representaciones lógicas que no pretenden limitar la implementación. Los bloques directamente relacionados con la OFP están en azul.

 

 

 

 

 

 Los paquetes ODUk  son entregados por la matriz de paquetes. Las funciones de re-ensamblado de paquetes (Packet Re-assembly -PR-)  eliminan los bytes de cabecera del OFP y convierte el flujo de paquetes en un flujo serie continuo de ODUk/ODUflex . La función de extracción del tamaño de paquete (Packet Size Extraction -PSE-), como su nombre indica, extrae el tamaño de cada paquete. Dichos tamaños son cargados en la cola FIFO y extraidos a una velocidad media de uno cada T/N ciclos del reloj de referencia. La información resultante del reloj se filtra paso bajo, eliminando el ruido generado por el conformador de ruido de la entrada. Midiendo la velocidad de las actualizaciones de los tamaños de los paquetes en el filtro con un período preciso, las variaciones de retardo de la matriz de paquetes no tienen impacto en el jitter y wander del transmisor de ODUk/ODUflex.

La función SAR de salida mantiene un contador de referencia de tiempo que se incrementa con cada ciclo del reloj de referencia. El contador de referencia de tiempo se inicializa con el pulso SYNC. La función SAR de salida también proporciona una cola FIFO de la variación del retardo de paquete  para cada flujo ODUk/ODUflex. Estas FIFO almacenan tal cantidad de datos que el flujo transmitido ODUk/ODUflex no se ve  interrumpido por las variaciones del retardo en la matriz. Despues de reinicializar, la longitud de la cola FIFO se inicializa suspendiente la operación de lectura hasta que el paquete en la cabeza de la cola FIFO es de una edad configurada. El proceso de inicialización de la cola FIFO puede utilizarse para asegurarse que todos los flujos ODUk/ODUflex tienen la misma latencia a través de los elementos de red, sin tener en cuenta las variaciones de retardo en la matriz.

El flujo de datos de salida y su reloj filtrado son entonces procesados por las funciones OTN. Para una aplicación de regenerador esta información se pasa hacia el fragmentador OTN de salida. Si lo que se quiere es una configuración de multiplexación ODUj/ODUflex, entonces la información se utiliza por el multiplexor y la señal multiplexada se procesa por el fragmentador OTN.

Anuncios

Esta entrada es un resumen del Acuerdo de Implementación del OIF para OFP (OTN over Packet Fabric Protocol). Se trata de un documento de gran complejidad dirigido a los expertos. Se necesita conocimiento previo de la espeficiación G.709 de la ITU para sacarle el máximo partido a esta documentación.

Iré publicando los diferentes apartados en varias entradas, para facilitar su análisis y comprensión. Por favor, si detectas algún error o traducción mejorable, por favor indícamelo. Gracias de antemano.

Introducción

El protocolo OFP se basa en el mapeado de clientes CBR en una ODUk y en la multiplexación de una ODUj de bajo orden en una ODUk de alto orden, tal y como se define en la especificación G.709 de la ITU.

Una cantidad variable de datos provenientes de clientes CBR o de ODUj se mapea en cada ODUk, la cual tiene un periodo fijo. La variación de la cantidad de datos codifica la velocidad del cliente CBR o del flujo ODUj que se transporta dentro de la ODUk. Esta técnica, comunmente referida a los estándar  OTN, se llama justificación y se reutiliza aquí como la técnica para codificar la información de sincronización del ODUk/ODUflex conmutado a través de la matriz de paquetes. La velocidad del cliente ODUk se codifica variando la cantidad de datos en cada paquete, los cuales se construyen sobre un mismo periodo de tiempo fijado.

Requisitos del OFP

Para que el OFP pueda soportar el transporte de los clientes ODUk/ODUflex entre los elementos de red y las matrices de conmutación de paquetes con una variedad de características  de implementación, es necesario que cumpla una serie de requisitos.

OFP debería:

  • Proporcionar un mecanismo para transferir la información de sincronismo de las señales cliente ODUk/ODUflex a través de la matriz de paquetes, tal y como se recoge en la recomendación G.8251 ODCr  y Cp de la ITU-T, donde las especificaciones de sincronismo se siguen cumpliendo sin reducción en el máximo número de elemenos de red permitidos por el modelo de referencia hipotétito de la G.8251
  • Proporcionar un mecanismo para transferir la información de sincronismo de las señales cliente ODUk/ODUflex a través de una matriz de paquete que sea agnóstica de la latencia de la matriz y de las variaciones de latencia.
    • Soportar implementaciones de matriz de paquetes con un máximo de latencia de hasta 100μs y un máximo en la variación de la latencia de hasta  50μs.
    • Proporcionar un mecanismo para compensar la latencia de la matriz de paquetes, que tenga valor configurable mayor o igual que la máxima latencia de la matriz y menor o igual que  100μs, con una resolución mejor que 5ns.
  • Proporcionar un mecaniscmo para señalizar el estado del cliente ODUk/ODUflex (Status = No Defect,Signal Degrade, Signal Fail)
  • Proporcionar un mecanismo de protección contra el re-entramado del flujo ODUk/ODUflex ante la pérdida de un único paquete por parte de la matriz  de paquetes
  • Soportar el uso de un reloj de referencia común de 311.04MHz, que esté en fase con un pulso de sincronización de  8kHz
  • Soportar matrices de paquetes con una variedad de tamaños de paquete interno entre 128 y 512 bytes y una paquetización de ODUk/ODUflex que permita un uso óptimo del ancho de banda de la matriz de paquetes
  • Soporte para implementaciones de receptor y transmisor interoperables

No se requiere que las matrices de paquetes manejen paquetes fuera de servicio. La entrega ordenada de paquetes a través de la matriz de paquetes es responsabilidad de ella misma.

A continuación señalamos una serie de objetivos adicionales que debería cumplir OFP para garantizar el transporte de clientes ODUk/ODUflex a través de elementos de red y matrices de conmutación de paquetes con una variedad de características de implementación. OFP debería:

  • Proporcionar un mecanismo de protección contra un re-entramado del flujo ODUk/ODUflex ante la pérdida de paquete doble (consecutiva) producida en la matriz de paquete.

El procesado digital se hace imprescindible en la recepción de señales de elevada velocidad. Al incrementar la velocidad de las señales que viajan por la fibra, se incrementa considerablemente los fenómenos adversos que la atacan, degradándola hasta hacerla prácticamente indecodificable. Como algunas de estas interferencias son lineales, o siguen algún patrón matemático conocido que se puede calcular a priori, si disponemos en la recepción de un módulo que se encargue de desfacer los entuertos acaecidos en el viaje de la luz, recuperaremos la señal original, o algo que se le parece bastante. Esto  es lo que se conoce como módulo DSP.

El DSP sería como un pequeño ordenador capaz de realizar una gran cantidad de operaciones numéricas. Se incorpora en los receptores de algunas señales como un módulo adicional, compuesto de hardware y software. El DSP trabaja con señales digitales, por lo tanto, si lo queremos incorporar a un sistema de transmisión de señales sobre fibra óptica, teniendo en cuenta que se trata de una señal analógica lo que estoy transmitiendo, el DSP necesitará un elemento que convierta la señal analógica en una señal digital que pueda procesar. Es decir, conversores A/D o ADC.

Pero no sólo hay que digitalizar la señal. Para extraer la información de la señal modulada que llega al receptor, un DSP debe realizar las siguientes operaciones:

  • ADC. Como ya hemos comentado, se realiza un muestreo y digitalización de la señal analógica. En el caso de una modulación DP-QPSK, que es la que se utiliza para los 100Gbps, se obtienen las componentes I y Q de la señal  y sus respectivas polarizaciones X e Y
  • Recuperación de Reloj. Lo siguiente que tenemos que hacer es recuperar el reloj de la señal original para poder sincronizar la información recibida. Una vez extraido el reloj la señal digital se somete a un nuevo muestreo.
    • Para señales QPSK codificadas sobre un tren de pulsos RZ extraemos el reloj a partir de la señal transmitida mediante un detector de intensidad  y un circuito estándar de recuperación de reloj. Las fotocorrientes muestreadas en el ADC están en sintonía con el reloj y en este caso no necesitaríamos remuestreo. También podríamos extraer el reloj de la señal muestreada, en este caso tendríamos que muestrear la señal a una velocidad superior al doble de la frecuencia máxima de la señal transmitida, para realizar posteriormente una interpolación de las muestras en el dominio del tiempo y reconstruyendo la envolvente de los pulsos que facilite el remuestreo.
    • En el caso de señales QPSK codificadas sobre un tren de pulsos NRZ, se procede al muestreo y detección de bordes mediante derivación de interpolación y muestreo.
  • Corrección de Polarización. Se realiza una alineación de los estados de polarización y se realiza una combinación de polarizaciones.
  • Ecualización. Se realiza una ecualización fundamentalmente para compensar la CD, dispersión cromática, la PMD, polarización por el modo de polarización, y en general cualquier tipo de efecto adverso.
  • Estimación de la fase de la portadora. Basada en el hecho de que la variación de fase de la portadora es más lenta que la modulación de fase.
  • Decodificación. Se produce la discriminación de símbolo realizando la decodificación de la señal con modulación multinivel
  • Símbolo. Finalmente obtenemos el símbolo

Las técnicas FEC (Forward Error Correction) también se hacen imprescindibles en los sistemas de transmisión, especialmente en los de ultravelocidad. Al ir aumentando la velocidad del canal, la OSNR requerida va incrementándose en paralelo. Transmitir a 100 Gbps requiere de una OSNR que es 4 dB superior al caso de transmisiones a 40Gbps, y 10 dB superior al caso de transmitir 10 Gbps.

Este tipo de técnicas se basan en añadir a la información útil que queremos transmitir, cierta carga de información adicional. Se transmite información redundante que se utilizará en el receptor para detectar y corregir posibles errores acaecidos durante el proceso de transmisión. Es decir, enviamos más información de la que necesitamos, a cambio de asegurarnos que la información que necesitamos es decodificable. Esta información adicional es lo que se conoce como overhead.

Existen dos tipos principales de técnicas FEC, las conocidas como HD, Hard Decision, y las SD, Soft Decision.

  • Las técnicas HD basan su decisión en 1 y 0, es decir, la entrada al módulo FEC se cuantifica en dos niveles
  • Las técnicas SD incrementan la complejidad, la latencia y el consumo. Pero se consigue mejoras considerables con el mismo overhead respecto a las técnicas HD, ya que se incrementa la información de entrada al sistema, aportando como un nuevo parámetro: la fiabilidad de una decisión. Por lo tanto, la entrada del sistema está cuantificada en 3 niveles, el bit 1, el bit 0 y el nivel de confianza de la decisión. Necesitamos ADC muy rápidos y circuitos en paralelo

Al aumentar el overhead aumenta la ganancia de codificación, pero esto no puede incrementarse hasta donde queramos, ya que una cabecera mayor origina un mayor ensanchamiento espectral, produciéndose la consiguiente penalización por filtrado pasobanda adicional en los WSS de los ROADMs, además para la misma potencia de transmisión se reduciría la SNR en el receptor debido a que la densidad de potencia es menor. Con técnicas de ecualización podemos compensar en parte la penalización producida por el filtrado. El OIF ha fijado  un 20% de cabecera como límite práctico superior debido al poco incremento de ganancia para cabeceras mayores.

Cuanto mayor sea el número de no linealidades, menor será el porcentaje de FEC óptimo. Con lo que el overhead a utilizar será determinado por cada escenario en concreto. Por ejemplo:

  • Con un FEC del 7% se utiliza HD, ya que la pequeña ganancia que se produce con SD no compensa el incremento de complejidad, y el FEC puede estar dentro o fuera del módulo DSP, ya que existen interfaces eléctricas de alta velocidad que pueden soportar tasas de datos con cabeceras del 7%.
  • En cambio, cuando el FEC es mayor del 7%, suele estar incorporado dentro del módulo DSP  y las tecnologías y estándares, disponibles a día de hoy, establecen una limitación en el ancho de banda de las interfaces del módulo.

Combinando por tanto un DSP y técnicas FEC en el receptor, puedo ir incrementando la velocidad de línea de los sistemas de tranmisión… ¿Infinito y más allá?…

El espectro que se puede utilizar en la fibra está limitado. Es decir, contamos con un conjunto determinado de frecuencias para transmitir la información.  La eficiencia espectral es un parámetro que define el número de bits por segundo que puedo transmitir por cada Hertzio. Si los hertzios que tengo para transmitir digamos que son constantes, y quiero seguir aumentando mi velocidad de transmisión, la única opción que me queda es aumentar el número de bits por segundo que puedo “meter” en cada hertzio del que dispongo. Es, decir, tengo que encontrar alguna manera de aumentar la eficiencia espectral.

 En Formatos de Modulación Coherentes, ya puse de manifiesto la necesidad de incrementar la eficiencia espectral si queremos seguir aumentando la velocidad de nuestros canales. Y para ello se pueden utilizar diferentes tipos de modulación y detección coherente. En esta entrada, se plantea un objetivo más concreto: aumentar la eficiencia espectral. ¿ Cuales podrían ser las diferentes alternativas para conseguir nuestro objetivo? Veamos algunas de ellas.

Por una parte, en lugar de enviar la información en una única señal, podríamos enviar la información multiplexada sobre 2 señales, que serían ortogonales para minimizar la interferencia entre ellas, y en polarización en el mismo canal. Esta técnica es la que utiliza la modulación denominada POLMUX, o DP-QPSK (Dual Polarization Quadrature  Phase  Shift  Keying),  que se  utiliza fundamentalmente en los sistemas de 40 Gbps de segunda generación y en los 100 Gbps. En este tipo de modulación, un láser de transmisión genera la señal de luz que se divide en cuatro componentes, dos para la polarización horizontal y dos para la polarización vertical. A continuación se gira una de las señales en relación con la otra. Después ambas señales se combinan para generar una única señal, de manera que en cada polarización hay una señal en fase y la otra en cuadratura de fase. Con esta alternativa obtendríamos una eficiencia espectral de 2, es decir 2 bits/s/Hz, o 2 bits por símbolo.

También podemos utilizar formatos de modulación más complejos, los denominados nQAM (Quadrature Amplitude Modulation). Modificando la amplitud y la fase de la señal obtendríamos una eficiencia espectral de n bits por símbolo. El inconveniente principal de estas modulaciones es que la distancia entre símbolos es menor, y tanto menor cuanto mayor es el índice n. Esto implica que presentan baja tolerancia a la OSNR (Optical Signal to Noise Ratio), lo que se convierte directamente en una disminución de los alcances. Podría utilizarse exclusivamente en entornos metro, quedando descartadas para redes de larga distancia y ultralarga distancia.

Por otra parte, podríamos someter a la señal a un filtrado considerablemente mayor, para que su ocupación espectral disminuya (Nyquist WDM). Esta técnica se denomina Prefiltrado Nyquist- WDM, y consiste en limitar la anchura espectral de los canales transmitidos, de manera que se incremente la capacidad total de la fibra, ya que podríamos incluir más canales. El prefiltrado Nyquist-WDM consiste el empleo de filtros ópticos con una función de transferencia aproximadamente rectangular, o bien, en un pre-procesado eléctrico de la señal de forma que la transmisión que se realiza sea un tren de señales sinc solapadas, obteniendo un espectro rectangular. Recordemos que la función sinc normalizada, que es la que se utiliza en procesado digital de la señal, se definía como  sinc (x)= sen(pi x)/pi x. En los sistemas WDM convencionales, se transmite con una distancia entre canales de 2 veces la tasa de símbolo. Aplicando estas técnicas podemos llegar a reducir la distancia hasta 1.1.

Por último, podrían utilizarse técnicas de solapamiento de señales logrando su ortogonalidad en espectro, es decir, aplicando OFDM (Orthogonal Frequency Division Multiplexing), Multiplexación por división en frecuencias ortogonales. Esta técnica es la que se utiliza, por ejemplo, en la cuarta generación de redes móviles, LTE, o la que se utiliza en la familia DSL, sólo que allí se conoce como DMT (Discrete Multi Tone).  Divido el espectro en una serie de frecuencias, cuya distancia entre ellas hace que sean ortogonales, con lo que aún sin haber banda de guarda, no se producen interferencias, con la consiguiente eficiencia a la hora de usar el espectro. Para originar señales ortogonales se puede emplear un procesado eléctrico, óptico, o una combinación de ambos. Este procesado consiste normalmente en la implementación de un módulo iFFT (Transformada Rápida  de Fourier inversa) en el transmisor y un módulo FFT en el receptor, aunque en el caso de que el procesado fuera óptico, podríamos prescindir del módulo iFFT y utilizar señales portadoras espaciadas un ancho de banda equivalente a la tasa de símbolos. Es una modulación muy robusta que permite obtener la información de las diferentes portadoras aún existiendo diferentes retardos entre ellas y diferentes amplitudes.

 De cara a la implementación de los sistemas de ultravelocidad como los 400 Gbps o 1 Tbps, las técnicas OFDM son las que se posicionan como las favoritas, pero aún queda un largo trecho de investigación y experimentación para que estén afinadas. La disponibilidad a día de hoy de este tipo de interfaces se encuentra a nivel de prototipos en los laboratorios de las universidades punteras y de algunos suministradores.
 
La tecnología Gridless o rejilla flexible,  también consigue aumentar la eficiencia espectral, pero de una manera completamente diferente, no se trata tanto de meter más bits/s por hertzio, que es lo que hemos tratado en esta entrada, sino de optimizar los canales, adecuando el tamaño del canal al tamaño de la señal a transmitir, de manera que no se desperdicie ni un solo hertzio…o que se minimice el despilfarro. Aquí puedes encontrar un poco más de información al respecto.

Cuando se habla de velocidades de 40 Gbps y superiores, las cuales podríamos definir como ultravelocidades, el empleo de nuevas técnicas de modulación se convierte en una necesidad imperiosa.

El espectro del que disponemos en una fibra óptica es el que es. Y como limitado que está, si queremos seguir aumentando la velocidad en las transmisiones, la única posibilidad es aumentar la eficiencia espectral, es decir, meter más bits por Hertzio.

Además, hay que tener muy claro, que cuando en la fibra se corretea con velocidades muy elevadas, superiores a los 40 Gbps, los fenómenos no lineales, que para velocidades inferiores apenas representan problemas, se pueden convertir en un auténtico quebradero de cabeza que eche al traste algunos enlaces ya establecidos. Las dispersiones cromática y la producida por el modo de polarización también tienen su protagonismo indeseado conforme aumentamos la velocidad de las señalas a transmitir. Será por tanto necesario compensar en el receptor todos estos fenómenos perniciosos para así poder recomponer correctamente la señal transmitida.

Es decir, si queremos transmitir velocidades por encima de los 40 Gbps necesitamos formatos de modulación que aumenten la eficiencia espectral y que utilicen ciertos mecanismos para compensar los fenómenos perniciosos que se producen a esas velocidades. Estamos hablando, ni más ni menos, de detección coherente con DSP (Digital Signal Processing). Los sistemas de transmisión, por lo tanto, están evolucionando hacia sistemas con detección coherente y procesado de señal.

Profundicemos, sólo un poco, en los fenómenos adversos que hay que tener en consideración a velocidades superiores a 40 Gbps:

  • CD, Dispersión Cromática. La dispersión es un ensanchamiento que sufre el pulso, en este caso, debido a las propiedades del medio de transmisión, que presenta diferente índice de refracción para las diferentes longitudes de onda que componen la señal. Es decir, que la luz cuando viaja por la fibra, va rebotando dentro del núcleo, y cada color que la compone viaja a una velocidad diferente, con lo que el pulso cuando llega a su destino es más ancho. Puede llegar un momento, en que sea tan ancho que se superponga con el pulso anterior y/o posterior, con las consiguientes interferencias que generarán errores en la decodificación de la información que transportaba el pulso original.
  • PMD, Dispersión por el modo de polarización. En este caso la dispersión se produce debido al hecho de que la fibra es un material birrefrigerante. Es decir, el índice de refracción es diferente para el modo vertical y horizontal, que son los dos modos ortogonales de polarización que presenta la señal, de manera que el ensanchamiento del pulso se produce esta vez porque la componente vertical de la señal se mueve  a una velocidad diferente que la componente horizontal. Como depende de la fabricación de la fibra, es un parámetro estadístico, y por lo tanto difícil de compensar.
  • Fenómenos no lineales. Tienen dos orígenes fundamentals. Cuando la intensidad de la luz sobrepasa una determinada potencia, la variación del índice de refracción de la fibra provoca diferentes fenómenos como la auto modulación de fase (Self- Phase Modulation (SPM)), la modulación de fase cruzada (Cross-Phase Modulation (XPM ó CPM)),y la mezcla de cuatro ondas (Four Wave Mixing (FWM)). Otro tipo de fenómenos no lineales se debe a la interacción de los fotones incidentes con algunos modos de vibración del material que se conocen como Fonones, de esta interacción resultan dos tipos de dispersiones: La Dispersión Estimulada de Raman (Stimulated Raman Scattering (SRS)) y la Dispersión Estimulada de Brillouin. (Stimulated Brillouin Scattering (SBS).

Todas ellos, en su combinación, degradan las señales de ultravelocidad. La relación óptica señal a ruido que caracteriza el sistema, OSNR (Optical Signal to Noise Ratio), viene determinada por una tasa de error en la recepción, BER (Bit Error Rate). Para que la comunicación sea viable, la BER  tiene que ser menor que el umbral del FEC (Fordward Error Correction). Es decir, las técnicas que se utilizan para corregir posibles errores acaecidos en la transmisión tienen que resolver los errores provocados por los fenómenos perniciosos, de manera que se siga manteniendo la BER necesaria. Estos además, son más perniciosos cuanto mayor es la velocidad de transmisión.

A todo lo expuesto, debemos añadir el hecho de que las redes de transmisión ópticas no suelen ser fibras punto a punto, sino que es la estructura de malla, por su fiabilidad y robustez, la que se posiciona como favorita. Y cuando se producen fallos en los enlaces establecidos, las restauraciones de los mismos pueden conllevar cambios repentinos en la señal recibida. El proceso de restauración debe ser lo suficientemente rápido como para que la interrupción del servicio sea apenas perceptible. Pero cuando tratamos con velocidades superiores a los 40 Gbps, la compensación de la dispersión cromática, que hay que calcular despues de obtener el nuevo camino de restauración puede ser más lenta de lo deseado.

Las tecnologías tradicionales utilizan detección directa, o bien de la intensidad de la señal transmitida (OOK) o bien de la combinación entre la señal transmitida y una réplica retardada (xPSK) que convierte diferencias de fase en diferencias de amplitud.

 En la detección directa, la potencia del canal se convierte en intensidad de corriente en un fotodiodo. Con un filtro paso banda en el último equipo ROADM del enlace seleccionamos el canal. Se trata de una solución de fácil implementación y sobre todo barata. Pero presenta una baja sensibilidad y muy baja capacidad para compensar los fenómenos adversos.

Necesitamos por tanto de algún mecanismo que aumente la sensibilidad de la señal y que nos permita compensar los crecientes fenómenos adversos.

Si procedemos a mezclar nuestra señal original con un oscilador local, esto nos permite obtener la amplitud y la fase de la señal. Y mediante un procesado digital sería posible compensar la CD y la PMD, bastante nocivos, como ya hemos advertido, en los sistemas de alta velocidad. Además, la señal que se recibe es de mucha mayor potencia debido al mezclado con el oscilador local, y se realiza un filtrado intrínseco de la señal, ya que el oscilador se sintoniza entorno al canal o canales que se quieran detectar, con lo que se simplifica la arquitectura de los nodos ROADM.

 De manera que, para asegurarnos que la transmisión de velocidades superiores a los 40 Gbps sea una realidad, es necesario el empleo de formatos de modulación coherente.

Profundizaremos en los diversos aspectos aquí comentados en entradas posteriores.

Hace unos días salió una noticia a la palestra de los foros tecnológicos informativos. Se publicitaba a bombo y platillo que con una técnica innovadora, el cobre podría alcanzar velocidades de 100 Mbps y superiores. Va a ser que no. Pongamos los puntos sobre las ies

El culpable de este subidón de velocidad es una técnica que se conoce como vectoring, que para empezar de novedosa, poco. Se lleva mucho tiempo trabajando sobre la vectorización de los pares de cobre, y los resultados siempre han sido bastante pobres. Las mejoras que producen en la velocidad alcanzable son tan nimias, que no compensan en absoluto el despliegue. Estamos hablando desde el punto de vista de la realidad de una planta existente y desplegada.

El cable de cobre que llega a tu casa no va solo, sino que va dentro de unos cables que engloban desde unos pocos, a unos cientos y hasta unos miles. Las señales que se generan en la familia XDSL son señales multiportadoras, es decir, en vez de llevar un camión enorme para llevar tu información, lo que se hace es llevar una caravana de camiones más pequeños, y cada uno de esos camiones, que son las portadoras, llevan un poquito de la información. Al estar los cables tan juntos unos con otros , y con tantas portadoras por ahí sueltas, se producen interferencias entre los cables llamadas diafonías (crosstalk), que consisten básicamente en que las señales de un cable se cuelan en otro. Con la técnica de vectoring, esto se limita considerablemente. Pero para que funcione correctamente, y las mejoras sean apreciables, la técnica tiene que aplicarse a todos y cada uno de los pares que forman parte del cable. Con que haya uno que no esté vectorizado, las prestaciones bajan.

En países como España, la regulación obliga a compartir el par de cobre, ya que forma parte de la infraestructura previa al periodo de liberalización del sector. Eso quieres decir, que por un mismo cable van los clientes de todos los operadores que den servicio en esa zona, y cada uno de estos cables acaba en las instalaciones de sus respectivos operadores, en unos equipos llamados DSLAM (Multiplexor de Acceso de Líneas DSL). Si quieres saber con más detalle cómo es la red de acceso de cobre, puedes verlo en  Redes de Acceso.

 Esto es lo que se conoce como desagregación de bucle. Y en zonas desagregadas NO ES VIABLE desplegar estas técnicas, porque al quedar pares sin controlar, los beneficios serían ridículos y no compensarían en absoluto el despliegue de la nueva técnica.

A eso tienes que añadir el hecho, de que para aplicar correctamente la técnica, tiene que aplicarse a todos los pares de un mismo DSLAM, y es relativamente habitual que un operador disponga de varios suministradores para sus equipamientos.

Existen armarios de intemperie que se colocan para llegar a zonas que no tienen cobertura desde la central. En estos armarios, no hay obligación de desagregar bucle y por lo tanto sería viable aplicar esta técnica de vectorización. Pero se trata de un porcentaje realmente pequeño sobre la población total. Y a esto se le añade el hecho de que las velocidades son interesantes por debajo del kilómetro de distancia al armario, con lo que reduces aún más lo población potencial a la que ofrecerías el servicio.

La vectorización no es la única técnica que se puede aplicar para incrementar la velocidad en el cobre.

  • El bonding, lleva también muchos años en análisis, y nunca ha salido de ahí, por las dificultades operativas que presenta. Se trata de unir varios pares de cobre, en lugar de uno solo. Algo tan aparentemente fácil, es realmente un quebradero de cabeza desde el punto de vista operativo y logístico, añadiendo que tampoco hay tantos pares libres como para aplicarlo de manera generalizada
  • Técnicas de Retransmisión, que se encargan de volver a enviar los paquetes perdidos. Los mecanismos de protección que se establecen, para garantizar la calidad en la conexión, son bastante restrictivos de cara a la velocidad. Es el dicho vísteme despacio que tengo prisa, en versión eléctronica…si quieres hacer las cosas bien, hazlas despacio. Estas nuevas técnicas conseguirían seguir haciendo las cosas bien, yendo un poco más deprisa. Hay estándares disponibles al respecto, pero lo que no hay es nadie que lo use…probablemente porque las mejoras no compensan las modificaciones a realizar
  • Técnicas de adaptación de velocidad a las condiciones del bucle, para conseguir en cada momento la máxima sincronización posible. Hoy en día, cuando enciendes el módem, sincroniza a una velocidad concreta y mientras no surjan problemas o no apagues y enciendas el módem, sigue con la misma sincronización. Con este tipo de técnicas, hay que asumir que la velocidad máxima que se puede alcanzar variará con el tiempo. En cualquier caso son técnicas que aún no están disponibles y dudo mucho que ofrezca unas ventajas significativas como para incrementar la velocidad de los servicios sobre cobre.
  • Incluso realizando cambios de protocolos de nivel 4 (el UDP por el TCP), se podrían relajar las restricciones que se imponen a nivel físico.  Si tengo un protocolo que me asegura la retransmisión de paquetes, como es el TCP, tengo cierta garantía de que no los voy a perder, acabarán llegando, de manera que a nivel físico, puedo utilizar más portadoras aumentando el ancho de banda correspondiente, aunque estas portadoras no estén en muy buenas condiciones y provoquen errores, que serán solventados por el TCP.

Conclusión, todas estas técnicas son pequeñas aportaciones que no pueden llevar de manera generalizada a un incremento considerable en las velocidades que se pueden obtener con el cobre. Lo que producirán probablemente serán beneficios en los servicios existentes, al aumentar calidad y estabilidad de las señales. Así que si quieres 100 Mbps en tu casa, o te pillas docsis 3.0 tú solo en el barrio, o te pillas fibra hasta la cocina y esperas a que la velocidad comercial suba a 100 Mbps.

 

PD: ACLARACIÓN TÉCNICA SOBRE LA VECTORIZACIÓN DE LOS SISTEMAS DSL

Existe una serie de técnicas que se denominan DSM, Gestión Dinámica del Espectro. Las técnicas DSM tratan de reducir y mitigar la diafonía aplicando algoritmos que optimicen el uso de los recursos disponibles (subportadoras utilizadas, potencia transmitida por subportadora, bits transmitidos por subportadoras,…) a través de la gestión del espectro Estas técnicas se pueden dividir en cuatro niveles, que se definen atendiendo al grado de dinamismo en la gestión de los recursos y al nivel de coordinación existente entre los sistemas DSL.

  • DSM Nivel 1: Se encarga de controlar el ruido impulsivo de un par en concreto, sin afectar a los pares adyacentes. Se controla la densidad espectral de potencia de la señal (PSD) tratando de emplear la mínima potencia necesaria pero manteniendo constante el margen de ruido.
  • DSM NIVEL 2: Se realiza una optimización conjunta de todos los cables del sistema. El ajuste de las densidades espectrales de potencia con el que se transmite cada subportadora en un enlace, se  hace teniendo en cuenta los niveles de potencia con los que se está transmitiendo esa misma subportadora en los pares contiguos. Existe por lo tanto una entidad que coordina todos los bucles de un mismo cable.
  • DSM NIVEL 3 (Vectorización): Implica un ajuste dinámico a nivel de señal basado en la  coordinación entre los usuarios que comparten el mismo cable. Lo que se pretende es eliminar el efecto de la señal interferente por diafonía de dos modos, atendiendo al sentido de la transmisión.  En sentido descendente se utilizará una  precodificación de canal para eliminar la interferencia a la entrada del receptor de los  usuarios. Por el contrario para el sentido ascendente de la transmisión, ya que no se puede actuar sobre los módems de los clientes, se emplearán métodos de decodificación conjunta en el extremo de la central. Por eso todos los pares en la central deben colgar de un mismo DSLAM y en casa del usuario habría que actualizar la versión de SW del módem router, o cambiarlo.

IP, Internet Protocol, es el lenguaje de Internet, con matices, como ya expliqué en la entrada de Las Redes IP.

Este protocolo, se encuentra desplegado en su versión 4, que es lo que se conoce como IPv4. Pero como sucede siempre en el mundo de la tecnología, ésta se queda obsoleta, y demasiadas veces muy rápidamente. ¿Cuantas veces te has cambiado de teléfono móvil? Pues eso.

En el caso del IPv4, ha durado más de lo que muchos gurús decían. Hace años que la amenaza se cierne sobre el IPv4…la espada de Damocles acechaba detrás de cualquier router, pero el IPv4 seguía aguantando el tirón. Hasta que llegó el día en el que ya no pudo más, y ahora sufre una lenta y agónica marcha hacia su desaparición definitiva…la cual probablemente dure más que su propia vida, ya sabemos eso de que las cosas de palacio…van despacio…

¿Cual ha sido el detonante para este vil y cruel destino? Entremos un poquito en harina. El IPv4, como todo protocolo que se precie, se puede equiparar a una caja con dos compartimentos. Uno de ellos se llama cabecera, y ahí es donde se mete toda la información relacionada con la metafísica…¿quien soy? ¿a dónde voy?¿de donde vengo?¿cual es mi tamaño?¿que  tipo de carga transporto?¿cuanto me queda de vida?…típicas preguntas que cualquier paquete se haría. Esta información la necesitan los routers para hacer sus cositas. En el otro compartimento iría la información que realmente interesa al usuario final, las transparencias con gatitos, los correos en cadena…ya sabes.

En el compartimento de la cabecera en el IPv4 existen a su vez varias cajas. La que ha sido responsable de todo este lio es la caja que contiene las direcciones IP, que resulta que es demasiado pequeña. A los gurus que inventaron el protocolo, no se les ocurrió, ni en sus sueños más húmedos, que harían falta más de  4.294.967.296 direcciones IP, es decir, rondando los 4.300 millones de direcciones. Este número tan curioso sale de los 32 bits que caben en una caja de direcciones IP…2 elevado a 32 sale justo eso. Ni más ni menos.

Hace ya unos cuantos años, los organismos que manejan las direcciones dieron la voz de alarma…se nos están acabando las direcciones IP…como la cosa parecía que iba en serio, los que tenían direcciones que ya no utlizaban empezaron a devolverlas. Con eso aguantamos unos cuantos años más. Pero parece que ahora sí que viene el lobo, y todos los grandes operadores de redes IP están haciendo sus números y sus cálculos.

Para solventar el problema, lo que hacemos es cambiar de versión de protocolo IP, nos pasamos a la IPv6, que tiene una caja de bits mas grande…caben 128 bits…eso significan…me mareo sólo de pensarlo, ¿os acordaís del número de Avogadro y de lo que era un mol? Pues más…estamos hablando de 3,4 por 10 elevado a 38 ceros. Nuestro cerebro no está capacitado para asumir tantos ceros. Típicas comparaciones divertidas, la equivalencia entre el IPv4 y el IPv6 sería como comparar el peso de un átomo (da igual, escoge tu elemento favorito de la tabla periódica) con el de una ballena de 80 toneladas, percebe  arriba, percebe abajo.

Aparte de aumentar INCREIBLEMENTE el número de direcciones IP disponibles para repartir por el mundo mundial, el IPv6 presenta otras ventajas adicionales, como una caja de cabecera más simple que facilita el trabajo de los routers, más fácil para gestionar la movilidad, es más seguro…claro una nueva versión siempre mejora a la anterior.

Que quede claro que se trata de una evolución, no de una revolución. Con este cambio, hasta la cesta de las patatas podrá tener su dirección IP, para así mandarte una alerta al móvil avisándote de que se están brotando. Lo que inventa el  sapiens…

Lo más gracioso de todo esto, va a ser cómo se van a ir migrando las redes de un protocolo a otro. Ríete tú del efecto 2000, aquí si que se puede liar parda. Hay diferentes estrategias para hacerlo. Diría que tantas como operadores de redes IP, que si no se acerca al número de estrellas en la galaxia, debe andar por ahí por ahí. Algunos aguantarán con el IPv4 hasta que revienten. Otros irán de vanguardistas y pondrán el IPv6 si no lo han puesto ya, que haberlos haylos. Dentro de cada red se pueden establecer islas de IPv6 rodeadas de IPv4. Puedes hacer que tu red funcione en IPv6, pero luego haces traducciones a IPv4 para conectarte con otras redes o con tus clientes finales. Puedes seguir prestando tus servicios de toda la vida en IPv4, y los nuevos con IPv6. Puedes complicarlo o simplificarlo tanto como puedas o necesites.

Para los humildes mortales, que por ahora no necesitamos un millón de direcciones a repartir entre tus cosas de casa, nos la trae un poco al pairo, y no vamos a salir en masa a la calle a manifestarnos para que todo sea IPv6. Pero hay una cosa que se llama M2M, Machine to Machine, que probablemente sea lo que tire hacia delante de las migraciones. Cada vez son más las máquinas que se interconectan entre ellas para intercambiar información, y cada una de ellas con su dirección IP. La idea es que la patata avise que se brota al servidor de patatas que tendrá el verdulero, para que a su vez se conecte al servidor del mercado central de patatas, para que hable con el hortelano que vaya plantando. Por ejemplo se me ocurre…

Las Redes IP

Publicado: 27 septiembre, 2011 en Tecnología
Etiquetas:, , , ,

Internet es IP, seguro que alguna vez habrás escuchado algo parecido a esto. En realidad IP significa Internet Protocol, es decir, protocolo entre redes. Internet, la que se escribe con mayúscula, en realidad no es sólo IP, es un modelo TCP/IP. Vamos a ver todo esto que significa.

El protocolo IP es un protocolo muy potente para conectar diferentes redes, y para encaminar el tráfico hacia el destino adecuado. Los routers, que son los equipos de red que hablan IP, funcionan como los carteros. Imagínate cómo funcionaría la oficina de correos,sí, la de toda la vida, esa que ya nadie usa. Todas las cartas que llegan son separadas, por ejemplo, en cuatro grupos: locales, provinciales, nacionales, internacionales. Cada uno de esos cuatro grupos a su vez volvería a dividirse en por ejemplo en el caso de las internacionales, a Europa, a América, etc. Esa clasificación se realiza en función del destino de las cartas, que te recuerdo que aparece en la parte delantera del sobre. ¿Cuanto haces que no envías una?

Los paquetes IP serían como una carta con su sobre, y tendría la siguiente información:

  • el destino, es decir, hacia donde va ese paquete, su dirección IP destino,
  • el remitente, es decir, quíen escribe la carta o quíen está enviando el paquete IP, la dirección IP origen.
  • la carta propiamente dicha, lo que va dentro del sobre, iría dentro del paquete IP, sería la información útil que se está transportando, tu correo electrónica, la página del banco…

El router, que haría de cartero, cogería un paquete IP, miraría su dirección IP destino, y se iría a buscar en una tabla que tiene a buen recaudo y que se llama tabla de routing. En esta tabla aparecen todos los posibles destinos que se pueden alcanzar desde ese router, agrupados en lo que se llama siguiente salto o next hop.

Es decir, IP seleccionaría, de todos los routers vecinos con los que está conectado directamente, el adecuado, y le lanzaría el paquete, pero sin prestar atención a si el paquete llega correctamente a su destino o no. Su trabajo ha terminado, al menos de momento. Si Internet fuera solo IP no funcionaría, porque los paquetes perdidos nunca llegarían a su destino.

Ahora hablamos de los acompañantes del IP, porque aunque una red se diga de ella que es una red IP, este protocolo no es el único que se habla en dicha red. Está acompañado de muchos y diversos compañeros de batalla, y entre todos hacen posible la comunicación a través del mundo.

Tendríamos un protocolo que se llama TCP (Transport Control Protocol) que estaría mirando por encima del IP, y viendo que los paquetes que el IP manda llegan correctamente a su destino. Si hay algún problema y el paquete no alcanza su destino final, el TCP le dirá al IP, oye vuelve a lanzar este paquete porque no ha llegado, y el IP, que es muy obediente, retransmitirá el paquete de nuevo. Este es el modelo que funciona en Internet, al menos por ahora…

Para aplicaciones como navegar por Internet, da igual que un paquete llegue antes que otro, o que no lleguen ordenados tal y como salieron del origen. Pero hay otras aplicaciones, como por ejemplo la voz y el vídeo, en las que no tiene ningún sentido que lleguen los paquetes fuera de su momento temporal. Si un paquete se pierde, es mejor que no se retransmita, porque cuando llegue a su destino, no va a poder ser utilizado, ya que la frase a la que pertenece o el fotograma del que forma parte, ya ha pasado. En estos casos no se utilizan protocolos como el TCP, que no son válidos para aplicaciones en tiempo real, sino que en su lugar se utilizan protocolos del tipo UDP (User Datagram Protocol), que no retransmiten los paquetes perdidos y se centran en enviarlos cumpliendo los plazos.

El IP también se rodea de lo que se denomina protocolos de routing, que son los que rellenan la tabla de routing, recordemos que era donde el router miraba para saber por donde tenía que sacar el paquete que estaba analizando. Hay muchos tipos de protocolo de enrutado, y siguen diferentes filosofías, desde los más simples como el RIP (Routing Information Protocl), que rellenan la tabla de manera estática e inamovible, a los más complejos como el OSPF (Open Short Path First) o BGP (Border Gateway Protocol) que hablan entre ellos para saber en cada momento cual es el mejor camino para llegar a cualquier sitio. En este caso, por lo tanto, las tablas de rutas están continuamente actualizándose, y así el router sabe cual es el mejor camino para llegar a cada destino. Es como tú cuando conduces, sueles coger una ruta habitual, pero si escuchas en la radio que hay un atasco, o es viernes y tu experiencia te dice que lo habrá, seleccionas otro camino alternativo, que son más kilómetros pero vas a tardar menos tiempo. Eso es lo que hacen los protocolos de routing.

También tenemos al amigo MPLS (Multiprotocol Label Switch) que corre en toda red IP que se precie. El protocolo IP necesita de mucha capacidad de procesado, y la escalabilidad es complicada cuando tenemos miles, millones de redes a las que podemos llegar. Por eso, en los núcleos de las redes IP, no se habla en IP, se habla en MPLS, y sólo en los bordes de la red IP, que son los que se conectan con otras redes IP, se habla IP puro y duro. Con el MPLS en el núcleo de la red, tengo más control sobre mi tráfico, ya que lo que hace es etiquetar caminos, y todos los paquetes que vayan por el mismo camino tendrán la misma etiqueta. Sería algo parecido a este ejemplo, imagínate que te vas con todos tus amigos de fin de semana. En vez de ir 20 coches, como todos vais al mismo sitio, alquilais un bus. Los routers, que también hablarán MPLS, en lugar de mirar todas y cada una de las direcciones IP destinos de todos y cada uno de los paquetes, sólo tendrá que mirar la etiqueta para decidir el camino por el que envía el paquete.

Internet, no es ni mas ni menos, que todas las redes IP del mundo interconectadas entre ellas…todas o casi todas. Cada red IP tiene asociado bloques concretos de direcciones IP, de manera que sabiendo la dirección IP, sabes donde tienes que ir….algo parecido a los códigos postales que usamos en las ciudades. Juntando todos estos protocolos conseguimos un medio maravilloso de comunicación con posibilidades todavía desconocidas.

MOTIVACIÓN Y ÁMBITO DEL PROYECTO

El OIF (Optical Internetworking Forum ) creó un proyecto 100G DWDM con la intención de acelerar la disponibilidad de la tecnología de transmisión a 100 Gbps para redes DWDM de larga distancia. Estableció un documento marco donde se recoge lo que se espera del desarrollo de estas interfaces:

  • La modulación  escogida: DP-QPSK con detección coherente  y el porqué de esta elección.
  • Identifica una arquitectura funcional para un módulo transceptor y la descompone en diferentes bloques
  • Añade los aspectos más relevantes para la implementación, para los que hay que llegar a un acuerdo, de manera que se fundamente  una interoperabilidad básica

Las aplicaciones de Red tienen como meta y objetivos los siguientes aspectos:

  • Los canales de 100 Gbps, requieren intrínsecamente una OSNR 10 veces superior a los canales de 10 Gbps. Esto supone unas restricciones de tolerancia muy exigentes respecto al ruido de emisión espontánea de los amplificadores ópticos existentes.
  • Además es necesario que tanto el coste como el consumo de la interfaz de 100Gbps sea menor que 10 veces el coste de una interfaz de 10 Gbps,
  • El requisito de mantener la rejilla de 50 GHz hace que sea necesario el uso de una modulación mas eficiente que la de las interfaces de 10 Gbps
  • El requisito de tolerancia mas alta al ruido implica escoger una modulación y un receptor que tengan la tolerancia al ruido mas alta
  • FEC es una herramienta adicional que permite esta mejora,
  • La industria ha aprendido de la experiencia con los 40 Gbps que con técnicas ópticas pueden mitigarse la CD yla PMD, pero incrementando costes y espacio.
 ARQUITECTURA DEL TRANSCEPTOR

MÓDULO DE TRANSMISIÓN DP-QPSK

El proyecto asumió la modulación DP-QPSK (Dual Polarization Quadrature Phase Shift Keying ) con recepción coherente como la óptima para cumplir todos los requisitos impuestos, fundamentalmente debido a la baja velocidad de símbolo que reduce el impacto de la dispersión cromática además de una mejor eficiencia espectral.

A continuación, detallamos el modo de funcionamiento de un módulo de transmisión DP-QPSK:

  • Un láser de transmisión genera la señal de luz que se divide en cuatro componentes, dos para la polarización horizontal y dos para la polarización vertical.
  • El desplazador de la polarización (Pol Rot) gira una de las señales en relación con la otra.
  • Después ambas señales se combinan para generar una única señal
  • En cada polarización hay una señal en fase y la otra en cuadratura de fase y cada una de ellas requiere de un modulador para codificar los datos.
  • Los moduladores representan una interesante oportunidad de  reducción de coste y tamaño, ya que son candidatos a la integración como dispositivos. El OIF ha creado un proyecto específico para desarrollar este aspecto.

 MÓDULO DE RECEPCIÓN DP-QPSK

El módulo de recepción DP-QPSK consiste en una serie de componentes ópticos pasivos que forman un demodulador, seguido de detectores ópticos y amplificadores de transimpendancia. Se pueden aplicar tecnologías de integración para reducir costes y tamaños del transceptor.

El OIF  creará especificaciones para acuerdos de implementación para el módulo de recepción integrado.

FEC

La necesidad de una OSNR 10 veces superior a la de las señalas de 10 Gbps se enfocará mediante la combinación de varios métodos, uno de los cuales serán las técnicas FEC.

Los enlaces de 10G usan FEC que producen ganancias de 8.5 dB, por lo que hay que introducir FEC de mayor ganancia para acercarnos a la OSNR requerida en los 100 Gbps. En cambio el límite de Shannon impide que se cubra por completo el recorrido necesario, por lo que los diseños de FEC sólo podrán acercarse asintóticamente a dichos límites.

Se obtienen diferentes ganancias con FEC en función de la velocidad de las cabeceras, pudiendo adoptar dos técnicas diferentes de decodificación:

  • En la decodificación dura hay un discriminador que elige 0 o 1
  • En la blanda, divide el espacio de la señal en franjas mas pequeñas y se usa una información mas rica para elegir entre 1 y 0

Parece que el FEC de decisión suave presenta más ganancia, pero también impone mayores requisitos en la transferencia de datos entre el DSP y el decodificador FEC

Se necesita trabajo adicional para identificar mejoras en la ganancia y para ello el OIF ha creado un proyecto específico que ha originado en mayo de 2010, como primer paso el Whitepaper del FEC.

Algunas consideraciones de cara a la implementación serían:

  • Las implementaciones que usan un overhead del 7% (típicos en la transmisión de 10Gbps) pueden incluir el FEC dentro o fuera del módulo, ya que la interfaz eléctrica de alta velocidad podría asumir el incremento de velocidad
  • Los FEC que utilicen menos de un 7% de overhead tienden a usar codificación dura
  • Los FEC que utilicen implementaciones de mas de 7% de overhead tienen que ser instalados dentro del módulo (sin interfaz con el DSP) debido a las limitaciones de velocidad del mismo.

MÓDULOS ELECTROMECÁNICOS

Respecto a los módulos electromecánicos, las especificaciones incluirán

  • Tamaño máximo
  • Disipación máxima
  • Interfaz eléctrica
  • Conector
  • Protocolo de control

 Todos los bloques estarían incluidos en una única placa de circuito impreso

El módulo electromecánico incluye láser, fotónica integrada, codificadores QPSK, convertidores A/D y DSP, puede incluir opcionalmente el FEC cuando sea ventajosa su integración.

TRANSMISIÓN

  • Los datos se enmarcan de acuerdo a las especificaciones de OTN antes de aplicar el FEC
  • La señal entonces pasa al módulo transceptor
  • Los datos se convierten para controlar los moduladores ópticos
  • Un láser de transmisión proporciona la fuente de luz para los moduladores

RECEPCIÓN

  • La señal entrante se mezcla con un oscilador local
  • Demodulado sus componentes, detectado, amplificado y digitalizado entonces llega al DSP
  • Un flujo de bits llega al decodificador FEC que puede estar dentro o fuera del módulo
  • El paso final es el entramado OTN

Por primera vez el IEEE publica en una misma especificación dos interfaces diferentes. El motivo es evidente. El objetivo fundamental de esta especificación es preservar el formato de trama  Ethernet determinado en la 802.3 (10 Gbps),es decir, utiliza la subcapa MAC IEEE 802.3, manteniendo los tamaños máximo y mínimos y sin que afecten a los protocolos de nivel 2 y 3. A su vez proporciona MAC Ethernet full duplex, un BER <=10-12 y por supuesto el soporte adecuado para OTN G.709.

 Para las interfaces de 10G, en la recomendación 802.3, en el apartado 49.1.4.2 aparece la definición de la interfaz WIS (WAN Interface Sublayer),cuya arquitectura se muestra a continuación:
 
—Le da al PCS un significado independiente del medio  para que opere sobre enlaces WAN
—Se crea una codificación 10GBASE-W encapsulando los datos previamente codificados con PCS 10GBASE-R en tramas compatibles con SDH/SONET
nEn 802.3ba sólo se habla de modelo LAN.
 
 
Para las interfaces 40G y 100G no se ha definido la capa WIS, es decir, no está definido el encapsulado SDH/SONET, sino que la trama es compatible únicamente con el encapsulado en OTN. Lógico por otra parte, porque a estas velocidades la jerarquía síncrona se queda corta.

Respecto a las condiciones de retardo, El máximo acumulado de los retardos de MAC control, MAC y RS (Resolution), es decir, la suma de los retardos de transmisión y recepción,  deben ser inferior a 409.6 ns para el caso de los 40 Gbs, e inferior a 245,75 para los 100 Gbps.

Se define una nueva subcapa de codificación física (PCS) para 40 y 100 Gbps, que es común para ambas implementaciones de capa física (40GBASE-R y 100GBASE-R), y que se basa en la existente para 10 Gbps 10GBASE-R 64B/66B. En ambos casos la PCS se hace fuera del módulo óptico. 

La capa física, tanto 40GBASE-R como 100GBASE-R, consiste en PCS transmisores y PCS receptores, que pueden o no corresponder con canales físicos y que se estructuran para incluir marcas de alineamiento y distribuir los datos en diferentes láseres. Los canales PCS (PCS lanes) son críticos para las implementaciones de 40 y 100G.  El número de canales requeridos es el mínimo común múltiplo de n canales eléctricos y m canales opticos PMD

  • 40 Gbps usa 4 canales PCS, (mínimo común múltiplo para 4 canales eléctricos (10,3125 Gbps) y 4 lambdas)
  • 100 Gpbs usa 20 canales PCS, (mínimo común múltiplo de 10 canales eléctricos (10,3125 Gbps) y 4 lambdas)

 Los datos de cada canal PCS siempre se reciben en el receptor PCS en el orden correcto. La alineación de marcadores permite al receptor PCS implementar compensación asimétrica (skew), realineando todos los canales PCS y juntándolos todos en un único flujo agregado cuya tasa de transmisión serie es de 40 o 100 Gbps ( con todos los bloques 64B/66B en el orden correcto).  La placa madre, basada en la existente 10GBASE-R con 64B/66B, es la que maneja la codificación y ensamblado de la PCS. Los datos se distribuyen entre los n canales PCS (4 para 40Gbps y 20 para 100Gbps), en bloques de 66 bits cada vez, usando algoritmo Round Robin.

 A cada canal PCS se añaden bloques de alineamiento periódicos que contienen los marcadores de canales.  Los marcadores de alineación se usan para alinear y reordenar los canales PCS en el receptor PCS. Por cada canals PCS se realiza un chequeo de paridad con 8 bits entrelazados (BIP8) 

En cada canal PCS se inserta marcadores de alienamiento únicos, que ayudan al receptor PCS a identificar cada uno de los canales PCS. Los marcadores de canales no está ni codificados ni ensamblados. Cada marcador de canal es una palabra de 8 bytes, que se transmite períódicamente cada 16.384 bloques de 66 bits.

  • Para 40 Gbps, esto es cada 104,8 microsegundos
  • Para 100 Gbps esto es cada 209,7 microsegundos

Los marcadores de alineación interrumpen cualquier transferencia de datos que esté ocurriendo, de manera que deben ser insertados en todos los canales PCS al mismo tiempo.

La subcapa PMA (Phisycal Medium Attachment) interconecta la subcapa PCS con la subcapa PMD (Physical Medium Dependent), y contiene las funciones necesarias para la transmisión, recepción y (dependiendo de la capa PHY) detección de colisión, recuperación de reloj y realineamiento.

Debido al amplio rango de interfaces soportadas y de opciones de implementación de las mismas, para explicar al completo la funcionalidad de la PMA es necesario dividir las funciones PMA en diferentes subcapas. Dos ejemplos de implementaciones específicas de arquitectura serían:

• 100GBASE-LR4, donde se definen 4 longitudes de onda de 25 Gbps por longitud de onda en una fibra monomodo.

• 100GBASE-SR10, donde se definen 10 longitudes de onda de 10 Gbps cada una de ellas y en 10 fibras multimodo en paralelo.

 Como se dijo anteriormente, para los 100 GbEthe, PCS crea 20 canales. En los ejemplos de arquitectura que se han puesto, la funcionalidad de la PMA es dividir en dos dispositivos PMA que están interconectados mediante una interfaz electrica conocida como CAUI (100 Gbps Attachment Unit Interface), la cual está basada en una interfaz de 10 Gbps por canal y 10 canales. En esta implementación, la subcapa PMA en la entrada de la CAUI multiplexa 20 canales PCS en 10 canales físicos. La subcapa PMA a la salida de la CAUI implementa tres funciones:
  1. Resincroniza las señales provenientes de los canales eléctricas de entrada
  2. Los canales eléctricos son convertidos de nuevo en 20 canales PCS
  3. Estos se multiplexan en 4 canales que son los necesarios para la subcapa PMD de 100 GBASE -LR

 Sin embargo, la implementación de la arquitectura para 100GBASE-SR10 es diferente. En este caso, un chip anfitrión se conecta directamente con un transceptor óptico que se conecta a su vez a 10 fibras paralelas para cada dirección. La subcapa PMA reside en el mismo dispositivo que la subcapa PCS, y multiplexa los 20 canales PCS en 10 canales eléctricos de la interfaz física paralela (PPI),  interfaz eléctrica que conecta PMA con PMD sin resincronización.

En resumen, las funcionalidades de alto nivel de la PMA tanto de multiplexar como de recuperar reloj siguen existiendo, pero la implementación concreta de las mismas depende de la PMD específica que se esté usando.

 Existen varias interfaces, que en el caso de la IEEE 802.3ba se han definido como lógicas, intra-chip, en contraposición a otras especificaciones pasadas donde se definen interfaces físicas, interchip. La especificación de una interfaz lógica sólo especifica las señales y sus comportamientos, mientras que una especificación de una interfaz física además especifica los parámetros eléctricos y de sincronismo de las señales. Existen tres chips de interfaces definidos, los cuales tienen una arquitectura común para ambas velocidades:

  • MII (Medium Independent Interface) es una interfaz lógica que conecta la capa MAC y la subcapa PCS. Proporciona caminos para la transmisión y recepción de datos en bloques de 64 bits. Estos caminos se agrupan en 8 canales de 8 bits, con un bit de control asociado a cada canal, para saber si es información de datos o de control en cada momento. Existe un único reloj asociado al camino de transmisión y un único reloj asociado al camino de recepción . Estos relojes operan a un 64avo de la velocidad de transmisión.
    • XGMII para 10 Gbps
    • XLGMII para 40 Gbps, reloj de 625 MHz
    • CGMII para 100 Gbps, reloj de 1.5625 GHz
  • AUI (Attachement Unit Interface) es una interfaz física que extiende la conexión entre el PCS y el PMA, con un bajo número de pines en el conector. Se trata de una interfaz con su propio reloj, multi-canal, con enlaces serie que utilizan codificación 64B/66B. Cada canal opera a una velocidad efectiva de 10 Gbps, que cuando se codifican a 64B/66B resulta una velocidad efectiva de 10.3125 Gbaudios/s. Los canales utilizan señalización diferencial balanceada acoplada AC de baja oscilación, lo que le permite alcanzar hasta25 cm. Se trata fundamentalmente de una interfaz chip2chip,
    • XAUI para 10 Gbps
    • XLAUI para 40 Gbps. 4 canales de transmisión y 4 de recepción de 10 Gbps, resultando 8 pares o 16 señales.
    • CAUI para 100 Gbps. 10 canales de transmisión y 10 canales de recepción de 10 Gbps, resultando un total de 20 pares o 40 señales.
  • PPI (Parallel Physical Interface), interfaz física para la conexión entre PMA y PMD de 40GBASE-SR4 100GBASESR10 PMDs.

Si quieres acceder al documento original del IEEE, que la fuerza te acompañe…