Posts etiquetados ‘Ultravelocidades’

El concepto de super-channel, o super-canal está asociado a velocidades superiores a los 100 Gbps. ¿Por qué se necesitan velocidades tan elevadas? Porque el tráfico en Internet crece, y crece y parezca que no tenga límite. Cada vez son más los usuarios y cada vez son más los contenidos. Además cada vez son más las diferentes formas y lugares desde los que podemos acceder a Internet. La explosión del video, en concreto los formatos de alta definición y los smartphones, tablets y demás dispositivos con sus posibilidades infinitas hace que las necesidades de ancho de banda sean inconmesurables. Ni hablemos de cuando lo que se conoce como Internet de las Cosas y todo lo que se engloba bajo el concepto de La Nube sean una realidad palpable.

Esta explosión es una oportunidad clara para los proveedores de servicio, los que mejor sepan captar las experiencias de los usuarios en este entorno dinámico in extremis, serán los que capturen más mercado. Claro, estos proveedores de servicio tienen que estar preparados para que sus redes escalen de manera dramática, y por supuesto minimizando los costes capitales y operacionales, de manera que el precio del Gbps sera el mínimo posible.

El punto de partida para esta revolución se encuentra en las redes de transporte, pilares de las comunicaciones de larga distancia.

Para emprender este camino, los mecanismos de transmisión óptica DWDM deben también adaptarse a las nuevas necesidades. El concepto de supercanal es una nueva aproximación a las promesas de capacidad que el DWDM puede ofrecer ante el incremento creciento del tráfico.

¿Qué es un Supercanal?

DWDM  es una tecnoogía que permite que en una sola fibra óptica viajen en paralelo varias portadoras ópticas, de manera que el uso de dicha fibra es mucho más eficiente, ya que en lugar de un único canal de información, se transmitirán muchos más (cada portadora óptica es un canal).

Se trata de una tecnología ampliamente desplegada y que ahora se encuentra en el entorno de los 100 Gbps por cada portadora óptica. Pero con las espectativas en cierne de crecimiento exacerbado, puede que esta capacidad no sea capaz de asumirlas. Hay que incrementar el ancho de banda sin incrementar la complejidad operacional.

En respuesta a la pregunta, ¿qué vienen despues de los 100 Gbps?, aparece el supercanal como la mejor posicionada. El supercanal es una evolución del DWDM en la que varias portadoras ópticas se combinan para crear una señal de línea compuesta de la capacidad deseada, y que se provisiona de una sola vez. Por supuesto, para el cliente, el uso de supercanales es algo transparente.

Implementando Super-Canales

A día de hoy no se disponen de estándares para implementar super-canales. Además, aspectos tales como el número de portadoras, las velocidades de las mismas, incluso si deben ser portadoras contiguas o no, y el nivel de integración de componentes, son temas que están totalmente abiertos.

Existen dos opciones de implementación obvias para desarrollar transpondedores de una única portadora que funcionen a velocidades por encima de los 100 Gbps. Una es transmitir más símbolos de modulación por segundo y la otra es codificar más bits por símbolo de modulación. Incluso una combinación de ambos.

Incrementar el número de bits por símbolo implica incrementar la eficiencia espectral, y eso no siempre es fácil ni puede pagarse el precio que puede costar.

La tecnología de los super-canales añade una tercera opción, la posibilidad de manejar múltiples portadoras como si fuera una sola.

La importancia de la integración fotónica

Los super-canales permiten una capacidad de 1 Tbps DWDM provisionada de una sola vez sin penalizaciones en la eficiencia espectral y con el mismo alcance óptico que el de los transpondedores de 100 Gbps coherentes actuales.

Es evidente que un super-canal de 10 portadoras necesita establecer 10 componentes ópticos en una tarjeta de línea. Implementando este tipo de interfaz usando componentes ópticos discretos podría ser totalmente inviable.

 Usando PIC, Circuitos Fotónicos Integrados, uno en transmisión y otro en recepción, las 10 portadoras podrían implementarse en una única tarjeta de línea compacta, consumiendo menos potencia que 10 transpondedores discretos.

Los PIC aportarían a la ingeniería de los super-canales lo que la integración electrónica aportó en su momento a las CPU multi-core. Los PIC eliminarían las limitaciones de la complejidad de los componentes ópticos y permitiría que la ingeniería correcta fuera aplicada. Si quieres saber algo más sobre los PIC pincha aquí

Flexibilidad es la clave para el éxito de los super-canales

Los supercanales deben ser extremadamente flexibles en una serie de parámetros:

  • ¿Qué tipo de modulación debería usar?
  • ¿Cual es la mejor manera de optimizar la eficiencia espectral y el alcance
  • ¿Qué espaciado deben tener las portadoras?
  • ¿Cual debería ser la anchura total de un super-canal?

Un super-canal ideal  debería permitir seleccionar todos estos parámetros mediante software. De manera que el operador pudiera escoger, en el momento de la provisión, la combinación óptima de parámetros para cada circuito.

El concepto de rejilla flexible, parece que es una opción que no se podrá descartar para obtener velocidades en torno a 1 Tbps de manera eficiente, y eso implica que será imprescindible que el espaciado y la anchura de los canales sea dinámico y configurable por SW. El horizonte temporal de disponibilidad no va más allá de los 4 años.

Puedes encontrar un interesante Whitepaper con mucha más documentación en Super-Channels DWDM Transmission Beyond 100 Gbps

El espectro que se puede utilizar en la fibra está limitado. Es decir, contamos con un conjunto determinado de frecuencias para transmitir la información.  La eficiencia espectral es un parámetro que define el número de bits por segundo que puedo transmitir por cada Hertzio. Si los hertzios que tengo para transmitir digamos que son constantes, y quiero seguir aumentando mi velocidad de transmisión, la única opción que me queda es aumentar el número de bits por segundo que puedo “meter” en cada hertzio del que dispongo. Es, decir, tengo que encontrar alguna manera de aumentar la eficiencia espectral.

 En Formatos de Modulación Coherentes, ya puse de manifiesto la necesidad de incrementar la eficiencia espectral si queremos seguir aumentando la velocidad de nuestros canales. Y para ello se pueden utilizar diferentes tipos de modulación y detección coherente. En esta entrada, se plantea un objetivo más concreto: aumentar la eficiencia espectral. ¿ Cuales podrían ser las diferentes alternativas para conseguir nuestro objetivo? Veamos algunas de ellas.

Por una parte, en lugar de enviar la información en una única señal, podríamos enviar la información multiplexada sobre 2 señales, que serían ortogonales para minimizar la interferencia entre ellas, y en polarización en el mismo canal. Esta técnica es la que utiliza la modulación denominada POLMUX, o DP-QPSK (Dual Polarization Quadrature  Phase  Shift  Keying),  que se  utiliza fundamentalmente en los sistemas de 40 Gbps de segunda generación y en los 100 Gbps. En este tipo de modulación, un láser de transmisión genera la señal de luz que se divide en cuatro componentes, dos para la polarización horizontal y dos para la polarización vertical. A continuación se gira una de las señales en relación con la otra. Después ambas señales se combinan para generar una única señal, de manera que en cada polarización hay una señal en fase y la otra en cuadratura de fase. Con esta alternativa obtendríamos una eficiencia espectral de 2, es decir 2 bits/s/Hz, o 2 bits por símbolo.

También podemos utilizar formatos de modulación más complejos, los denominados nQAM (Quadrature Amplitude Modulation). Modificando la amplitud y la fase de la señal obtendríamos una eficiencia espectral de n bits por símbolo. El inconveniente principal de estas modulaciones es que la distancia entre símbolos es menor, y tanto menor cuanto mayor es el índice n. Esto implica que presentan baja tolerancia a la OSNR (Optical Signal to Noise Ratio), lo que se convierte directamente en una disminución de los alcances. Podría utilizarse exclusivamente en entornos metro, quedando descartadas para redes de larga distancia y ultralarga distancia.

Por otra parte, podríamos someter a la señal a un filtrado considerablemente mayor, para que su ocupación espectral disminuya (Nyquist WDM). Esta técnica se denomina Prefiltrado Nyquist- WDM, y consiste en limitar la anchura espectral de los canales transmitidos, de manera que se incremente la capacidad total de la fibra, ya que podríamos incluir más canales. El prefiltrado Nyquist-WDM consiste el empleo de filtros ópticos con una función de transferencia aproximadamente rectangular, o bien, en un pre-procesado eléctrico de la señal de forma que la transmisión que se realiza sea un tren de señales sinc solapadas, obteniendo un espectro rectangular. Recordemos que la función sinc normalizada, que es la que se utiliza en procesado digital de la señal, se definía como  sinc (x)= sen(pi x)/pi x. En los sistemas WDM convencionales, se transmite con una distancia entre canales de 2 veces la tasa de símbolo. Aplicando estas técnicas podemos llegar a reducir la distancia hasta 1.1.

Por último, podrían utilizarse técnicas de solapamiento de señales logrando su ortogonalidad en espectro, es decir, aplicando OFDM (Orthogonal Frequency Division Multiplexing), Multiplexación por división en frecuencias ortogonales. Esta técnica es la que se utiliza, por ejemplo, en la cuarta generación de redes móviles, LTE, o la que se utiliza en la familia DSL, sólo que allí se conoce como DMT (Discrete Multi Tone).  Divido el espectro en una serie de frecuencias, cuya distancia entre ellas hace que sean ortogonales, con lo que aún sin haber banda de guarda, no se producen interferencias, con la consiguiente eficiencia a la hora de usar el espectro. Para originar señales ortogonales se puede emplear un procesado eléctrico, óptico, o una combinación de ambos. Este procesado consiste normalmente en la implementación de un módulo iFFT (Transformada Rápida  de Fourier inversa) en el transmisor y un módulo FFT en el receptor, aunque en el caso de que el procesado fuera óptico, podríamos prescindir del módulo iFFT y utilizar señales portadoras espaciadas un ancho de banda equivalente a la tasa de símbolos. Es una modulación muy robusta que permite obtener la información de las diferentes portadoras aún existiendo diferentes retardos entre ellas y diferentes amplitudes.

 De cara a la implementación de los sistemas de ultravelocidad como los 400 Gbps o 1 Tbps, las técnicas OFDM son las que se posicionan como las favoritas, pero aún queda un largo trecho de investigación y experimentación para que estén afinadas. La disponibilidad a día de hoy de este tipo de interfaces se encuentra a nivel de prototipos en los laboratorios de las universidades punteras y de algunos suministradores.
 
La tecnología Gridless o rejilla flexible,  también consigue aumentar la eficiencia espectral, pero de una manera completamente diferente, no se trata tanto de meter más bits/s por hertzio, que es lo que hemos tratado en esta entrada, sino de optimizar los canales, adecuando el tamaño del canal al tamaño de la señal a transmitir, de manera que no se desperdicie ni un solo hertzio…o que se minimice el despilfarro. Aquí puedes encontrar un poco más de información al respecto.

Cuando se habla de velocidades de 40 Gbps y superiores, las cuales podríamos definir como ultravelocidades, el empleo de nuevas técnicas de modulación se convierte en una necesidad imperiosa.

El espectro del que disponemos en una fibra óptica es el que es. Y como limitado que está, si queremos seguir aumentando la velocidad en las transmisiones, la única posibilidad es aumentar la eficiencia espectral, es decir, meter más bits por Hertzio.

Además, hay que tener muy claro, que cuando en la fibra se corretea con velocidades muy elevadas, superiores a los 40 Gbps, los fenómenos no lineales, que para velocidades inferiores apenas representan problemas, se pueden convertir en un auténtico quebradero de cabeza que eche al traste algunos enlaces ya establecidos. Las dispersiones cromática y la producida por el modo de polarización también tienen su protagonismo indeseado conforme aumentamos la velocidad de las señalas a transmitir. Será por tanto necesario compensar en el receptor todos estos fenómenos perniciosos para así poder recomponer correctamente la señal transmitida.

Es decir, si queremos transmitir velocidades por encima de los 40 Gbps necesitamos formatos de modulación que aumenten la eficiencia espectral y que utilicen ciertos mecanismos para compensar los fenómenos perniciosos que se producen a esas velocidades. Estamos hablando, ni más ni menos, de detección coherente con DSP (Digital Signal Processing). Los sistemas de transmisión, por lo tanto, están evolucionando hacia sistemas con detección coherente y procesado de señal.

Profundicemos, sólo un poco, en los fenómenos adversos que hay que tener en consideración a velocidades superiores a 40 Gbps:

  • CD, Dispersión Cromática. La dispersión es un ensanchamiento que sufre el pulso, en este caso, debido a las propiedades del medio de transmisión, que presenta diferente índice de refracción para las diferentes longitudes de onda que componen la señal. Es decir, que la luz cuando viaja por la fibra, va rebotando dentro del núcleo, y cada color que la compone viaja a una velocidad diferente, con lo que el pulso cuando llega a su destino es más ancho. Puede llegar un momento, en que sea tan ancho que se superponga con el pulso anterior y/o posterior, con las consiguientes interferencias que generarán errores en la decodificación de la información que transportaba el pulso original.
  • PMD, Dispersión por el modo de polarización. En este caso la dispersión se produce debido al hecho de que la fibra es un material birrefrigerante. Es decir, el índice de refracción es diferente para el modo vertical y horizontal, que son los dos modos ortogonales de polarización que presenta la señal, de manera que el ensanchamiento del pulso se produce esta vez porque la componente vertical de la señal se mueve  a una velocidad diferente que la componente horizontal. Como depende de la fabricación de la fibra, es un parámetro estadístico, y por lo tanto difícil de compensar.
  • Fenómenos no lineales. Tienen dos orígenes fundamentals. Cuando la intensidad de la luz sobrepasa una determinada potencia, la variación del índice de refracción de la fibra provoca diferentes fenómenos como la auto modulación de fase (Self- Phase Modulation (SPM)), la modulación de fase cruzada (Cross-Phase Modulation (XPM ó CPM)),y la mezcla de cuatro ondas (Four Wave Mixing (FWM)). Otro tipo de fenómenos no lineales se debe a la interacción de los fotones incidentes con algunos modos de vibración del material que se conocen como Fonones, de esta interacción resultan dos tipos de dispersiones: La Dispersión Estimulada de Raman (Stimulated Raman Scattering (SRS)) y la Dispersión Estimulada de Brillouin. (Stimulated Brillouin Scattering (SBS).

Todas ellos, en su combinación, degradan las señales de ultravelocidad. La relación óptica señal a ruido que caracteriza el sistema, OSNR (Optical Signal to Noise Ratio), viene determinada por una tasa de error en la recepción, BER (Bit Error Rate). Para que la comunicación sea viable, la BER  tiene que ser menor que el umbral del FEC (Fordward Error Correction). Es decir, las técnicas que se utilizan para corregir posibles errores acaecidos en la transmisión tienen que resolver los errores provocados por los fenómenos perniciosos, de manera que se siga manteniendo la BER necesaria. Estos además, son más perniciosos cuanto mayor es la velocidad de transmisión.

A todo lo expuesto, debemos añadir el hecho de que las redes de transmisión ópticas no suelen ser fibras punto a punto, sino que es la estructura de malla, por su fiabilidad y robustez, la que se posiciona como favorita. Y cuando se producen fallos en los enlaces establecidos, las restauraciones de los mismos pueden conllevar cambios repentinos en la señal recibida. El proceso de restauración debe ser lo suficientemente rápido como para que la interrupción del servicio sea apenas perceptible. Pero cuando tratamos con velocidades superiores a los 40 Gbps, la compensación de la dispersión cromática, que hay que calcular despues de obtener el nuevo camino de restauración puede ser más lenta de lo deseado.

Las tecnologías tradicionales utilizan detección directa, o bien de la intensidad de la señal transmitida (OOK) o bien de la combinación entre la señal transmitida y una réplica retardada (xPSK) que convierte diferencias de fase en diferencias de amplitud.

 En la detección directa, la potencia del canal se convierte en intensidad de corriente en un fotodiodo. Con un filtro paso banda en el último equipo ROADM del enlace seleccionamos el canal. Se trata de una solución de fácil implementación y sobre todo barata. Pero presenta una baja sensibilidad y muy baja capacidad para compensar los fenómenos adversos.

Necesitamos por tanto de algún mecanismo que aumente la sensibilidad de la señal y que nos permita compensar los crecientes fenómenos adversos.

Si procedemos a mezclar nuestra señal original con un oscilador local, esto nos permite obtener la amplitud y la fase de la señal. Y mediante un procesado digital sería posible compensar la CD y la PMD, bastante nocivos, como ya hemos advertido, en los sistemas de alta velocidad. Además, la señal que se recibe es de mucha mayor potencia debido al mezclado con el oscilador local, y se realiza un filtrado intrínseco de la señal, ya que el oscilador se sintoniza entorno al canal o canales que se quieran detectar, con lo que se simplifica la arquitectura de los nodos ROADM.

 De manera que, para asegurarnos que la transmisión de velocidades superiores a los 40 Gbps sea una realidad, es necesario el empleo de formatos de modulación coherente.

Profundizaremos en los diversos aspectos aquí comentados en entradas posteriores.