Posts etiquetados ‘Telecomunicación’

El procesado digital se hace imprescindible en la recepción de señales de elevada velocidad. Al incrementar la velocidad de las señales que viajan por la fibra, se incrementa considerablemente los fenómenos adversos que la atacan, degradándola hasta hacerla prácticamente indecodificable. Como algunas de estas interferencias son lineales, o siguen algún patrón matemático conocido que se puede calcular a priori, si disponemos en la recepción de un módulo que se encargue de desfacer los entuertos acaecidos en el viaje de la luz, recuperaremos la señal original, o algo que se le parece bastante. Esto  es lo que se conoce como módulo DSP.

El DSP sería como un pequeño ordenador capaz de realizar una gran cantidad de operaciones numéricas. Se incorpora en los receptores de algunas señales como un módulo adicional, compuesto de hardware y software. El DSP trabaja con señales digitales, por lo tanto, si lo queremos incorporar a un sistema de transmisión de señales sobre fibra óptica, teniendo en cuenta que se trata de una señal analógica lo que estoy transmitiendo, el DSP necesitará un elemento que convierta la señal analógica en una señal digital que pueda procesar. Es decir, conversores A/D o ADC.

Pero no sólo hay que digitalizar la señal. Para extraer la información de la señal modulada que llega al receptor, un DSP debe realizar las siguientes operaciones:

  • ADC. Como ya hemos comentado, se realiza un muestreo y digitalización de la señal analógica. En el caso de una modulación DP-QPSK, que es la que se utiliza para los 100Gbps, se obtienen las componentes I y Q de la señal  y sus respectivas polarizaciones X e Y
  • Recuperación de Reloj. Lo siguiente que tenemos que hacer es recuperar el reloj de la señal original para poder sincronizar la información recibida. Una vez extraido el reloj la señal digital se somete a un nuevo muestreo.
    • Para señales QPSK codificadas sobre un tren de pulsos RZ extraemos el reloj a partir de la señal transmitida mediante un detector de intensidad  y un circuito estándar de recuperación de reloj. Las fotocorrientes muestreadas en el ADC están en sintonía con el reloj y en este caso no necesitaríamos remuestreo. También podríamos extraer el reloj de la señal muestreada, en este caso tendríamos que muestrear la señal a una velocidad superior al doble de la frecuencia máxima de la señal transmitida, para realizar posteriormente una interpolación de las muestras en el dominio del tiempo y reconstruyendo la envolvente de los pulsos que facilite el remuestreo.
    • En el caso de señales QPSK codificadas sobre un tren de pulsos NRZ, se procede al muestreo y detección de bordes mediante derivación de interpolación y muestreo.
  • Corrección de Polarización. Se realiza una alineación de los estados de polarización y se realiza una combinación de polarizaciones.
  • Ecualización. Se realiza una ecualización fundamentalmente para compensar la CD, dispersión cromática, la PMD, polarización por el modo de polarización, y en general cualquier tipo de efecto adverso.
  • Estimación de la fase de la portadora. Basada en el hecho de que la variación de fase de la portadora es más lenta que la modulación de fase.
  • Decodificación. Se produce la discriminación de símbolo realizando la decodificación de la señal con modulación multinivel
  • Símbolo. Finalmente obtenemos el símbolo

Las técnicas FEC (Forward Error Correction) también se hacen imprescindibles en los sistemas de transmisión, especialmente en los de ultravelocidad. Al ir aumentando la velocidad del canal, la OSNR requerida va incrementándose en paralelo. Transmitir a 100 Gbps requiere de una OSNR que es 4 dB superior al caso de transmisiones a 40Gbps, y 10 dB superior al caso de transmitir 10 Gbps.

Este tipo de técnicas se basan en añadir a la información útil que queremos transmitir, cierta carga de información adicional. Se transmite información redundante que se utilizará en el receptor para detectar y corregir posibles errores acaecidos durante el proceso de transmisión. Es decir, enviamos más información de la que necesitamos, a cambio de asegurarnos que la información que necesitamos es decodificable. Esta información adicional es lo que se conoce como overhead.

Existen dos tipos principales de técnicas FEC, las conocidas como HD, Hard Decision, y las SD, Soft Decision.

  • Las técnicas HD basan su decisión en 1 y 0, es decir, la entrada al módulo FEC se cuantifica en dos niveles
  • Las técnicas SD incrementan la complejidad, la latencia y el consumo. Pero se consigue mejoras considerables con el mismo overhead respecto a las técnicas HD, ya que se incrementa la información de entrada al sistema, aportando como un nuevo parámetro: la fiabilidad de una decisión. Por lo tanto, la entrada del sistema está cuantificada en 3 niveles, el bit 1, el bit 0 y el nivel de confianza de la decisión. Necesitamos ADC muy rápidos y circuitos en paralelo

Al aumentar el overhead aumenta la ganancia de codificación, pero esto no puede incrementarse hasta donde queramos, ya que una cabecera mayor origina un mayor ensanchamiento espectral, produciéndose la consiguiente penalización por filtrado pasobanda adicional en los WSS de los ROADMs, además para la misma potencia de transmisión se reduciría la SNR en el receptor debido a que la densidad de potencia es menor. Con técnicas de ecualización podemos compensar en parte la penalización producida por el filtrado. El OIF ha fijado  un 20% de cabecera como límite práctico superior debido al poco incremento de ganancia para cabeceras mayores.

Cuanto mayor sea el número de no linealidades, menor será el porcentaje de FEC óptimo. Con lo que el overhead a utilizar será determinado por cada escenario en concreto. Por ejemplo:

  • Con un FEC del 7% se utiliza HD, ya que la pequeña ganancia que se produce con SD no compensa el incremento de complejidad, y el FEC puede estar dentro o fuera del módulo DSP, ya que existen interfaces eléctricas de alta velocidad que pueden soportar tasas de datos con cabeceras del 7%.
  • En cambio, cuando el FEC es mayor del 7%, suele estar incorporado dentro del módulo DSP  y las tecnologías y estándares, disponibles a día de hoy, establecen una limitación en el ancho de banda de las interfaces del módulo.

Combinando por tanto un DSP y técnicas FEC en el receptor, puedo ir incrementando la velocidad de línea de los sistemas de tranmisión… ¿Infinito y más allá?…

Anuncios

El espectro que se puede utilizar en la fibra está limitado. Es decir, contamos con un conjunto determinado de frecuencias para transmitir la información.  La eficiencia espectral es un parámetro que define el número de bits por segundo que puedo transmitir por cada Hertzio. Si los hertzios que tengo para transmitir digamos que son constantes, y quiero seguir aumentando mi velocidad de transmisión, la única opción que me queda es aumentar el número de bits por segundo que puedo “meter” en cada hertzio del que dispongo. Es, decir, tengo que encontrar alguna manera de aumentar la eficiencia espectral.

 En Formatos de Modulación Coherentes, ya puse de manifiesto la necesidad de incrementar la eficiencia espectral si queremos seguir aumentando la velocidad de nuestros canales. Y para ello se pueden utilizar diferentes tipos de modulación y detección coherente. En esta entrada, se plantea un objetivo más concreto: aumentar la eficiencia espectral. ¿ Cuales podrían ser las diferentes alternativas para conseguir nuestro objetivo? Veamos algunas de ellas.

Por una parte, en lugar de enviar la información en una única señal, podríamos enviar la información multiplexada sobre 2 señales, que serían ortogonales para minimizar la interferencia entre ellas, y en polarización en el mismo canal. Esta técnica es la que utiliza la modulación denominada POLMUX, o DP-QPSK (Dual Polarization Quadrature  Phase  Shift  Keying),  que se  utiliza fundamentalmente en los sistemas de 40 Gbps de segunda generación y en los 100 Gbps. En este tipo de modulación, un láser de transmisión genera la señal de luz que se divide en cuatro componentes, dos para la polarización horizontal y dos para la polarización vertical. A continuación se gira una de las señales en relación con la otra. Después ambas señales se combinan para generar una única señal, de manera que en cada polarización hay una señal en fase y la otra en cuadratura de fase. Con esta alternativa obtendríamos una eficiencia espectral de 2, es decir 2 bits/s/Hz, o 2 bits por símbolo.

También podemos utilizar formatos de modulación más complejos, los denominados nQAM (Quadrature Amplitude Modulation). Modificando la amplitud y la fase de la señal obtendríamos una eficiencia espectral de n bits por símbolo. El inconveniente principal de estas modulaciones es que la distancia entre símbolos es menor, y tanto menor cuanto mayor es el índice n. Esto implica que presentan baja tolerancia a la OSNR (Optical Signal to Noise Ratio), lo que se convierte directamente en una disminución de los alcances. Podría utilizarse exclusivamente en entornos metro, quedando descartadas para redes de larga distancia y ultralarga distancia.

Por otra parte, podríamos someter a la señal a un filtrado considerablemente mayor, para que su ocupación espectral disminuya (Nyquist WDM). Esta técnica se denomina Prefiltrado Nyquist- WDM, y consiste en limitar la anchura espectral de los canales transmitidos, de manera que se incremente la capacidad total de la fibra, ya que podríamos incluir más canales. El prefiltrado Nyquist-WDM consiste el empleo de filtros ópticos con una función de transferencia aproximadamente rectangular, o bien, en un pre-procesado eléctrico de la señal de forma que la transmisión que se realiza sea un tren de señales sinc solapadas, obteniendo un espectro rectangular. Recordemos que la función sinc normalizada, que es la que se utiliza en procesado digital de la señal, se definía como  sinc (x)= sen(pi x)/pi x. En los sistemas WDM convencionales, se transmite con una distancia entre canales de 2 veces la tasa de símbolo. Aplicando estas técnicas podemos llegar a reducir la distancia hasta 1.1.

Por último, podrían utilizarse técnicas de solapamiento de señales logrando su ortogonalidad en espectro, es decir, aplicando OFDM (Orthogonal Frequency Division Multiplexing), Multiplexación por división en frecuencias ortogonales. Esta técnica es la que se utiliza, por ejemplo, en la cuarta generación de redes móviles, LTE, o la que se utiliza en la familia DSL, sólo que allí se conoce como DMT (Discrete Multi Tone).  Divido el espectro en una serie de frecuencias, cuya distancia entre ellas hace que sean ortogonales, con lo que aún sin haber banda de guarda, no se producen interferencias, con la consiguiente eficiencia a la hora de usar el espectro. Para originar señales ortogonales se puede emplear un procesado eléctrico, óptico, o una combinación de ambos. Este procesado consiste normalmente en la implementación de un módulo iFFT (Transformada Rápida  de Fourier inversa) en el transmisor y un módulo FFT en el receptor, aunque en el caso de que el procesado fuera óptico, podríamos prescindir del módulo iFFT y utilizar señales portadoras espaciadas un ancho de banda equivalente a la tasa de símbolos. Es una modulación muy robusta que permite obtener la información de las diferentes portadoras aún existiendo diferentes retardos entre ellas y diferentes amplitudes.

 De cara a la implementación de los sistemas de ultravelocidad como los 400 Gbps o 1 Tbps, las técnicas OFDM son las que se posicionan como las favoritas, pero aún queda un largo trecho de investigación y experimentación para que estén afinadas. La disponibilidad a día de hoy de este tipo de interfaces se encuentra a nivel de prototipos en los laboratorios de las universidades punteras y de algunos suministradores.
 
La tecnología Gridless o rejilla flexible,  también consigue aumentar la eficiencia espectral, pero de una manera completamente diferente, no se trata tanto de meter más bits/s por hertzio, que es lo que hemos tratado en esta entrada, sino de optimizar los canales, adecuando el tamaño del canal al tamaño de la señal a transmitir, de manera que no se desperdicie ni un solo hertzio…o que se minimice el despilfarro. Aquí puedes encontrar un poco más de información al respecto.

Cuando se habla de velocidades de 40 Gbps y superiores, las cuales podríamos definir como ultravelocidades, el empleo de nuevas técnicas de modulación se convierte en una necesidad imperiosa.

El espectro del que disponemos en una fibra óptica es el que es. Y como limitado que está, si queremos seguir aumentando la velocidad en las transmisiones, la única posibilidad es aumentar la eficiencia espectral, es decir, meter más bits por Hertzio.

Además, hay que tener muy claro, que cuando en la fibra se corretea con velocidades muy elevadas, superiores a los 40 Gbps, los fenómenos no lineales, que para velocidades inferiores apenas representan problemas, se pueden convertir en un auténtico quebradero de cabeza que eche al traste algunos enlaces ya establecidos. Las dispersiones cromática y la producida por el modo de polarización también tienen su protagonismo indeseado conforme aumentamos la velocidad de las señalas a transmitir. Será por tanto necesario compensar en el receptor todos estos fenómenos perniciosos para así poder recomponer correctamente la señal transmitida.

Es decir, si queremos transmitir velocidades por encima de los 40 Gbps necesitamos formatos de modulación que aumenten la eficiencia espectral y que utilicen ciertos mecanismos para compensar los fenómenos perniciosos que se producen a esas velocidades. Estamos hablando, ni más ni menos, de detección coherente con DSP (Digital Signal Processing). Los sistemas de transmisión, por lo tanto, están evolucionando hacia sistemas con detección coherente y procesado de señal.

Profundicemos, sólo un poco, en los fenómenos adversos que hay que tener en consideración a velocidades superiores a 40 Gbps:

  • CD, Dispersión Cromática. La dispersión es un ensanchamiento que sufre el pulso, en este caso, debido a las propiedades del medio de transmisión, que presenta diferente índice de refracción para las diferentes longitudes de onda que componen la señal. Es decir, que la luz cuando viaja por la fibra, va rebotando dentro del núcleo, y cada color que la compone viaja a una velocidad diferente, con lo que el pulso cuando llega a su destino es más ancho. Puede llegar un momento, en que sea tan ancho que se superponga con el pulso anterior y/o posterior, con las consiguientes interferencias que generarán errores en la decodificación de la información que transportaba el pulso original.
  • PMD, Dispersión por el modo de polarización. En este caso la dispersión se produce debido al hecho de que la fibra es un material birrefrigerante. Es decir, el índice de refracción es diferente para el modo vertical y horizontal, que son los dos modos ortogonales de polarización que presenta la señal, de manera que el ensanchamiento del pulso se produce esta vez porque la componente vertical de la señal se mueve  a una velocidad diferente que la componente horizontal. Como depende de la fabricación de la fibra, es un parámetro estadístico, y por lo tanto difícil de compensar.
  • Fenómenos no lineales. Tienen dos orígenes fundamentals. Cuando la intensidad de la luz sobrepasa una determinada potencia, la variación del índice de refracción de la fibra provoca diferentes fenómenos como la auto modulación de fase (Self- Phase Modulation (SPM)), la modulación de fase cruzada (Cross-Phase Modulation (XPM ó CPM)),y la mezcla de cuatro ondas (Four Wave Mixing (FWM)). Otro tipo de fenómenos no lineales se debe a la interacción de los fotones incidentes con algunos modos de vibración del material que se conocen como Fonones, de esta interacción resultan dos tipos de dispersiones: La Dispersión Estimulada de Raman (Stimulated Raman Scattering (SRS)) y la Dispersión Estimulada de Brillouin. (Stimulated Brillouin Scattering (SBS).

Todas ellos, en su combinación, degradan las señales de ultravelocidad. La relación óptica señal a ruido que caracteriza el sistema, OSNR (Optical Signal to Noise Ratio), viene determinada por una tasa de error en la recepción, BER (Bit Error Rate). Para que la comunicación sea viable, la BER  tiene que ser menor que el umbral del FEC (Fordward Error Correction). Es decir, las técnicas que se utilizan para corregir posibles errores acaecidos en la transmisión tienen que resolver los errores provocados por los fenómenos perniciosos, de manera que se siga manteniendo la BER necesaria. Estos además, son más perniciosos cuanto mayor es la velocidad de transmisión.

A todo lo expuesto, debemos añadir el hecho de que las redes de transmisión ópticas no suelen ser fibras punto a punto, sino que es la estructura de malla, por su fiabilidad y robustez, la que se posiciona como favorita. Y cuando se producen fallos en los enlaces establecidos, las restauraciones de los mismos pueden conllevar cambios repentinos en la señal recibida. El proceso de restauración debe ser lo suficientemente rápido como para que la interrupción del servicio sea apenas perceptible. Pero cuando tratamos con velocidades superiores a los 40 Gbps, la compensación de la dispersión cromática, que hay que calcular despues de obtener el nuevo camino de restauración puede ser más lenta de lo deseado.

Las tecnologías tradicionales utilizan detección directa, o bien de la intensidad de la señal transmitida (OOK) o bien de la combinación entre la señal transmitida y una réplica retardada (xPSK) que convierte diferencias de fase en diferencias de amplitud.

 En la detección directa, la potencia del canal se convierte en intensidad de corriente en un fotodiodo. Con un filtro paso banda en el último equipo ROADM del enlace seleccionamos el canal. Se trata de una solución de fácil implementación y sobre todo barata. Pero presenta una baja sensibilidad y muy baja capacidad para compensar los fenómenos adversos.

Necesitamos por tanto de algún mecanismo que aumente la sensibilidad de la señal y que nos permita compensar los crecientes fenómenos adversos.

Si procedemos a mezclar nuestra señal original con un oscilador local, esto nos permite obtener la amplitud y la fase de la señal. Y mediante un procesado digital sería posible compensar la CD y la PMD, bastante nocivos, como ya hemos advertido, en los sistemas de alta velocidad. Además, la señal que se recibe es de mucha mayor potencia debido al mezclado con el oscilador local, y se realiza un filtrado intrínseco de la señal, ya que el oscilador se sintoniza entorno al canal o canales que se quieran detectar, con lo que se simplifica la arquitectura de los nodos ROADM.

 De manera que, para asegurarnos que la transmisión de velocidades superiores a los 40 Gbps sea una realidad, es necesario el empleo de formatos de modulación coherente.

Profundizaremos en los diversos aspectos aquí comentados en entradas posteriores.

Hace unos días salió una noticia a la palestra de los foros tecnológicos informativos. Se publicitaba a bombo y platillo que con una técnica innovadora, el cobre podría alcanzar velocidades de 100 Mbps y superiores. Va a ser que no. Pongamos los puntos sobre las ies

El culpable de este subidón de velocidad es una técnica que se conoce como vectoring, que para empezar de novedosa, poco. Se lleva mucho tiempo trabajando sobre la vectorización de los pares de cobre, y los resultados siempre han sido bastante pobres. Las mejoras que producen en la velocidad alcanzable son tan nimias, que no compensan en absoluto el despliegue. Estamos hablando desde el punto de vista de la realidad de una planta existente y desplegada.

El cable de cobre que llega a tu casa no va solo, sino que va dentro de unos cables que engloban desde unos pocos, a unos cientos y hasta unos miles. Las señales que se generan en la familia XDSL son señales multiportadoras, es decir, en vez de llevar un camión enorme para llevar tu información, lo que se hace es llevar una caravana de camiones más pequeños, y cada uno de esos camiones, que son las portadoras, llevan un poquito de la información. Al estar los cables tan juntos unos con otros , y con tantas portadoras por ahí sueltas, se producen interferencias entre los cables llamadas diafonías (crosstalk), que consisten básicamente en que las señales de un cable se cuelan en otro. Con la técnica de vectoring, esto se limita considerablemente. Pero para que funcione correctamente, y las mejoras sean apreciables, la técnica tiene que aplicarse a todos y cada uno de los pares que forman parte del cable. Con que haya uno que no esté vectorizado, las prestaciones bajan.

En países como España, la regulación obliga a compartir el par de cobre, ya que forma parte de la infraestructura previa al periodo de liberalización del sector. Eso quieres decir, que por un mismo cable van los clientes de todos los operadores que den servicio en esa zona, y cada uno de estos cables acaba en las instalaciones de sus respectivos operadores, en unos equipos llamados DSLAM (Multiplexor de Acceso de Líneas DSL). Si quieres saber con más detalle cómo es la red de acceso de cobre, puedes verlo en  Redes de Acceso.

 Esto es lo que se conoce como desagregación de bucle. Y en zonas desagregadas NO ES VIABLE desplegar estas técnicas, porque al quedar pares sin controlar, los beneficios serían ridículos y no compensarían en absoluto el despliegue de la nueva técnica.

A eso tienes que añadir el hecho, de que para aplicar correctamente la técnica, tiene que aplicarse a todos los pares de un mismo DSLAM, y es relativamente habitual que un operador disponga de varios suministradores para sus equipamientos.

Existen armarios de intemperie que se colocan para llegar a zonas que no tienen cobertura desde la central. En estos armarios, no hay obligación de desagregar bucle y por lo tanto sería viable aplicar esta técnica de vectorización. Pero se trata de un porcentaje realmente pequeño sobre la población total. Y a esto se le añade el hecho de que las velocidades son interesantes por debajo del kilómetro de distancia al armario, con lo que reduces aún más lo población potencial a la que ofrecerías el servicio.

La vectorización no es la única técnica que se puede aplicar para incrementar la velocidad en el cobre.

  • El bonding, lleva también muchos años en análisis, y nunca ha salido de ahí, por las dificultades operativas que presenta. Se trata de unir varios pares de cobre, en lugar de uno solo. Algo tan aparentemente fácil, es realmente un quebradero de cabeza desde el punto de vista operativo y logístico, añadiendo que tampoco hay tantos pares libres como para aplicarlo de manera generalizada
  • Técnicas de Retransmisión, que se encargan de volver a enviar los paquetes perdidos. Los mecanismos de protección que se establecen, para garantizar la calidad en la conexión, son bastante restrictivos de cara a la velocidad. Es el dicho vísteme despacio que tengo prisa, en versión eléctronica…si quieres hacer las cosas bien, hazlas despacio. Estas nuevas técnicas conseguirían seguir haciendo las cosas bien, yendo un poco más deprisa. Hay estándares disponibles al respecto, pero lo que no hay es nadie que lo use…probablemente porque las mejoras no compensan las modificaciones a realizar
  • Técnicas de adaptación de velocidad a las condiciones del bucle, para conseguir en cada momento la máxima sincronización posible. Hoy en día, cuando enciendes el módem, sincroniza a una velocidad concreta y mientras no surjan problemas o no apagues y enciendas el módem, sigue con la misma sincronización. Con este tipo de técnicas, hay que asumir que la velocidad máxima que se puede alcanzar variará con el tiempo. En cualquier caso son técnicas que aún no están disponibles y dudo mucho que ofrezca unas ventajas significativas como para incrementar la velocidad de los servicios sobre cobre.
  • Incluso realizando cambios de protocolos de nivel 4 (el UDP por el TCP), se podrían relajar las restricciones que se imponen a nivel físico.  Si tengo un protocolo que me asegura la retransmisión de paquetes, como es el TCP, tengo cierta garantía de que no los voy a perder, acabarán llegando, de manera que a nivel físico, puedo utilizar más portadoras aumentando el ancho de banda correspondiente, aunque estas portadoras no estén en muy buenas condiciones y provoquen errores, que serán solventados por el TCP.

Conclusión, todas estas técnicas son pequeñas aportaciones que no pueden llevar de manera generalizada a un incremento considerable en las velocidades que se pueden obtener con el cobre. Lo que producirán probablemente serán beneficios en los servicios existentes, al aumentar calidad y estabilidad de las señales. Así que si quieres 100 Mbps en tu casa, o te pillas docsis 3.0 tú solo en el barrio, o te pillas fibra hasta la cocina y esperas a que la velocidad comercial suba a 100 Mbps.

 

PD: ACLARACIÓN TÉCNICA SOBRE LA VECTORIZACIÓN DE LOS SISTEMAS DSL

Existe una serie de técnicas que se denominan DSM, Gestión Dinámica del Espectro. Las técnicas DSM tratan de reducir y mitigar la diafonía aplicando algoritmos que optimicen el uso de los recursos disponibles (subportadoras utilizadas, potencia transmitida por subportadora, bits transmitidos por subportadoras,…) a través de la gestión del espectro Estas técnicas se pueden dividir en cuatro niveles, que se definen atendiendo al grado de dinamismo en la gestión de los recursos y al nivel de coordinación existente entre los sistemas DSL.

  • DSM Nivel 1: Se encarga de controlar el ruido impulsivo de un par en concreto, sin afectar a los pares adyacentes. Se controla la densidad espectral de potencia de la señal (PSD) tratando de emplear la mínima potencia necesaria pero manteniendo constante el margen de ruido.
  • DSM NIVEL 2: Se realiza una optimización conjunta de todos los cables del sistema. El ajuste de las densidades espectrales de potencia con el que se transmite cada subportadora en un enlace, se  hace teniendo en cuenta los niveles de potencia con los que se está transmitiendo esa misma subportadora en los pares contiguos. Existe por lo tanto una entidad que coordina todos los bucles de un mismo cable.
  • DSM NIVEL 3 (Vectorización): Implica un ajuste dinámico a nivel de señal basado en la  coordinación entre los usuarios que comparten el mismo cable. Lo que se pretende es eliminar el efecto de la señal interferente por diafonía de dos modos, atendiendo al sentido de la transmisión.  En sentido descendente se utilizará una  precodificación de canal para eliminar la interferencia a la entrada del receptor de los  usuarios. Por el contrario para el sentido ascendente de la transmisión, ya que no se puede actuar sobre los módems de los clientes, se emplearán métodos de decodificación conjunta en el extremo de la central. Por eso todos los pares en la central deben colgar de un mismo DSLAM y en casa del usuario habría que actualizar la versión de SW del módem router, o cambiarlo.

IP, Internet Protocol, es el lenguaje de Internet, con matices, como ya expliqué en la entrada de Las Redes IP.

Este protocolo, se encuentra desplegado en su versión 4, que es lo que se conoce como IPv4. Pero como sucede siempre en el mundo de la tecnología, ésta se queda obsoleta, y demasiadas veces muy rápidamente. ¿Cuantas veces te has cambiado de teléfono móvil? Pues eso.

En el caso del IPv4, ha durado más de lo que muchos gurús decían. Hace años que la amenaza se cierne sobre el IPv4…la espada de Damocles acechaba detrás de cualquier router, pero el IPv4 seguía aguantando el tirón. Hasta que llegó el día en el que ya no pudo más, y ahora sufre una lenta y agónica marcha hacia su desaparición definitiva…la cual probablemente dure más que su propia vida, ya sabemos eso de que las cosas de palacio…van despacio…

¿Cual ha sido el detonante para este vil y cruel destino? Entremos un poquito en harina. El IPv4, como todo protocolo que se precie, se puede equiparar a una caja con dos compartimentos. Uno de ellos se llama cabecera, y ahí es donde se mete toda la información relacionada con la metafísica…¿quien soy? ¿a dónde voy?¿de donde vengo?¿cual es mi tamaño?¿que  tipo de carga transporto?¿cuanto me queda de vida?…típicas preguntas que cualquier paquete se haría. Esta información la necesitan los routers para hacer sus cositas. En el otro compartimento iría la información que realmente interesa al usuario final, las transparencias con gatitos, los correos en cadena…ya sabes.

En el compartimento de la cabecera en el IPv4 existen a su vez varias cajas. La que ha sido responsable de todo este lio es la caja que contiene las direcciones IP, que resulta que es demasiado pequeña. A los gurus que inventaron el protocolo, no se les ocurrió, ni en sus sueños más húmedos, que harían falta más de  4.294.967.296 direcciones IP, es decir, rondando los 4.300 millones de direcciones. Este número tan curioso sale de los 32 bits que caben en una caja de direcciones IP…2 elevado a 32 sale justo eso. Ni más ni menos.

Hace ya unos cuantos años, los organismos que manejan las direcciones dieron la voz de alarma…se nos están acabando las direcciones IP…como la cosa parecía que iba en serio, los que tenían direcciones que ya no utlizaban empezaron a devolverlas. Con eso aguantamos unos cuantos años más. Pero parece que ahora sí que viene el lobo, y todos los grandes operadores de redes IP están haciendo sus números y sus cálculos.

Para solventar el problema, lo que hacemos es cambiar de versión de protocolo IP, nos pasamos a la IPv6, que tiene una caja de bits mas grande…caben 128 bits…eso significan…me mareo sólo de pensarlo, ¿os acordaís del número de Avogadro y de lo que era un mol? Pues más…estamos hablando de 3,4 por 10 elevado a 38 ceros. Nuestro cerebro no está capacitado para asumir tantos ceros. Típicas comparaciones divertidas, la equivalencia entre el IPv4 y el IPv6 sería como comparar el peso de un átomo (da igual, escoge tu elemento favorito de la tabla periódica) con el de una ballena de 80 toneladas, percebe  arriba, percebe abajo.

Aparte de aumentar INCREIBLEMENTE el número de direcciones IP disponibles para repartir por el mundo mundial, el IPv6 presenta otras ventajas adicionales, como una caja de cabecera más simple que facilita el trabajo de los routers, más fácil para gestionar la movilidad, es más seguro…claro una nueva versión siempre mejora a la anterior.

Que quede claro que se trata de una evolución, no de una revolución. Con este cambio, hasta la cesta de las patatas podrá tener su dirección IP, para así mandarte una alerta al móvil avisándote de que se están brotando. Lo que inventa el  sapiens…

Lo más gracioso de todo esto, va a ser cómo se van a ir migrando las redes de un protocolo a otro. Ríete tú del efecto 2000, aquí si que se puede liar parda. Hay diferentes estrategias para hacerlo. Diría que tantas como operadores de redes IP, que si no se acerca al número de estrellas en la galaxia, debe andar por ahí por ahí. Algunos aguantarán con el IPv4 hasta que revienten. Otros irán de vanguardistas y pondrán el IPv6 si no lo han puesto ya, que haberlos haylos. Dentro de cada red se pueden establecer islas de IPv6 rodeadas de IPv4. Puedes hacer que tu red funcione en IPv6, pero luego haces traducciones a IPv4 para conectarte con otras redes o con tus clientes finales. Puedes seguir prestando tus servicios de toda la vida en IPv4, y los nuevos con IPv6. Puedes complicarlo o simplificarlo tanto como puedas o necesites.

Para los humildes mortales, que por ahora no necesitamos un millón de direcciones a repartir entre tus cosas de casa, nos la trae un poco al pairo, y no vamos a salir en masa a la calle a manifestarnos para que todo sea IPv6. Pero hay una cosa que se llama M2M, Machine to Machine, que probablemente sea lo que tire hacia delante de las migraciones. Cada vez son más las máquinas que se interconectan entre ellas para intercambiar información, y cada una de ellas con su dirección IP. La idea es que la patata avise que se brota al servidor de patatas que tendrá el verdulero, para que a su vez se conecte al servidor del mercado central de patatas, para que hable con el hortelano que vaya plantando. Por ejemplo se me ocurre…

Las Redes IP

Publicado: 27 septiembre, 2011 en Tecnología
Etiquetas:, , , ,

Internet es IP, seguro que alguna vez habrás escuchado algo parecido a esto. En realidad IP significa Internet Protocol, es decir, protocolo entre redes. Internet, la que se escribe con mayúscula, en realidad no es sólo IP, es un modelo TCP/IP. Vamos a ver todo esto que significa.

El protocolo IP es un protocolo muy potente para conectar diferentes redes, y para encaminar el tráfico hacia el destino adecuado. Los routers, que son los equipos de red que hablan IP, funcionan como los carteros. Imagínate cómo funcionaría la oficina de correos,sí, la de toda la vida, esa que ya nadie usa. Todas las cartas que llegan son separadas, por ejemplo, en cuatro grupos: locales, provinciales, nacionales, internacionales. Cada uno de esos cuatro grupos a su vez volvería a dividirse en por ejemplo en el caso de las internacionales, a Europa, a América, etc. Esa clasificación se realiza en función del destino de las cartas, que te recuerdo que aparece en la parte delantera del sobre. ¿Cuanto haces que no envías una?

Los paquetes IP serían como una carta con su sobre, y tendría la siguiente información:

  • el destino, es decir, hacia donde va ese paquete, su dirección IP destino,
  • el remitente, es decir, quíen escribe la carta o quíen está enviando el paquete IP, la dirección IP origen.
  • la carta propiamente dicha, lo que va dentro del sobre, iría dentro del paquete IP, sería la información útil que se está transportando, tu correo electrónica, la página del banco…

El router, que haría de cartero, cogería un paquete IP, miraría su dirección IP destino, y se iría a buscar en una tabla que tiene a buen recaudo y que se llama tabla de routing. En esta tabla aparecen todos los posibles destinos que se pueden alcanzar desde ese router, agrupados en lo que se llama siguiente salto o next hop.

Es decir, IP seleccionaría, de todos los routers vecinos con los que está conectado directamente, el adecuado, y le lanzaría el paquete, pero sin prestar atención a si el paquete llega correctamente a su destino o no. Su trabajo ha terminado, al menos de momento. Si Internet fuera solo IP no funcionaría, porque los paquetes perdidos nunca llegarían a su destino.

Ahora hablamos de los acompañantes del IP, porque aunque una red se diga de ella que es una red IP, este protocolo no es el único que se habla en dicha red. Está acompañado de muchos y diversos compañeros de batalla, y entre todos hacen posible la comunicación a través del mundo.

Tendríamos un protocolo que se llama TCP (Transport Control Protocol) que estaría mirando por encima del IP, y viendo que los paquetes que el IP manda llegan correctamente a su destino. Si hay algún problema y el paquete no alcanza su destino final, el TCP le dirá al IP, oye vuelve a lanzar este paquete porque no ha llegado, y el IP, que es muy obediente, retransmitirá el paquete de nuevo. Este es el modelo que funciona en Internet, al menos por ahora…

Para aplicaciones como navegar por Internet, da igual que un paquete llegue antes que otro, o que no lleguen ordenados tal y como salieron del origen. Pero hay otras aplicaciones, como por ejemplo la voz y el vídeo, en las que no tiene ningún sentido que lleguen los paquetes fuera de su momento temporal. Si un paquete se pierde, es mejor que no se retransmita, porque cuando llegue a su destino, no va a poder ser utilizado, ya que la frase a la que pertenece o el fotograma del que forma parte, ya ha pasado. En estos casos no se utilizan protocolos como el TCP, que no son válidos para aplicaciones en tiempo real, sino que en su lugar se utilizan protocolos del tipo UDP (User Datagram Protocol), que no retransmiten los paquetes perdidos y se centran en enviarlos cumpliendo los plazos.

El IP también se rodea de lo que se denomina protocolos de routing, que son los que rellenan la tabla de routing, recordemos que era donde el router miraba para saber por donde tenía que sacar el paquete que estaba analizando. Hay muchos tipos de protocolo de enrutado, y siguen diferentes filosofías, desde los más simples como el RIP (Routing Information Protocl), que rellenan la tabla de manera estática e inamovible, a los más complejos como el OSPF (Open Short Path First) o BGP (Border Gateway Protocol) que hablan entre ellos para saber en cada momento cual es el mejor camino para llegar a cualquier sitio. En este caso, por lo tanto, las tablas de rutas están continuamente actualizándose, y así el router sabe cual es el mejor camino para llegar a cada destino. Es como tú cuando conduces, sueles coger una ruta habitual, pero si escuchas en la radio que hay un atasco, o es viernes y tu experiencia te dice que lo habrá, seleccionas otro camino alternativo, que son más kilómetros pero vas a tardar menos tiempo. Eso es lo que hacen los protocolos de routing.

También tenemos al amigo MPLS (Multiprotocol Label Switch) que corre en toda red IP que se precie. El protocolo IP necesita de mucha capacidad de procesado, y la escalabilidad es complicada cuando tenemos miles, millones de redes a las que podemos llegar. Por eso, en los núcleos de las redes IP, no se habla en IP, se habla en MPLS, y sólo en los bordes de la red IP, que son los que se conectan con otras redes IP, se habla IP puro y duro. Con el MPLS en el núcleo de la red, tengo más control sobre mi tráfico, ya que lo que hace es etiquetar caminos, y todos los paquetes que vayan por el mismo camino tendrán la misma etiqueta. Sería algo parecido a este ejemplo, imagínate que te vas con todos tus amigos de fin de semana. En vez de ir 20 coches, como todos vais al mismo sitio, alquilais un bus. Los routers, que también hablarán MPLS, en lugar de mirar todas y cada una de las direcciones IP destinos de todos y cada uno de los paquetes, sólo tendrá que mirar la etiqueta para decidir el camino por el que envía el paquete.

Internet, no es ni mas ni menos, que todas las redes IP del mundo interconectadas entre ellas…todas o casi todas. Cada red IP tiene asociado bloques concretos de direcciones IP, de manera que sabiendo la dirección IP, sabes donde tienes que ir….algo parecido a los códigos postales que usamos en las ciudades. Juntando todos estos protocolos conseguimos un medio maravilloso de comunicación con posibilidades todavía desconocidas.

MOTIVACIÓN Y ÁMBITO DEL PROYECTO

El OIF (Optical Internetworking Forum ) creó un proyecto 100G DWDM con la intención de acelerar la disponibilidad de la tecnología de transmisión a 100 Gbps para redes DWDM de larga distancia. Estableció un documento marco donde se recoge lo que se espera del desarrollo de estas interfaces:

  • La modulación  escogida: DP-QPSK con detección coherente  y el porqué de esta elección.
  • Identifica una arquitectura funcional para un módulo transceptor y la descompone en diferentes bloques
  • Añade los aspectos más relevantes para la implementación, para los que hay que llegar a un acuerdo, de manera que se fundamente  una interoperabilidad básica

Las aplicaciones de Red tienen como meta y objetivos los siguientes aspectos:

  • Los canales de 100 Gbps, requieren intrínsecamente una OSNR 10 veces superior a los canales de 10 Gbps. Esto supone unas restricciones de tolerancia muy exigentes respecto al ruido de emisión espontánea de los amplificadores ópticos existentes.
  • Además es necesario que tanto el coste como el consumo de la interfaz de 100Gbps sea menor que 10 veces el coste de una interfaz de 10 Gbps,
  • El requisito de mantener la rejilla de 50 GHz hace que sea necesario el uso de una modulación mas eficiente que la de las interfaces de 10 Gbps
  • El requisito de tolerancia mas alta al ruido implica escoger una modulación y un receptor que tengan la tolerancia al ruido mas alta
  • FEC es una herramienta adicional que permite esta mejora,
  • La industria ha aprendido de la experiencia con los 40 Gbps que con técnicas ópticas pueden mitigarse la CD yla PMD, pero incrementando costes y espacio.
 ARQUITECTURA DEL TRANSCEPTOR

MÓDULO DE TRANSMISIÓN DP-QPSK

El proyecto asumió la modulación DP-QPSK (Dual Polarization Quadrature Phase Shift Keying ) con recepción coherente como la óptima para cumplir todos los requisitos impuestos, fundamentalmente debido a la baja velocidad de símbolo que reduce el impacto de la dispersión cromática además de una mejor eficiencia espectral.

A continuación, detallamos el modo de funcionamiento de un módulo de transmisión DP-QPSK:

  • Un láser de transmisión genera la señal de luz que se divide en cuatro componentes, dos para la polarización horizontal y dos para la polarización vertical.
  • El desplazador de la polarización (Pol Rot) gira una de las señales en relación con la otra.
  • Después ambas señales se combinan para generar una única señal
  • En cada polarización hay una señal en fase y la otra en cuadratura de fase y cada una de ellas requiere de un modulador para codificar los datos.
  • Los moduladores representan una interesante oportunidad de  reducción de coste y tamaño, ya que son candidatos a la integración como dispositivos. El OIF ha creado un proyecto específico para desarrollar este aspecto.

 MÓDULO DE RECEPCIÓN DP-QPSK

El módulo de recepción DP-QPSK consiste en una serie de componentes ópticos pasivos que forman un demodulador, seguido de detectores ópticos y amplificadores de transimpendancia. Se pueden aplicar tecnologías de integración para reducir costes y tamaños del transceptor.

El OIF  creará especificaciones para acuerdos de implementación para el módulo de recepción integrado.

FEC

La necesidad de una OSNR 10 veces superior a la de las señalas de 10 Gbps se enfocará mediante la combinación de varios métodos, uno de los cuales serán las técnicas FEC.

Los enlaces de 10G usan FEC que producen ganancias de 8.5 dB, por lo que hay que introducir FEC de mayor ganancia para acercarnos a la OSNR requerida en los 100 Gbps. En cambio el límite de Shannon impide que se cubra por completo el recorrido necesario, por lo que los diseños de FEC sólo podrán acercarse asintóticamente a dichos límites.

Se obtienen diferentes ganancias con FEC en función de la velocidad de las cabeceras, pudiendo adoptar dos técnicas diferentes de decodificación:

  • En la decodificación dura hay un discriminador que elige 0 o 1
  • En la blanda, divide el espacio de la señal en franjas mas pequeñas y se usa una información mas rica para elegir entre 1 y 0

Parece que el FEC de decisión suave presenta más ganancia, pero también impone mayores requisitos en la transferencia de datos entre el DSP y el decodificador FEC

Se necesita trabajo adicional para identificar mejoras en la ganancia y para ello el OIF ha creado un proyecto específico que ha originado en mayo de 2010, como primer paso el Whitepaper del FEC.

Algunas consideraciones de cara a la implementación serían:

  • Las implementaciones que usan un overhead del 7% (típicos en la transmisión de 10Gbps) pueden incluir el FEC dentro o fuera del módulo, ya que la interfaz eléctrica de alta velocidad podría asumir el incremento de velocidad
  • Los FEC que utilicen menos de un 7% de overhead tienden a usar codificación dura
  • Los FEC que utilicen implementaciones de mas de 7% de overhead tienen que ser instalados dentro del módulo (sin interfaz con el DSP) debido a las limitaciones de velocidad del mismo.

MÓDULOS ELECTROMECÁNICOS

Respecto a los módulos electromecánicos, las especificaciones incluirán

  • Tamaño máximo
  • Disipación máxima
  • Interfaz eléctrica
  • Conector
  • Protocolo de control

 Todos los bloques estarían incluidos en una única placa de circuito impreso

El módulo electromecánico incluye láser, fotónica integrada, codificadores QPSK, convertidores A/D y DSP, puede incluir opcionalmente el FEC cuando sea ventajosa su integración.

TRANSMISIÓN

  • Los datos se enmarcan de acuerdo a las especificaciones de OTN antes de aplicar el FEC
  • La señal entonces pasa al módulo transceptor
  • Los datos se convierten para controlar los moduladores ópticos
  • Un láser de transmisión proporciona la fuente de luz para los moduladores

RECEPCIÓN

  • La señal entrante se mezcla con un oscilador local
  • Demodulado sus componentes, detectado, amplificado y digitalizado entonces llega al DSP
  • Un flujo de bits llega al decodificador FEC que puede estar dentro o fuera del módulo
  • El paso final es el entramado OTN

Por primera vez el IEEE publica en una misma especificación dos interfaces diferentes. El motivo es evidente. El objetivo fundamental de esta especificación es preservar el formato de trama  Ethernet determinado en la 802.3 (10 Gbps),es decir, utiliza la subcapa MAC IEEE 802.3, manteniendo los tamaños máximo y mínimos y sin que afecten a los protocolos de nivel 2 y 3. A su vez proporciona MAC Ethernet full duplex, un BER <=10-12 y por supuesto el soporte adecuado para OTN G.709.

 Para las interfaces de 10G, en la recomendación 802.3, en el apartado 49.1.4.2 aparece la definición de la interfaz WIS (WAN Interface Sublayer),cuya arquitectura se muestra a continuación:
 
—Le da al PCS un significado independiente del medio  para que opere sobre enlaces WAN
—Se crea una codificación 10GBASE-W encapsulando los datos previamente codificados con PCS 10GBASE-R en tramas compatibles con SDH/SONET
nEn 802.3ba sólo se habla de modelo LAN.
 
 
Para las interfaces 40G y 100G no se ha definido la capa WIS, es decir, no está definido el encapsulado SDH/SONET, sino que la trama es compatible únicamente con el encapsulado en OTN. Lógico por otra parte, porque a estas velocidades la jerarquía síncrona se queda corta.

Respecto a las condiciones de retardo, El máximo acumulado de los retardos de MAC control, MAC y RS (Resolution), es decir, la suma de los retardos de transmisión y recepción,  deben ser inferior a 409.6 ns para el caso de los 40 Gbs, e inferior a 245,75 para los 100 Gbps.

Se define una nueva subcapa de codificación física (PCS) para 40 y 100 Gbps, que es común para ambas implementaciones de capa física (40GBASE-R y 100GBASE-R), y que se basa en la existente para 10 Gbps 10GBASE-R 64B/66B. En ambos casos la PCS se hace fuera del módulo óptico. 

La capa física, tanto 40GBASE-R como 100GBASE-R, consiste en PCS transmisores y PCS receptores, que pueden o no corresponder con canales físicos y que se estructuran para incluir marcas de alineamiento y distribuir los datos en diferentes láseres. Los canales PCS (PCS lanes) son críticos para las implementaciones de 40 y 100G.  El número de canales requeridos es el mínimo común múltiplo de n canales eléctricos y m canales opticos PMD

  • 40 Gbps usa 4 canales PCS, (mínimo común múltiplo para 4 canales eléctricos (10,3125 Gbps) y 4 lambdas)
  • 100 Gpbs usa 20 canales PCS, (mínimo común múltiplo de 10 canales eléctricos (10,3125 Gbps) y 4 lambdas)

 Los datos de cada canal PCS siempre se reciben en el receptor PCS en el orden correcto. La alineación de marcadores permite al receptor PCS implementar compensación asimétrica (skew), realineando todos los canales PCS y juntándolos todos en un único flujo agregado cuya tasa de transmisión serie es de 40 o 100 Gbps ( con todos los bloques 64B/66B en el orden correcto).  La placa madre, basada en la existente 10GBASE-R con 64B/66B, es la que maneja la codificación y ensamblado de la PCS. Los datos se distribuyen entre los n canales PCS (4 para 40Gbps y 20 para 100Gbps), en bloques de 66 bits cada vez, usando algoritmo Round Robin.

 A cada canal PCS se añaden bloques de alineamiento periódicos que contienen los marcadores de canales.  Los marcadores de alineación se usan para alinear y reordenar los canales PCS en el receptor PCS. Por cada canals PCS se realiza un chequeo de paridad con 8 bits entrelazados (BIP8) 

En cada canal PCS se inserta marcadores de alienamiento únicos, que ayudan al receptor PCS a identificar cada uno de los canales PCS. Los marcadores de canales no está ni codificados ni ensamblados. Cada marcador de canal es una palabra de 8 bytes, que se transmite períódicamente cada 16.384 bloques de 66 bits.

  • Para 40 Gbps, esto es cada 104,8 microsegundos
  • Para 100 Gbps esto es cada 209,7 microsegundos

Los marcadores de alineación interrumpen cualquier transferencia de datos que esté ocurriendo, de manera que deben ser insertados en todos los canales PCS al mismo tiempo.

La subcapa PMA (Phisycal Medium Attachment) interconecta la subcapa PCS con la subcapa PMD (Physical Medium Dependent), y contiene las funciones necesarias para la transmisión, recepción y (dependiendo de la capa PHY) detección de colisión, recuperación de reloj y realineamiento.

Debido al amplio rango de interfaces soportadas y de opciones de implementación de las mismas, para explicar al completo la funcionalidad de la PMA es necesario dividir las funciones PMA en diferentes subcapas. Dos ejemplos de implementaciones específicas de arquitectura serían:

• 100GBASE-LR4, donde se definen 4 longitudes de onda de 25 Gbps por longitud de onda en una fibra monomodo.

• 100GBASE-SR10, donde se definen 10 longitudes de onda de 10 Gbps cada una de ellas y en 10 fibras multimodo en paralelo.

 Como se dijo anteriormente, para los 100 GbEthe, PCS crea 20 canales. En los ejemplos de arquitectura que se han puesto, la funcionalidad de la PMA es dividir en dos dispositivos PMA que están interconectados mediante una interfaz electrica conocida como CAUI (100 Gbps Attachment Unit Interface), la cual está basada en una interfaz de 10 Gbps por canal y 10 canales. En esta implementación, la subcapa PMA en la entrada de la CAUI multiplexa 20 canales PCS en 10 canales físicos. La subcapa PMA a la salida de la CAUI implementa tres funciones:
  1. Resincroniza las señales provenientes de los canales eléctricas de entrada
  2. Los canales eléctricos son convertidos de nuevo en 20 canales PCS
  3. Estos se multiplexan en 4 canales que son los necesarios para la subcapa PMD de 100 GBASE -LR

 Sin embargo, la implementación de la arquitectura para 100GBASE-SR10 es diferente. En este caso, un chip anfitrión se conecta directamente con un transceptor óptico que se conecta a su vez a 10 fibras paralelas para cada dirección. La subcapa PMA reside en el mismo dispositivo que la subcapa PCS, y multiplexa los 20 canales PCS en 10 canales eléctricos de la interfaz física paralela (PPI),  interfaz eléctrica que conecta PMA con PMD sin resincronización.

En resumen, las funcionalidades de alto nivel de la PMA tanto de multiplexar como de recuperar reloj siguen existiendo, pero la implementación concreta de las mismas depende de la PMD específica que se esté usando.

 Existen varias interfaces, que en el caso de la IEEE 802.3ba se han definido como lógicas, intra-chip, en contraposición a otras especificaciones pasadas donde se definen interfaces físicas, interchip. La especificación de una interfaz lógica sólo especifica las señales y sus comportamientos, mientras que una especificación de una interfaz física además especifica los parámetros eléctricos y de sincronismo de las señales. Existen tres chips de interfaces definidos, los cuales tienen una arquitectura común para ambas velocidades:

  • MII (Medium Independent Interface) es una interfaz lógica que conecta la capa MAC y la subcapa PCS. Proporciona caminos para la transmisión y recepción de datos en bloques de 64 bits. Estos caminos se agrupan en 8 canales de 8 bits, con un bit de control asociado a cada canal, para saber si es información de datos o de control en cada momento. Existe un único reloj asociado al camino de transmisión y un único reloj asociado al camino de recepción . Estos relojes operan a un 64avo de la velocidad de transmisión.
    • XGMII para 10 Gbps
    • XLGMII para 40 Gbps, reloj de 625 MHz
    • CGMII para 100 Gbps, reloj de 1.5625 GHz
  • AUI (Attachement Unit Interface) es una interfaz física que extiende la conexión entre el PCS y el PMA, con un bajo número de pines en el conector. Se trata de una interfaz con su propio reloj, multi-canal, con enlaces serie que utilizan codificación 64B/66B. Cada canal opera a una velocidad efectiva de 10 Gbps, que cuando se codifican a 64B/66B resulta una velocidad efectiva de 10.3125 Gbaudios/s. Los canales utilizan señalización diferencial balanceada acoplada AC de baja oscilación, lo que le permite alcanzar hasta25 cm. Se trata fundamentalmente de una interfaz chip2chip,
    • XAUI para 10 Gbps
    • XLAUI para 40 Gbps. 4 canales de transmisión y 4 de recepción de 10 Gbps, resultando 8 pares o 16 señales.
    • CAUI para 100 Gbps. 10 canales de transmisión y 10 canales de recepción de 10 Gbps, resultando un total de 20 pares o 40 señales.
  • PPI (Parallel Physical Interface), interfaz física para la conexión entre PMA y PMD de 40GBASE-SR4 100GBASESR10 PMDs.

Si quieres acceder al documento original del IEEE, que la fuerza te acompañe…

Las Redes de Transporte suelen ser las grandes desconocidas para los que no están directamente relacionados con el negocio de las Redes de Telecomunicación. Y sin embargo, son imprescindibles para que la comunicación fluya de un lugar a otro.

Seguro que has escuchado hablar de Redes IP, de Redes Ethernet, del ADSL, de la Fibra….pero esto del transporte te suena a coche, tren, y similares. Bueno no vas desencaminad@, porque el concepto es exactamente el mismo. Cada una de las tecnologías que intervienen en un sistema de comunicación tiene su función. La función de la Red de Transporte, o de Transmisión, es llevar, físicamente, la información de un lugar a otro, normalmente de manera transparente. Es decir, da igual que se trate de una llamada de teléfono, de un acceso a tu correo electrónico o de una película que estás viendo en tu televisor. La información al final son 1 y 0 que van de un sitio a otro. Y lo hacen mediante estas redes.

La Red de Transporte, por lo tanto, une los POP o Puntos de Presencia, de los Operadores de Telecomunicación. Y para ello se utiliza fibra óptica principalmente, ya que es el portador que mayor ancho de banda permite. También se pueden utilizar cables de cobre o coaxial, pero están tendiendo a desaparecer, por alcance y por ancho de banda. Otra alternativa interesante en zonas aisladas o de difícil acceso es utilizar las conexiones radioeléctricas. Cuando veais una torre de antenas, las que son planas y rectangulares son de servicios móviles, pero las que son como panderetas grandes o como parabólicas pequeñas pertenecen a la red de transporte.

  La arquitectura de este tipo de redes es diversa, y cada operador despliega las que mas le conviene según el tipo de zona que quiera cubrir y según el tráfico que quiera transportar. Por ejemplo se pueden utilizar topologías en forma de anillo, es decir, todos los nodos estarían conectados formando un anillo. Tiene la ventaja de que es una forma barata y fácil de desplegar una red, además presenta cierto tipo de seguridad ante la caida de un enlace, ya que siempre se puede dar la vuelta al anillo por el otro lado para llegar al destino. Las arquitecturas en forma de malla, es decir, nodos unidos unos con otros en mayor o menor grado son mucho más flexibles y versátiles, pero son más caros de desplegar, hay más enlaces entre los nodos. Y precisamente gracias a esto, una arquitectura en malla puede tener varios caminos alternativos para llegar de un punto a otro.

Las tecnologías que se utilizan en este tipo de redes suelen clasificarse en dos grandes tipos:

  • Sistemas Síncronos, se trata de equipos eléctricos, que manejan electrones para hacer los 1 y 0. La tecnología por excelencia en Europa es  SDH (Jerarquía Digital Síncrona), que podría equipararse a un tren que consta de la locomotora, y los vagones.  El tren tiene un horario que cumplir, siempre llega y sale de la estación puntualmente. En los vagones es donde se almacena la información de los distintos tipos de tráfico, desde la voz, hasta los datos, pasando por vídeo y lo que quieras.
  • Sistemas Ópticos, es decir, que manejan fotones. Aquí la tecnología estrella es el WDM, Multiplexación por División en Longitud de Onda. Cuando llueve y hace sol, la luz que emite el sol al atravesar las gotas de agua se desparraman en los colores del arcoiris. Eso es lo que hace esta tecnología. Lo que se consigue es tener una autopista de muchos carriles para ir de un lugar a otro, en lugar de una carretera de un solo sentido. Sobre una fibra óptica se transmiten muchos colores y cada color es un canal de comunicación independiente

Las Redes de Transporte, hasta ahora, han sido redes independientes y transparentes, es decir, les daba igual transportar un paquete IP, o una trama Ethernet, porque no los tocaban, solo cogían la información y la envíaban de un punto a otro. La evolución de las redes hacia el concepto de NGN, Redes de Nueva Generación está cambiando la visión y el papel de la red de transporte. Las nuevas soluciones pasarían por integrar funcionalidades de transporte en los diferentes tipos de redes, o bien, implementar nuevas tecnologías que permitan transportar los paquetes de forma eficiente. Estas tecnologías podrían ser MPLS-TP, PBB…demasiado para incluirlo aquí.

Últimamente se habla mucho del grafeno. Los avances que está habiendo al respecto están levantando muchas expectativas en diferentes campos y es un material de moda en el mundo científico. En concreto, de lo que yo os voy a hablar es de las noticias que hace unos dias inundaron los medios y que hablaban básicamente de que el grafeno incrementará las velocidades de conexión a internet prácticamente hasta el infinito y más allá…Ya será menos.

Bueno, en primer lugar, esto del grafeno…¿qué es lo que es?. El grafeno es Carbono, igual que un diamante, igual que la mina de un lápiz,  igual que el componente fundamental de todos los seres vivos. Pocos elementos de la tabla periódica son más versátiles que el Carbono. Obviamente un lápiz no es un diamante. Lo que diferencia a todos estos elementos compuestos de Carbono es la estructura interna que adopta dicho elemento, es decir, cómo se colocan los átomos. En el caso del grafeno, los átomos de Carbono se colocan como las celdas hexagonales de una colmena, formando una estructura plana y bidimensional. Si cogemos el plano formado por el grafeno y lo convertimos en un cilindro…voilà! obtenemos nanotubos de Carbono, en concreto de pared única. Los nanotubos de Carbono son el primer material conocido que es capaz de soportar indefinidamente su propio peso suspendido sobre nuestro planeta…imprescindible para el ascensor espacial. Pero esa es otra historia que ha sido y será contada en otro momento y en otros contextos.

Aquí hemos venido a hablar de grafeno, del panal de abejas hecho de Carbono que al colocarse de esa manera, se obtienen unas propiedades sorprendentes. El grafeno es más resistente que el acero, unas 200 veces, además de ser flexible y un conductor excelente de la electricidad y el calor. Como se trata de un material que podemos fabricar de manera relativamente fácil y con unas propiedades tan estupendas, está generando grandes expectativas…sobre todo porque nuestro planeta está petao de Carbono, así que la materia prima no es nada complicada de encontrar, y los procesos de fabricación se van mejorando día a día, y eso significa que se va abaratando la fabricación en masa.

Pero lo interesante desde el punto de vista de la electrónica en general y de las telecomunicaciones en particular, y es que presenta unas propiedades óptimas para la fabricación de circuitos integrados gracias a cómo se mueven los electrones en el grafeno. Los electrones que se trasladan sobre el grafeno se comportan como fermiones de Dirac, que se mueven a una velocidad constante independientemente de su energía, como ocurre con la luz. Los electrones del grafeno se mueven libremente por toda la lámina y no se quedan atrancados en zonas de las que no pueden salir, que es lo que suele pasar en los materiales bidimensionales cuando hay impurezas, es decir, los que se utilizan actualmente.

Al tener tan alta movilidad de portadores, y además un bajo nivel de ruido, lo podemos utiizar como canal en transistores de efecto de campo que pueden operar a frecuencias realmente altas, superando los 300 GHz. Tiene toda la pinta que el grafeno podría sustituir al Silicio en los dispositivos electrónicos, aunque no todos están de acuerdo, porque al no tener una banda de resistividad, no puede parar de conducir la electricidad, es decir, no se puede apagar. El Silicio sí.

La base de la electrónica actual son los transistores, que para el mundo mundial pueden asemejarse a grifos, que dejan pasar o no la corriente eléctrica en función de si están abiertos o cerrados, y ese abrir y cerrar se realiza mediante cambios de potencial y corriente. Normalmente, un transistor se basa en Silicio. Imaginatelo como una pastilla de Silicio sobre la que se pone tres trocitos de materiales dopados, es decir, a los que se les añade algún elemento químico diferente a su composición, lo que decíamos antes de las impurezas. La gracia de todo esto es que las impurezas son las que facilitan la generación de electrones y huecos, que es en lo que consiste la electricidad.  Un circuito integrado es básicamente un montón de transistores interconectados de manera que realicen las funciones para las que ha sido diseñado dicho circuito. De manera que el grafeno lo que haría sería sustituir a la pastilla de Silicio, el resto del diseño también cambiaría claro.

¿Cómo puede aplicarse este material al campo de las telecomunicaciones? Se puede generar energía eléctrica colocando dos alambres de metal encima del grafeno y proyectando una luz brillante sobre el dispositivo….peeeeero el grafeno absorbe muy poca luz, con lo que la eficiencia del sistema es terriblemente baja. Para resolver este inconveniente usamos a nuestros amigos, los plasmones, que pondremos encima del grafeno y que mejorarán considerablemente las prestaciones, hasta 20 veces. Los plasmones son nanoestructuras metálicas. Igual que un fotón es una cuantización de la oscilación de un campo electromagnético, y un fonón es una cuantización de la oscilación de un campo mecánico, un plasmón es una cuantización de las oscilaciones de un plasma, gas ionizado para los amigos. Esto quiere decir, que puedo usar el grafeno como fotodetector en las comunicaciones de alta velocidad, ya que puedo obtener dispositivos increiblemente rápidos, gracias a cómo se comportan los electrones en el grafeno, a cómo se mueven y a cuanta velocidad lo hacen. La fibra óptica será la misma, pero los dispositivos que generan y modulan la señal que luego se transporta por la fibra, si se hicieran con grafeno, alcanzarían mayores velocidades que las actuales. Pero para ello debería inventarse el equivalente al transistor de Silicio, alma mater de la electrónica actual, basándonos en Grafeno y Plasmones. En un futuro no muy lejano podríamos disfrutar de una tremenda orgía fotónica y optoelectrónica gracias a la combinación de Plasmones y Grafeno. ¿Te pone, ein?