Posts etiquetados ‘Para Neófitos’

El concepto de super-channel, o super-canal está asociado a velocidades superiores a los 100 Gbps. ¿Por qué se necesitan velocidades tan elevadas? Porque el tráfico en Internet crece, y crece y parezca que no tenga límite. Cada vez son más los usuarios y cada vez son más los contenidos. Además cada vez son más las diferentes formas y lugares desde los que podemos acceder a Internet. La explosión del video, en concreto los formatos de alta definición y los smartphones, tablets y demás dispositivos con sus posibilidades infinitas hace que las necesidades de ancho de banda sean inconmesurables. Ni hablemos de cuando lo que se conoce como Internet de las Cosas y todo lo que se engloba bajo el concepto de La Nube sean una realidad palpable.

Esta explosión es una oportunidad clara para los proveedores de servicio, los que mejor sepan captar las experiencias de los usuarios en este entorno dinámico in extremis, serán los que capturen más mercado. Claro, estos proveedores de servicio tienen que estar preparados para que sus redes escalen de manera dramática, y por supuesto minimizando los costes capitales y operacionales, de manera que el precio del Gbps sera el mínimo posible.

El punto de partida para esta revolución se encuentra en las redes de transporte, pilares de las comunicaciones de larga distancia.

Para emprender este camino, los mecanismos de transmisión óptica DWDM deben también adaptarse a las nuevas necesidades. El concepto de supercanal es una nueva aproximación a las promesas de capacidad que el DWDM puede ofrecer ante el incremento creciento del tráfico.

¿Qué es un Supercanal?

DWDM  es una tecnoogía que permite que en una sola fibra óptica viajen en paralelo varias portadoras ópticas, de manera que el uso de dicha fibra es mucho más eficiente, ya que en lugar de un único canal de información, se transmitirán muchos más (cada portadora óptica es un canal).

Se trata de una tecnología ampliamente desplegada y que ahora se encuentra en el entorno de los 100 Gbps por cada portadora óptica. Pero con las espectativas en cierne de crecimiento exacerbado, puede que esta capacidad no sea capaz de asumirlas. Hay que incrementar el ancho de banda sin incrementar la complejidad operacional.

En respuesta a la pregunta, ¿qué vienen despues de los 100 Gbps?, aparece el supercanal como la mejor posicionada. El supercanal es una evolución del DWDM en la que varias portadoras ópticas se combinan para crear una señal de línea compuesta de la capacidad deseada, y que se provisiona de una sola vez. Por supuesto, para el cliente, el uso de supercanales es algo transparente.

Implementando Super-Canales

A día de hoy no se disponen de estándares para implementar super-canales. Además, aspectos tales como el número de portadoras, las velocidades de las mismas, incluso si deben ser portadoras contiguas o no, y el nivel de integración de componentes, son temas que están totalmente abiertos.

Existen dos opciones de implementación obvias para desarrollar transpondedores de una única portadora que funcionen a velocidades por encima de los 100 Gbps. Una es transmitir más símbolos de modulación por segundo y la otra es codificar más bits por símbolo de modulación. Incluso una combinación de ambos.

Incrementar el número de bits por símbolo implica incrementar la eficiencia espectral, y eso no siempre es fácil ni puede pagarse el precio que puede costar.

La tecnología de los super-canales añade una tercera opción, la posibilidad de manejar múltiples portadoras como si fuera una sola.

La importancia de la integración fotónica

Los super-canales permiten una capacidad de 1 Tbps DWDM provisionada de una sola vez sin penalizaciones en la eficiencia espectral y con el mismo alcance óptico que el de los transpondedores de 100 Gbps coherentes actuales.

Es evidente que un super-canal de 10 portadoras necesita establecer 10 componentes ópticos en una tarjeta de línea. Implementando este tipo de interfaz usando componentes ópticos discretos podría ser totalmente inviable.

 Usando PIC, Circuitos Fotónicos Integrados, uno en transmisión y otro en recepción, las 10 portadoras podrían implementarse en una única tarjeta de línea compacta, consumiendo menos potencia que 10 transpondedores discretos.

Los PIC aportarían a la ingeniería de los super-canales lo que la integración electrónica aportó en su momento a las CPU multi-core. Los PIC eliminarían las limitaciones de la complejidad de los componentes ópticos y permitiría que la ingeniería correcta fuera aplicada. Si quieres saber algo más sobre los PIC pincha aquí

Flexibilidad es la clave para el éxito de los super-canales

Los supercanales deben ser extremadamente flexibles en una serie de parámetros:

  • ¿Qué tipo de modulación debería usar?
  • ¿Cual es la mejor manera de optimizar la eficiencia espectral y el alcance
  • ¿Qué espaciado deben tener las portadoras?
  • ¿Cual debería ser la anchura total de un super-canal?

Un super-canal ideal  debería permitir seleccionar todos estos parámetros mediante software. De manera que el operador pudiera escoger, en el momento de la provisión, la combinación óptima de parámetros para cada circuito.

El concepto de rejilla flexible, parece que es una opción que no se podrá descartar para obtener velocidades en torno a 1 Tbps de manera eficiente, y eso implica que será imprescindible que el espaciado y la anchura de los canales sea dinámico y configurable por SW. El horizonte temporal de disponibilidad no va más allá de los 4 años.

Puedes encontrar un interesante Whitepaper con mucha más documentación en Super-Channels DWDM Transmission Beyond 100 Gbps

Hace unos días salió una noticia a la palestra de los foros tecnológicos informativos. Se publicitaba a bombo y platillo que con una técnica innovadora, el cobre podría alcanzar velocidades de 100 Mbps y superiores. Va a ser que no. Pongamos los puntos sobre las ies

El culpable de este subidón de velocidad es una técnica que se conoce como vectoring, que para empezar de novedosa, poco. Se lleva mucho tiempo trabajando sobre la vectorización de los pares de cobre, y los resultados siempre han sido bastante pobres. Las mejoras que producen en la velocidad alcanzable son tan nimias, que no compensan en absoluto el despliegue. Estamos hablando desde el punto de vista de la realidad de una planta existente y desplegada.

El cable de cobre que llega a tu casa no va solo, sino que va dentro de unos cables que engloban desde unos pocos, a unos cientos y hasta unos miles. Las señales que se generan en la familia XDSL son señales multiportadoras, es decir, en vez de llevar un camión enorme para llevar tu información, lo que se hace es llevar una caravana de camiones más pequeños, y cada uno de esos camiones, que son las portadoras, llevan un poquito de la información. Al estar los cables tan juntos unos con otros , y con tantas portadoras por ahí sueltas, se producen interferencias entre los cables llamadas diafonías (crosstalk), que consisten básicamente en que las señales de un cable se cuelan en otro. Con la técnica de vectoring, esto se limita considerablemente. Pero para que funcione correctamente, y las mejoras sean apreciables, la técnica tiene que aplicarse a todos y cada uno de los pares que forman parte del cable. Con que haya uno que no esté vectorizado, las prestaciones bajan.

En países como España, la regulación obliga a compartir el par de cobre, ya que forma parte de la infraestructura previa al periodo de liberalización del sector. Eso quieres decir, que por un mismo cable van los clientes de todos los operadores que den servicio en esa zona, y cada uno de estos cables acaba en las instalaciones de sus respectivos operadores, en unos equipos llamados DSLAM (Multiplexor de Acceso de Líneas DSL). Si quieres saber con más detalle cómo es la red de acceso de cobre, puedes verlo en  Redes de Acceso.

 Esto es lo que se conoce como desagregación de bucle. Y en zonas desagregadas NO ES VIABLE desplegar estas técnicas, porque al quedar pares sin controlar, los beneficios serían ridículos y no compensarían en absoluto el despliegue de la nueva técnica.

A eso tienes que añadir el hecho, de que para aplicar correctamente la técnica, tiene que aplicarse a todos los pares de un mismo DSLAM, y es relativamente habitual que un operador disponga de varios suministradores para sus equipamientos.

Existen armarios de intemperie que se colocan para llegar a zonas que no tienen cobertura desde la central. En estos armarios, no hay obligación de desagregar bucle y por lo tanto sería viable aplicar esta técnica de vectorización. Pero se trata de un porcentaje realmente pequeño sobre la población total. Y a esto se le añade el hecho de que las velocidades son interesantes por debajo del kilómetro de distancia al armario, con lo que reduces aún más lo población potencial a la que ofrecerías el servicio.

La vectorización no es la única técnica que se puede aplicar para incrementar la velocidad en el cobre.

  • El bonding, lleva también muchos años en análisis, y nunca ha salido de ahí, por las dificultades operativas que presenta. Se trata de unir varios pares de cobre, en lugar de uno solo. Algo tan aparentemente fácil, es realmente un quebradero de cabeza desde el punto de vista operativo y logístico, añadiendo que tampoco hay tantos pares libres como para aplicarlo de manera generalizada
  • Técnicas de Retransmisión, que se encargan de volver a enviar los paquetes perdidos. Los mecanismos de protección que se establecen, para garantizar la calidad en la conexión, son bastante restrictivos de cara a la velocidad. Es el dicho vísteme despacio que tengo prisa, en versión eléctronica…si quieres hacer las cosas bien, hazlas despacio. Estas nuevas técnicas conseguirían seguir haciendo las cosas bien, yendo un poco más deprisa. Hay estándares disponibles al respecto, pero lo que no hay es nadie que lo use…probablemente porque las mejoras no compensan las modificaciones a realizar
  • Técnicas de adaptación de velocidad a las condiciones del bucle, para conseguir en cada momento la máxima sincronización posible. Hoy en día, cuando enciendes el módem, sincroniza a una velocidad concreta y mientras no surjan problemas o no apagues y enciendas el módem, sigue con la misma sincronización. Con este tipo de técnicas, hay que asumir que la velocidad máxima que se puede alcanzar variará con el tiempo. En cualquier caso son técnicas que aún no están disponibles y dudo mucho que ofrezca unas ventajas significativas como para incrementar la velocidad de los servicios sobre cobre.
  • Incluso realizando cambios de protocolos de nivel 4 (el UDP por el TCP), se podrían relajar las restricciones que se imponen a nivel físico.  Si tengo un protocolo que me asegura la retransmisión de paquetes, como es el TCP, tengo cierta garantía de que no los voy a perder, acabarán llegando, de manera que a nivel físico, puedo utilizar más portadoras aumentando el ancho de banda correspondiente, aunque estas portadoras no estén en muy buenas condiciones y provoquen errores, que serán solventados por el TCP.

Conclusión, todas estas técnicas son pequeñas aportaciones que no pueden llevar de manera generalizada a un incremento considerable en las velocidades que se pueden obtener con el cobre. Lo que producirán probablemente serán beneficios en los servicios existentes, al aumentar calidad y estabilidad de las señales. Así que si quieres 100 Mbps en tu casa, o te pillas docsis 3.0 tú solo en el barrio, o te pillas fibra hasta la cocina y esperas a que la velocidad comercial suba a 100 Mbps.

 

PD: ACLARACIÓN TÉCNICA SOBRE LA VECTORIZACIÓN DE LOS SISTEMAS DSL

Existe una serie de técnicas que se denominan DSM, Gestión Dinámica del Espectro. Las técnicas DSM tratan de reducir y mitigar la diafonía aplicando algoritmos que optimicen el uso de los recursos disponibles (subportadoras utilizadas, potencia transmitida por subportadora, bits transmitidos por subportadoras,…) a través de la gestión del espectro Estas técnicas se pueden dividir en cuatro niveles, que se definen atendiendo al grado de dinamismo en la gestión de los recursos y al nivel de coordinación existente entre los sistemas DSL.

  • DSM Nivel 1: Se encarga de controlar el ruido impulsivo de un par en concreto, sin afectar a los pares adyacentes. Se controla la densidad espectral de potencia de la señal (PSD) tratando de emplear la mínima potencia necesaria pero manteniendo constante el margen de ruido.
  • DSM NIVEL 2: Se realiza una optimización conjunta de todos los cables del sistema. El ajuste de las densidades espectrales de potencia con el que se transmite cada subportadora en un enlace, se  hace teniendo en cuenta los niveles de potencia con los que se está transmitiendo esa misma subportadora en los pares contiguos. Existe por lo tanto una entidad que coordina todos los bucles de un mismo cable.
  • DSM NIVEL 3 (Vectorización): Implica un ajuste dinámico a nivel de señal basado en la  coordinación entre los usuarios que comparten el mismo cable. Lo que se pretende es eliminar el efecto de la señal interferente por diafonía de dos modos, atendiendo al sentido de la transmisión.  En sentido descendente se utilizará una  precodificación de canal para eliminar la interferencia a la entrada del receptor de los  usuarios. Por el contrario para el sentido ascendente de la transmisión, ya que no se puede actuar sobre los módems de los clientes, se emplearán métodos de decodificación conjunta en el extremo de la central. Por eso todos los pares en la central deben colgar de un mismo DSLAM y en casa del usuario habría que actualizar la versión de SW del módem router, o cambiarlo.

IP, Internet Protocol, es el lenguaje de Internet, con matices, como ya expliqué en la entrada de Las Redes IP.

Este protocolo, se encuentra desplegado en su versión 4, que es lo que se conoce como IPv4. Pero como sucede siempre en el mundo de la tecnología, ésta se queda obsoleta, y demasiadas veces muy rápidamente. ¿Cuantas veces te has cambiado de teléfono móvil? Pues eso.

En el caso del IPv4, ha durado más de lo que muchos gurús decían. Hace años que la amenaza se cierne sobre el IPv4…la espada de Damocles acechaba detrás de cualquier router, pero el IPv4 seguía aguantando el tirón. Hasta que llegó el día en el que ya no pudo más, y ahora sufre una lenta y agónica marcha hacia su desaparición definitiva…la cual probablemente dure más que su propia vida, ya sabemos eso de que las cosas de palacio…van despacio…

¿Cual ha sido el detonante para este vil y cruel destino? Entremos un poquito en harina. El IPv4, como todo protocolo que se precie, se puede equiparar a una caja con dos compartimentos. Uno de ellos se llama cabecera, y ahí es donde se mete toda la información relacionada con la metafísica…¿quien soy? ¿a dónde voy?¿de donde vengo?¿cual es mi tamaño?¿que  tipo de carga transporto?¿cuanto me queda de vida?…típicas preguntas que cualquier paquete se haría. Esta información la necesitan los routers para hacer sus cositas. En el otro compartimento iría la información que realmente interesa al usuario final, las transparencias con gatitos, los correos en cadena…ya sabes.

En el compartimento de la cabecera en el IPv4 existen a su vez varias cajas. La que ha sido responsable de todo este lio es la caja que contiene las direcciones IP, que resulta que es demasiado pequeña. A los gurus que inventaron el protocolo, no se les ocurrió, ni en sus sueños más húmedos, que harían falta más de  4.294.967.296 direcciones IP, es decir, rondando los 4.300 millones de direcciones. Este número tan curioso sale de los 32 bits que caben en una caja de direcciones IP…2 elevado a 32 sale justo eso. Ni más ni menos.

Hace ya unos cuantos años, los organismos que manejan las direcciones dieron la voz de alarma…se nos están acabando las direcciones IP…como la cosa parecía que iba en serio, los que tenían direcciones que ya no utlizaban empezaron a devolverlas. Con eso aguantamos unos cuantos años más. Pero parece que ahora sí que viene el lobo, y todos los grandes operadores de redes IP están haciendo sus números y sus cálculos.

Para solventar el problema, lo que hacemos es cambiar de versión de protocolo IP, nos pasamos a la IPv6, que tiene una caja de bits mas grande…caben 128 bits…eso significan…me mareo sólo de pensarlo, ¿os acordaís del número de Avogadro y de lo que era un mol? Pues más…estamos hablando de 3,4 por 10 elevado a 38 ceros. Nuestro cerebro no está capacitado para asumir tantos ceros. Típicas comparaciones divertidas, la equivalencia entre el IPv4 y el IPv6 sería como comparar el peso de un átomo (da igual, escoge tu elemento favorito de la tabla periódica) con el de una ballena de 80 toneladas, percebe  arriba, percebe abajo.

Aparte de aumentar INCREIBLEMENTE el número de direcciones IP disponibles para repartir por el mundo mundial, el IPv6 presenta otras ventajas adicionales, como una caja de cabecera más simple que facilita el trabajo de los routers, más fácil para gestionar la movilidad, es más seguro…claro una nueva versión siempre mejora a la anterior.

Que quede claro que se trata de una evolución, no de una revolución. Con este cambio, hasta la cesta de las patatas podrá tener su dirección IP, para así mandarte una alerta al móvil avisándote de que se están brotando. Lo que inventa el  sapiens…

Lo más gracioso de todo esto, va a ser cómo se van a ir migrando las redes de un protocolo a otro. Ríete tú del efecto 2000, aquí si que se puede liar parda. Hay diferentes estrategias para hacerlo. Diría que tantas como operadores de redes IP, que si no se acerca al número de estrellas en la galaxia, debe andar por ahí por ahí. Algunos aguantarán con el IPv4 hasta que revienten. Otros irán de vanguardistas y pondrán el IPv6 si no lo han puesto ya, que haberlos haylos. Dentro de cada red se pueden establecer islas de IPv6 rodeadas de IPv4. Puedes hacer que tu red funcione en IPv6, pero luego haces traducciones a IPv4 para conectarte con otras redes o con tus clientes finales. Puedes seguir prestando tus servicios de toda la vida en IPv4, y los nuevos con IPv6. Puedes complicarlo o simplificarlo tanto como puedas o necesites.

Para los humildes mortales, que por ahora no necesitamos un millón de direcciones a repartir entre tus cosas de casa, nos la trae un poco al pairo, y no vamos a salir en masa a la calle a manifestarnos para que todo sea IPv6. Pero hay una cosa que se llama M2M, Machine to Machine, que probablemente sea lo que tire hacia delante de las migraciones. Cada vez son más las máquinas que se interconectan entre ellas para intercambiar información, y cada una de ellas con su dirección IP. La idea es que la patata avise que se brota al servidor de patatas que tendrá el verdulero, para que a su vez se conecte al servidor del mercado central de patatas, para que hable con el hortelano que vaya plantando. Por ejemplo se me ocurre…

Las Redes IP

Publicado: 27 septiembre, 2011 en Tecnología
Etiquetas:, , , ,

Internet es IP, seguro que alguna vez habrás escuchado algo parecido a esto. En realidad IP significa Internet Protocol, es decir, protocolo entre redes. Internet, la que se escribe con mayúscula, en realidad no es sólo IP, es un modelo TCP/IP. Vamos a ver todo esto que significa.

El protocolo IP es un protocolo muy potente para conectar diferentes redes, y para encaminar el tráfico hacia el destino adecuado. Los routers, que son los equipos de red que hablan IP, funcionan como los carteros. Imagínate cómo funcionaría la oficina de correos,sí, la de toda la vida, esa que ya nadie usa. Todas las cartas que llegan son separadas, por ejemplo, en cuatro grupos: locales, provinciales, nacionales, internacionales. Cada uno de esos cuatro grupos a su vez volvería a dividirse en por ejemplo en el caso de las internacionales, a Europa, a América, etc. Esa clasificación se realiza en función del destino de las cartas, que te recuerdo que aparece en la parte delantera del sobre. ¿Cuanto haces que no envías una?

Los paquetes IP serían como una carta con su sobre, y tendría la siguiente información:

  • el destino, es decir, hacia donde va ese paquete, su dirección IP destino,
  • el remitente, es decir, quíen escribe la carta o quíen está enviando el paquete IP, la dirección IP origen.
  • la carta propiamente dicha, lo que va dentro del sobre, iría dentro del paquete IP, sería la información útil que se está transportando, tu correo electrónica, la página del banco…

El router, que haría de cartero, cogería un paquete IP, miraría su dirección IP destino, y se iría a buscar en una tabla que tiene a buen recaudo y que se llama tabla de routing. En esta tabla aparecen todos los posibles destinos que se pueden alcanzar desde ese router, agrupados en lo que se llama siguiente salto o next hop.

Es decir, IP seleccionaría, de todos los routers vecinos con los que está conectado directamente, el adecuado, y le lanzaría el paquete, pero sin prestar atención a si el paquete llega correctamente a su destino o no. Su trabajo ha terminado, al menos de momento. Si Internet fuera solo IP no funcionaría, porque los paquetes perdidos nunca llegarían a su destino.

Ahora hablamos de los acompañantes del IP, porque aunque una red se diga de ella que es una red IP, este protocolo no es el único que se habla en dicha red. Está acompañado de muchos y diversos compañeros de batalla, y entre todos hacen posible la comunicación a través del mundo.

Tendríamos un protocolo que se llama TCP (Transport Control Protocol) que estaría mirando por encima del IP, y viendo que los paquetes que el IP manda llegan correctamente a su destino. Si hay algún problema y el paquete no alcanza su destino final, el TCP le dirá al IP, oye vuelve a lanzar este paquete porque no ha llegado, y el IP, que es muy obediente, retransmitirá el paquete de nuevo. Este es el modelo que funciona en Internet, al menos por ahora…

Para aplicaciones como navegar por Internet, da igual que un paquete llegue antes que otro, o que no lleguen ordenados tal y como salieron del origen. Pero hay otras aplicaciones, como por ejemplo la voz y el vídeo, en las que no tiene ningún sentido que lleguen los paquetes fuera de su momento temporal. Si un paquete se pierde, es mejor que no se retransmita, porque cuando llegue a su destino, no va a poder ser utilizado, ya que la frase a la que pertenece o el fotograma del que forma parte, ya ha pasado. En estos casos no se utilizan protocolos como el TCP, que no son válidos para aplicaciones en tiempo real, sino que en su lugar se utilizan protocolos del tipo UDP (User Datagram Protocol), que no retransmiten los paquetes perdidos y se centran en enviarlos cumpliendo los plazos.

El IP también se rodea de lo que se denomina protocolos de routing, que son los que rellenan la tabla de routing, recordemos que era donde el router miraba para saber por donde tenía que sacar el paquete que estaba analizando. Hay muchos tipos de protocolo de enrutado, y siguen diferentes filosofías, desde los más simples como el RIP (Routing Information Protocl), que rellenan la tabla de manera estática e inamovible, a los más complejos como el OSPF (Open Short Path First) o BGP (Border Gateway Protocol) que hablan entre ellos para saber en cada momento cual es el mejor camino para llegar a cualquier sitio. En este caso, por lo tanto, las tablas de rutas están continuamente actualizándose, y así el router sabe cual es el mejor camino para llegar a cada destino. Es como tú cuando conduces, sueles coger una ruta habitual, pero si escuchas en la radio que hay un atasco, o es viernes y tu experiencia te dice que lo habrá, seleccionas otro camino alternativo, que son más kilómetros pero vas a tardar menos tiempo. Eso es lo que hacen los protocolos de routing.

También tenemos al amigo MPLS (Multiprotocol Label Switch) que corre en toda red IP que se precie. El protocolo IP necesita de mucha capacidad de procesado, y la escalabilidad es complicada cuando tenemos miles, millones de redes a las que podemos llegar. Por eso, en los núcleos de las redes IP, no se habla en IP, se habla en MPLS, y sólo en los bordes de la red IP, que son los que se conectan con otras redes IP, se habla IP puro y duro. Con el MPLS en el núcleo de la red, tengo más control sobre mi tráfico, ya que lo que hace es etiquetar caminos, y todos los paquetes que vayan por el mismo camino tendrán la misma etiqueta. Sería algo parecido a este ejemplo, imagínate que te vas con todos tus amigos de fin de semana. En vez de ir 20 coches, como todos vais al mismo sitio, alquilais un bus. Los routers, que también hablarán MPLS, en lugar de mirar todas y cada una de las direcciones IP destinos de todos y cada uno de los paquetes, sólo tendrá que mirar la etiqueta para decidir el camino por el que envía el paquete.

Internet, no es ni mas ni menos, que todas las redes IP del mundo interconectadas entre ellas…todas o casi todas. Cada red IP tiene asociado bloques concretos de direcciones IP, de manera que sabiendo la dirección IP, sabes donde tienes que ir….algo parecido a los códigos postales que usamos en las ciudades. Juntando todos estos protocolos conseguimos un medio maravilloso de comunicación con posibilidades todavía desconocidas.

Las Redes de Transporte suelen ser las grandes desconocidas para los que no están directamente relacionados con el negocio de las Redes de Telecomunicación. Y sin embargo, son imprescindibles para que la comunicación fluya de un lugar a otro.

Seguro que has escuchado hablar de Redes IP, de Redes Ethernet, del ADSL, de la Fibra….pero esto del transporte te suena a coche, tren, y similares. Bueno no vas desencaminad@, porque el concepto es exactamente el mismo. Cada una de las tecnologías que intervienen en un sistema de comunicación tiene su función. La función de la Red de Transporte, o de Transmisión, es llevar, físicamente, la información de un lugar a otro, normalmente de manera transparente. Es decir, da igual que se trate de una llamada de teléfono, de un acceso a tu correo electrónico o de una película que estás viendo en tu televisor. La información al final son 1 y 0 que van de un sitio a otro. Y lo hacen mediante estas redes.

La Red de Transporte, por lo tanto, une los POP o Puntos de Presencia, de los Operadores de Telecomunicación. Y para ello se utiliza fibra óptica principalmente, ya que es el portador que mayor ancho de banda permite. También se pueden utilizar cables de cobre o coaxial, pero están tendiendo a desaparecer, por alcance y por ancho de banda. Otra alternativa interesante en zonas aisladas o de difícil acceso es utilizar las conexiones radioeléctricas. Cuando veais una torre de antenas, las que son planas y rectangulares son de servicios móviles, pero las que son como panderetas grandes o como parabólicas pequeñas pertenecen a la red de transporte.

  La arquitectura de este tipo de redes es diversa, y cada operador despliega las que mas le conviene según el tipo de zona que quiera cubrir y según el tráfico que quiera transportar. Por ejemplo se pueden utilizar topologías en forma de anillo, es decir, todos los nodos estarían conectados formando un anillo. Tiene la ventaja de que es una forma barata y fácil de desplegar una red, además presenta cierto tipo de seguridad ante la caida de un enlace, ya que siempre se puede dar la vuelta al anillo por el otro lado para llegar al destino. Las arquitecturas en forma de malla, es decir, nodos unidos unos con otros en mayor o menor grado son mucho más flexibles y versátiles, pero son más caros de desplegar, hay más enlaces entre los nodos. Y precisamente gracias a esto, una arquitectura en malla puede tener varios caminos alternativos para llegar de un punto a otro.

Las tecnologías que se utilizan en este tipo de redes suelen clasificarse en dos grandes tipos:

  • Sistemas Síncronos, se trata de equipos eléctricos, que manejan electrones para hacer los 1 y 0. La tecnología por excelencia en Europa es  SDH (Jerarquía Digital Síncrona), que podría equipararse a un tren que consta de la locomotora, y los vagones.  El tren tiene un horario que cumplir, siempre llega y sale de la estación puntualmente. En los vagones es donde se almacena la información de los distintos tipos de tráfico, desde la voz, hasta los datos, pasando por vídeo y lo que quieras.
  • Sistemas Ópticos, es decir, que manejan fotones. Aquí la tecnología estrella es el WDM, Multiplexación por División en Longitud de Onda. Cuando llueve y hace sol, la luz que emite el sol al atravesar las gotas de agua se desparraman en los colores del arcoiris. Eso es lo que hace esta tecnología. Lo que se consigue es tener una autopista de muchos carriles para ir de un lugar a otro, en lugar de una carretera de un solo sentido. Sobre una fibra óptica se transmiten muchos colores y cada color es un canal de comunicación independiente

Las Redes de Transporte, hasta ahora, han sido redes independientes y transparentes, es decir, les daba igual transportar un paquete IP, o una trama Ethernet, porque no los tocaban, solo cogían la información y la envíaban de un punto a otro. La evolución de las redes hacia el concepto de NGN, Redes de Nueva Generación está cambiando la visión y el papel de la red de transporte. Las nuevas soluciones pasarían por integrar funcionalidades de transporte en los diferentes tipos de redes, o bien, implementar nuevas tecnologías que permitan transportar los paquetes de forma eficiente. Estas tecnologías podrían ser MPLS-TP, PBB…demasiado para incluirlo aquí.

Realmente suena a insulto, además de los buenos buenos, no me digas. ¡So pedazo de Plasmón!, ¡Estás Aplasmonao!…pues nada más lejos de la realidad. La Plasmónica es una nueva rama de la óptica que estudia las propiedades ópticas de metales nanoestructurados, ahí es nada.

En El Desenfreno Obsceno de los Plasmones y el Grafeno os hacia una pequeña introducción de lo que era un plasmón, y de cómo, en combinación con el grafeno, se podían obtener fotodetectores que trabajarían a velocidades realmente elevadas. También aparecieron de soslayo en la entrada Circuitos Fotónicos Integrados (PIC), donde se comentaba que se usaban plasmones para las metalizaciones, una de las tecnologías integradas para la fabricación de los PIC. Creo que los plasmones merecen algo más que ser el convidado de piedra, así que una entrada nada más que para ellos, por majos. ¡Arremángate!

Los metales reflejan la luz, nada nuevo bajo el sol. La luz se transmite en las 3 dimensiones del espacio. En condiciones especiales, los metales son capaces de hacer que la luz se transmita en dos dimensiones, paralalelas a su superficie. Esta luz “superficial” es algo más complicada que la luz normal, ya que incluye además del campo electromagnético que la vió nacer, a los electrones que corretean libremente por los metales. Esto es lo que se conoce como Plasmón Superficial desde hace ya más de medio siglo.

Los plasmones superficiales viajan pues a través de superficies planas a velocidades cercanas a las de la luz. Además podrían transportar señales eléctricas, ópticas o ambas a la vez, recuerda que son una combinación de fotones y electrones. Como están confinados en las superficies metálicas, se ven muy afectados por cualquier cambio que se produzca en esas superficies que atraviesa. Es decir, que encontrando la modificación de la superficie adecuada, el plasmón hará lo que nosotros queramos que haga, es decir, controlaremos su flujo. Y eso es lo que ya hacemos. A día de hoy se pueden generar Plasmones Superficiales de manera muy eficiente y moverlos por la superficie a nuestra voluntad. ¿Que obtenemos con esto? Lentes, divisores de haz, guías de onda, transistores, y circuitos. Electrónica y Fotónica. Además podemos extraer la energía que transmiten en forma de luz o señal eléctrica, y así poder enviarla a distancias mayores.

Para crear circuitos plasmónicos de verdad, los plasmones deberían confinarse en la dirección perpendicular a la superficie y además lateralmente en la misma superficie. Lo que se necesita conseguir es que la luz en forma de plasmón superficial se propague con dimensiones laterales del orden de una micra. Para ello habría que reducir la dimensión lateral del conducto metálico por el que viaja el plasmón superficial. Aparece un inconveniente, y es que al reducir dicha dimensión, se reducen también las distancias que recorren los plasmones superficiales antes de ser absorbidos. La cuestión es que en ese moverse desenfrenado de los electrones del metal, se disipa energía en forma de calor. Conforme el Plasmón se desplaza, su energía se va transformando en calor hasta que desaparece, es absorbido. Los Plasmones Superficiales no nos valen si queremos transportar energía más allá de una décima de milímetro. Pero una décima de milímetro puede ser un mundo en un entorno nano, donde las distancias son unas pocas de micras.

Transportar energía es transportar información, por ello los Plasmones Superficiales podrían estar presentes en los ciruitos de ordenadores, o de equipos de telecomunicación, trabajando a unas velocidades mucho más elevadas. Tienen un futuro esperanzador, ¿no quieres ser Plasmón?

 

 

 

L@s chic@s del CSIC han conseguido obtener una molécula magnética que se comporta como  una puerta lógica cuántica. Básicamente han encontrado una pieza fundamental para la fabricación de un ordenador cuántico.

Hay unas cuantas cosillas aquí que convendríamos aclarar. Para empezar, esto de la computación cuántica suena un tanto extraño, lo de puerta lógica, lo mismo también, si le metes la coletilla de cuántica al final resulta que lo que mejor entiendes es lo de molécula magnética.

En un ordenador convencional, la información se transmite, se guarda y se procesa en bits, y éstos pueden adoptar el valor 1 o el valor 0. A base de cadenas de 1 y 0 se pueden intercambiar todos los mensajes que te puedas imaginar. Además, estos 1 y 0 en un ordenador convencional suelen ser voltajes, de manera que la información, los bits, se guardan en memorias que básicamente son circuitos diseñados para mantener estables los voltajes. Los bits se transmiten enviando esos voltajes por cables, y esos bits se procesan en circuitos denominados puertas lógicas. Las puertas lógicas son unos cuantos transistores que se combinan formando circuitos integrados o chips, y se llamán así porque en función de las entradas y aplicando una tabla de valores lógicos booleanos, o sea Verdadero y Falso, se obtiene la salida. Son la base de la electrónica digital.

Memorias y puertas lógicas son dos componentes claves de un ordenador. Pero esto aplica tanto a un ordenador convencional como a un ordenador cuántico.

En los ordenadores cuánticos, no se usan bits, sino qubits, que es la contracción de quantum+bits. El qubit se encuentra en una superposición de estados, es decir, puede ser 1 y 0 a la vez. Almacenar, enviar y procesar qubits se realiza de manera diferente a los voltajes empleados en los bits, obviamente. Por ejemplo, se pueden usar iones atrapados en campos eléctricos dentro de cámaras de vacío a temperaturas ultrabajas, que se manipulan con láseres. Un qubit también puede representarse como el spin de un electrón atrapado en un pozo cuántico, de forma que si “giraba” en un sentido representaba un 1 y si giraba en el sentido contrario representaba un 0. En estos casos el valor el qubit se puede manipular con campos magnéticos.

Al operar con qubits, se pueden realizar muchas operaciones a la vez, ya que los registros pueden adoptar varios valores a la vez, de manera que por ejemplo de sumar esos dos registros nos saldrían todos los resultados obtenidos por combinaciones de los diferentes valores que puede adoptar cada registro. Es decir, con un único circuito y una única operación, obtendríamos simultáneamente grandes cantidades de resultados.

Además, con el ordenador cuántico podríamos hacer una nueva operación que no puede realizarse en un ordenador convencional, que sería observar un registro. Para los aficionados a la cuántica, inmediatamente habrán asociado esta nueva operación al hecho de abrir la caja donde se encuentra el gato más famoso del mundo científico.

Las puertas lógicas que manejan qubits serán las puertas lógicas cuánticas, nada fáciles de entender por cierto. Las puertas lógicas suelen ir unas conectadas con otras, de manera que en conjunto definen una orden concreta a realizar sobre la información almancenada en la memoria. Cuando hablamos de computación cuántica, cada puerta debe estar formada por dos componentes diferentes y acoplados entre sí, pero ya sabemos lo puñetera que es la naturaleza y la manía que tiene con la simetría.

Pues lo que han hecho nuestros científicos es diseñar una molécula asimétrica formada por dos átomos de Terbio que encapsulan en dos corpúsculos orgánicos diferentes, de manera que cada uno tiene propiedades magnéticas distintas. Ideales para convertirse en una puerta lógica cuántica. No es la primera puerta lógica cuántica que se diseña, pero sí la más barata y fácil de obtener porque se basa en una reacción química.

Ya estamos un pasito más cerca de la computación cuántica. Lo mismo hasta nos da tiempo a jugar al tetris en un ordenador cúantico…

Te mueves o te mueres

Publicado: 7 septiembre, 2011 en Cadaunada
Etiquetas:,

Lo correcto sería te mueves y te mueres, incluso si no te mueves también te mueres, pero estaríamos hablando en el sentido literal de la palabra muerte. No, ese no es el sentido del título. Se trata de un sentido alegórico,  uno de tantos que puede tener.

Cuando digo te mueves, digo con los tiempos, no en el espacio. Si no avanzas con los tiempos acabarás desintegrándote y materializándote en un mundo de carcas, retros, reaccionarios, desfasados, talibanes…llámalos como quieras, pero son gente muerta. Muerta para el sistema y muerta para los tiempos, porque es cuestión de tiempo que estén real y literalmente muertas.

A lo largo de nuestra vida, la percepción del tiempo va cambiando. El tiempo vivido sufre una aceleración constante, in crescendo. Cuando eres niño una hora es una eternidad. Cuando eres viejo un año es un minuto. Hay muchas teorías al respecto, de porqué esto sucede, y la verdad es que ninguna de las que he leído me ha convencido especialmente. Pero constatemos el hecho: el tiempo vivido se acelera.

Igualmente sucede con nuestra capacidad de adaptación a los cambios. Cuando eres niño todo es nuevo, vives en un cambio constante,  casi todo lo que te acontece es la primera vez que sucede, y por lo tanto vives  tu vida y la aceptas con la incertidumbre e inseguridad que conlleva. Conforme vas creciendo, madurando, envejeciendo, vas construyendo tu arquitectura mental y llenando tus discos duros a base de rutinas, repetición, prejuicios, costumbres, verdades absolutas que luego resultan que no lo son tanto, pero cuando es demasiado tarde. Eso conlleva que  cuando te sacan de tu espacio de confort, que es en el que te sientes a gusto y seguro, es decir, cuando te enfrentas a situaciones nuevas, inesperadas, diferentes, caóticas…te acabas bloqueando, acojonando, huyendo, o en el mejor de los casos respondes aplicando los mismos principios que usarías en las mismas situaciones de siempre. Vas perdiendo los reflejos, la capacidad de innovación, la creatividad, la originalidad, la espontaneidad. Está claro que unos más que otros, porque no todo el mundo ha tenido las mismas capacidades de partida ni la misma evolución. Pero aún manteniendo el sempiterno cada uno con sus cadaunadas, extrapolemos grosso modo, que es la única forma de extrapolar en cuestiones humanas.

Los hay que, a pesar de detectar que los sistemas que capacitan la reacción óptima ante la diferencia se están anquilosando, luchan por desengrasarlos y seguir manteniéndose vivos en los tiempos que corren. Los hay que ven como el tren acelera y ni siquiera hacen el intento de correr tras el. Otros no pueden correr.

Cuando hablo de este tren que algunos cogemos, otros dejan pasar sin inmutarse, y otros no tienen billete, no me refiero a un tren único, o más bien sería un tren con muchos vagones. Un vagón sería por ejemplo la forma de vestir, otro vagón sería la forma de educar a los hijos, la forma de comer, los propios programas de televisión son un fiel reflejo de cómo cambian los tiempos. No entiendo cómo llevan ahora esos pantalones cagaos y esas sandalias medio botas, no entiendo cómo puede estar bueno un trozo de pescado que cocinas en una bolsa de plástico, no entiendo como la consola puede reemplazar a un progenitor. Pero es que no tengo por qué entenderlo, sólo tengo que respetarlo.  Si te quejas de las cosas que hace, dice o usa la gente más joven que tu, piensa en engrasar tu sistema de adaptación al cambio. Muévete.

Hay un vagón que es especialmente interesante, hablo de la tecnología. La revolución tecnológica que hemos vivido los últimos 20 años, y que seguimos viviendo, será algo que nuestros nietos estudiarán en el cole como un gran momento histórico, un enooooorme paso para la humanidad. Se trata de un tren que no admite términos medios. La gran mayoría se posiciona en los extremos, o están activa o pasivamente en contra de la tecnología (yo no puedo, ya me ha pillao mayor, me siento inútil, es antinatural) o están totalmente enganchados a ella (horas muertas chateando, navegando, jugando, pendientes del móvil, de los mensajes). A medio/largo, en cuestión de supervivencia, ninguna de estas dos estrategias parece ganadora. Como ya sabían hace mucho tiempo, en el punto medio está la virtud, y aunque es una afirmación que no comparto en términos generales, al particularizarla en la tecnología estoy totalmente de acuerdo.

Se trata de que la uses, la utilices, detectes para lo que te sirve, para lo que te puede ser útil y para lo que necesites. Si hay un no en tu detección, no significa que estás en contra de la tecnología, simplemente que no te hace falta. Obviamente eso en el sentido amplio de tecnología no pasará, porque seguro que ves la tele, escuchas música, esto también es tecnología. Lo que si es importante es estar al tanto de lo que va surgiendo, y para qué sirve, si te es útil estupendo, si no, pues estupendo igualmente. La tecnología hay que racionalizarla, ponerla en su sitio, no es ni buena ni mala, no niegues sus bondades, pero critica sus puntos oscuros. Recuerda siempre que en este mundo traidor, nada es verdad ni es mentira, todo es según del color, del cristal con qué se mira. La mejor manera de moverse con los tiempos es tener siempre a mano un cristal transparente.

A la mayoría de la gente se le erizan las carnes cuando oye el palabro. Metafísica cuanto menos suena a coñazo, y cuanto más a algo que no hay dios que lo entienda…¡nunca mejor dicho!

La Metafísica, en sentido clásico, es la rama de la filosofía que se encarga de estudiar la realidad y el ser, tratando de encontrar los fundamentos, la estructura y los componentes últimos. Nos posicionamos más allá de la naturaleza y nos hacemos las preguntas últimas. En mayor o menor medida, todos y cada uno de nosotros hemos hecho Metafísica, incluso sin saberlo, así que no está tan lejos como pensábamos. La Metafísica es el alma mater de las pajas mentales más trascendentes.

La Metafísica clásica planteaba la búsqueda de la verdad absoluta, más allá de cualquier duda. Pero al tratarse de temas tan intangibles, y con tan altas pretensiones, la Metafísica ha sufrido, desde Hume un ataque despiadado, mediante una crítica destructora de los conceptos fundamentales que la componen: yo, substancia y causa. Hasta Kant, la Metafísica era considerada Ciencia, después de Kant dejó de serlo. Los objetos de la Metafísica no son susceptibles de ser analizados desde el punto de vista científico. Ya ni entramos en detalles de lo que hicieron Nietzsche, Freud o  Marx con la pobre Metafísica. Como consecuencia, muchas corrientes filosóficas han decretado radicalmente la  muerte de la Metafísica, como el estructuralismo o el neopositivismo, y no se encargan para nada de aspectos metafísicos. Otras corrientes intentan salvar lo que se pueda. En cambio otras, lo que quieren es deconstruir lo que queda de la Metafísica tradicional para construir una nueva Metafísica. ¿Cómo se definiría esta nueva Metafísica?

Desde el punto de vista tradicional  podríamos dividir la Metafísica en Ontología, o teoría del ser en cuanto ser, y Teodicea o Teología natural.  Bien, pues vamos a mantener esta división, pero vamos a redefinir lo que es la Ontología y lo que es la Teodicea. Consideramos la Ontología como una reflexión en torno a las grandes ideas de la Razón, en oposición a los conceptos del Entendimiento, propios de las ciencias. Es decir, el objetivo de la Ontología sería construir una explicación última de la realidad, propuesta como una ficción arriesgada e inverificable directamente, que complete y sistematice los datos de las ciencias, necesariamente parciales e incompletos. Ojo, todo esto sin pretensiones de verdad. El sistema metafísico es un sistema abierto, no referido a las esencias de las cosas, sino a sus circunstancias. Es un sistema preparado para acoger el azar, lo imprevisto. Esta Ontología ha renunciado a la verdad absoluta y a propocionar un ser fuerte, abierto al hombre y capaz de servir de fundamento seguro y fijo; el objeto de esta Ontología es un Ser débil, construido por el ser humano, y que más que fundamento es abismo. Es decir, un ser reflejo de nosotros mismos.

Respecto a la Teodicea, sus temas fundamentales son el estudio del problema del mal en el mundo y la cuestión del sentido de la existencia humana. El aspecto de Teología natural queda eliminado ya que no es posible decir nada sobre Dios fuera de la fe religiosa. Lo infinito ha sido creado por los hombres para aliviar su radical finitud, su anhelo de apertura a la trascendencia. La Teodicea, reformulada de esta manera, es la afirmación radical de la finitud humana; junto a la esperanza de que esta finitud no sea la última palabra, la verdad absoluta.

¿Cómo abordamos esta nueva Metafísica? Para empezar, necesitamos un pensamiento problemático, que vaya buscando bronca…que más que proporcionar soluciones lo que tiene que hacer es plantear preguntas. Pensamiento anarquista y transgresor que se atreva a navegar por los territorios empantanados de nuestra conciencia. Desde el origen de los tiempos, los que apostaban por la Metafísica eran unos tocapelotas, porque se dedicaban a considerar un problema lo que para todo el mundo era claro y transparente, y para eso Sócrates fue el gran tocapelotas de la historia, y Platón como su discípulo aventajado, no se le quedaba detrás.

La cuestión de fondo es que si vamos a tratar de temas como el sentido de la vida o la realidad, es imposible aplicar una ley común con la que todos los seres humanos estemos de acuerdo. Por eso podríamos decir que la Metafísica estaría mucho más cerca del Arte que de la Ciencia. Los que ahora quieran hacer Metafísica tienen que renunciar completamente a la pretensión de tener la última palabra sobre la realidad o la substancia o el ente. De hecho, supone renunciar a la pretensión de verdad, que quedaría en el campo de la Ciencia. Sería interesante que la postura Metafísica fuera compatible con un estado de la Ciencia dado, aunque tampoco es imprescindible, porque la Ciencia avanza a base de desmentirse/matizarse a sí misma. Lo único que queda clarito meridiano es que tu postura metafísica está profundamente relacionada con tu propia personalidad y tu visión del mundo.

Como lo que vamos a manejar está tan lejano de la realidad y es tan abstracto y tan difícil si no imposible de contrastarlo empíricamente, el carácter creativo de las teorías que se generen es fundamental, por eso el metafísico es más artista que científico. Sería lo más parecido a la ciencia ficción, el metafísico genera una paja mental, un mito. Está claro que es un mito sobrio, controlado, pero no deja de ser, al fin y al cabo, un mito.

Tenemos la ventaja de poder disponer, por primera vez en toda la historia de la cultura mundial, de una información  bastante amplia y fidedigna de casi todas las tradiciones culturales existentes o pasadas de la tierra, y de los medios técnicos que posibilitan el acceso a gran parte de esa información. Esto nos permite confrontar ideas, hacer chocar textos, relacionar elementos dispares que despliegan  nuevos significados al insertarse en distintos contextos. Por lo tanto usaremos un método hermenéutico, interpretando y constrastando textos. Utilizaremos también la inducción y la deducción en relación con los datos proporcionados por las ciencias y las artes, pero es fundamentalmente un método analógico y metafórico.

Los que se dediquen a la Metafísica serán más supervivientes que herederos, porque tendrán que basarse en los restos de un naufragio para construir un nuevo sistema. Acepto el Reto.

El Filósofo Piojo

Publicado: 4 septiembre, 2011 en Cadaunada, Filosofía
Etiquetas:, ,

Cuando piensas en un filósofo, se te podrían venir dos imágenes a la cabeza, por aquello de los opuestos. Llamemos a la primera imagen el filósofo subterráneo. Este especimen es aquel llamado así por hundir sus raíces en la tierra. Lo que busca es la sustancia de los entes, la esencia de la realidad en sí misma. A lo más profundo que se pueda llegar ahí llegará el filósofo subterráneo. El filósofo subterráneo por antonomasía podría ser Aristóteles, quizás Nietzsche también se movería por las profundidades. En verdad son muchos los topos de la filosofía.

Por otro lado estaríamos con lo que podríamos llamar filósofo ascensional, cosmonauta o Pekenike. Es aquél que busca más allá del planeta Tierra. El que buscará un lugar más allá del sol…en las estrellas. Platón y su mundo de las ideas fue el primer Pekenike de la historia de la humanidad, al menos la que ha llegado hasta nosotros.

A poco que sepas de filosofía Platón te suena, y Aristóteles probablemente también. Pero si te hablo de Deleuze se te cambia un poco el gesto en la cara. Si te hablo de Guattari tu rostro se convierte en una mueca desencajada…¿lo cualo?. Pues estos dos señores, Deleuze y Guattari, filósofos ellos, escribieron un interesante libro, cuyo resumen podrás encontrar un día de estos por estas páginas. El libro en cuestión se llama ¿Que es la filosofía?. En el nos enseñan que el filósofo debe ser un filósofo piojo. Hartos de tristes profundos y flipados etéreos, propusieron un nuevo modelo de filósofo, al que llamaron el filósofo piojo.

Las funciones principales de un filósofo que se autodenomine piojo deben ser fundamentalmente dos: dejar a un lado el ultradeprimente racionalismo maniatado por el rigor y la objetividad y ser un ente totalmente hilarante y festivo. Un filósofo que no busque ni lo más profundo ni lo más elevado. Un piojo lo que hace es quedarse en la superficie de su huesped. El filósofo piojo debe quedarse en la superficie de las cosas, y al igual que el piojo, como parásito que es, se rie del ser vivo que le alimenta, el filósofo piojo debe realizar una observación superficial crítica y cínica de todo lo que le rodea. El mundo en su máxima expresión sería la cabeza del filósofo piojo.

El filósofo piojo, por tanto, debe superar a la razón, y para hacer esto, que no es nada fácil, debería basarse en las paradojas y llegar a contradicciones, es la única manera de superar la depresión que el racionalismo nos provoca. Su trabajo se vuelve por tanto una perversión. Es decir, el filósofo piojo es un pervertido que pretenderá inventarse nuevos conceptos, teniendo siempre en cuenta que éstos se unirán a otros previamente creados por otros filósofos, piojos o no, de manera que se vaya ampliando la red lingüística, base de nuestras relaciones y de nuestro mundo.

Además , tenemos el hecho de que incluso a los que amamos la filosofía, muchas veces se nos hace muy cuesta arriba. Pocos filósofos tienen espíritu divulgativo, eso que está tan de moda en el ámbito de la Ciencia. Hay libros que son realmente una ascensión al Everest, y si coges el atasco del fulano de turno que se ha leido previamente el libro y te ha hecho un análisis/crítica/resumen/interpretación…puede ser peor el remedio que la enfermedad. Siempre he sido de la opinión que cuanto más sabes de un tema, más fácil puedes hacérselo a los demás, pero mi experiencia me dice continuamente que mi opinión no debe ser correcta, porque sigo sin enterarme de la misa la media en la mayoría de los casos.

Ser oscuro, farragoso y antididáctico no puede ser el objetivo de un filósofo que se precie. Si de algo puede ser útil la filosofía, es haciéndola llegar a tod@s. Desde luego ese es un esfuerzo adicional, porque no solo hay que entender las cosas, sino que hay que traducirlas al lenguaje ordinario. Al igual que en la ciencia, al traducir a un lenguaje que no es el suyo propio, se pueden perder matices, pero los conceptos, que era algo que Deleuze analizó con mucho detenimiento, al final son accesibles para tod@s.

Por un lado acepto mi parte de culpa de seguir fomentando el lenguaje áspero y repleto de frases subordinadas, sobre todo cuando te metas por las secciones para Veteranos, porque ahí mi aportación básica es resumen, síntesis, y en algunas ocasiones análisis, además de tratarse de temas muy concretos y que se tratan con cierta profundidad, de manera que si se pretende explicar todos los conceptos que aparecen, la entrada se convertiría en un Quijote o dos (por supuesto estoy hablando del volumen que ocuparía). Estas entradas están enfocadas a un público que está habituado al lenguaje filosófico, y aunque la traducción al lenguaje ordinario no es el objetivo en esas entradas, siempre intento usar expresiones claras y concisas, lo menos ambigüas posibles. No siempre puedo, incluso en alguna ocasión concreta y escasa no quiero. Pero si bajo etiqueta de Paja mental, como esta que estás leyendo, encuentras que no estoy escribiendo para todos los públicos…envíame una colleja por correo urgente, hazme el favor.

Moraleja: de mayor quiero devenir  piojo…y aspiro a perecer filósofa, o cuanto menos en el intento.