Archivos para julio, 2011

Wynton y los Lincoln Musicians

Publicado: 12 julio, 2011 en Música
Etiquetas:, , ,

Wynton Marsalis es un jazzista neoclásico de New Orleans…desde luego si te quieres dedicar al jazz, no puedes nacer en otro sitio mas apropiado. Si para más INRI tu familia está compuesta por artistas en general y músicos de jazz en particular, pues ya se sabe lo que pasa cuando  juntas algo de  genético y algo de medioambiental, que  te acaba saliendo un músico de Jazz como la pared de un dique…es lo que tiene.

Claro que podría ser un poquito menos intransigente con todo lo que sea vanguardia en el  jazz. Podría ser un poquito menos acústico y un poquito menos tradicional. Pero entonces dejaría de ser Wynton y sería Branford.

Hubbard y Davis son sus trompetas de cabecera, Bach, Beethoven y Mozart sus antepasados sónicos…lo del clasicismo le viene de lejos.

No vino solo, venía muy pero que muy bien acompañado por la Jazz at Lincoln Center Orchestra, 15 pedazos de músicos,  entre ellos Marsalis como uno más. Dicen las malas lenguas que es la mejor big band del momento. Para mi que las malas lenguas tienen razón, claro que habría que perderse por los clubes de ciudades como New York para tener buenas referencias y afirmar con rotundidad la comparación.

Wynton estaba sentado en la fila superior, junto a 3 trompetas más. Debajo, en la fila intermedia, 3 trombones, y abajo del todo, 5 saxos como la copa de un pino finlandés. A la izquierda un piano, un contrabajo latino y un percusionista. Big Band, desde luego.
El repertorio estupendo, cubriendo varias épocas y varios estilos. Quizás excesivamente clásicos y ortodoxos, pero ya sabíamos con quien nos íbamos a encontrar. Comienzo magistral con Duke Ellington, I let a song go out of my heart, y siguió con The Tree of freedom, que pertenece a su obra Vitoria Suite de la que no tocó nada más, saxo y percusión reventaron la barrera del sonido. Empieza con aires flamencos y hasta morunos y te mete de lleno en el más puro desconcierto, caña y delicadeza al mismo tiempo. Muy muy interesante.
No faltaron grandes temas de grandes clásicos como Thelonious Monk, Duke Ellington, por partida doble, Chick Corea. El blues I left my baby, grabado por primera vez por Count Basie impresionante, menuda manera de desgarrase y divertirse a la vez, magistral combinación de sordidez y voluptuosidad. Pedazo de blues, que pena que Jimmy Rushing no lo estuviera cantando, porque entonces habríamos salido todos levitando del gustazo.
Una magistral versión del Inner Urge de Joe Henderson y como colofón un final apoteósico al mas puro estilo dixieland que me hicieron arrepentirme de haberme dejado el traje de flecos y el collar de cuentas en casa. Saliendo del recinto, no podía parar de tararear la divertida marcha ragtime con la que salieron del escenario…all the girls go crazy about the way I walk!!!!!
Lo malo,  bueno pues que son tan máquinas que a veces la perfección en la ejecución le quita la componente visceral y no siempre te pone los pelos de punta y la carne de gallina. Pero la orgía de virtuosismo era tal que quizás tampoco fue imprescindible. Bueno, sí, un poquito mas de cogerse a las tripas me habría sentado mejor. Aún así volvimos a casa con una gran sonrisa.
Anuncios

Messiaen y San Francisco de Asís

Publicado: 9 julio, 2011 en Música
Etiquetas:, ,

La caspa del Real, que haberla hayla, estaba indignada…nos sacan del teatro y nos llevan al Campo…que desprestigio para la Ópera salir de tan nobles paredes… 6 de la tarde, julio, 40 grados…Una gran cúpula, que pesa 24 toneladas y cuenta con 1500 fluorescentes, y un escenario que ocupa 500 metros cuadrados podría ser una buena justificación. Básicamente nos sacan porque no cabe.

Tres actos y ocho escenas, con una duración aproximada de seis horas y dos descansos. Una banda con 130 músicos y un coro con 120 cantantes. Agota con solo leerlo, pero es que sólo el conjunto de todos los músicos del mundo podía expresar la inmensa riqueza de espíritu de San Francisco. Messiaen concibió esta obra como un espectáculo y ciertamente eso fue. Messiaen volcó toda su fe, que era mucha, y toda su verdad, que no era menos en esta maravilla. Ante todo se consideraba católico, despues ornitólogo y en última instancia compositor. Para ser su tercera faceta vital no se le daba nada mal, preguntadle si no a  Stockhausen, Benjamin, Xenakis o Boulez, por decir algunos de sus más brillantes alumnos. Y eso que nunca se consideró profesor.

Hablemos primero de la escenografía. El impacto visual que logra la cúpula es sobrecogedor. Inunda el escenario con una luz de colores que varían a lo largo de la representación. La sucesión de colores acompaña la transformación del estado de ánimo de Asís y el lucernario que corona la cúpula representa la esperanza y la eternidad. Eso si tienes la suerte de que te toque justo enfrente de la cúpula, porque es tan profunda que el ángulo de visión en los laterales es nulo, y sólo ves una carcasa negra que ocupa todo el escenario, dejando bajo su sombra a los músicos.

Para Messiaen la música debe tener ritmo y sobre todo color, porque él los percibía cuando componía y escuchaba música. Y los Kabakov  así lo han respetado en la escenografía que han creado. Pero pensar en el público no se ha pensado mucho. O bien, esta escenografía fue diseñada para otro escenario y al pasarla al Madrid Arena, pues como que un 20% de las entradas pudieron disfrutar plentamente del espectáculo visual. El resto nos tuvimos que conformar con el espectáculo puramente sonoro, que aunque también se vió disminuido en toda su grandeza, ésta era tal que fue suficiente para emocionarse y disfrutar de mas de 4 horas de obra maestra. El escenario era tan grande y el espacio acústico tan vasto que los sonidos se perdían en todas las direcciones.

Respecto al argumento, es puramente espiritual, con una reflexión sobre el miedo a la Muerte y su forma de vencerla a través de la fe. La fe no debe entenderse en un modo paleto de vieja con un rosario, sino en la misma actitud de Messiaen, que se dedica con una paciencia infinita a realizar una obra de ocho años de esfuerzo, sin estar seguro de si la salud le permitiría terminarla. Eso es la fe, saber que no está en tu mano conseguir el resultado, pero trabajar como si fueras inmortal. De este modo, se vence el miedo a la Muerte. Pelín pesado al final del segundo acto con los pájaros, pero bueno, hay que respetarle su pasión, es un genio y se lo merece.

Y la música?

Los pájaros con sus maravillosos cantos, que nosotros, miserables urbanitas habitantes de Mahagonny, ya hemos olvidado, son para él, como para el ángel Gabriel, mensajeros de una armonía celeste que propicia la trascendencia, con una música como la que el ángel toca con su viola para San Francisco, la cual por cierto no estuvo ¿?. Pero los pájaros fueron omnipresentes a lo largo de todo el espectáculo. La duración de la meditación juega un papel importante para Olivier Messiaen, y durante todo el tiempo que dura la obra, se puede seguir el proceso espiritual de San Francisco que, gracias a la virtud de la compasión, alcanza la luz eterna. Pocas veces un acorde final en Do mayor me ha conmovido tanto. Fascinante. El coro más que correcto, la orquesta excepcional. Sin duda lo mejor de la noche. El ángel delicioso, haciendo realmente honor a su papel y San Francisco sobrio y exccepcional. Me sorprendió grátamente lo buenos actores que eran todos los cantantes. Muy buena dirección artística. Me gustó y sorprendió la sombra del leproso. Original e inquietante.

Como artistas invitados, unos instrumentos pocos habituales en la ópera

  • Un  Geophone, instrumento musical invento del propio compositor. Es algo parecido a un tambor lleno de lacasitos aplastados, que produce un sonido parecido al de la tierra arrastrada por el viento.
  • Una máquina de viento, que como su propio nombre indica es un instrumento que asemeja el sonido del viento. Muy habitual en las representaciones música contemporánea y electroacústica.
  • Una batería, en la ópera sí, una batería
  • Tres Ondas Martenot, instrumento electrónico, precursor de los actuales sintetizadores, teclado, altavoz y generadores de baja frecuencia. Increibles verlos en acción. Sonidos extrañamente maravillosos y resonadores de formas caprichosas.

La sinestesia se apoderó de mí durante unas cuantas horas. Puede ver los colores  más allá de la cúpula, porque los de la cúpula regular. En mi opinión un montaje menos espectacular habría repercutido en una mejor calidad de sonido y de experiencia visual en el público. También es cierto que conforme avanzaba la obra las deserciones se incrementaban y en cada descanso se ganaba en perspectiva. Al final los pocos que quedábamos pudimos ver el espectáculo cuasi en su plenitud. Me gustó, mucho. Disfruté y mucho. Definitivamente me encanta Messiaen. A ver para cuando el Auditorio programa la sinfonía Turangalila.

Y sólo nos falta Casco Oscuro y Shaft para tener la blacksplotation al completo. Pero no, no voy a hablar de darbrader ni del lado oscuro de la fuerza aunque vayan a juego.
Voy a hablar de algo de lo que no sabemos a ciencia cierta o incierta si existe. De algo que no podemos medir directamente. De algo que es hipotético y que se cree que existe porque se puede inferir su existencia a partir de los efectos gravitacionales que causa en la materia visible, esa que no es oscura. Nunca he estado tan cerca de algo tan intangible, pero tranquilos que tampoco voy a hablar de Dios, ni de dogmas de fe.

La materia oscura es algo que necesitan los modelos científicos que forman parte del paradigma actual para que les cuadren sus cositas de paradigma.Tiene que estar ahí, porque si no, no se entiende lo que pasa. También podría no estar y resulta que lo que utilizamos para averiguar lo que pasa no es lo que verdaderamente explica lo que pasa. Torres más grandes han caido y desde hombros de gigantes aún mas altos, que se lo digan a Newton.

A ver, tampoco es tan drástico, la mayoría de las cosas que se supone que andan por el universo no pueden verse a simple vista, mismamente un agujero negro, que como su nombre indica es negro y se confunde con el fondo del cosmos. Vaaaaale que se traga la luz y por eso no se ve, ¡hay que ser puntilloso pardiez!.

Pistas que nos da la materia oscura para hacerse notar, toda sutil ella:
Las estrellas en algunas galaxias espirales giran a toa leche. Según las leyes de la mecánica de Newton, la velocidad de una estrella a lo largo de su órbita depende de la masa de la galaxia contenida dentro de la órbita de la estrella. Sin embargo la masa visible es mucho menor que lo esperado ¿Dónde está la masa que falta?
Las galaxias en el universo normalmente se agrupan en cúmulos que para hacer piña necesitan de la fuerza de atracción gravitacional producida por una gran cantidad de masa. La masa requerida no se observa. ¿Dónde está la masa que falta?
El gran petardazo origen de nuestro cosmos generó un eco que a día de hoy sigue resonando en nuestros oídos telescópicos. Una radiación de fondo que sigue esparciéndose por el universo infinito y más allá y que fluctúa. Cuando analizamos su fluctuación ésta nos indica que debe existir más materia en el universo de lo que observamos a simple vista. ¿Dónde está la materia que falta?

Podemos plantear dos alternativas extremas, o no nos falta materia y no nos estamos enterando de cómo funcionan las cosas estas del universo, o la materia que nos falta nos la inventamos. Vamos a llamarla materia oscura, que es más discreta, porque lo de asumir nuestra ignorancia supina e incapacidad infinita no es propio del sapiens sapiens requetesapiens.

Por tanto, la materia oscura está hecha de partículas que no participan en interacciones electromagnéticas ni en ninguna de las dos interacciones nucleares, ni las fuertes ni las débiles, y sólo se ven afectadas por la cuarta fuerza fundamental, la gravedad, o por su propio peso. Son partículas WIMP, ‘partículas masivas de interacción débil’.

Los argumentos que apuestan por la existencia de la materia oscura se recogen en la llamada teoría inflacionista. Nada que ver con el IPC y la cesta de la compra. Se supone que con esta teoría explicamos el origen del universo, antes no había nada y de una semilla to densa, to pequeña y to caliente, en cuestión de cero coma revienta y crea el espacio-tiempo y separa las cuatro fuerzas de la naturaleza…ffffff….a mí se me atraganta un poco, pero esta teoría es el alma mater de todas las grandes teorías unificadoras. Se necesita que el universo arranque, y con una fuerza inflacionaria arranca estupendamente.

La materia de andar por casa es la materia bariónica, que es la que está formada por bariones y leptones. Un barión está formado por 3 quarks (también conocidos como hadrones). Protones y neutrones por ejemplo son bariones. Según los que saben, la materia bariónica no llega al 5% del total. El resto es materia oscura y fundamentalmente energía oscura. Ojo, no confundirlas, ambas forman la mayor parte de la masa del universo, pero la materia oscura es materia, y la energía oscura es un campo que llena todo el espacio.  La energía oscura produce una presión negativa que incrementa la aceleración de la expansión del universo. Hubble se podía haber dedicado a la horticultura. Es decir, la energía oscura produce una fuerza gravitacional repulsiva, ahí lo llevas.

Dos posibles formas de la energía oscura son la constante cosmológica y la quintaesencia (no, no es coña), la primera estática y la segunda dinámica. Para distinguir entre ambas se necesitan mediciones muy precisas de la expansión del universo, para ver si la velocidad de expansión cambia con el tiempo.  Están en ello.
La constante cosmológica fue, según sus propias palabras, la gran pifia de Einstein, claro que por aquellas Hubble se debía estar dedicando a la horticultura porque todavía no se había enterado de que el espacio se estaba haciendo un lifting perpetuo.  Pero los cuánticos bros. la reutilizaron porque les venía bien, ya que predecían una densidad de energía de vacío que se podía comportar, a todos los efectos, como una constante cosmológica efectiva. Mira que bien. La constante cosmológica parece entonces que proviene de la energía del vacio, que es una energía que hay por ahí aunque no haya nada mas, ni siquiera materia bariónica o no.

La quintaesencia es una generalización de la constante cosmológica. La densidad de energía de vacío, asociada a la constante cosmológica, por su propia naturaleza, no cambia con el tiempo y está uniformemente distribuida en el espacio. Pero si suponemos que existe un campo que produce una densidad de energía que varía con el tiempo y que no tiene porqué estar uniformemente distribuida, obtenemos la quintaesencia. El nombre está muy bien escogido, porque ya los presocráticos cuando lo inventaron hacía referencia a algo de lo que nadie tenía ni idea. Justo como ahora.

Con tanta oscuridad e indeterminación e incertidumbre e inconsistencia, se me ha puesto un horror vacui  que a ver quién me lo quita…

El pensamiento clásico estaba presidido por la idea de necesidad: el destino y la justicia controlaban con férrea mano todo lo que sucedía en la naturaleza y entre los hombres, incluso los mismos dioses estaban sometidos a dicha necesidad. Con el pensamiento cristiano se introdujo la noción de un Dios voluntarista que rige el devenir del universo. Y en la Edad Media se enfrentan dos concepciones sobre la relación de la voluntad de Dios con las leyes naturales y morales: por un lado el intelectualismo, que tendía a conceder una validez absoluta a las leyes que dependían necesariamente del propio Dios y el voluntarismo que ponía el acento en la voluntad soberana de Dios que podía cambiar en cualquier momento dichas leyes. Una se basaba en la necesidad y la otra en su contingencia. Curioso que tanto Ockham como Descartes, creyesen en un Dios voluntarista.
La ciencia moderna de la naturaleza surge con una concepción determinista rigurosa de las leyes naturales. Laplace comentaba que todos los acontecimientos son una secuencia tan necesaria como las revoluciones del sol. Al ignorar los lazos que los unen al sistema total del universo, se los ha hecho depender de causas finales o del azar, según que ocurriese o se sucedieran con regularidad o sin orden aparente, pero estas causas imaginarias han ido siendo descartadas a medida que se han ido ampliando las fronteras de nuestro conocimiento y desaparecen por completo ante la seria filosofía que no ve en ellos más que la expresión de nuestra ignorancia de las verdaderas causas.
Esta concepción rigurosamente determinista ha sido cuestionada, debido especialmente a los descubrimientos de la mecánica cuántica y al papel que el azar desempeña en la termodinámica de los sistemas complejos. Todo esto nos lleva a la concepción de un mundo abierto en el que no todo está previsto y en el que azar y necesidad se combinan de forma creadora. La actitud determinista de la ciencia se encuentra una y otra vez ante la necesidad de admitir el indeterminismo efectivo de la realidad.
Y ahí apareció Prigogine, oponiendo un universo cuyas leyes básicas serían la inestabilidad, el azar y la irreversibilidad, un universo evolutivo cuya realidad no puede ser devuelta a la identidad. Prigogine, padre de la teoría del caos, decía, imitando a Sócrates desde la más absoluta convicción, que sabía muy poco. Comentaba que nos encontrábamos al final de la era de la ciencia inaugurada por Copérnico y Galileo, período tan glorioso como simplista, ya que la ciencia clásica se centraba en el equilibrio, el orden y la estabilidad. Hoy vemos fluctuaciones e inestabilidad por todas partes. Estamos empezando a ser conscientes de la complejidad inherente del universo. Estaba seguro de que la toma de esta conciencia era el primer paso hacia una nueva racionalidad.
Pero Prigogine no predicó sólo en el desierto. Von Neumann, sí, el de la máquina de Von Neumann que seguro te suena si eres un freak de los ordenadores, desarrolló una metodología de tratamiento abstracto que le permitió confrontar el problema extremadamente profundo y fundamental del determinismo vs. el no-determinismo y demostró un teorema de acuerdo con el cual es imposible que la mecánica cuántica sea derivada por aproximación estadística de una teoría determinista del mismo tipo de la utilizada en mecánica clásica. Aunque se equivocó, ayudó a demostrar posteriormente que la física cuántica requiere una noción de la realidad substancialmente diferente de la manejada en física clásica y que la mecánica cuántica también requiere una lógica substancialmente diferente de la lógica clásica.
Tampoco podemos desdeñar el aporte de Von Foerster, con su descubrimiento del principio del orden por el ruido, creación de un orden a partir del desorden. O de Atlan, que concibe la teoría del azar organizador. Se encuentra una dialógica orden/desorden/organización en el nacimiento del universo a partir de una agitación calórica (desorden) donde, bajo ciertas condiciones (encuentros de azar), ciertos principios de orden van a permitir la constitución de núcleos, de átomos, de galaxias y de estrellas. Más todavía, encontramos esta dialógica en el momento de la emergencia de la vida por encuentros entre macromoléculas en el seno de una especie de bucle autoproductor que terminará por convenirse en autoorganización viva. Bajo las formas más diversas, la dialógica entre el orden, el desorden y la organización, a través de innumerables interretroacciones, está constantemente en acción en los mundos físico, biológico y humano.
Pero no todos los científicos se adhieren a esta concepción indeterminista y azarosa del mundo: Einstein y Thom, en polémica con Prigogine, afirman el determinismo frente al indeterminismo cuántico y el ligado a los sistemas complejos. Thom recupera la noción de causalidad, no se puede prescindir de ella porque impregna nuestro lenguaje y nuestra visión del mundo, defiende por tanto una visión local del determinismo. Su causalidad busca más el rigor cualitativo en su modelización de la realidad que la precisión cuantitativa de las medidas. Piensa que hasta el indeterminismo de la mecánica cuántica se podría eliminar mediante la introducción de parámetros ocultos en número finito. El problema es que, hoy por hoy, no disponemos de una teoría local que elimine el determinismo y por ello es más realista aceptarlo.
En mi opinión, si hasta hace pocos años las ciencias tenían por modo de conocimiento la especialización y la abstracción, es decir, la reducción del conocimiento de un todo al conocimiento de las partes que lo componen, ahora las propiedades emergentes toman el relevo. Si el concepto clave era el determinismo, es decir, la ocultación del azar, de la novedad, y la aplicación de la lógica mecánica de la máquina artificial a los problemas de lo vivo y de lo social, ahora es la complejidad. Si antes todo estaba definido por la cadena infinita de causalidad, ahora es el caos y la incertidumbre los que deben pasar al estrado. ¿Cómo?
Con la teoría de la información disponemos de una herramienta que permite tratar la incertidumbre, la sorpresa, lo inesperado. Este concepto de información permite entrar en un universo donde hay, al mismo tiempo, orden (la redundancia) y desorden (el ruido) y extraer de ahí algo nuevo.
Con la cibernética estudiamos la estructura de los sistemas reguladores, de las máquinas autónomas. Fue con Wiener y Ashby, sus fundadores, cuando la complejidad entró de lleno en la ciencia. Y cuando la Cibernética reconoció la complejidad fue para rodearla, para ponerla entre paréntesis, pero sin negarla, para hacer epojé con ella al más puro estilo husserliano. La idea de retroacción, que introduce Norbert Wiener, rompe con el principio de causalidad lineal al introducir el principio de “bucle” causal. Literalmente manda a hacer gárgaras el determinismo. La causa actúa sobre el efecto,se retroalimenta. Y es justo este mecanismo de regulación el que permite la autonomía de un sistema. La homeostasis.
Y por supuesto, con la teoría de los sistemas, que sienta las bases de un pensamiento de la organización. El alma mater del enfoque sistémico es que “el todo es más que la suma de las partes”. Esto significa que existen cualidades emergentes, es decir; que nacen de la organización de un todo y que pueden retroactuar sobre las partes. Por otra parte, el todo es igualmente menos que la suma de las partes, puesto que las partes pueden tener cualidades que son inhibidas por la organización del conjunto.
El pensamiento complejo es, en esencia, el pensamiento que integra la incertidumbre y que es capaz de concebir la organización. Que es capaz de religar, de contextualizar, de globalizar, pero, al mismo tiempo, de reconocer lo singular y lo concreto.
La idea de complejidad estaba mucho más diseminada en el vocabulario común que en el científico. Llevaba siempre una connotación de advertencia al entendimiento, una puesta en guardia contra la clarificación, la simplificación, la reducción demasiado rápida. De hecho, la complejidad tenía también delimitado su terreno, pero sin la palabra misma, en la Filosofía: en un sentido, la dialéctica, y en el terreno lógico, la dialéctica hegeliana, eran su dominio, porque esa dialéctica introducía la contradicción y la transformación en el corazón de la identidad.
Aunque sea difícil incluso tendiendo asintóticamente a imposible, el conocimiento absoluto debe intentarse. El conocimiento del mundo en tanto que mundo deviene una necesidad intelectual y vital al mismo tiempo. Es un problema que se nos plantea a todos, todos los dias: cómo adquirir el acceso a las informaciones sobre el mundo y cómo adquirir la posibilidad de articularlas y de organizarlas. Los científicos tienen que cambiar la metodología de sus paradigmas. Los neófitos curiosos tenemos Internet. En ambos casos, sin una reforma del pensamiento corremos el riesgo de caer en la imbecilidad cognitiva. Independientemente de que el azar sea constituyente ontológico de la realidad o una consecuencia de la pobreza de nuestros medios de predicción, parece que en los sistemas complejos no es fácil librarse de él, así que mejor que lo integremos en nuestra visión del mundo como parte integrante e intrínsica. El caos y el azar son elementos esenciales del universo, exploremos pues sus potencialidades.

Las Redes de Agregación, como su nombre indica, se utilizan fundamentalmente para reunir el tráfico desde los muchos puntos de presencia del operador de telecomunicaciones de los que cuelgan sus clientes finales, hacia los bastantes menos puntos de presencia donde se ubican equipamiento.

Es decir, las centrales que se utilizan para llegar a los clientes finales, es decir, desde donde parten las Redes de Acceso, son bastante más numerosas que las centrales donde se instala equipamiento del resto de redes. En concreto la Red IP, por costes y escalabilidad, suele tener limitado el número de puntos de presencia, de manera que para llegar desde todas partes a los puntos donde se encuentran los equipos que prestan los servicios se utiliza la red de transporte.

Pero hay que tener en cuenta que no todos los clientes del operador están a la vez conectados, y no todos los que están conectados hacen un uso intensivo de su ancho de banda.  Surge el concepto de multiplexación estadística, se necesita transportar menos ancho de banda que la suma de los anchos de banda que se han vendido. Es decir, hay que agregar el tráfico para transportarlo de manera eficiente. Vamos todos en autobús en vez de ir cada uno en su coche. Gastamos mucho mas dinero si vamos por separado que si vamos todos juntos. Esa es la idea.

Las redes de agregación suelen ser fundamentalmente ATM o Ethernet

El ATM, Modo de transferencia asíncrono es una tecnología que a día de hoy podría considerarse obsoleta. Es una tecnología muy cara y que no alcanza velocidades excesivamente elevadas. Hablar de 10 Gbps en ATM no es lo habitual, normalmente se manejan enlaces de 2.5 Gbps.

El ATM es una tecnología de conmmutación de paquetes, y el tamaño del paquete que maneja, llamado célula, es de 53 Bytes ( 1 Byte=8 bits). Se trata de un tamaño fijo. Fundamentalmente las células ATM lo que transportan son paquetes IP, y éstos no tienen un tamaño fijo, pero el tamaño medio es bastante mas elevado que el de la célula ATM, por lo que en general se necesitan varias células ATM para transportar un paquete IP, y eso lo hace poco eficiente.

Ethernet también es una tecnología de conmutación de paquetes, pero las tramas Ethernet, que es como se llama al paquete en cuestión, tienen un mayor tamaño, 2500 Bytes mas o menos, ya que hay varias implementaciones de Ethernet y cada sabor varía un poco la cabecera del paquete y su correspondiente tamaño.

Ethernet se lleva mucho mejor con IP, además es más barato que ATM y dispone de velocidades mucho mas elevadas. Actualmente 100 Gbps Ethernet.

Al compararlo con Ethernet, ATM es tan caro y tan lento porque implementa una serie de funcionalidades asociadas a la calidad de servicio de las que Ethernet no dispone. Para asegurar que los tráficos que se contratan son los que luego se cursan por la red, ATM es el mejor protocolo con diferencia. Con Ethernet la cosa queda un poco más en el aire, por ello, si un operador de comunicaciones tiene una red Ethernet y quiere prestar sus servicios con calidad, requiere de otro tipo de tecnologías que trabajen simultáneamente con las redes Ethernet. Por supuesto como no, estamos hablando de MPLS. Pero también hay otras alternativas y complementos, como por ejemplo PBB. Dependerá de lo que cada operador ofrezca en su red.

Los tráficos que se cursan por las redes de telecomunicación son paquetes fundamentalmente. Si bien aún queda un importante porcentaje de tráfico que no está paquetizado, la tendencia natural e inevitable es que este porcentaje vaya disminuyendo progresivamente hasta llegar a cero.

Las grandes operadoras de telecomunicaciones utilizan como alma mater de sus sistemas de transmisión sistemas síncronos, que no se llevan demasiado bien con el mundo de los paquetes. Se enfrentan por lo tanto ante el reto de realizar una migración en sus redes de transmisión, que masivamente disponen de tecnologías SONET/SDH hacia tecnologías alternativas que sean mucho más eficientes con el tratamiento de los paquetes. Es decir, se buscan redes de transmisión de paquetes, y esto según donde lo mires se llama y se hace de una manera o de otra, pero al final se trata de convertir tiempo en paquetes y transportarlos.

MPLS-TP es una adaptación del MPLS para los requisitos del transporte, Transport Profile. Es compatible totalmente con el MPLS, consiste básicamente en un conjunto de herramientas específicas para adecuarse a los requisitos de la red de transporte. Coge del MPLS lo que necesita y ya está definido y añade lo que le falta a MPLS.

MPLS es una tecnología que se consolida por momentos en todos los grandes operadores y en diferentes planos de red. Una red IP seria va acompañada de MPLS, una red Ethernet de un carrier serio debería ir acompañada de MPLS. No parece muy descabellado añadir MPLS también a las redes de transporte. El sueño utópico de un plano de control único multicapa podría estar un pasito más cerca.

MPLS-TP está todavía incipiente en estándares, pero los grandes suministradores de equipos de transmisión lo ven como una amenaza frente a sus equipos Ethernet, ya que la agregación podría realizarse fundamentalmente con otras alternativas.

Para seguir apostando por Ethernet surgen conceptos como el COE, Ethernet Orientado a Conexión, también conocido como Ethernet Tag Switching (Fujitsu). Tag, Label…¿Son dos cosas para decir lo mismo? Pues no. 

COE es un método para convertir redes Ethernet en redes cuyos parámetros de implementación, calidad de servicio y seguridad sean tan eficientes como las tradicionales redes SONET/SDH. Es decir, redes de agregación y transporte que combinan la flexibilidad y escalabilidad de Etherent pero con las prestaciones de seguridad y fiabilidad de las redes SONET/SDH.

Ethernet tag switching  es una implementación similar a la  VLAN Tag Switching  usando el formato de trama QinQ que se define en la especificación IEEE 802.1ad, pero solventando los problemas de escalabilidad asociados a QinQ. Además proporciona implementaciones determinísticas, agregación eficiente y protección con conmutación inferior a 50 ms

Según dicen los que apoyan las soluciones COE, en concreto Fujitsu con su Ethernet tag switching, el OPEX de este tipo de redes es inferior al de redes MPLS-TP, ya que su fuerte es todo lo relacionado con el OAM.  Realiza un estudio centrándose en una serie de aspectos que brillan por su contenido teórico. Cuanto menos son discutibles.

Los ahorros que se plantean de más de un 30% comparando ambas soluciones se basas en pura especulación teórica, ya que no hay redes de ninguno de los dos tipos funcionando en el planeta, ni siquiera hay informes claros acerca del impacto de pasar a este nuevo tipo de infraestructuras. Ni siquiera hay estándares sobre los que basarse.

 Al final, teniendo en cuenta los datos disponibles a día de hoy, puede que no sea más que maniobras propagandísticas que sostienen la lucha entre el IETF, centrado en soluciones MPLS-TP y la ITU-T que parece apostar más por soluciones  centradas en Ethernet, como PBB-TE o Ethernet Tag Switching.

En cualquier caso, el informe no deja de ser interesante, aunque sea como ejercicio de debate. Así que para el que esté interesado en saber más…

http://www.fujitsu.com/downloads/TEL/fnc/whitepapers/Fujitsu-Ethernet-Tag-Switching-vs-MPLS-TP-OpEx-Comparison.pdf

Varios filósofos han influido en el pensamiento de Deleuze. De Bergson extrae el concepto de impulso vital que agita a la vida y diversifica sus formas, de Spinoza reconoce el conatus como deseo interno de los seres a persistir en su ser y como incitación a la expresión de sus modalidades,  de Hume identifica a la pasión como motor inmanente que anima los cuerpos. Pero de lejos el filósofo que mayor incide en él es Nietzsche, aunque dicha influencia es difícil de caracterizar, ya que no hay una identificación, una imitación o una subyugación. Utilizando su propio lenguaje: Deleuze deviene Deleuze elaborando su Nietzsche y éste deviene en un Nietzsche deleuziano, hay una transformación mutua. Deleuze lee a Nietzsche para re-crearlo, no encontramos a Nietzsche sino un Nietzsche deleuziano.

El interés de Deleuze por la obra de Nietzsche se debe, entre otras razones, a que ve en él a uno de los filósofos que con mayor eficacia crítica contradice la concepción clásica del pensamiento como búsqueda de la verdad y como ejercicio de amor a la verdad. A Deleuze le atrae, pues, esta perspectiva crítica de Nietzsche y, decidido a desarrollar las ambiciosas propuestas que representa, emprende un brillante análisis de la obra nietzscheana en busca de respuestas a los distintos y decisivos problemas que se plantean.

Al leer al Nietzsche deleuziano nos encontramos ante una encrucijada: se ha planteado por la mayoría de los comentaristas que Nietzsche es el destructor de los valores occidentales, el que enseña y propone una filosofía a martillazos, el que destruye ídolo, el asesino de Dios. Que hay en él una filosofía de la negación, es verdad; pero Deleuze nos habla de un Nietzsche del pensamiento afirmativo; estamos pues  ante una interesante paradoja.

La tesis deleuziana es que la obra de Nietzsche es una filosofía de la afirmación y una filosofía radicalmente antidialéctica: la filosofía de Nietzsche aparece abstracta y poco comprensible si no se descubre en ella contra quien va dirigida. Esta pregunta induce a dos respuestas principales: contra Hegel en general y contra la concepción dialéctica del hombre en particular.

Según Deleuze, Nietzsche debe ser reconocido como el verdadero punto de viraje crítico, en la modernidad, respecto a la filosofía clásica, y no Kant. Para Deleuze, Nietzsche es un descendiente a la vez que un rival de Kant, al hacer de su filosofía «una transformación radical del kantismo y una reinvención de la crítica que Kant traicionó en el momento mismo de emprenderla», al replegarla sobre la dialéctica y sobre el conocimiento de lo verdadero, que continuaba siendo asumido como el problema fundamental de la filosofía y que hacía lógicos y naturales, por tanto, los posteriores desarrollos idealistas postkantianos. Lejos, pues, de representar el cumplimiento del nihilismo europeo, la concepción nietzscheana de la voluntad de poder constituye un nuevo inicio para el pensamiento, que «debe sustituir a la vieja metafísica, destruirla y superarla.

Si quieres saber algo mas:  El Nietzsche de Deleuze