Posts etiquetados ‘Para Veteranos’

En este apartado hablaremos de los conceptos clave de las MLN y MRN basadas en GMPLS.  Puedes echar un vistazo primero a las Parte I y Parte II.

Una red que comprende nodos de transporte con múltiples capas de planos de datos todos con el mismo ISC o diferentes ISC, controlados por una única instancia de un plano de control GMPLS, se denomina red multicapa (MLN). Un subconjunto de MLNs consiste en redes que soportan LSPs de diferentes tecnologías de conmutación (ISCs). Una red que soporta más de una tecnología de conmutación es una red multiregión (MRN).

Capacidad de Conmutación de una Interfaz (ISC)

El concepto de ISC se introduce en GMPLS para soportar varios tipos de tecnologías de conmutación de manera unificada [RFC4202].  Un ISC está identificado mediante un tipo de conmutación.

Un tipo de conmutación (también referido con un tipo de capacidad de conmutación) describe la habilidad de un nodo de enviar datos de una tecnología de un plano de datos particular, e identifica unívocamente una región de la red. Se han definido los siguientes tipos de ISC (y por lo tanto regiones):  PSC, L2SC, capaz de TDM , LSC, y  FSC. Cada terminación de un enlace de datos (más precisamente, cada interfaz que conecta un enlace de datos con un nodo) en una red GMPLS se asocia con un ISC.

El valor del ISC se anunca como un atributo (sub-LTV) que forma parte del descriptor de la capacidad de conmutación de la interfaz (ISCD) de la terminación de un enlace TE asociado con una interfaz en particular [RFC4202].  Además del ISC, el ISCD contiene información que incluye el tipo de codificación, la granularidad del ancho de banda y el ancho de banda sin reserva de cada uno de las 8 prioridades con las que un LSP puede ser establecido. El ISCD no identifica las capas de red, únicamente caracteriza la información asociada a una o más capas de red.

El anuncio de la terminación del enlace TE puede contener múltiples ISCDs. Esto puede interpretarse como un anuncio de una terminación de un enlace TE multicapa (o capaz de multi-conmutación). Es decir, la terminación de un enlace TE (y por lo tanto el enlace TE) está presente en múltiples capas.

Capacidades de Conmutación en Interfaces Múltiples

En una MLN, los elementos de red pueden ser nodos capaces de un solo tipo de conmutación o de varios.

Los nodos de un único tipo de conmutación anuncian el mismo valor ISC como parte de su ISCD sub- TLV(s) para describir la terminación de las capacidades de cada TE link(s). Este caso se describe en  [RFC4202].

Los LSR capaces de multiconmutación se clasifican en nodos simples o híbridos, de acuerdo con la manera en que anuncian los múltiples ISCs:

  • Un nodo simple puede terminar enlaces de datos con diferentes capacidades de conmutación, donde cada enlace de datos se conecta al nodo mediante una interfaz de enlace diferente. Por lo tanto, anuncia varios TE links mediante un único valor ISC en su ISCP sub-TLV (siguiendo las reglas definidas en [RFC4206]).  Un ejemplo es un LSR con enlaces PSC y TDM cada uno de los cuales conectados al LSR mediante interfaces separadas.
  • Un nodo híbrido puede terminar enlaces de datos de diferentes tipos de conmutación conectando los enlaces de datos mediante la misma interfaz. Por lo tanto, anuncia un único TE link que contiene más de un ISCD y cada uno con un valor diferente. Por ejemplo, un nodo puede terminar enlaces de datos PSC y TDM e interconectar esos enlaces de datos externos mediante enlaces internos. Las interfaces externas conectadas al nodo tienen capacidades tanto PSC como TDM.

Adicionalmente, los anuncios de los enlaces TE realizados por un nodo simple o híbrido puede necesitar proporcionar información sobre las capacidades de ajuste interno de dichos nodos entre las diferentes tecnologías de conmutación soportadas. El término «ajuste» hace referencia a la propiedad de un nodo híbrido de interconectar diferentes capacidades de conmutación que se proporcionan a través de sus interfaces externas. La información sobre las capacidades de ajuste de los nodos en la red permite a los procesos de cálculo de rutas seleccionar un camino multicapa o multidominio que incluya enlaces con diferentes capacidades de conmutación, unidos mediante LSR que puedan adaptar la señal entre diferentes enlaces.

En la siguiente figura se muestra un ejemplo de nodo híbrido. El nodo híbrido tiene dos matrices de conmutación, las cuales soportan, por ejemplo, conmutación TDM y PSC respectivamente. El nodo termina un PSC y un enlace TDM (Enlace1 y Enlace2 respectivamente). Además tiene un enlace interno que conecta los dos elementos de conmutación. Estos dos elementos de conmutación están internamente interconectados de tal manera que es posible terminar algunos de los recursos de, por ejemplo Enlace2 y proporcionar un ajuste del tráfico PSC recibido/enviado sobre la interfaz PSC(#b).  Esta situación se modela en GMPLS conectando la terminación local del Enlace2 al elemento de conmutación TDM mediante una interfaz adicional que realiza la función de terminación/ajuste. Hay dos posibilidades para establecer el PSC LSP a través del nodo híbrido. El anuncio de los recursos disponibles debería aplicarse a ambas posibilidades.

nodo hibrido

Ingeniería de Tráfico integrada y Control de Recursos

En las redes multidominio/multicapa basadas en GMPLS, los enlaces TE pueden consolidarse en una única base de datos de ingeniería de tráfico (TED) mediante una única instancia del plano de control. Como esta base de datos contiene la información relativa a todas las capas de todos los dominios de la red, un camino a través de diferentes capas (posiblemente cruzando múltiples dominios) puede calcularse usando la información de esta TED. Además, puede conseguirse la optimización de los recursos de red entre diferentes capas de la misma región y a través de múltiples regiones.

Estos conceptos nos permiten para la operación de una capa de red sobre la topología (es decir, los enlaces TE)  proporcionada por otras capas de red (por ejemplo, el uso de una capa inferior LSC LSP que transporta PSC LSPs). A su vez, puede obtenerse un mayor grado de control e interworking, incluyendo (pero no limitado a):

  • Establecimiento dinámico  de las Forwarding Adjacency (FA) LSPs [RFC4206].
  • Provisión extremo a extremo de LSPs con disparo dinámico de FA LSPs.

Hay que considerar que en una red multicapa/multidominio que incluye nodos capaces de multiconmutación, una ruta explícita usada para establecer un LSP extremo a extremo puede especificar nodos que pertenezcan a diferentes capas o dominios. En este caso, se necesita un mecanismo para controlar la creación dinámica de los FA-LSPs. Hay un gran abanico de opciones para controlar cómo los FA-LSPs son dinámicamente establecidos. El proceso puede estar sujeto al control de una política, la cual puede establecerse mediante componentes de gestión que pueden requerir que el plano de gestión sea consultado en el momento en que el FA LSP está siendo constituido. Alternativamente, el FA-LSP puede constituirse con el plano de control requerido sin ningún plano de gestión.

Señalización disparada

Cuando un LSP atraviesa la frontera desde una capa superior a otra inferior, debe estar anidado en un FA LSP de la capa inferior que atraviese dicha capa. Desde una perspectiva de señalización, existen dos alternativas para establecer el FA LSP de la capa inferior:

  • Estática (pre-provisionada). Un FA-LSP de este tipo debe iniciarse o bien por el operador o automáticamente usando características como TE auto mesh [RFC4972]
  • Dinámica (disparada). Si este LSP de capa inferior no existe, debe ser establecido dinámicamente. Este mecanismo de establecimiento del LSP de capa inferior es lo que se conoce como señalización disparada.

FA-LSP

Una vez que se ha creado el LSP a través de una capa, desde un nodo frontera de esa capa hasta otro, puede utilizarse como enlace de datos de la capa superior. Además, puede ser anunciado como un enlace TE, permitiendo a otros nodos considerar el LSP como un enlace TE para el cálculo de sus caminos [RFC4206]. Un LSP creado tanto estática como dinámicamente por medio de una instancia del plano de control y anunciado como enlace TE dentro de esa misma instancia del plano de control se denomina Forwarding Adjacency LSP (FA-LSP). El FA-LSP se anuncia como un enlace TE y el enlace TE se llama Forwarding Adjacency (FA).

Una FA tiene la característica especial de que no necesita una adyacencia de enrutado (peering) entre sus extremos y aún así garantiza la conectividad del plano de control entre los puntos finales de los FA-LSP basados en una adyacencia de señalización. Una FA es una útil y poderosa herramienta para mejorar la escalabilidad de las redes GMPLS-TE ya que se pueden anidar (agregar) múltiples LSP de capas superiores sobre un único FA LSP. La agregación de LSPs permite la creación de una jerarquía LSP vertical (LSP anidados). Un conjunto de FA-LSPs a través o en una capa de nivel inferior puede usarse durante la selección del camino por un LSP de capa superior. Del mismo modo, los LSPs de capa superior pueden ser transportados sobre enlaces de datos dinámicos mediante LSPs (tal y como se transportaría sobre cualquier enlace de datos normal). Este proceso necesita el anidamiento de LSPs a través de un proceso jerárquico [RFC4206].  La TED contiene un conjunto de anuncios de LSP de diferentes capas que se identifican mediante el ISCD contenido dentro del anuncio del enlace TE asociado con el LSP [RFC4202].  Si un LSP de capa inferior no es anunciado como una FA, aún puede usarse para transportar un LSP de nivel superior a través de la capa inferior. Por ejemplo, si el LSP se configura usando señalización disparada, podrá ser utilizado para transportar el LSP de nivel superior que causó el disparo. Además, la capa inferior permanece disponible para ser usada por otros LSP de nivel superior que vayan llegando a la frontera. Bajo algunas circunstancias, puede ser útil controlar el anuncio de LSPs como FA durante el establecimiento de la señalización de los LSPs [DYN-HIER].

Topología de Red Virtual

Un conjunto de uno o más LSPs de  bajo nivel proporciona información para manejar de manera eficiente los caminos de las capas superiores de una MLN, es decir, proporciona una topología virtual de la red (VNT) de las capas superiores. Por ejemplo, un conjunto de LSPs, cada uno de los cuales está soportado por un LSC LSP, proporciona una VNT de las capas de la región PSC, asumiendo que la región PSC está conectada a la región LSC. Hay que considerar que un único LSP de capa inferior es un caso especial de VNT. La VNT se configura creando o destruyendo los LSPs de la capa inferior. Usando señalización GMPLS y protocolos de enrutado, la VNT puede adaptarse a las demandas de tráfico.

Un LSP de nivel inferior aparece como un enlace TE en la VNT. Independientemente de que los LSPs de capa inferior diversificadamente enrutados se usen o no, las rutas de los LSPs de capa inferior están ocultas desde la capa superior en la VNT. De esta manera, la VNT simplifica el enrutado y las decisiones de ingeniería de trafico de las capas superiores ocultando las rutas que han tomado los LSPs de las capas inferiores. Sin embargo, ocultando las rutas de los LSPs de capa inferior podemos perder importante información que puede ser necesaria para la fiabilidad de los LSPs de capa superior. Por ejemplo, el enrutado y la ingeniería de tráfico en la capa IP/MPLS no considera habitualmente cómo se forman los enlaces TE IP/MPLS desde caminos ópticos que son enrutados en la capa de fibra. Dos caminos ópticos pueden compartir el mismo enlace de fibra en la capa inferior, y por lo tanto ambos fallarán si existe un corte en la fibra. De esta manera, las propiedades de riesgo compartido de los enlaces TE en la VNT deben estar disponibles hacia la capa superior durante el cómputo del camino. Además, la topología de la VNT debería poder diseñarse de manera que cualquier corte simple de fibra no divida la VNT.

Los cambios en la demanda de tráfico, los cambios en la configuración de la topología, los requisitos de señalización de la capa superior y los fallos en la red deberían disparar la reconfiguración de la VNT. Por ejemplo, reconfigurando la VNT de acuerdo con la demanda de tráfico entre un par de nodos que hagan de fuente y destino, los factores de implementación de la red, tales como el máximo uso de un enlace o la capacidad residual de la red pueden ser optimizados. La reconfiguración se implementa calculando una nueva VNT a partir de la matriz de demanda de tráfico, y opcionalmente, desde la actual VNT. Los detalles exactos no forman parte de este documento. Sin embargo, este método puede ser confeccionado de acuerdo con la política del proveedor de servicios, teniendo en cuenta la implementación de la red y la calidad de los servicios (retardo, pérdida,utilización, capacidad residual, fiabilidad).

Los grandes desafíos a los que se enfrenten las redes de transporte del futuro son básicamente minimizar el coste del transporte por bit, maximizando el alcance sin regeneración y la capacidad de la fibra.

Podemos incrementar la capacidad de la fibra usando más longitudes de onda con un menor espaciamiento entre ellas, o más velocidad por cada longitud de onda. Si te interesa el tema puedes ver más detalles de cómo incrementar la eficiencia espectral.

Podemos incrementar el alcance sin regeneración usando mejores soluciones de amplificación óptica en las que se incluya la amplificación Raman, o híbridos EDFA (Erbium Dopped Fiber Amplifier) + Raman. Se requerirá una menor OSNR (Optical Signal to Noise Ratio) por longitud de onda gracias a tecnologías como los receptores coherentes y el FEC SD (Forward Error Correction Soft Decision).

Podemos desplazar funcionalidades desde la óptica hacia la electrónica usando sistemas coherentes que optimicen el coste y potencialmente PICs (Photonic Integrated  Circuits)  para reducir el TCO ( Total Cost of Ownership), especialmente en el borde y en la zona metro.

Por otra parte, habría que optimizar la arquitectura de los nodos para permitir la conmutación a diferentes niveles, sustituyendo los enlaces punto a punto por topologías de mallas completamente ópticas. Las interfaces ópticas de cliente son un buen ejemplo donde coste, tamaño y disipación de potencia son factores críticos.

En cualquier caso, nos interesa  incrementar y mejorar la integración fotónica de los componentes que harán viable todas estas tendencias. Existen fundamentalmente cuatro tecnologías para realizar la integración fotónica, que veremos a continuación.

Tecnologías de Integración Fotónica

Existen diferentes alternativas tecnológicas para desarrollar los circuitos fotónicos integrados (PIC).

  • CMOS Photonics. Las tecnologías de integración fotónica basadas en Silicio implementadas sobre CMOS (Complementary Metal Oxide Semiconductor) necesitan de un elevado volumen para que su fabricación sea rentable. El objetivo sería tomar ventaja de esta economía de escala que se produce en la electrónica usando las mismas  instalaciones que las que se utilizan para la fabricación CMOS, de manera que se abarataran los costes de producción de los PIC. La tecnología CMOS permite una integración íntima de óptica con electrónica en el mismo chip. La tecnología CMOS se utiliza en diferentes campos, pero para aplicaciones de telecomunicaciones, existen tres cuestiones fundamentales:
    • Fuentes de luz. Actualmente se utilizan fuentes de luz basadas en  InP o GaAs, y están integradas híbridamente en el chip de Silicio. Existen interesantes desarrollos en algunas startups, industrias de microelectrónica e investigación.
    • Como ya se ha comentado, CMOS photonics necesita de grandes volúmenes. Una fábrica de gran tamaño no es eficiente en costes a menos que se fabriquen más  100.000 unidades al año. El crecimiento de la fibra en el acceso y las conexiones de corto alcance puede ser un aliado para llegar a los volúmenes necesarios.
    • Las soluciones CMOS photonics no siempre serán las mejores aplicaciones fotónicas para las telecomunicaciones. La ventaja de la integración, la flexibilidad y el progreso en el diseño probablemente disminuirán estas limitaciones y las harán más atractivas.

 

  • InP. Los PIC basados en Fosfuro de Indio constituyen una importante innovación tecnológica que simplifica el diseño de sistemas ópticos, reduciendo espacios y consumos. Adicionalmente, disminuyendo el coste de la conversión OEO (óptica-eléctrica-óptica) en las redes ópticas, proporcionan una oportunidad de transformación para abrazar el uso de circuitos integrados electrónicos y sistemas software en una red óptica «digital»  que maximice la funcionalidad del sistema, mejorando la flexibilidad de los servicios y simplificando la operación de la red.
    • monolítico, utilizando circuitos integrados
    • híbrido, mezclando componentes discretos con circuitos integrados
  • VCSEL.Diodo Láser de Emisión Superficial con Cavidad Vertical.
    • Es un diodo semiconductor que emite luz en un haz cilíndrico vertical de la superficie de una oblea, y ofrece ventajas significativas cuando se compara con láser de emisión lateral comúnmente usados en la mayoría de comunicaciones por fibra óptica.
    • Los VCSELs pueden ser construidos con GaAs, InGaAs.
    • Para el funcionamiento del VCSEL, se requiere de una región activa de emisión de luz encerrada en un resonador que consta de dos espejos. En este caso, los espejos son parte de las películas epitaxiales, por lo que estas películas se sobreponen formando una pila. Estos espejos son conocidos como reflectores distribuidos de Bragg (DBRs).
    • Los DBR llegan a formar espesor usando entre 40 y 60 películas en cada DBR, produciéndose un espesor total de 6μm –8μm. Para crear la unión p-n se necesita que un DBR este dopado para hacerlo semiconductor tipo n y el otro DBR tipo p.
    • Los VCSELs tienen alto rendimiento y bajo costo, algunas de sus características son:
      • La estructura puede ser integrada en una configuración de arrays de 2 dimensiones.
      • Su haz circular y baja divergencia eliminan la necesidad de óptica correctiva.
      • Comercialmente la corriente de umbral de un VCSEL es de aproximadamente 4 mA.
      • Alcanza potencias ópticas del orden de 10 mW.
      • Su ancho espectral ( Dl ) es de aproximadamente 1nm.
      • Su longitud de onda central es de aproximadamente 850 nm.
      • Se puede aplicar un VCSEL en transmisión de datos en el rango de velocidad de 100 Mbs a 1 Gbs.
  • Silica on silicon. Los bloques que conforman esta tecnología son:
    • Fuentes de luz. Integración del grupo III-V en los procesos estándares CMOS
    • Guías de ondas
    • Moduladores
    • Pasivos, como AWG
    • Receptores
    • Elementos de Conmutación Óptica
    • Funciones electrónicas

La tecnología de integración Silicon Photonics es aplicable en diferentes clases de productos en diferentes momentos temporales, dependiendo de los diferentes grados de madurez de la tecnología y de los mercados.

Integración fotónica en redes de transporte

De manera equivalente a como se integran los circuitos integrados sobre Silicio agrupando un elevado número de transistores en una única pequeña pieza física que es más poderosa, más fiable y consume menos potencia y espacio, hoy en día, los circuitos fotónicos integrados (PIC) agrupan centenares de componentes ópticos en una pequeña pieza física que es también más potente, más fiable y utiliza menos potencia y espacio que la aproximación equivalente usando componentes discretos.

En Enero de 2012 Ericsson anunció su trabajo sobre tecnología fotónica sobre Silicio (silicon photonics) para los supercanales de Terabit. El proyecto comenzó en abril de 2008 y concluyó a finales de 2011. Los resultados públicos los puedes encontrar en la web del proyecto APACHE.

El proyecto APACHE propone una nueva estrategia de integración, análoga a la aproximación que se realiza en la industria electrónica. En el caso de la electrónica, los componentes se montan de manera pasiva sobre una placa de circuitos impresos de acuerdo con las funcionalidades del diseño. Estos componentes pueden ser dispositivos discretos como resistencias, o chips monolíticos como circuitos integrados.

En APACHE, usando circuitos integrados fotónicos basados en la tecnología híbrida de integración Silica on silicon , se supera el primer obstáculo para el equivalente fotónico, a través de procesos de ensamblado pasivos que proporcionan alineamientos de precisión para dispositivos ópticos monomodo, en los que la tolerancia a los alineamientos deben ser de  micras o por debajo. Usando esta aproximación, un dispositivo guíaondas planar sobre silicio actúa como la placa de circuito impreso óptico (o placa madre), proporcionando la matriz de interconexión pasiva de guíaondas

el-phot1

Los componentes monolíticos se integran de manera pasiva sobre una placa hija, que a su vez se monta sobre la placa madre planar de silicio, PLCB (Planar Lightwave Circuit Board). Para ello se necesita un método de diseño unificado para el dispositivo híbrido en el que, además de haber definido las características de alineamiento necesarias para el ensamblaje, se definen los tamaños de los modos de los componentes ópticos en las interfaces entre los elementos activos y pasivos.

Además, comparados con InP, las guíaondas pasivas basadas en silicio muestran menores pérdidas de inserción, menor dispersión por velocidad de grupo, mejor acoplamiento a fibras ópticas y menor sensibilidad con la temperatura. En APACHE, se desarrollaron las placas madre e hijas para que puedan albergar chips monolíticos más grandes, tales como arrays de moduladores InP, láseres DFB, SOAs…La característica básica de los dispositivos APACHE es la agilidad, la cual es posible gracias a la capacidad de generar, modular y regenerar señales ópticas de varios formatos de modulación usando un dispositivo multifuncional. La funcionalidad requerida se ofrece a través de «add-ons» monolíticos,  como por ejemplo láseres moduladores basados en InP, amplificadores, etc., que se ensamblan de manera pasiva en las placas hijas y consecuentemente en la placa madre. Los esfuerzos se centraron en fabricar chips activos con modulación InP, regeneración y recepción de señales >100Gbps.

A finales de enero de 2012, Huawei anunció la adquisición del Centre for Integrated Photonics Ltd. (CIP), lo que apunta a que Huawei querría desarrollar su propia fotónica integrada, sin necesidad de recurrir al mercado. Infinera dispone hace tiempo de un PIC comercial de 500 Gbps que será de 1 Tbps en su siguiente generación.

Tecnología PPXC (Petabit Photonic Cross-Connect)

Se trata de una tecnología fotónica que permitírá la conmutación OTN a nivel de Petabit  a lo largo de todo el enlace óptico con una granularidad lo suficientemente fina.

Optimizando la tecnología de un láser sintonizable de InP se pueden generar prototipos de láseres para conmutación ultrarápida, permitiendo a su vez generar equipamiento que aproveche estas ultra capacidades. Esto ya está a puntito de mostrarse públicamente y puedes encontrar la referencia aquí

La conmutación ágil y de capacidad ultragrande es una prometedora tecnología para las redes ópticas del futuro. El componente clave de esta funcionalidad es la tecnología que permite láseres sintonizables. Estamos hablando de que los láseres se sintonizarían en nanosegundos.

Una tecnología de crossconexión todo óptica dotará de una ventaja única a los clusters de conmutación OTN de capacidad ultragrande que formarán parte de los backbone de las redes de transporte del futuro, o de los grandes Data Center o cualquier otra aplicación donde sea conveniente.

El nivel de integración es clave para el futuro de los PIC.  Recientemente la compañía Oclaro demostró con éxito que los PIC completamente monolíticos en InP pueden ser usados para ofrecer elevadas prestaciones a bajo coste

Todos estos movimientos apuntan a que la integración fotónica es el futuro habilitador de las nuevas prestaciones que se requieren en las redes de transporte ópticas. Es un futuro que ya ha comenzdo.

En la Primera Parte de este resumen se establecían los objetivos de la RFC5212. A continuación se sigue abundando en los detalles más relevantes para establecer redes multicapa y multiregión bajo la misma instancia de plano de control GMPLS.

Una Red Multi Región (MRN)  siempre es una Red Multi Capa (MLN) ya que los dispositivos en las fronteras entre regiones reúnen diferentes ISC. Una MLN sin embargo, no es necesariamente una MRN ya que múltiples capas podrían estar completamente integradas en una única región. Por ejemplo, VC12, VC4 y VC4-4c son diferentes capas de la región TDM.

 Capas del Plano de Datos y Regiones del Plano de control

Una capa de un plano de datos es una colección de recursos de red capaces de terminar y/o conmutar tráfico de datos en un formato particular   [RFC4397]. Estos recursos pueden ser usados para establecer LSPs que entreguen tráfico. Por ejemplo, VC-11 y VC4-64c representan dos capas diferentes.

Desde el punto de vista del plano de control, se define una región LSP como un conjunto de una o más capas del plano de datos que comparten el mismo tipo de tecnología de conmutación. Por ejemplo, las capas VC-11, VC-4, y VC-4-7v forman parte de la misma región TDM.

Las regiones que actualmente están definidas son: PSC, L2SC, TDM, LSC, y FSC. Por lo tanto, una región LSP es un dominio de tecnología, un tipo de conmutación (identificada por el tipo de ISC) para el que los recursos del plano de datos son representados dentro del plano de control como un agregado de información TE asociada con un conjunto de enlaces (TE links). Por ejemplo, TE links VC-11 y VC-64c son parte de la misma región TDM. Por lo tanto pueden existir múltiples capas en una red de una única región.

Hay que tener en cuenta que la región puede producir una distinción dentro del plano de control. Capas de la misma región comparten la misma tecnología de conmutación y, además, usan el mismo conjunto de objetos de señalización específicos de la tecnología, y atributos del TE link cuyos valores también son específicos de la tecnología dentro del plano de control, pero las capas de diferentes regiones pueden usar objetos y valores en los atributos del TE link diferentes, específicos de la tecnología. No es posible enviar  mensajes de señalización entre los LSR que alberguen diferentes tecnologías de conmutación. Esto se debe a cambios en algunos de los objetos de señalización (por ejemplo los parámetros de tráfico) cuando se cruzan las fronteras de una región, incluso usando una única instancia del plano de control que gestione toda la MRN. Esto debe resolverse usando señalización disparada.

 Redes de capa de Servicio

Una red de un proveedor de servicios debe estar divida en diferentes capas de servicio. La red de los clientes se considera desde la perspectiva del proveedor de servicios como la capa de servicio más alta. La conectividad a través de la capa superior de servicio de la red del proveedor de servicios debe ser provisionada con el soporte de las diferentes  capas de servicio inferiores sucesivamente.

Las capas de servicio se realizan mediante la jerarquía de capas de red ubicadas generalmente en diferentes regiones y comúnmente asociadas a las capacidades de conmutación del equipamiento de la red. 

El proveedor de servicios implementa el servicio mediante una pila de capas de red ubicadas en una o más regiones de la red. Las capas de red están comúnmente agrupadas según las capacidades de conmutación de los elementos de las redes.

La relación del plano de datos soportado es una relación cliente servidor, donde las capas más bajas proporcionan un servicio para la capa superior usando los enlaces de datos que se realizan en la capa inferior.

 Integración e Interacción Vertical y Horizontal

Se define la interacción vertical como los mecanismos colaborativos dentro de un elemento de red que es capaz de soportar más de una capa o región y de establecer las relaciones cliente/servidor entre las capas o regiones. Los intercambios de protocolos entre dos controladores de red que gestionan diferentes regiones o capas también son interacción vertical.

La integración de esas interacciones como parte de un plano de control también es una interacción vertical.

Así, esto refiere a los mecanismos colaborativos dentro de una instancia de un único plano de control  manejando multiples capas de red que forman parte de la misma región o no. Este concepto es útil para construir un marco de referencia que facilita el uso eficiente de los recursos y la provisión rápida de servicios en redes de operadores que se basan en múltiples capas, tecnologías de conmutación o ISCs.

Se define la Interacción Horizontal como el protocolo de intercambio entre los controladores de red que gestionan nodos de transporte dentro de una capa o región dada. La interacción del plano de control entre dos elementos de red TDM conmutando a OC-48 es un ejemplo de interacción horizontal. Las operaciones del protocolo GMPLS manejan interacciones horizontales dentro de la misma área de enrutado. El caso en el que la interacción tiene lugar a través de una frontera del dominio, como entre dos áreas de enrutado dentro de la misma capa de red, se evalúa como parte del trabajo inter-dominio  [RFC4726], y nos referimos a ella como Integración Horizontal. Así, la integración se refiere a los mecanismos colaborativos entre particiones de red y/o divisiones administrativas como áreas de enrutado o sistemas autónomos.

Esta distinción necesita de una aclaración adicional cuando los dominios administrativos casan con las fronteras de la capa/región. La interacción horizontal se extiende para cubrir estos casos. Por ejemplo, los mecanismos colaborativos que tienen lugar entre dos áreas LSC en relación con la integración horizontal. Por otra parte, los mecanismos colaborativos que tienen lugar entre un dominio PSC (por ejemplo IP/MPLS)  un dominio separado TDM sobre el que opera una parte de la integración horizontal, mientras que puede también ser visto como un primer paso hacia la integración vertical.

 Motivación

 La aplicabilidad de GMPLS a diferentes tecnologías de conmutación proporciona una aproximación unificada al control y gestión tanto para la provisión como para la restauración de LSP.  Además, una de las principales motivaciones para la unificación de las capacidades y operaciones del plano de control GMPLS es el deseo de soportar enrutado y capacidades TE en una región multi-LSP [RFC4206] . Esto permitiría la utilización eficiente de recursos de red tanto en las regiones de paquetes/nivel 2 como en la TDM o regiones de lambdas LSP en redes de mayor capacidad.

Resumiendo, los puntos a favor de redes multil capa/multi región controladas con GMPLS son los siguientes:

  • El mantenimiento de múltiples instancias del plano de control  en los equipos que albergan más de una capacidad de conmutación no sólo incrementa la complejidad de las interacciones entre las diferentes instancias del plano de control, sino que además incrementa la cantidad total de procesado que cada instancia individual del plano de control debe manejar.
  • La unificación de los espacios de direccionamiento ayuda a evitar múltiples identificadores para el mismo objeto (un enlace, una instancia, o de manera generalizada cualquier recurso de red). Por otra parte, tal agregación no impacta en la separación entre el plano de control y el plano de datos.
  • Manteniendo una instancia única del protocolo de routing y una única base de datos de ingeniería de tráfico (DB TE) por LSR, un modelo de plano de control unificado elimina los requisitos de mantener una topología de routing dedicada por capa y además no implica un mallado total de adyacencias de routing como en el caso de planos de control superpuestos.
  • La capacidad exitente en  GMPLS para asociar la señalización en banda  de planos de control a las interfaces con las terminaciones IP del plano de control, facilita la colaboración entre las capas de las diferentes tecnologías en las que el canal de control está asociado con el canal de datos (por ejemplo planos de datos paquetes/tramas) y las capas de las diferentes tecnologías en las que el canal de control no está directamente asociado con el canal de datos (SONET/SDH, G.709, etc.)
  • Se simplifican la gestión de recursos y políticas que se aplican en los bordes de este tipo de redes MRN/MLN (menos control para gestionar interacciones) y también se vuelven más escalables (gracias al uso de información agregada).
  • La TE del tráfico Multi-región/multi-capa es facilitada como enlaces TE desde distintas regiones/capas y almacenadas en la misma base de datos TEDB.

Seguiremos en la Parte III con los conceptos clave de las MLN y MRN basadas en GMPLS.

 

La RFC5212 describe los conceptos de MRN (Multi Region Network) y MLN (Multi Layer Network) y detalla los elementos de una única instancia de un plano de control GMPLS (Generalized Multi Protocol Label Switch) que controla múltiples capas dentro de un dominio dado de TE -Traffic Engineering, Ingeniería de Tráfico- . Una instancia de un plano de control puede servir a una, dos o más capas. Otras posibles aproximaciones tales como tener múltiples instancias del plano de control sirviendo a conjuntos disjuntos de capas no se recogen en el ámbito de este documento. Es más probable que este tipo de redes Multi Layer Network (MLN) y Multi Regional Network (MRN) sean operadas por un único proveedor de servicios, pero este documento no excluye la posibilidad de que dos capas (o regiones) estén bajo diferente control administrativo ( por ejemplo, por diferentes Proveedores de Servicio que comparten una única instancia del plano de control) en los que los dominios administrativos están preparados para compartir una cantidad de información limitada.

Se asume que la interconexión de dominios TE MRN/MLN adyacentes hará uso de la  [RFC4726] cuando sus bordes también soporten extensiones interdominio  GMPLS RSVP-TE.

Al extender el MPLS a diferentes tipos de conmutación, GMPLS se convierte en un interesante marco de referencia para el plano de control de redes multicapa o multidominio. Una de las aplicaciones más complejas e interesantes del GMPLS surge cuando tenemos que atravesar dominios diferentes dentro de una red. El cálculo de caminos tiene que considerar las restricciones específicas de cada región. Adicionalmente se necesita señalización para tunelizar los diferentes tipos de conmutación y debe establecerse un correcto mapeado entre las diferentes tecnologías.

En GMPLS, un dominio de una tecnología de conmutación define una región, y una red con múltiples tipos de conmutación. Es lo que se denomina MRN (Multi Region Network). Cuando se habla de redes multicapa, las cuales  a su vez pueden consistir en una o múltiples regiones se denominan MLN (Multi Layer Network).

El MPLS Generalizado (GMPLS) extiende el MPLS para manejar múltiples tecnologías de conmutación: conmutación de paquetes, conmutación de nivel 2, conmutación TDM (Time Division Multiplexing), conmutación WDM (Wavelenght Division Multiplexing) y conmutación de fibra ([RFC3945]).

Para distinguir estas posibilidades se introduce el concepto de ISC (Interface Switching Capability) que identifica estas tecnologías de conmutación, estableciéndose los siguientes tipos de descriptores ISCD (Interface Switching Capablity Descriptor):

  • PSC Packet Switch Capable
  • L2SC Layer-2 Switch Capable
  • TDM Capable
  • LSC Lambda Switch Capable
  • FSC Fiber Switch capable

La representación en un plano de control GMPLS, de un dominio de una tecnología de conmutación se denomina región [RFC4206]. Un tipo de conmutación describe la capacidad de un nodo de enviar datos de una tecnología de un plano de datos concreto, y unívocamente identifica una región de la red.

Una capa describe un nivel de granularidad de un plano de datos de conmutación (por ejemplo VC4, VC-12). Una capa de un plano de datos se asocia con una región en el plano de control (por ejemplo VC4 se asocia con TDM, MPLS se asocia con PSC). Sin embargo, mas de una capa de plano de datos puede ser asociada a la misma región (por ejemplo tanto VC4 como VC12 asociados a TDM).

Por lo que una región del plano de control, identificada por el valor de su tipo de conmutación, puede subdividirse en componentes de redes de menos granularidad basados en capas de conmutación de plano de datos. El descriptor de la capacidad de conmutación de la interfaz,  ISCD [RFC4202], que  identifica las  capacidades de conmuntación de las interfaces -ISC-, el tipo de codificación y la granularidad del ancho de banda de conmutación, permite la caracterización de las capas asociadas.

En la RFC5212 se define:

  • Red Multi Capa (MLN) como un dominio con Ingenieria de Tráfico (TE -Traffic Engineering-) que comprende capas con múltiples planos de conmutación, todas del mismo o diferente  ISC y controladas con una única instancia de un plano de control GMPLS.
  • Red Multi Región (MRN)  como un dominio TE en el que se incluyen al menos dos tipos diferentes de conmutación, que pueden estar desplegados en el mismo o en diferentes equipos y bajo el control de una única instancia de un plano de control GMPLS.

Las MLN pueden categorizarse de acuerdo a la distribución de los ISC entre los LSR (Label Switching Routers).

  • Cada LSR debe soportar sólo un ISC. Estos LSR se conocen como LSR con  capacidad de conmutación de tipo único. La MLN debe comprender un conjunto de LSR con capacidad de conmutación de tipo único.
  • Cada LSR debe soportar más de un ISC al mismo tiempo. Estos LSR se conocen como LSR con capacidad de conmutación de tipo múltiple, y pueden además ser clasificados como simples o híbridos, tal y como se detallará más adelante.

La MLN debe construirse a partir de cualquier combinación de ambos tipos de LSR. Mientras que GMPLS proporciona un marco de comprensión para el control de diferentes capacidades de conmutación, debe usarse una instancia única GMPLS para el control MLN/MRN. Esto permite una rápida provisión de servicios y una eficiente ingenieria de tráfio a través de todas las capacidades de conmutación.

En redes de este tipo, los enlaces de ingeniería de tráfico (TE Links) se consolidan en una única base de datos (Traffic Engineering Database -TED-). Como esta  TED contiene la información relativa a todas las diferentes regiones y capas que existen en la red, un camino a través de múltiples regiones o capas puede ser calculada usándola. Con esto se consigue la optimización de los recursos de la red  conjuntamente  MLN/MRN.

Por ejemplo, supongamos una MRN compuesta de routers con capacidad de conmutación de paquetes y crosconectores TDM. Asumimos que un paquete LSP se enruta entre los routers origen y  destino con capacidad de conmutación de paquetes, y que el LSP puede ser enrutado a través de la región PSC (utilizando solo recursos de la topología de la región de paquetes). Si el LSP  no cumple su objetivo, se deben crear nuevos enlaces de ingeniería de tráfico (TE links) entre los routers con capacidad de conmutación de paquetes a través de la región TDM (por ejemplo enlaces VC12), de manera que el LSP pueda ser enrutado sobre dichos TE links. Además, incluso si el  LSP puede establecerse con éxito a través de la región PSC, los LSPs jerárquicos TDM (a través de la región TDM entre los routers con capacidad de conmutación de paquetes) deben establecerse y usarse si con ello se alcanzan los objetivos de disponibilidad de recursos en la red que el Operador se plantee.

En la siguiente entrada seguiremos con el planteamiento y la motivación de la RFC5212.

 

En esta entrada se realiza un resumen de gran parte del documento del  IETF , A framework for Black Link Management and Control (draft-kunze-black-link-management-framework-00). Así que si sigues leyendo, atente a las consecuencias.

RESUMEN

El término Black Link hace referencia a un conjunto de recomendaciones de la ITU, en las que se describen escenarios en los que un par transmisor/receptor, que pueden ser del mismo o diferente suministrador, se comunica a través de una red óptica WDM de otro suministrador. Estos estándares proporcionan las especificaciones para las interfaces de la capa física (sin gestión o control) de una serie de aplicaciones basadas en los black links.

  • G.695. línea óptica CWDM constituida en anillos punto a punto unidireccionales y bidireccionales. Sistemas de interfaces sobre una fibra monomodo multicanal (aproximación de black box) o un único canal (aproximación de black link), con una velocidad de hasta NRZ 10 G, sin amplificación y un máximo de 16 canales en la rejilla propuesta en la G.694.2
  • G.698.1. Sistemas de línea óptica DWDM punto a punto unidireccional o anillo, sobre fibra monomodo usando interfaces de canal único, con la distancia de transmisión en el rango de entre 30 Km y 80 Km (aplicaciones metro) y velocidades de 2.5 y 10 Gbps con una rejilla de 100 GHz, o de 10 Gbps en rejilla de 50 GHz (G.694.1)
  • G.698.2. Sistemas de línea óptica DWDM punto a punto unidireccional o anillo sobre fibra monomodo usando interfaces de canal único, con velocidades de 2.5 y 10 Gbps con  rejilla de 100 GHz y de 10 Gbps con rejilla de 50 GHz (G.694.1).
  • G698.3. Sistemas DWDM punto a punto bidireccionales sin amplificación, usando interfaces multicanal o de canal único, con velocidades de hasta 1.25 Gbps utilizando la rejilla de 100-GHz y distancia de unos 40 km.

 Estas recomendaciones son responsabilidad de la ITU-T, concretamente del  SG15 (questions Q6/15).  En los últimos tiempos, este grupo de trabajo se ha centrado en establecer un conjunto de parámetros y sus valores asociados para permitir la interoperabilidad multisuministrador entre los diferentes formatos de modulación existentes para 40 Gbps, revisando la G.698.2.

Un black link comprende el enlace DWDM entre el multiplexor y el demuliplexor óptico, así como los potenciales amplificadores o OADMs y la fibra que conecta el transmisor con el receptor.

Revisiones futuras podrían incluir formatos de modulación avanzados que son más apropiados para 40G, y especialmente 100G. Existe un acuerdo para la inclusión de P-DPSK, RZ-DQPSK, DP-QPSK debido  la penentración que presentan en ciertos mercados.

Dos métodos para testear estos nuevos formatos de modulación se posicionan como los más  apoyados:

  • Error Vector Magnitude for QPSK signals (propuesto por Ciena)
  • Demodulated Extinction Ratio for DPSK signals (propuesto por ALU).

Para el periodo 2013-2016, uno de las tareas más interesantes del Q6/15 será la inclusión de especificaciones de rejilla flexible para DWDM en las recomendaciones que están afectadas por esta «pregunta», de manera que, la compatibilidad transversal (black box o black link) en un entorno multivendor multidominio pueda ser garantizado. Otras actividades serían el estudio de formatos multiportadora, como OFDM, SCM, etc, y la aplicación de técnicas de FEC a los sistemas de transmisión óptica terrena sobre todo para mejorar el margen del sistema o para relajar las especificaciones de los parámetros ópticos.

El documento proporciona un marco que describe una solución para la gestión y control de interfaces ópticas de acuerdo con la aproximación de Black Link especificada por la ITU-T G698.2. En particular examina los elementos topológicos y las medidas de gestión de red relacionadas.

El enrutado óptico y la asignación de longitud de onda basada en WSON queda fuera del ámbito de este documento. Nos centraremos en la gestión de las interfaces ópticas. La aplicación de un plano de control dinámico, para funciones como el autodescubrimiento o la distribución de parámetros de las interfaces es complementaria. En cualquier caso, este trabajo no entra en conflicto con WSON pero mejora y apoya los trabajos ya realizados para en plano de control y de gestión.

1. Introducción

El uso de black links  para redes de larga distancia y redes de agregación añade una opción adicional a los operadores para simplificar u optimizar las redes. La integración de interfaces ópticas coloreadas en los routers y en otro tipo de clientes podría aportar gran cantidad de beneficios, considerando un transporte eficiente y optimizado para servicios de alto nivel.

Los proveedores de servicio despliegan sus redes como una infraestructura que combina paquetes y transporte. Esto asegura una elevada disponibilidad y flexibilidad en el transporte de datos.

Ambas tecnologías suelen gestionarse, habitualmente de manera separada, unidades operacionales diferentes que utilizan conceptos de gestión diferente. Este es el status quo en la mayoría de las redes desplegadas hoy en día. En el caso de despliege de un black link o una friendly wavelength, donde las interfaces coloreadas se desplazan al cliente (por ejemplo, router), es necesario establecer una conexión de gestión entre el cliente que proporciona la interfaz coloreada y el correspondiente EMS (Element Management System) de la red de transporte, para asegurar que los parámetros de dicha interfaz coloreada pueden ser gestionados de la misma manera que los despliegues tradicionales permiten.

Es conveniente tener en cuenta que plano de control y de gestión son dos entidades separadas que manejan la misma información de manera diferente. En este documento se habla tanto del plano de gestión como del plano de control para diferentes casos de operación de BL (Black Links) y de FW (Friendly Wavelength).

2. Terminología y Definiciones

  • Black Link: El enlace negro (ITU.G698.2) permite soportar un par óptico transmisor/receptor de uno o diferentes suministradores para inyectar un canal DWDM y desplegarlo sobre una red óptica compuesta de amplificadores, filtros, ADM de diferentes suministradores. Además el estandar define los parámetros de entrada y salida en la interfaz Ss y Rs
  • Interfaz Coloreada: el término interfaz coloreada define una interfaz de canal óptico que se usa para enlazar largas distancias y que se conecta directamente con un sistema DWDM. Las interfaces coloreadas operan sobre una longitud de onda fija o sintonizable (en una banda). Interfaz coloreada es un término más  genérico y es un superconjunto del enlace negro.
  • Friendly Wavelength. Longitud de onda amigable es una longitud de onda que se genera u origina por una interfaz óptica que no es parte de un sistema WDM pero que es completamente gestionada y conocida por el sistema WDM.
  • Alien Wavelenght, Lambda Alien es una longitud de onda que se genera u origina en una interfaz óptica que no es parte de un sistema WDM y que ni se gestiona ni se conoce por dicho sistema WDM.
  • Forward error correction (FEC):  es una manera (imprescindible) de mejorar la implementación de sistemas de transmisión ópticos de larga distancia. El empleo de FEC  en los sistemas de transmisión ópticos da paso a un diseño de sistemas que pueden aceptar un BER (Bit Error Rate) mayor  (mucho mas que 10-12) en la línea de transmisión (antes de la decodificación).
  • Interfaz Intradominio (Intra-domain Interface (IaDI): Es el lado de línea del sistema óptico. Se trata de una interfaz física dentro de un dominio de suministrador o administrativo, que puede ser tanto estandarizada (acorde con la G.698.2 ) o propietaria.
  • Interfaz Interdominio (Inter-Domain Interface(IrDI): Es una interfaz física que representa la frontera entre dos dominios administrativos, así como la frontera entre el cliente y el dominio óptico.
  • Plano de Gestión: Soporta capacidades FCAPS (Fault, Configuration, Accounting, Performance and Security   Management)
  • Plano de Control. Soporta señalización, cálculo de caminos, enrutado, establecimiento y restauración de caminos.
  • Capa de Red Cliente (Client Network Layer): Es la capa que se sitúa sobre el nivel  WDM, desde la perspectiva de la capa WDM.
  • Transpondedor: Es un elemento de red que implementa la conversión O/E/O (Optico/Electrico/Óptico). Se hará solo referencia a transpondedores 3R como se definen en ITU.G872

3. Solución de Gestión para un Black Link DWDM

Básicamente, la gestión de FW y de BL  maneja aspectos relacionados con provisionar y establecer canales y el mantenimiento de los mismos. Estas funciones son demandadas por la capa de red cliente que esté por encima del WDM. Para la gestión de BL y FW se consideran los siguientes tipos de red WDM:

  • WDM pasivo
  • WDM punto a punto (herencia)
  • WDM con OADM (herencia)
  • Redes ópticas transparentes que soportan funciones específicas de IPoWDM, interfaces y protocolos.

Adicionalmente, podrían considerarse los siguientes casos de despliegue:

  • Despliegues exclusivos de BL
  • Despliegue de BL combinados con interfaces grises de cliente, este caso estaría motivado por el uso de equipamiento heredado que seguirían usando las conexiones tradicionales.

3.1. Descripción de la conexión WDM del lado cliente

3.1.1. Despliegues tradicionales WDM

La conexión típica de la capa cliente hacia un sistema WDM se basa a día de hoy en interfaces de cliente (grises) de cortas/medias distancias entre ambos. La señal óptica que entra al sistema WDM debe ser convertida mediante una conversión OEO a la correspondiente longitud de onda con el nivel de potencia adecuado para el camino de transmisión asignado. Esta conversión la realizza el transpondedor, tal y como se puede ver en la figura 1.

Después de esa conversión OEO la señal cumple con los parámetros que han sido especificados para ese enlace concreto WDM.

La figura 1 muestra esta interconexión cliente-WDM tradicional usando transpondedores para la conversión de las longitudes de onda. IrDI y IaDI, como se definieron en el apartado 2, especifican las diferentes áreas de demarcación relacionadas con las conexiones externas e internas.

FIGURA 1 BLACK LINK
La gestión y el control de las capas WDM y cliente se realizan mediante soluciones diferentes. Diferentes unidades operacionales suelen ser responsables de las interfaces de cliente y de la capa WDM.

3.1.2. Despliegues de Black Link

En el caso de un despliegue de Black Link, la figura 2  nos muestra con el transceptor DWDM se localiza directamente en el cliente, evitando las interfaces grises. En este caso, es necesario encontrar una solución para la gestión de esa interfaz coloreada para que sea equivalente a la gestión tradicional. Este requisito conviene que sea completamente asegurado especialmente en aquellos casos donde el equipamiento legacy y las interfaces BL y FW puedan ser usados en paralelo o conjuntamente y la forma de operar la red siga siendo la tradicional.

La figura 2 muestra un conjunto de puntos de referencias, para la aproximación de BL, para la conexión de un único canal (Ss y Rs) entre los transmisores (Tx) y los receptores (Rx). Aquí, los elementos de la red EDM incluyen un OM y un OD, , uno o más amplificadores ópticos y puede incluso incluir uno o más OADMs.

figura 2 black link

Independientemente de las redes WDM que han sido consideradas, el BL debe funcionar igual de bien en despliegues mixtos de sistemas legacy con equipamiento BL y FW.

5. Soluciones de gestión y control para los Black Link

La operación y gestión de los sistemas WDM es tradicionalmente un grupo homogéneo de tareas que podrían ser realizadas de manera más eficiente cuando se trata de un sistema de gestión único o paraguas que también  se encarga de administrar las longitudes de onda.

Este tipo de operación de red tradicional se diseñó pensando en una gran cantidad de tráfico orientado a conexión en las redes de los operadores. Este comportamiento ha cambiado completamente. Hoy en día el tráfico IP es el dominante en las redes y desde el punto de vista operacional es más beneficioso utilizar una aproximación común para la gestión y la operación. Debido a esta larga historia de separación operacional, debería ser posible gestionar los despliegues de BL de la manera tradicional.

Además, desde el punto de vista de la operación de la red, en un BL puro, o en una mezcla con equipamiento legacy (transpondedores) hay dos aproximaciones para gestionar y operar la red:

  1. Operación y gestión seaparada del cliente y de la red de transporte
    1. Enlace directo a los sistemas de gestión (EMS, OSS)
    2. Enlace indirecto al sistema de gestión, usando un protocolo entre el nodo propietario del enlace y el nodo del sistema WDM al que está directamente conectado para intercambiar información de gestión
  2. Operación y gestión común para IP y red de transporte

La primera opción mantiene el status quo en  redes de gran tamaño. En este caso, se deben asegurar por completo las funcionalidades FCAPS asociadas a la gestión (Fault, Configuration, Accounting, Performance and Security). Esto significa para el personal que gestiona la red que nada cambia. La interfaz óptica será parte del dominio definido por el sistema de gestión óptico y será gestionado por el personal de gestión del transporte.

La segunda opción debería ser la preferida si la capa de transporte WDM subyaciente se usa principalmente para interconectar nodos IP, y la restauración y creación de servicio se realiza en capas superiores (por ejemplo IP/MPLS). En este caso hay más beneficio en tener un nivel de integración y una gestión común será más eficiente.

5.1. Operación y Gestión separadas de BL

5.1.1. Conexión directa al sistema de gestión

Como se muestra en la figura 3 una posibilidad para gestionar la interfaz óptica dentro del cliente es una conexión directa con el sistema de gestión del dominio óptico. Esto asegura la gestionabilidad de la manera tradicional.

figura 3 black ling

El intercambio de información de gestión entre el cliente y el sistema de gestión asume que existe cierta forma de enlace directo entre el nodo cliente y el sistema de gestión WDM (por ejemplo EMS). Esto podría implementarse mediante un enlace Ethernet o una conexión DCN.

Debe asegurarse que la interfaz óptica pueda ser gestionada de una manera estandarizada para permitir soluciones interoperables entre los diferentes suministradores de interfaces ópticas y suministradores de software de gestión para redes ópticas.  RFC 3591 define objetos de gestión para el tipo de interfaz óptica pero no cubre los escenarios que se describen en este documento. Además, una extensión de esta MIB para la interfaz óptica se ha esquematizado en el borrador  [Black-Link-MIB].  En este caso, se utiliza SNMP para el intercambio de datos entre el cliente y el sistema de gestión del dominio WDM.

Hay que dejar claro que una actualización de los componentes de la interfaz de cliente no implica necesariamente una actualización del software del EMS, y viceversa.

5.1.2. Conexión indirecta al sistema de gestión WDM

La alternativa que se muestra en la figura 4 puede usarse en los casos en los que se aspire a una relación más automatizada entre el nodo de transporte y el router. En este caso, se utilizará una combinación de las características de un plano de control rudimentario y una gestión manual. Sería el primer paso hacia un modelo de operación más orientado hacia el plano de control.

figura 4 black link

Para el intercambio de información entre el cliente y el nodo al que está directamente conectado de la red de transporte óptica puede utilizarse la  RFC 4209.  Esta extensión de LMP puede utilizarse entre el nodo propietarios y un nodo adyacente de la red óptica, tal y como aparece en la figura 4.

LMP basado en RFC 4209 no soporta la transmisión de datos de configuración (información). Esta funcionalidad debe ser añadida a las extensiones del protocolo existentes. El uso de LMP-WDM asume que alguna forma de canal de control existe entre el nodo cliente y el equipamiento WDM. Podría ser una longitud de onda dedicada, un enlace Ethernet o un DCN. Se ha propueto el uso de una señalización fuera de banda sobre un enlace separado o DCN para asegurar mayor disponibilidad.

5.2. Consideraciones del plano de control

Básicamente no es una imposición obligatoria el uso de un plano de control en escenarios de BL o FW, al menos no en los casos más simples donde los clientes se conectarán punto a punto usando una infraestructura WDM simple (multiplexor y amplificador). Como primer paso es posible configurar el enlace al completo usando un sistema de gestión estándar y una conexión directa del router o cliente al EMS de la red de transporte. La información de configuración puede ser intercambiada usando SNMP (mirar la sección 5.1.1.)

Teniendo en cuenta el plano de control, podemos considerar dos escenarios:

  • Un plano de control común para el transporte y los clientes; esto implica un responsable único de la operación tanto para el cliente como para la gestión de la red de transporte.
  • Un plano de control separado para cliente y para red óptica sin ninguna interacción

Como se dijo en 5.1.2  deberían usarse algunas funcionalidades mejoradas del plano de control, como LMP. En un escenario tan simple es posible utilizar sólo LMP para el intercambio de información entre los nodos y el dominio óptico. LMP debe correr entre ambos puntos del extremo a extremo del enlace y entre el nodo frontera y el primer nodo de la red óptica.

Referencias

   [ITU.G.872]       International Telecommunications Union,
                     "Architecture of optical transport networks", ITU-
                     T Recommendation G.872, November 2001.

   [ITU.G698.2]      International Telecommunications Union, "Amplified
                     multichannel dense wavelength division multiplexing
                     applications with single channel optical
                     interfaces", ITU-T Recommendation G.698.2,
                     November 2009.

   [ITU.G709]        International Telecommunications Union, "Interface
                     for the Optical Transport Network (OTN)", ITU-
                     T Recommendation G.709, March 2003.

   [RFC2119]         Bradner, S., "Key words for use in RFCs to Indicate
                     Requirement Levels", BCP 14, RFC 2119, March 1997.

   [RFC3591]         Lam, H-K., Stewart, M., and A. Huynh, "Definitions
                     of Managed Objects for the Optical Interface Type",
                     RFC 3591, September 2003.

   [RFC4209]         Fredette, A. and J. Lang, "Link Management Protocol
                     (LMP) for Dense Wavelength Division Multiplexing
                     (DWDM) Optical Line Systems", RFC 4209,
                     October 2005.
  [Black-Link-MIB]  Internet Engineering Task Force, "A SNMP MIB to
                     manage the optical parameters caracteristic of a
                     DWDM Black-Link", draft-galimbe-kunze-black-link-
                     mib-00 draft-galimbe-kunze-black-link-mib-00,
                     March 2011.

Que no, que Habermas no es kantiano

Una pregunta que surge al hilo de lo planteado en la Parte I , es porqué después de integrar una teoría pragmática de la acción y de la verdad dentro de su visión, Habermas se caracteriza a sí mismo como un tipo de pragmatismo kantiano.

Como veremos, la principal razón es porque para Habermas, la autonomía moral y la validez son posibles únicamente mediante el razonamiento y el uso del concepto en un discurso práctico. Mientras que la verdad va más allá del discurso y hace una referencia esencial a un mundo cuya objetividad se ve ratificada por la acción, la validez práctica no.

Basándose en esta diferencia, Habermas afirma que las tesis kantiana de  la verdad y la validez moral, razón teórica y práctica, son categóricamente distintas.

Pero la dificultad que encuentra Habermas es que para abordar el problema del contextualismo en una esfera teórica, asume el control sobre una teoría pragmática de la acción para suscribir su teoría pragmática de la verdad. Pero esta teoría de la acción, al menos bajo el paraguas del pragmatismo, no solo se incrusta dentro de una teoría unitaria de razón o inteligencia que contiene momentos de razón práctica y teórica, sino que además provee de una noción de objetividad y verdad que se extiende hacia el ámbito de la esfera práctica.

¿Cómo puede entonces Habermas aceptar esta teoría de la acción mientras a la vez defiende la distinción kantiana entre razón teórica y práctica?

En un artículo que escribió Habermas sobre el pragmatismo kantiano de Putnam, se preguntó retóricamente si no habría sido mejor para Putnam permanecer todo el camino siendo kantiano descartando su realismo moral pragmático y aceptando, como hizo Habermas, éticas de discurso deontológico.

A la luz de su uso de una teoría pragmática de la acción y de la verdad, podemos preguntarnos al revés: ¿no habría sido mejor para Habermas permanecer pragmático todo el camino aceptando un realismo moral pragmático en el que la distinción entre verdad y validez normativa, razón teórica y práctica, es más un asunto local que universal?

El problema de Habermas es similar al de Kant, tiene que desarrollar sus teorías de manera que  superen el escepticismo (en este caso, contextualismo), y que a la vez busque el hueco para la autonomía de la razón práctica.

Habermas resuelve este problema domesticando las consecuencias de su propio pragmatismo, específicamente:

  1. Tratando de restringir el funcionamiento del ciclo pragmático de la acción a los contextos epistémicos o teóricos
  2. Demonstrando que una noción adecuada de objetividad y verdad sólo puede estar acreditada por creencias teóricas, ni morales, ni éticas.
  3. Argumentando que cualquier posición, como las de otros pragmáticos, que asimile verdad y validez moral no puede justificar el caracter universal de la moralidad post-convencional.

Restricción del ciclo pragmático de la acción a contextos teóricos o epistémicos.

Respecto a la primera forma en la que Habermas domesticó su pragmatismo, reconoce que el ciclo pragmático de la acción  incluye una teoría de la razón que contiene momentos de ambas razones, teórica y práctica. Si recordamos, esta teoría postula una estructura de dos niveles en los que las frustraciones y los momentos controlados de éxito con el entorno nos lleva a una investigación de un orden superior y a un diálogo con la comunidad de investigadores.

Aquí, intención y creencia, acción dirigida a objetivos y discurso intersubjetivo dirigido hacia la verdad, tienen relaciones internas entre ellos. Habermas intenta debilitar la fuerza de este punto escorzando el momento de la razón práctica, que , según Habermas, tiene tres modalidades: moral, ética y pragmática.

Mientras que la moralidad concierne a las normas y juicios que pretenden reconocimiento universal en un discurso racional bajo condiciones aproximadamente ideales, la ética concierne a los valores, creencias, actitudes y auto-conocimientos que informan sobre las formas particulares de vida y concepciones de lo bueno. Por contra, el momento pragmático de la razón práctica concierne a intenciones y acciones que son puramente teleológicas, instrumentales o estratégicas.

El argumento de Habermas es que el ciclo pragmático de la acción sólo contiene el último momento de la razón práctica. Una investigación y un discurso de orden superior dirigido por la razón sólo emerge en la manera en que un pragmatista lo imagina cuando fracasan sus tratos con el entorno, instrumentales o teleológicos .

Por lo tanto, aunque la razón práctica y la teórica están entrelazadas, sólo están entrelazadas en los contextos en los que los agentes tienen un interés técnico en objetivar y sobreponerse a una naturaleza hostil.

En el pragmatismo clásico, esta restricción del ciclo pragmático de la acción a los contextos teóricos que tienen un final estrictamente epistémico no aplica. El pragmatismo argumenta esta tesis afirmando, en palabras del propio Habermas que : «el proceso de investigación en sí mismo es un ejemplo de colaboración social. Incluso si la comunidad de investigadores  se compromete en sus investigaciones colaborativas con la verdad bajo condiciones especiales o un compromiso experimental con la naturaleza y un compromiso comunicativo con los expertos, este complejo compromiso no esconde sino el verdadero tipo de inteligencia que determina nuestras prácticas ordinarias y la comunicación diaria. Hay una conexión interna entre la práctica de la investigación y los contextos del mundo de la vida en la que está enraizada»

En otras palabras, la inteligencia que informa a la praxis teórica específicamente es una codificación de orden superior de la inteligencia que implícitamente guia la acción y la comunicación de la rutina diaria. Tales  prácticas rutinarias, sin embargo no están solamente orientadas a llegar a tener un buen conocimiento de los procesos naturales independientes, más bien están envueltas en el amplio espectro de las actividades del mundo de la vida en cuanto que la conducta para la solución de problemas hace frente a un intento de superar dichos problemas no sólo con el mundo objetivo, sino también con los mundos ético, moral, político y estético. En todos estos dominios la acción rutinaria se puede ver interrumpida dando paso a una investigación, comunicación y deliberación de mayor nivel.

Como veremos, este hecho conforma la base para el argumento de que una noción de objetividad y verdad pueda ser  transmitida a la esfera práctica del mundo de la vida. A la luz de esta contra-tesis pragmática, Habermas necesita un argumento más robusto para justificar su afirmación de que el ciclo pragmático de la acción puede sólo transmitir una noción de objetividad y verdad en contextos teóricos. Veremos cómo Habermas proporciona este argumento.

Moralidad y validez moral

Para entender la segunda manera en la que Habermas trata de domesticar las consecuencias de su pragmatismo, debemos decir en primer lugar algo sobre su teoría de la moralidad y la validez moral.

Habermas hizo una aguda distinción entre moralidad y ética.

Respecto a la ética, Habermas reconoce que, comparado con las preferencias  subjetivas o postuladas arbitrariamente, juicios evaluativos y creencias tienen cierta objetividad. Esto es así porque dentro de una cultura dada y basándonos en los fundamentos de la forma común de la vida, los agentes intercambian razones y así modifican sus evaluaciones y prácticas éticas. Sin embargo, objetividad en el sentido de amplia aceptación acorde con el conocimiento ético del espíritu objetivo del entorno social no debería confundirse con la validez verdad-análoga en el sentido de aceptabilidad racional. Esto es porque el conocimiento ético sobre lo que es bueno o válido se indexa en formas particulares de vida y sus autocomprensiones y concepciones de lo bueno. Como tal, los juicios de valor no merecen consentimiento universal incondicional, pero sí ameritan el reconocimiento de aquellos que interpretan el estándar subyacente de valor de la misma manera, ya sea por el hábito o una buena razón.

Mientras que las creencias éticas y valores hacen una afirmación que aplica no sólo a aquellos quienes ya aceptan un estándar subyacente de valores, los juicios morales idealmente aplican a todos los sujetos universalmente.

La moralidad en el sentido que demanda Habermas surge cuando, ante la desintegración de formas de vida comunales y la pluralización de visiones del mundo generadas por las complejas sociedades modernas, los agentes son conscientes del hecho de que la moralidad puede ser un disenso racional sobre las normas fundamentales  de los valores.

La pregunta es ¿cómo, en la ausencia de una norma fundamental, puede las normas morales ser reestablecidas para regular nuestras relaciones interpersonales? En la perspectiva de Habermas, la única manera de conseguirlo es girando la rectitud moral hacia un concepto procesal perteneciente a la legitimidad de los discursos morales. La rectitud moral, o justicia, se convierte en efecto en una metanorma que gobierna los discursos mediante los cuales se generan normas de primer orden y juicios.

¿Qué es una metanorma? Para que una norma moral o juicio sea moralmente correcta o válida, debe ser aceptada por todos los que se ven afectados por ella en discursos prácticos aproximadamente ideales.

Según dijo Habermas, todas aquellas normas y juicios morales que merezcan reconocimiento universal son buenas, y eso significa que en un discurso racional en condiciones aproximadamente ideales podrían ser consensuadas por todos a los que les conciernen. Porque descubrimos la rectitud de los juicios morales de la misma manera que la verdad de las descripciones: a través de la argumentación, las preguntas que son discutidas y las afirmaciones que son hechas en los discursos prácticos tienen contenido cognitivo y no simplemente expresivo.

Habermas afirma que la rectitud moral sólo es análoga a la verdad. ¿Cuál es la diferencia entre estos dos tipos de validez?

Las afirmaciones de validez moral no referencian al mundo de la manera característica en que lo referencian las afirmaciones de verdad. Verdad es un concepto de justificación trascendente que no puede ser establecido para coincidir incluso con la afirmabilidad garantizada ideal. Más bien refiere a las condiciones de verdad que deben, por decirlo así, ser satisfechas por la realidad misma. Por contraste, el significado de rectitud consiste enteramente en la afirmabilidad garantizada ideal. Para que nosotros mismos contribuyamos al cumplimiento de las condiciones de validez de los juicios morales y las normas.

Para Habermas, tanto moral como juicios teóricos, por contra de los juicios evaluativos, elevan afirmaciones universales al nivel de validez, afirmaciones que trascienden el contexto de las comunidades existentes.

En el caso de la moral, esta universalidad se genera mediante el hecho de que ganan un reconocimiento motivado racionalmente en todos los contextos. No sólo aquí para nosotros, sino en el discurso universal de todos los sujetos capaces de habla y acción. En otras palabras, la universalidad de las afirmaciones morales pertenecen a la inclusividad horizontal de una comunidad de habla.

Sin embargo, como la validez moral todavía consiste en un juicio o norma aceptada o reconocida como válida bajo condiciones ideales por una comunidad de habla horizontalmente inclusiva, permanece inmanente a la justificación. Una afirmación de verdad, en contraste,  no es verdad porque esté aceptada por una comunidad de habla, incluso en circunstancias ideales, sino porque refiere a un estado objetivo de asuntos.

La diferencia entre verdad y rectitud moral nos lleva al hecho de que mientras las afirmaciones de verdad refieren a un mundo objetivo sobre el que afirmamos hechos, la rectitud moral no refiere más allá de los límites del discurso de algo que debería existir independientemente de haber sido elegido para ser digno de reconocimiento.

Debería esta claro a estas alturas por qué Habermas considera la elaboración de una teoría pragmática de la verdad algo tan importante: no solo supera la amenaza del contextualismo, sino que también les da los medios para distinguir entre verdad y rectitud moral. Su antigua concepción del discurso teórico de la verdad era insuficiente para esta tarea porque en esa concepción tanto verdad como rectitud moral fueron vistos como los resultados de una discusión práctica ideal y además ambos son producto del mismo proceso de construcción de validez. Pero una vez que tenemos una teoría pragmática de la verdad  en dos pasos que no sólo aplica al nivel del discurso sino también al de la acción, estamos en  posición de comprender la dificultad de articular una concepción que asimila la validez moral a la verdad. Porque mientras las afirmaciones teóricas se convierten en referencias esenciales a un mundo cuya objetividad se ratifica en la acción, las afirmaciones morales son discursivas e inmanentes a la justificación, y por lo tanto no se hace tal referencia.

Si mantenemos  el nivel del discurso y la argumentación en ambos tipos de afirmaciones, las orientamos a dar una única respuesta correcta. Sin embargo, y este es el punto clave, esta analogía existe sólo en el nivel de la argumentación. No puede ser transferida a la corroboración de creencias pre-reflexiva. Las creencias morales no desfallecen contra la resistencia de un mundo objetivo en el que todos los participantes suponen ser uno y el mismo. Más bien, desfallecen contra la irresolubilidad del disenso normativo entre las partes oponentes en un mundo social compartido.

En este nivel, el de las creencias implícitas en nuestras prácticas morales y teóricas, pero sólo en el caso teórico, tenemos una noción de objetividad que está internamente conectada a un concepto de verdad con justificación trascendente.

Se debería argumentar en contra de la conclusión de Habermas de esta manera: si como Habermas admite, las creencias morales guían implícitamente las interacciones sociales gobernadas por leyes de la misma manera que las creencias empíricas guían el comportamiento orientado a objetivos en el mundo empírico, entonces parecería como si las prácticas morales tuvieran la misma estructura de acción teórica que de prácticas teóricas. En esta perspectiva, tanto la moral como las creencias teóricas son revisadas, a través de un discurso moral de nivel superior y una investigación teórica respectivamente, cuando las acciones que ellos guían desfallecen contra la realidad recalcitrante. Pero entonces, por qué no podríamos decir que, sólo como revisión de nuestras creencias empíricas ante una realidad recalcitrante, nos da el sentido de objetividad que guía nuestras afirmaciones teóricas reguladas por la verdad?, también lo hace la revisión de nuestras creencias morales previamente establecidas ante un disenso moral, nos da un sentido de objetividad, uno que circula para orientar nuestros jucios morales?.

Aquí, en lugar de diferenciar categóricamente verdad y validez moral, podríamos mostrar que ambas formas de validez están esencialmente conectadas a una forma de objetividad que tiene su origen en las restricciones puestas de manifiesto por la acción.

Habermas evita esta conclusión apuntando a las diferentes formas en las que las creencias morales y teóricas se corroboran. En el caso teórico, las creencias se corroboran como objetivas permitiendo que agentes manipulen con éxito procesos que de otra manera ocurrirían independientemente. Respecto a las creencias morales, éstas se corroboran mediante la resolución consensuada de conflictos de interacción.

Por lo tanto mientras la corroboración de las creencias teóricas es dependiente de las operaciones de un mundo que se presume el mismo para todos los agentes, la corroboración continua de las creencias morales es dependiente de un acuerdo normativo y evaluativo de agentes en un mundo social compartido.

El conocimiento es falible

Habermas reconoce que hay una condición falibilista que aplica a todo el conocimiento. Su argumento más bien es que las creencias morales teóricas – y las afirmaciones discursivas construidas sobre ellas –  son falibles de maneras categóricamente diferentes: las creencias y los juicios teóricos son falibles debido a la estrechez cognitiva de nuestra mente finita con respecto  a un conocimiento futuro mejor, mientras que las creencias y juicios morales son falibles debido a una estrechez existencial, por decirlo así, con respecto a la variabilidad histórica de los contextos de interacción en sí mismos.

Las creencias morales son existencialmente estrechas porque sus corroboraciones a través de la resolución de conflictos de interacción puede ocurrir sólo en contra del sustrato de intersubjetividad compartido de las creencias normativas. La corroboración no sucede en una práctica que puede ser fácilmente diferenciada del discurso. Más bien tiene lugar desde el principio en el medio ligüístico de comunicación.

Así que aunque parece como si las prácticas morales tuvieran una estructura de dos niveles en los que el discurso moral y la reclamación de afirmaciones emergen desde la disrupción de la acción, las prácticas morales son de hecho discursivas através y mucho más allá de la acción, y las creencias implícitas en la acción, son ellas mismas simbólicamente mediadas.

Pero si esto fuera así, entonces las afirmaciones y los juicios morales que emergen desde el trabajo a través de la disrupción de nuestras creencias no podrían, como afirmaciones teóricas, invocar un sentido de la objetividad que se ratifica pre-discursivamente en la acción. En su lugar, estas afirmaciones, como las creencias que ellas expresan, son existencialmente estrechas en cuanto que están restringidas por, y permanencen relativas a, un mundo social mediado lingüísticamente e históricamente variable.

Como dijo Habermas: Si las certezas morales que nos guían al fracaso de nuestras acciones están determinadas no por la contingencia incontrolada de los estados de las cosas refutados, sino por la oposición o grito de los actores sociales con orientaciones de valor disonantes, la resistencia no proviene de lo objetivamente dado que no podemos controlar, sino de la falta de un consenso normativo con otros. La objetividad de otra mente está compuesta de diferentes aspectos de la objetividad de una realidad inanticipada.

Basado en Truth and Moral Validity: On Haberma’s Domesticated Pragmatism.

Steven Levine

Introducción

Para Deleuze, la clasificación tradicional entre sujeto y objeto dan una mala aproximación del Pensamiento. Ésta mejoraría utilizando tierra y territorio. Según Deleuze, el pensamiento es la relación que existe entre ambos. Pensar consiste en tender un plano de inmanencia que absorba la tierra, más bien la adsorba, que la atraiga, la retenga y se impregne de ella. Deleuze, junto con Guattari crean una nueva noción, con nuevas pretensiones. Desterritorialización (DT).

Para entender la noción de DT, es necesario insertarla en el contexto deleuziano apropiado, caracterizándolo como un movimiento en el que es necesario conocer qué elementos están en movimiento, quién o qué provoca ese movimiento  y en qué lugar se producen dichos movimientos. Por lo que se propone adoptar el siguiente camino:

  • En primer lugar establecer los conceptos de  porqué y quién
    • Líneas de Fuga, lo que provoca ese movimiento. Las líneas de fuga abren las brechas del territorio posibilitando  la DT pura, .
    • Agenciamientos, los elementos en movimientoconstituyen la unidad mínima de realidad,  afectada por los movimientos de DT. Siempre hablamos, actuamos y pensamos desde un agenciamiento.
  • A continuación profundizar en el dónde, noción de Territorio, lugar donde se producen los movimientos, lugar que se crea y se destruye gracias a esos movimientos
  • Abordar en más detalle los movimientos propiamente dichos de DT y Reterritorialización (RT)
  • Verlos ejemplificados en el Concepto

La realidad está compuesta de agenciamientos – unidad mínima de la realidad- individuales y colectivos que interactúan entre ellos modificándose y generando otros agenciamientos. Estos agenciamientos adoptan la forma de vectores que se mueven dentro de un territorio. En todo territorio hay vectores de DT, de RT y vector de salida. Es decir, son elementos con una intensidad asociada y con una dirección determinada que interactúan entre ellos. La realidad en la que estamos inmersos en nuestra sociedad, aquí y ahora es un campo de vectores de agenciamiento, que además pueden generar otros agenciamientos, co-funcionales y simbióticos.

Todo lo que conforma la realidad  es un campo de vectores que interactúan y generan otros vectores, en un medio, que es el territorio. Se encuentran en un equilibrio dinámico y homeostático hasta que aparece una línea de fuga y abre una brecha en el territorio. En ese momento, que es el de DT absoluta, un romper algo para crear un algo, se identifica el vector de salida que todo territorio tiene, y comienza la DT, como si los vectores que conforman el territorio se alinearan hacia el vector salida y los agenciamientos fueran hacia la tierra, desarticulando el territorio y buscando alternativamente un nuevo territorio. Simultáneamente, la inercia que se establece entre la tierra y el territorio, hace que un movimiento de DT genere a su vez un movimiento de RT asociado, las piezas que se desarticulan en el territorio pueden valer para nuevos territorios que se están articulando, y si no son útiles acabarán desapareciendo. La intensidad y la velocidad con la que estos vectores se mueven no son lo mismo. La DT absoluta no existe sin RT.

El ser humano vive en una eterna DT, productiva, tecnológica y cultural.

Líneas de Fuga y Agenciamiento

La obra de Deleuze y Guattari está marcada por un movimiento de relaciones múltiples, coexistentes y, de cierta forma, complementarias. No hay un pensamiento binario, de simple oposición entre los términos.

De acuerdo con Deleuze tanto los individuos como los grupos están constituidos por “líneas” de diversa naturaleza. Distinguen tres líneas que nos atraviesan y componen:

  • Líneas de segmentaridad rígida o molar:
    • son segmentos bien definidos en diversas direcciones ligados a la familia, la profesión, el trabajo, las vacaciones, la escuela, la fábrica, el ejército.
    • Estas líneas van a depender de máquinas binarias muy diversas no sólo dualistas sino también dicotómicas.
    • Pueden funcionar diacrónicamente (material no formal, final no esencial), por lo tanto, hay un dualismo desplazado donde las elecciones son sucesivas, no simultaneas.
    • Estos segmentos están caracterizados por:
      • dispositivos de poder muy diversos entre si y
      • por fijar cada uno el código y el territorio de segmento que corresponde; la máquina abstracta que los sobrecodifica y regula estas relaciones; y el aparato de Estado que efectúa dicha máquina.
    • Por ello implica un tipo de plano, en este caso el de organización.
  • Líneas de segmentaridad flexible o molecular:
    • son flujos moleculares, nuevas composiciones, que no coinciden exactamente con el segmento,
    • proceden por umbrales y van a constituir devenires.
    • Lo molecular, a diferencia de lo molar, hace referencia a las intensidades, al plano de inmanencia, donde ya no hay más que relaciones de velocidad o lentitud.
    • Por su parte, las máquinas abstractas tampoco van a ser las mismas, son mutantes y no sobrecodificantes.
  • Líneas de fuga o de DT:
    • no es segmentaria y es abstracta.
    • No es que preexistan sino que se trazan, se componen y no se sabe de antemano lo que va a funcionar como línea de fuga, ni que va a venir a interceptarla.
    • En la ruptura no sólo la materia del pasado se ha volatilizado, uno ha devenido imperceptible y una sociedad se define precisamente por esta línea de fuga,
    • Es un tiempo no pulsado, es pura intencionalidad, donde hay DT absoluta.
    • La creación se produce sobre estas líneas, por lo que no deben ser pensadas como meras fantasías, sino al contrario porque se traza sobre ella algo real y construye un plano de consistencia, algo devino otra cosa, y nada será igual.
    • Son consideradas primordiales, por el poder transformación que cargan.

Por agenciamiento, Guattari y Rolnik se refieren a una “noción más amplia que la de estructura, sistema, forma, etc. Un agenciamiento incluye componentes heterogéneos, tanto de orden biológico como social, maquínico, gnoseológico, imaginario”. Al contrario de las estructuras, que “están siempre ligadas a condiciones de homogeneidades”, los agenciamientos son co-funcionales, una simbiosis.

El agenciamiento es una multiplicidad que incluye tanto líneas molares como moleculares; esta es “la verdadera unidad mínima” de la realidad que ellos proponen en lugar de la palabra, del concepto o del significante. Para Deleuze,“la unidad real mínima no es la palabra, ni la idea o el concepto, ni tampoco el significante. La unidad real mínima es el agenciamiento”.

Podríamos decir que todo agenciamiento es colectivo y pone en juego poblaciones, multiplicidades, afectos, intensidades, territorios. Siempre hablamos, actuamos y pensamos desde un agenciamiento, la línea imperceptible que atraviesa las ideas, los cuerpos, los elementos en juego, es el entremedio,que sostiene todas las relaciones.

Los agenciamientos se mueven entre la tierra y el territorio generando los movimientos de DT y RT. Un agenciamiento es un territorio, que puede desterritorializarse y al mismo tiempo, reterritorializarse. Pero también puede dar lugar a la generación de otro agenciamiento RT, DT… Esto es lo que define el movimiento de cualquier agenciamiento y nos acerca a un modo singular de insistencia en lo vital, apostando a que las conexiones sean cada vez mínimas en organización y máximas en intensidad.

El nuevo territorio es siempre productivo, es por esta razón que el mundo es un territorio que debe ser siempre reterritorializado, ocupado, reconstruido, habitado; una tensión que sólo puede satisfacer la intensidad de una acción creativa múltiple.

Los agenciamientos, unidades mínimas de la realidad, se encuentran en un movimiento de DT y RT continuo, dinámico y homeostático, entre la tierra y el territorio. Así es como pensamos. Necesitamos ahora, reflexionar sobre el territorio, donde se producen los movimientos.

El Territorio

«El territorio es el ámbito del tener. Es la propiedad del animal, propiedad en el sentido de Beckett o Michaux. Salir del territorio es aventurarse. El territorio me vale en relación con un movimiento por el cual se sale de él. La DT coincide literalmente con el concepto “outlandish” de Melville (desterritorializado)» (Deleuze dixit).

No hay territorio sin un vector de salida y no hay salida del territorio, es decir, DT sin al mismo tiempo un esfuerzo por (RT) en otro sitio, en otra cosa. Los territorios comportan siempre dentro de sí vectores de DT o de RT. Mucho más que una cosa u objeto, un territorio es un acto, una acción, una relación, un movimiento concomitante de RT y DT, un ritmo, un movimiento que se repite y sobre el cual se ejerce un control.

Guattari afirma en el libro Micropolítica: Cartografías del Deseo: “ Los seres existentes se organizan según territorios que ellos delimitan y articulan con otros existentes y con flujos cósmicos. El territorio puede ser relativo tanto a un espacio vivido como a un sistema percibido dentro del cual un sujeto se siente ‘una cosa’. El territorio es sinónimo de apropiación, de subjetivación fichada sobre si misma. El es un conjunto de representaciones las cuales van a desembocar, pragmáticamente, en una serie de comportamientos, inversiones, en tiempos y espacios sociales, culturales, estéticos, cognitivos”.

Desde una perspectiva crítica de la Geografía, Deleuze considera al territorio como una construcción social resultado del ejercicio de relaciones de poder desarrolladas a lo largo del espacio-tiempo. Estas relaciones de poder son tanto materiales como simbólicas, ya que son el resultado de la producción de un espacio que se construye diferencialmente según vivencias, percepciones…

De la creación a la destrucción del territorio: Desterritorialización y Reterritorialización

Guattari y Rolnik plantean que “El territorio se puede DT, esto es, abrirse, en líneas de fuga y así salir de su curso y destruirse. La especie humana está sumergida en un inmenso movimiento de DT, en el sentido de que sus territorios ‘originales’ se rompen ininterrumpidamente con la división social del trabajo, con la acción de los dioses universales que ultrapasan las tablas de la tribu y la etnia, con los sistemas maquínicos que llevan a atravesar, cada vez más rápidamente, las estratificaciones materiales y mentales”.

La DT puede ser considerada un movimiento por el cual se abandona el territorio, una operación de líneas de fuga, y por ello es una RT y un movimiento de construcción del territorio.

Podríamos definir la “DT”, como “desenraizamiento que se desdobla en el plano de la producción (la fábrica global), de la tecnología (medios de comunicación) y de la cultura (imaginarios colectivos transnacionales)”. Vista de este modo, la DT habla de manifestaciones simultáneas y transversales, y supera todo determinismo económico: no se trata sólo de los capitales que “fugan” y “fluyen”, ni de los recursos naturales privatizados, ni de la distribución en diferentes lugares del globo de la cadena de producción de las empresas transnacionales.

La DT implica, además, la desarticulación del referente clave de las culturas: el territorio, espacio común donde se materializan las prácticas, que marca las fronteras entre “nosotros” y los “otros” (los de “adentro” y los de “afuera”). Esto rompe con dos principios que han servido tradicionalmente para comprender las culturas: el de centralidad y el de oposición entre interno/externo; ya que por un lado deslocaliza y dispersa el centro o foco cultural, y por el otro, hace permeables las fronteras que distinguen un adentro de un afuera.

Características de la DT.

  • En primer lugar, el movimiento concomitante e indisociable entre DT y RT se expresa en lo que ellos llaman la “proposición maquínica”: “Jamás se desterritorializa por sí sólo, por lo mismo se necesitan dos términos. En cada uno de los términos se RT uno en otro. De tal manera que no se debe confundir la RT con el retorno a una territorialidad primitiva, o más antigua: ella implica necesariamente un conjunto de artificios por los cuales un elemento, el mismo desterritorializado, sirve de territorialidad nueva a otro que pierde la suya. De allí todo un sistema de RT horizontales y complementarias” (Guattari y Rolnik, 1996: 41).

  • Una segunda característica cuestiona la relación entre DT y velocidad: “De los elementos en los movimientos de DT, uno más rápido no es forzosamente más intenso o más desterritorializado. La intensidad de la DT no debe ser confundida con la velocidad del movimiento o de desenvolvimiento. De manera que el más rápido conecta su intensidad con la intensidad del más lento, lo cual, en cuanto a intensidad, no lo sucede, pero trabaja simultáneamente un estrato sobre otro o un plano sobre otro” (Guattari y Rolnik, 1996: 41). Se establece un sistema homeostático donde la suma de DT y RT se encuentran en un equilibrio dinámico.

  • Finalmente, Deleuze y Guattari relacionarán las intensidades dentro de un proceso de DT y proponen una distinción entre los dos tipos de DT: una relativa y una absoluta: “Se puede concluir… que uno menos desterritorializado se reterritorializa sobre uno más desterritorializado. Surge aquí un segundo sistema de RT, vertical, de abajo hacia arriba… La regla general, la DT relativa (transcodificación) se reterritorializa sobre una desterritorialización absoluta” (Guattari y Rolnik, 1996: 41).

  • La DT relativa hace referencia al abandono de territorios creados en las sociedades y su concomitante RT. Física, psicológica o social, la DT es relativa mientras atañe a la relación histórica.

  • Mientras que la DT absoluta se remite a su propio pensamiento, la virtualidad del devenir y lo imprevisible. Cuando la tierra penetra en el mero plano de inmanencia de un pensamiento.

  • Se trata de atributos utilizados para diferenciar la naturaleza de este tipo de DT, lo cual no implica una superioridad o una dependencia de la DT relativa en relación a la absoluta, al contrario los dos movimientos pasan uno a otro. La DT absoluta sólo puede ser pensada siguiendo unas relaciones por determinar con las DT relativas, no sólo cósmicas, sino geográficas, históricas y psicosociales. Siempre hay un modo en el que la DT absoluta en el plano de inmanencia asume el relevo de una DT relativa en un ámbito determinado.

Pensar y DT quiere decir que el pensamiento sólo es posible en la creación, y para que se cree algo nuevo es fundamental romper el territorio existente, creando otro. De esta forma, de la misma manera que los agenciamientos funcionaban como elementos constitutivos del territorio, ellos también van a operar en la DT, nuevos agenciamientos son necesarios, nuevos encuentros, nuevas funciones. La DT del pensamiento siempre va acompañada por una RT: “La DT absoluta no existe sin RT”.

Por lo tanto, Tierra y territorio son dos conceptos entrelazados, existe una relación dinámica y continua entre ellos, con dos zonas de indiscernibilidad:

  • Desterritorialización (DT), del territorio a la tierra

  • Reterritorialización (RT), de la tierra al territorio

Ambos tipos de movimiento establecen una relación intrínseca entre las partes creadas y eliminadas de tierra y territorio. Es decir, Al pasar del territorio a la tierra (DT), se genera un movimiento de la tierra al territorio (RT) relacionado. Y viceversa, un RT genera un DT. Pero a su vez, la tierra procede sin cesar a un movimiento de DT in situ a través del cual supera cualquier territorio. La tierra es desterritorializante y desterritorializadora, llegando a confundirse ella misma con el movimiento de los que abandonan en masa su propio territorio.

Aparece una diferencia importante según que la DT relativa sea de inmanencia o de trascendencia:

  • Cuando la DT relativa es trascendente, vertical, el elemento trascendente tiene que inclinarse o someterse a una especie de rotación para inscribirse en el plano del pensamiento-Naturaleza siempre inmanente. Pensar implica aquí una proyección de lo trascendente sobre el plano de inmanencia. Se piensa por Figuras. El territorio se convierte en tierra desierta y un extranjero viene a refundar el territorio, a reterritorializar la tierra.

  • Cuando la DT relativa es en sí misma horizontal, inmanente, entre una multiplicidadvinculada entre sí, se conjuga con la DT absoluta del plano de inmanencia que lleva al infinito, que impulsa a lo absoluto los movimientos de la primera transformándolos (el medio, la opinión, el amigo). La inmanencia se duplica. Entonces ya no se piensa por figuras sino por Conceptos.

El concepto no es objeto, sino territorio

El concepto es lo que llena el plano de inmanencia. El propio concepto abandona cualquier referencia para conservar su consistencia. El concepto no tiene más regla que la vecindad, interna o externa.

  • Su vecindad o consistencia interna está garantizada por la conexión de sus componentes en zonas de indiscernibilidad;

  • Su vecindad externa o exoconsistencia está garantizada por los puentes que van de un concepto a otro cuando los componenetes de uno están saturados.

Y eso es efectivamente lo que significa la creación de los conceptos: conectar componentes interiores inseparables hasta su cierre o saturación de tal modo que no se pueda añadir o quitar ningún componente sin cambiar el concepto: conectar el concepto con otro, de tal modo que otras conexiones cambiarían la naturaleza de ambos. La plurivocidad del concepto depende únicamente de la vecindad (un concepto puede tener varias).

El concepto no es paradigmático, sino sintagmático, no es proyectivo, sino conectivo, no es jerárquico sino vecinal, no es referente, sino consistente.

Lo trascendente produce por proyección una absolutización de la inmanencia. Pero la inmanencia de lo absoluto que reivindica la filosofía es completamente distinta; las figuras tienden hacia los conceptos hasta el punto de que se aproximan infinitamente a ellos.

Para que la filosofía naciera fue necesaria la conjunción de dos movimientos de DT muy diferentes, el relativo y el absoluto, cuando el primero ejercía ya una acción en la inmanencia. Fue necesario que la DT absoluta del plano del pensamiento se ajustara o se conectara directamente con la DT relativa de la sociedad griega.

No se puede reducir la filosofía a su propia historia, porque la filosofía se desvincula de esta historia incesantemente para crear conceptos nuevos que revierten nuevamente a la historia pero no proceden de ella. Sin la historia, el devenir permanecería indeterminado, incondicionado, pero el devenir no es histórico. Los tipos psicosociales pertenecen a la historia, pero los personajes conceptuales pertenecen al devenir.

Si la filosofía surge en Grecia, es más en función de una contingencia que de una necesidad, más de un ambiente o de un medio que de un origen, más de un devenir que de una historia, de una geografía más que de una historiografía, de una gracia más que de una naturaleza.

La revolución es la DT absoluta en el punto mismo en el que ésta apela a la tierra nueva, al pueblo nuevo. La DT absoluta no se efectúa sin una RT. La filosofía se reterritorializa en el concepto. El concepto no es objeto, sino territorio.

Aunque la filosofía se reterritorializa en el concepto, no por ello halla su condición en la forma presente del Estado democrático o en un cogito de comunicación más dudoso aún que el cogito de reflexión. No carecemos de comunicación, por el contrario, nos sobra, carecemos de creación. Carecemos de resistencia al presente.

La creación de conceptos apela en sí misma a una forma futura, pide una tierra nueva y un pueblo que no existe todavía. La europeización no constituye un devenir, constituye únicamente la historia del capitalismo que impide el devenir de los pueblos sometidos. El arte y la filosofía se unen en este punto, la constitución de una tierra y de un pueblo que faltan, en tanto que correlato de la creación. Las democracias son mayorías, pero un devenir es por naturaleza lo que se sustrae siempre a la mayoría.

Es la relación constitutiva de la filosofía con la no filosofía. El devenir siempre es doble, y este doble devenir es lo que constituye el pueblo venidero y la tierra nueva. La filosofía tiene que devenir no filosofía, para que la no filosofía devenga la tierra y el pueblo de la filosofía.

El pueblo es interior al pensador porque es un devenir-pueblo de igual modo que el pensador es interior al pueblo, en tanto que devenir no menos ilimitado. El artista o el filósofo son del todo incapaces de crear un pueblo, sólo pueden llamarlo con todas sus fuerzas. Un pueblo sólo puede crearse con sufrimientos abominables, y ya no puede ocuparse más de arte o de filosofía. Pero los libros de filosofía y las obras de arte también contienen su suma inimaginable de sufrimiento que hace presentir el advenimiento de un pueblo. Tienen en común la resistencia, la resistencia a la muerte, a la servidumbre, a lo intolerable, a la vergüenza, al presente.

La DT y la RT se cruzan en el doble devenir. Apenas se puede ya distinguir lo autóctono de lo foráneo, porque el forastero deviene autóctono junto al otro que no lo es, al mismo tiempo que el autóctono deviene forastero, a sí mismo, a su propia clase, a su propia nación, a su propia lengua. Devenir forastero respecto a uno mismo, y a su propia lengua y nación, ¿no es acaso lo propio del filósofo y de la filosofía?

La filosofía se reterritorializa tres veces, una vez en el pasado en los griegos, una vez en el presente en el Estado democrático, una vez en el futuro, en el pueblo nuevo y en la tierra nueva.

Basado en:

Habermas no es Kantiano

Habermas establece que hay una distinción categorial entre verdad y rectitud moral, y por lo tanto entre razón teórica y práctica. Levine argumenta en contra de esta conclusión, tratando de demostrar que la nueva teoría pragmática de la verdad de Habermas no refuerza la distinción entre verdad y rectitud moral, de hecho la vicia.

En su libro Verdad y Justificación, Habermas caracteriza su proyecto teórico como un tipo de Pragmatismo Kantiano. Según Levine, lo que distingue al pragmatismo kantiano del pragmatismo lingüístico integrado en la teoría de la acción comunicativa de Habermas es su intento de integrar la teoría de la comunicación con una teoría pragmática de la acción y el aprendizaje.

En esta nueva teoría, el discurso ya no se ve como el acompañamiento autónomo de una razón lingüística descentralizada, sino como fundamentalmente entrelazado con las acciones y contextos del mundo de la vida. Habermas realiza este giro pragmático porque, en un compromiso con Rorty, estimó que cualquier visión que se centrara sólo en las interrelaciones comunicativas horizontales entre sujetos no puede permitir una contextualización en la que la verdad de una proposición siempre esté indexada a un contexto de justificación. Porque los sujetos están a expensas de sus  relaciones verticales con el mundo, establecidas a través de la acción. Habermas abandona su antigua teoría de la verdad discursiva por su dificultad.

La teoría de la verdad discursiva de Habermas

Brevemente resumida, la teoría de la verdad discursiva de Habermas, que es en sí misma un tipo de teoría pragmática, comienza por una tesis familiar: después del giro lingüístico, lenguaje y realidad están inextricablemente entrelazados.

Este hecho descarta las versiones metafísicas de la teoría de verdad como correspondencia porque los agentes no pueden salirse del círculo del lenguaje para examinar si sus proposiciones corresponden a una realidad independiente del  lenguaje.

Por lo tanto, para establecer la afirmación de una verdad imponderable, no podemos simplemente apuntar a los hechos independientes del lenguaje, en su lugar, debemos justificar o dar razones para esa afirmación. Sin embargo, sólo porque la verdad de una afirmacion puede ser solamente establecida a través de la justificación y dando razones, no significa que pueda ser equiparada con lo que está justificado y garantizado ahora.

De lo que sabemos de los sustratos pragmáticos, podemos extraer que nuestro conocimiento es falible y sujeto a revisión. Esto nos abre una distinción entre verdad y aceptabilidad racional que es interna a nuestras prácticas epistémicas. Algunos filósofos, como Rorty, piensan que el salto entre verdad y aceptablidad racional no puede nunca superarse. Según Levine, nuestro objetivo epistémico no debería ser la verdad sino la consecución de acuerdos motivados racionalmente en audiencias más grandes y mejor formadas epistémicamente. Para Habermas, la verdad de una proposición realiza una afirmación incondicional que apunta más allá de todas las evidencias de las que disponemos.

¿Cual es la naturaleza de esta afirmación incondicional? Una declaración es verdad no cuando está justificada en las condiciones actuales, sino en condiciones ideales. Si bien esta medida no separa la verdad de prácticas justificativas y escrutinadoras todas juntas, como hacen las teorías metafísicas de la verdad, tampoco la reducen a lo que es racionalmente aceptable en el aquí y el ahora. Habermas aquí siguió a Peirce, pero por buenas razones eliminó su noción de justificación ideal, ya que sólo sería asequible en un límite ideal, por ejemplo al final del escrutinio. En su lugar, idealizó los mecanismos del discurso: lo que es verdad es lo que puede ser aceptado como racional en condiciones ideales.

Habermas abandonó el barco

¿Cual es el problema de esta teoría de la verdad? ¿Por qué la abandonó Habermas?. A través de un compromiso con el trabajo de Wellmer, Lafont, Rorty y Putnam, Habermas se convenció de que la verdad no es un concepto epistémico en absoluto. La verdad es una propiedad absoluta que no puede perderse. La verdad trasciende todos los contextos de justificación, incluso los ideales. El concepto de verdad como lo aceptado como racional bajo condiciones ideales, no puede dar cuenta de esta intuición en la medida en que incluso aunque nuestras creencias hayan sido justificadas pueden llegar a estar equivocadas.

Una proposición es verdad no porque sea el producto de un consenso racional forjado bajo condiciones ideales, sino más bien porque es verdad. Como dijo Habermas, una proposición es conforme a todos los sujetos racionales porque es verdad, no es verdad porque podría ser el contenido de un consenso obtenido bajo condiciones ideales.

Según Habermas, esta intuición de que la verdad no está epistémicamente indexada no es metafísica, pero es un aspecto gramatical de las afirmaciones de verdad. ¿Cómo puede uno hacer justicia a este aspecto gramatical y no cortar de raíz todas las conexiones entre prácticas de justificación y verdad, al ser necesario evitar teorías metafísicamente realistas de la verdad?.

Una vez que se ha puesto sobre la mesa la intuición gramatical sobre la naturaleza absoluta de la verdad, la concepción teórica del discurso parece estar sujeta a un dilema irresoluble: No importa cómo se mejora el valor de las condiciones epistémicas a través de idealizaciones, o satisfaciendo el caracter incondicional de la afirmación de la verdad mediante requisitos que cortan todas las conexiones con las justificaciones de las prácticas conocidas, o incluso reteniendo esa conexión con las prácticas conocidas y pagando el precio en el que la aceptación racional no excluye la posibilidad de error incluso bajo esas condiciones ideales, es decir, no simula una propiedad que puede perderse.

Si tomamos el antiguo camino de desconectar completamente la verdad de la justificación, minamos la base para respaldar la noción de sentido común, en la que nuestras investigaciones y las prácticas de justificación ayudan a estar más cerca de la verdad. Si cogemos el camino posterior y defendemos una concepción epistémica de la verdad, entonces sólo tenemos la posición convencional en la que lo mejor que podemos hacer es apostar porque no es verdad,  expandiendo el círculo de solidaridad de Rorty.

Habermas construye un barco nuevo

Según Habermas, aunque no podamos cortar la conexión entre verdad y justificación, esta conexión epistémicamente inevitable no debe convertirse en una conexión conceptualmente inseparable en la forma de un concepto epistémico de verdad. Es decir, aunque la justificación discursiva sea la única manera de establecer afirmaciones de verdad imponderables y esté además epistémicamente conectada a la verdad, eso no significa que la verdad pueda ser identificada con lo que está justificado, incluso en condiciones ideales. Pero si no hacemos esta identificación ¿cómo vamos a tener en cuenta a la verdad?

Para responder a esta pregunta Habermas formula una nueva teoría pragmática de la verdad. Para articularla recurre a algunos aspectos de la tradición pragmática clásica que muchos filósofos contemporáneos habían dejado atrás. Particularmente se centró en la teoría pragmática sobre la acción y la investigación. En todas las figuras pragmáticas clásicas, Peirce, James y Dewey, hay un sentido agudo de que la cognición debe ser vista como un momento en un ciclo de una acción más grande que comienza cuando los agentes se enfrentan a situaciones problemáticas en el mundo. Confrontando estas situaciones. los modos habituales de hacer frente fracasan, haciendo surgir la duda.

Para hacer frente a esta brecha, y sustituir la duda por la creencia (reglas de comportamiento), los agentes deben emprender el camino hacia un nivel superior de cognición e investigación, por ejemplo la teoría de la comunicación, experimentación. En este caso, los agentes no sólo se ajustarán a la situación, sino que además se comprometerán con ella de manera creativa, trayendo algo nuevo al mundo (como una teoría, una practica moral, invención, etc.). Si la investigación es exitosa, los agentes adquieren nuevas creencias que reestablecen la rutina de la acción y del discurso.

Para el pragmatismo clásico esta adquisición es el fundamento del aprendizaje y del crecimiento de la experiencia porque los movimientos realizados para resolver el problema original están, a través de mecanismos de retroalimentación, integradados en el sustrato de la comprensión del agente actuante.

Para el pragmatismo, la acción siempre está incluida en un contexto donde se establece un problema objetivo, que es revelado por un sustato de comprensión garantizado. Incluso la duda solo aparece en un contexto de creencia que es casi siempre tomado como garantía de verdad.

Así que, cuando la acción estalla en la cara de la recalcitrante experiencia, lo que específicamente se convierte en duda lo hace sólo contra el sustrato de una red holística de expectaciones estables, creencias y certidumbres de comportamiento que guían la acción rutinaria  y la comunicación.

Como decía Habermas, el pragmatismo nos hace consciente de que la práctica diaria descarta la suspensión de la afirmación de la verdad. La red de prácticas rutinarias se basa más o menos en las creencias implícitas que tomamos como verdaderas en contra de un amplio sustrato de creencias compartidas intersubjetivamente o suficientemente solapadas. Este sustrato es el origen de nuestro concepto de verdad como incondicional: Las prácticas del mundo de la vida  (el aprendizaje) están soportadas por una conciencia de certidumbre que en el curso de la acción no deja lugar a dudas sobre la verdad.

El mundo es objetivo: independiente y el mismo para todos

La conducta que resuelve problemas procesa las frustraciones que se producen en contra del sustrato de expectaciones estables, en el contexto de un gran cuerpo de creencias que han sido ingenuamente tomadas como verdad. Los actores confían en las certezas de la acción en sus relaciones prácticas con el mundo objetivo, el cual ellos presuponen que es independiente y el mismo para todo el mundo. Y esas certezas implican a su vez que las creencias que guian a las acciones se están asumiendo como verdad absolutamente.

No caminamos sobre  un puente de estabilidad dudosa. Al realismo de la práctica diaria, aquí se corresponde un concepto de verdad incondicional, o verdad que no está epistémicamente indexada.

Esta concepción de la verdad disuelve el anterior dilema, haciendo justicia al carácter incondicional de las afirmaciones de verdad mientras que mantiene una conexión epistémicamente inevitable entre verdad y justificación. Mientras que la única manera de resolver afirmaciones de verdad es a través de la justificación, cuando los agentes entran en el discurso, ya poseen una concepción incondicional de la verdad que opera por debajo de los niveles de la razón.

El concepto no epistémico de verdad es relevante para el reino de la razón, porque se proyecta dentro del discurso formando un horizonte implícito de expectación sobre nuestras prácticas discursivas. De esta manera proporciona un punto de referencia de  justificación trascendente para afirmaciones de verdad discursivamente tematizadas. Descubrir una verdad que exceda toda justificación es el objetivo de las justificaciones. Por lo tanto, la justificación no puede nunca ser final o completa. Este es el origen del sentido de que  nuestras interpretaciones y justificaciones en el espacio de razones sean siempre falibles.

Esta conciencia falibilista que nos puede hacer errar incluso en el caso de unas creencias bien justificadas, depende de una orientación hacia la verdad cuya raíces se extienden dentro del realismo de las prácticas diarias. Sin embargo este falibilismo, aunque en principio nunca termina, de hecho llega a un final ya que el concepto de verdad facilita el ascenso de certidumbres prácticas al discurso, proporcionando discursos con un punto de referencia trascendente a la justificación, además también permite una retransformación de afirmaciones racionalmente aceptables en certezas performativas.

En otras palabras, debido a que la verdad es operativa tanto en contextos de acción como en el discurso, cuando el argumento llega al final y las afirmaciones de verdad se desproblematizan, tenemos permiso para volver al marco de la acción en el que las creencias  justificadas se transforman en certidumbres de comportamiento. Haciendo esta transición no dejamos detrás la verdad, pero sí que la hacemos retornar a su lugar de origen.

Al proporcionar un punto de referencia con justificación trascendente en nuestras prácticas discursivas, Habermas piensa que ha logrado el primer paso para superar el contextualismo, es decir, la visión de que la verdad de una proposición siempre está indexada en un contexto de justificación.

El segundo paso requerirá conectar nuestro concepto implícito de verdad con un concepto de objetividad que a su vez está implícito en nuestra acción dirigida hacia el mundo. El contextualismo puede ser superado finalmente, dice Habermas, porque las certidumbres que son el origen de nuestro concepto de verdad son certezas en las que agentes actores  confían para sus relaciones prácticas con el mundo objetivo, un  mundo que se presupone independiente y el mismo para todos.

En otras palabras, las certezas que conforman el origen formal de nuestro concepto de verdad son siempre acerca de un mundo objetivo.

Objetividad

Pero, ¿por qué los agentes actuantes presuponen en primer lugar que hay un mundo independiente y objetivo? ¿Cual es el origen del concepto de objetividad?

En la conceptualización pragmática de Habermas, la objetividad se da en primer lugar no por nuestra representación lingüística del mundo, sino a través de nuestras acciones sobre él y dentro de él. Específicamente, el concepto de objetividad surge a través del fracaso.

Cuando las acciones fracasan, experimentamos en la práctica que el mundo revoca su disposición a cooperar, y esta negativa hace surgir el concepto de objetividad. Esta experiencia de fracaso, de nuestros proyectos individuales y cooperativos realizados con otros, genera un concepto implícito de un mundo independiente que retroalimenta nuestro sistema sutrato de creencias, guiando nuestra acción futura y comportamiento. A partir de ahora, en o dentro de la acción presuponemos el mundo objetivo como un sistema de referentes posibles, como una totalidad de objetos, no de hechos.

Como el concepto de verdad, el concepto de objetividad dado en la práctica asciende hacia el discurso, garantizando que nuestras declaraciones refieren a objetos que existen independientemente de nuestras representaciones lingüísticas. En este sentido, la objetividad se convierte en una presuposición práctica no sólo de accion sino también de comunicación. Como sujetos capaces de discurso y acción, los usuarios del lenguaje deben ser capaces de referir a algo en el mundo objetivo desde el horizonte de sus mundos de la vida compartidos si quieren alcanzar un acuerdo sobre  algo en la comunicación entre ellos.

Basado en  Truth and Moral Validity: On Haberma’s Domesticated Pragmatism

Steven Levine

La tierra y el territorio

Para Deleuze, el sujeto y el objeto dan una mala aproximación del pensamiento. Pensar no es un hilo tensado entre ambos, ni una revolución de uno entorno al otro. Pensar se hace más bien en la relación entre el territorio y la tierra.

La tierra procede sin cesar a un movimiento de desterritorialización in situ a través del cual supera cualquier territorio: es desterritorializante y desterritorializadora, llegando a confundirse ella misma con el movimiento de los que abandonan en masa su propio territorio. La tierra no es un elemento cualquiera entre los demás, aúna todos los elementos en un mismo vínculo, pero utiliza uno u otro para desterritorializar el territorio. Los movimientos de desterritorialización no son separables de los territorios que se abren sobre otro lado ajeno, y los procesos de reterritorialización no son separables de la tierra que vuelve a proporcionar territorios.

Se trata por tanto de dos componentes, el territorio y la tierra, con dos zonas de indiscernibilidad, la desterritorialización (del territorio a la tierra) y la reterritorialización ( de la tierra al territorio). No puede decirse cuál de ellos va primero.

Los filósofos son extranjeros, pero la filosofía es griega

Deleuze se pregunta en qué sentido Grecia es el territorio del filósofo, o la tierra de la filosofía.

Aunque los Estados se han definido a menudo como territoriales, esto no es del todo cierto. Los grupos constituidos en linajes que lideran un Estado pueden cambiar de territorio, mientras que el Estado o la Ciudad proceden a una desterritorialización, adaptando el territorio a una extensión geométrica prolongable en circuitos comerciales.

En los Estados imperiales, la desterritorialización es de trascendencia, tiende a llevarse a cabo verticalmente, el territorio se convierte en tierra desierta y un extranjero viene a refundar el territorio, a reterritorializar la tierra. En la Ciudad en cambio la desterritorialización es de inmanencia, se establece un mercado internacional en las lindes de Oriente que se organiza entre una multiplicidad de ciudades independientes aunque vinculadas entre sí, donde artesanos y mercaderes hallan una libertad y movilidad que los imperios les negaban.

Estamos hablando de extranjeros que huyen, en proceso de ruptura con el imperio y colonizados de Apolo. ¿Qué encuentran estos inmigrantes en el mundo griego? Según Deleuze tres cosas fundamentales que podrían convertirse en las condiciones de hecho de la filosofía:

  • una sociabilidad pura como medio de inmanencia
  • un cierto placer de asociarse, que constituye la amistad, pero también de romper la asociación, que constituye la rivalidad
  • una inclinación por el intercambio de opiniones

Inmanencia, amistad, opinión. Nos toparemos una y otra vez con estos tres rasgos griegos. La rivalidad encierra muchas crueldades, la amistad muchas rivalidades, la opinión muchos antagonismos y vuelcos sangrientos.

Desterritorialización relativa y absoluta

Física, psicológica o social, la desterritorialización es relativa mientras atañe a la realción histórica de la tierra con los territorios que en ella se esbozan o desvanecen, a su relación geológica con eras y catástrofes, a su relación astronómica con el cosmos y el sistema estelar del cual forma parte. Pero la desterritorialización es absoluta cuando la tierra penetra en el mero plano de inmanencia de un pensamiento.

Pensar consiste en tender un plano de inmanencia que absorba la tierra, más bien la adsorba. La desterritorialización de un plano de esta índole no excluye una reterritorialización, pero la plantea como creación de una tierra nueva futura. No obstante, la desterritorialización absoluta sólo puede ser pensada siguiendo unas relaciones por determinar con las desterritorializaciones relativas, no sólo cósmicas, sino geográficas, históricas y psicosociales. Siempre hay un modo en el que la desterritorialización absoluta en el plano de inmanencia asume el relevo de una desterritorialización relativa en un ámbito determinado.

Aparece una diferencia importante según que la desterritorialización relativa sea de inmanencia o de trascendencia:

  • Cuando es trascendente, vertical, celeste, producida por la unidad imperial, el elemento trascendente tiene que inclinarse o someterse a una especie de rotación para inscribirse en el plano del pensamiento-Naturaleza siempre inmanente: la vertical celeste se reclina sobre la horizontal del plano de pensamiento siguiendo una espiral. Pensar implica aquí una proyección de lo trascendente sobre el plano de inmanencia. La trascendencia puede estar totalmente vacía en sí misma, se va llenando a medida que se inclina y cruza niveles diferentes jerarquizados que se proyectan juntos sobre una región del plano, es decir, sobre un aspecto que corresponde a un movimiento infinito. Lo mismo sucede cuando la trascendencia invade lo absoluto, o cuando un monoteísmo sustituye a la unidad imperial: el dios trascendente permanencería vacío, si no se proyectara sobre el plano de inmanencia de la creación el que traza las etapas de su teofanía. En todos estos casos, unidad imperial o imperio espiritual, la trascendencia que se proyecta sobre el plano de inmanencia lo cubre o lo llena de Figuras. Se trata de una sabiduría o de una religión. La figura posee un referencia plurívoca y circular. Se define por una tensión interna que la relaciona con lo trascendente sobre el plano de inmanencia del pensamiento. La figura es esencialmente paradigmática, proyectiva, jerárquica y referencial.
  • Cuando la desterritorilización relativa es en sí misma horizontal, inmanente, se conjuga con la desterritorialización absoluta del plano de inmanencia que lleva al infinito, que impulsa a lo absoluto los movimientos de la primera transformándolos (el medio, la opinión, el amigo). La inmanencia se duplica. Entonces ya no se piensa por figuras sino por conceptos.

El concepto

El concepto es lo que llena el plano de inmanencia. Ya no hay proyección en  una figura, sino conexión en el concepto, por eso el propio concepto abandona cualquier referencia para no conservar más que unas conjugaciones y unas conexiones que constituyen su consistencia. El concepto no tiene más regla que la vecindad, interna o externa. Su vecindad o consistencia interna está garantizada por la conexión de sus componeentes en zonas de indiscernibilidad; su vecindad externa o exoconsistencia está garantizada por los puentes que van de un concepto a otro cuando los componenetes de uno están saturados. Y eso es efectivamente lo que significa la creación de los conceptos: conectar componentes interiores inseparables hasta su cierre o saturación de tal modo que no se pueda añadir o quitar ningún componente sin cambiar el concepto: conectar el concepto con otro, de tal modo que otras conexiones cambiarian la naturaleza de ambos. La plurivocidad del concepto depende únicamente de la vecindad (un concepto puede tener varias).

El concepto no es paradigmático, sino sintagmático, no es proyectivo, sino conectivo, no es jerárquico sino vecinal, no es referente, sino consistente. Resulta obligado entonces que la filosofía, la ciencia y el arte dejen de organizarse como los niveles de una misma proyección, y que ni siquiera se diferencien a partir de una matriz común, sino que se planteen o se reconstituyan inmediatamente dentro de una independencia respectiva, una división del trabajo que suscita entre ellos relaciones de conexión.

¿Hay que decidir una oposición radical entre las figuras y los conceptos? Unas veces se confiere a los conceptos el prestigio de la razón, mientras se relegan las figuras a la oscuridad de lo irracional y a sus símbolos; otras se otorga a las figuras los privilegios de la vida espiritual, mientras se relegan los conceptos a los movimientos artificiales de un entendimiento muerto. Y sin embargo surgen perturbadoras afinidades sobre un plano de inamencia que parece común a ambos.

Lo trascendente produce por proyección una absolutización de la inmanencia. Pero la inmanencia de lo absoluto que reivindica la filosofía es completamente distinta; las figuras tienden hacia los conceptos hasta el punto de que se aproximan infinitamente a ellos.

Las religiones sólo llegan al concepto cuando reniegan de sí, las filosofías sólo llegan a la figura cuando se traicionan. Entre las figuras y los conceptos existe una diferencia de naturaleza, pero también todas las diferencias de grado posibles. Pensar se hace en un plano de inmanencia en el que pueden morar tanto las figuras como los conceptos. Este plano no es exactamente filosófico, sino pre-filosófico. Es tributario de lo que mora en él, y que actúa sobre él, de tal modo que sólo se vuelve filosófico bajo el efecto del concepto: supuesto por la filosofía, aunque no obstante instaurado por ella, se desarrolla dentro de una relación filosófica con una no-filosófica. En el caso de las figuras, por el contrario, lo pre-filosófico pone de manifiesto que el plano de inmanencia en sí mismo no tenía como destino inevitable una creación de concepto o una formación filosófica, sino que podía desarrollarse en unas sabidurías y unas religiones siguiendo una bifurcación que conjuraba de antemano la filosofía desde la perspectiva de su propia posibilidad.

La filosofía es una geofilosofía

Para que la filosofía naciera fue necesaria la conjunción de dos movimientos de desterritorialización muy diferentes, el relativo y el absoluto, cuando el primero ejercía ya una acción en la inmanencia. Fue necesario que la desterritorialización absoluta del plano del pensamiento se ajustara o se conectara directamente con la desterritorialización relativa de la sociedad griega.

La filosofía es una geofilosofía, exactamente como la historia es una geohistoria desde la perspectiva de Braudel. La geografía no se limita a proporcionar a la forma histórica una materia y unos lugares variables. No sólo es física y humana, sino mental. Desvincula la historia del culto de la necesidad para hacer valer la irreductibilidad de la contingencia.

No se puede reducir la filosofía a su propia historia, porque la filosofía se desvincula de esta historia incesantemente para crear conceptos nuevos que revierten nuevamente a la historia pero no proceden de ella. Sin la historia, el devenir permanecería indeterminado, incondicionado, pero el devenir no es histórico. Los tipos psicosociales pertenecen a la historia, pero los personajes conceptuales pertenecen al devenir.

Si la filosofía surge en Grecia, es más en función de una contingencia que de una necesidad, más de un ambiente o de un medio que de un origen, más de un devenir que de una historia, de una geografía más que de una historiografía, de una gracia  más que de una naturaleza.

Cuando la filosofía se aproxima a la utopía

La conexión de la filosofía antigua con la ciudad griega, o la conexión de la filosofía moderna con el capitalismo no son ideológicas, ni se limitan a impulsar hasta el infinito determinaciones históricas y sociales para extraer de ellas figuras espirituales.

La filosofía moderna es tan poco amiga del capitalismo como lo era la filosofía antigua de la ciudad. La filosofía lleva a lo absoluto la desterritorialización relativa del capital, lo hace pasar por el plano de inmanencia en tanto que movimiento de lo infinito, o lo suprime en tanto que límite interior, lo vuelve contra sí, para apelar a una tierra nueva, a un pueblo nuevo.

Está más cerca de lo que la Escuela de Frankfurt designaba como utopía. La utopía es la que realiza la conexión de la filosofía con su época, capitalismo europeo, pero también ya ciudad griega, es con la utopía con lo que la filosofía se vuelve política y lleva a su máximo extremo la crítica de su época. La utopía no se separa del  movimiento infinito: designa etimológicamente la desterritorialización absoluta.

Lo que cuenta no es la supuesta diferenciación entre un socialismo utópico y un socialismo científico, sino más bien los diversos tipos de utopía. Siempre existe en la utopía, como en la filosofía, el riesgo de una restauración de la trascendencia, con lo que hay que distinguir entre las utopías autoritarias, o de trascendencia, y las utopías libertarias, revolucionarias, inmanentes. La palabra utopía designa por tanto esta conjunción de la filosofía o del concepto con el medio presente: filosofía política.

La revolución es la desterritorialización absoluta en el punto mismo en el que ésta apela a la tierra nueva, al pueblo nuevo. La desterritorizalición absoluta no se efectúa sin una reterritorialización. La filosofía se reterritorializa en el concepto. El concepto no es objeto, sino territorio.

Los griegos dominaban el plano de inmanencia que construían desbordantes de entusiasmo y arrebatos, pero tenían que buscar con qué conceptos llenarlo, para no caer de nuevo en las figuras de Oriente. Nosotros tenemos conceptos, creemos tenerlos, tras tantos siglos de pensamiento occidental, pero no sabemos muy bien dónde ponerlos, porque carecemos de auténtico plano, debido a lo distraídos que estamos por la trascendencia cristiana. Los griegos de Platón contemplan el concepto como algo que está todavía muy lejos y muy arriba, mientras que nosotros tenemos el concepto, lo tenemos en la mente de forma innata, basta con reflexionar.

Schelling decía que los griegos vivían y pensaban en la Naturaleza, pero dejaban el Espíritu en los misterios, mientras que nosotros vivimos, sentimos y pensamos en el Espíritu, en la reflexión, pero dejamos la Naturaleza en un profundo misterio alquímico que no cesamos de profanar.

El catolicismo no nos dejó filosofar

No sólo el filósofo tiene una nación, en tanto que hombre, sino que la filosofía se reterritorializa en el Estado nacional y en el espíritu del pueblo. Así fundó Nietzsche la geofilosofía, tratando de determinar los caracteres de la filosofía francesa, inglesa y alemana. Pero, ¿por qué únicamente tres países fueron colectivamente capaces de producir filosofía en el mundo capitalista?

Italia presentaba un conjunto de ciudades desterritorializadas y un poderío marítimo capaces de renovar las condiciones de un milagro, y marcó el inicio de una filosofía inigualable, pero que abortó, y cuya herencia se transfirió más bien a Alemania (con Leibniz y Schelling). Tal vez se encontraba España demasiado sometida a la Iglesia, e Italia demasiado próxima de la Santa Sede; lo que espiritualmente salvó a Alemania y a Inglaterra fue tal vez la ruptura con el catolicismo, y a Francia el galicanismo. Italia y España carecían de un medio para la filosofía, con lo que sus pensadores seguían siendo unos cometas, y además estos países estaban dispuestos a quemar a sus cometas.

Italia y España fueron los dos países occidentales capaces de desarrollar con mucha fuerza el concettismo, es decir, el compromiso católico del concepto y de la figura, que poseía un gran valor estético pero disfrazaba la filosofía, la desviaba hacia una retórica e impedía una posesión plena del concepto.

La filosofía se reterritorializa tres veces

Tenemos los conceptos. Mientras que los griegos no los tenían todavía, y los contemplaban de lejos, o los presentían: de ahí deriva la diferencia ente la reminiscencia platónica y el innatismo cartesiano o el a priori kantiano. Pero la posesión del concepto no parece coincidir con la revolución, el Estado democrático y los derechos del hombre. La historia de los hombres y la historia de la filosofía no tienen el mismo ritmo.

Se impone la tarea de pensar lo que no se puede hacer. En cada caso, la filosofía encuentra dónde reterritorializarse en el mundo moderno conforme al espíritu de un pueblo y a su concepción del derecho. Así pues, la historia de la filosofía está marcada por unos caracteres nacionales, o mejor dicho nacionalitarios, que son como opiniones filosóficas.

Donde hay conceptos hay costumbre, y las costumbres se hacen y se deshacen en el plano de la inmanencia de la conciencia radical: son las convenciones. Cuando la filosofía se territorializa en el Estado de derecho, el filósofo se vuelve profesor de filosofía, pero el alemán lo es por institución y fundamento, el francés por contrato y el inglés por convención.

Si no existe un Estado democrático universal, a pesar de los sueños de fundación de la filosofía alemana, es debido a que lo único que es universal en el capitalismo es el mercado.

Los derechos del hombre son axiomas: pueden coexistir con muchos más axiomas en el mercado, particularmente en lo que a la seguridad de la propiedad se refiere, que los ignoran o los dejan en suspenso mucho más aún de lo que los contradicen.

Los derechos no salvan a los hombres, ni a una filosofía que se reterritorializa en el Estado democrático. Nada dicen los derechos del hombre sobre los modos de existencia inmanente del hombre provisto de derechos. Y la vergüenza de ser hombre no sólo la experimentamos en las situaciones extremas, sino en condiciones insignificantes, ante la vileza y la vulgaridad de la existencia que acecha a las democracias, ante la propagación de estos modos de existencia y de pensamiento para el mercado, ante los valores, los ideales y las opiniones de nuestra época.

La ignominia de las posibilidades de vida que se nos ofrecen surge de dentro. Este sentimiento de vergüenza es uno de los temas más poderosos de la filosofía. No somos resposables de las víctimas, sino ante las víctimas.

Aunque la filosofía se reterritorializa en el concepto, no por ello halla su condición en la forma presente del Estado democrático o en un cogito de comunicación más dudoso aún que el cogito de reflexión. No carecemos de comunicación, por el contrario, nos sobra, carecemos de creación. Carecemos de resistencia al presente.

La creación de conceptos apela en sí misma a una forma futura, pide una tierra nueva y un pueblo que no existe todavía. La europeización no constituye un devenir, constituye únicamente la historia del capitalismo que impide el devenir de los pueblos sometidos. El arte y la filosofía se unen en este punto, la constitución de una tierra y de un pueblo que faltan, en tanto que correlato de la creación. Las democracias son mayorías, pero un devenir es por naturaleza lo que se sustrae siempre a la mayoría.

Es la relación constitutiva de la filosofía con la no filosofía. El devenir siempre es doble, y este doble devenir es lo que constituye el pueblo venidero y la tierra nueva. La filosofía tiene que devenir no filosofía, para que la no filosofía devenga la tierra y el pueblo de la filosofía.

El pueblo es interior al pensador porque es un devenir-pueblo de igual modo que el pensador es interior al pueblo, en tanto que devenir no menos ilimitado. El artista o el filósofo son del todo incapaces de crear un pueblo, sólo pueden llamarlo con todas sus fuerzas. Un pueblo sólo puede crearse con sufrimientos abominables, y ya no puede ocuparse más de arte o de filosofía. Pero los libros de filosofía y las obras de arte también contienen su suma inimaginable de sufrimiento que hace presentir el advenimiento de un pueblo. Tienen en común la resistencia, la resistencia a la muerte, a la servidumbre, a lo intolerable, a la vergüenza, al presente.

La desterrotorialización y la reterritorialización se cruzan en el doble devenir. Apenas se puede ya distinguir lo autóctono de lo foráneo, porque el forastero deviene autóctono junto al otro que no lo es, al mismo tiempo que el autóctono deviene forastero, a sí mismo, a su propia clase, a su propia nación, a su propia lengua. Devenir forastero respecto a uno mismo, y a su propia lengua y nación, ¿no es acaso lo propio del filósofo y de la filosofía?

La filosofía se reterritorializa tres veces, una vez en el pasado en los griegos, una vez en el presente en el Estado democrático, una vez en el futuro, en el pueblo nuevo y en la tierra nueva.

Causa y Causalidad

El problema de la explicación causal, por más que se ha intentado, reaparece constantemente porque las palabras causa y efecto se introducen en el discurso aún cuando sean repudiadas en las propuestas metodológicas, como si la visión causal del mundo estuviera inscrita en algún rincón de la conciencia más allá de cualquier convicción metodológica.

Hay que distinguir muy claramente entre la naturaleza de la causación y la explicación causal. No es lo mismo un acontecimiento causal que una explicación causal. El hecho de que un acontecimiento cause otro es independiente del hecho en sí. La explicación causal subsume los acontecimientos bajo leyes causales.

La idea de causa surge de manera intuitiva al intentar explicarnos lo que sucede a nuestro alrededor mediante un esquema lógico subyacente que nos permita relacionar unos eventos con otros mediante conexiones necesarias.

Se trata pues de una habilidad cognitiva básica, muy importante porque existe la evidencia empírica de que siempre que se dan las mismas circunstancias como causas, se producirá el mismo efecto. Y esto es lo que entendemos por principio de causalidad.

Dados dos eventos, A y B, se dice que A es causa de B si se cumplen dos condiciones lógicas:

  • Cuando sucede A, sucede B, es decir, existe una correlación positiva entre ambos eventos
  • Cuando no ocurre B, implica que tampoco ocurre A, aunque la ocurrencia de B no tiene que estar necesariamente ligada a la ocurrencia de A

Si se cumplen ambas condiciones, existe una relación causal entre ambos eventos: A es causa de B o B es un efecto de A.

La idea de causa aparece en los diferentes contextos que abarca la ciencia:

  • En física el término suele denominarse causalidad, en mecánica newtoniana se admite además que la causa precede siempre al efecto.
  • En estadística es analizado por la estadística diferencial.
  • En ciencias sociales el concepto suele aparecer ligado a un análisis estadístico de variables observadas.
  • En ciencias naturales diferentes de la física y en procesos en los que no podemos reducir la concurrencia de eventos a un mecanimo físico simple, la idea de causa aparece en procesos complejos entre los que hemos observado una relación causal. Así tras las ecuaciones empíricas se supone hay un proceso físico causal que lleva a una conexión necesaria entre ciertos eventos.

La idea de «causa» ha suscitado un buen número de debates filosóficos y científicos.

  • Aristótelesconcluye el libro de los Segundos Analíticos con el modo en que la mente humana llega a conocer las verdades básicas o premisas primarias o primeros principios, que no son innatos, ya que es posible desconocerlos durante gran parte de nuestra vida. Tampoco pueden deducirse a partir de ningún conocimiento anterior, o no serían primeros principios. Afirma que los primeros principios se derivan por inducción, de la percepción sensorial, que implanta los verdaderos universales en la mente humana. De esta idea proviene la máxima escolástica «nada hay en el intelecto que no haya estado antes en los sentidos». Al mantener que «conocer la naturaleza de una cosa es conocer, ¿por qué es?» y que «poseemos conocimiento científico de una cosa sólo cuando conocemos su causa». Aristóteles postuló cuatro tipos mayores de causa como los términos medios más buscados de demostración:
    • Material, de lo que está hecho ese algo
    • Formal, lo que ese algo es
    • Eficiente, lo que ha producido ese algo
    • Final, para lo que ese algo existe o puede llegar a ser
  • En la filosofía occidental, el concepto de causa como «conexión necesaria» fue criticado por el filósofo David Hume, que dijo que nunca había observaciones suficientes para relacionar A con B. En las relaciones causales encontramos que:
    • Observamos que las cosas no están aisladas, sino que unas están ligadas a otras en un proceso de interacción. Unas cosas suceden a otras, y siempre en el mismo orden.
    • Un conjunto de hechos definen una situación, y a este momento siempre le sucede otra situación y siempre la misma.
    • Al primer conjunto que define la situación lo llamamos causa, y a la segunda situación la llamamos efecto.
    • La ley de la causalidad no debe confundirse con el Principio de razón suficiente. Tal paso es ilegítimo, como bien establecido está en el pensamiento científico y filosófico.
    • Sin embargo la ley de la causalidad es el esquema fundamental de la investigación científica, suponiendo que la mejor forma de comprender y explicar es conocer las causas, porque por un lado podemos prevenir y por otro controlar los efectos, en definitiva dominar los sucesos naturales.
  • Para Kant la causalidad es una de las categorías a priori del entendimiento, y entonces no proviene de la costumbre (como decía Hume) sino tiene un carácter necesario y universal. Esto permite que la ciencia se apoye sobre el principio de causalidad sin dejar de ser necesaria y universal.

Salmon y la relevancia estadística positiva

El problema con la visión inferencial está en que no siempre se puede usar la información explicatoria como base para la predicción. Esto es debido a que frecuentemente ofrecemos explicaciones de fenómenos con baja probabilidad.

En estos casos no se podría predecir el resultado que ocurrirá, pues la información no confiere una probabilidad alta para el resultado. No obstante, la información ofrecida constituye una explicación de ese resultado, pues aumenta la probabilidad de que ocurra.

En los 1960’s y 1970’s, Wesley Salmon propuso una visión de la explicación estadística que postulaba que, a diferencia de lo que había dicho Hempel antes, la probabilidad alta no era necesaria para la explicación, bastaba sólo una relevancia estadística positiva.

Es decir, una hipótesis h es relevante positivamente (correlaciona) con e, si h hace que e sea más probable

Pr(h|e) > pr(h)

El problema para Salmon ahora era distinguir entre casos donde la información pudiera proporcionar una explicación sustantiva, de otros casos donde la información reportada fuera una mera correlación.

Por ejemplo, tener manchas de nicotina en los dedos correlaciona positivamente con el cáncer de pulmón, pero no se puede explicar porqué una persona contrajo el cáncer de pulmón diciendo que es porque esa persona tiene manchas de nicotina en los dedos. Es imposible diferenciar entre estos dos casos mediante relaciones puramente estadísticas.

Obviamente se requiere de otro tipo de información para hacer la distinción. Luego de este tropiezo, Salmon vino a creer que explicar un fenómeno no es proporcionar información suficiente para predecirlo, sino dar información sobre las causas de tal fenómeno. En este enfoque, la explicación no es un tipo de argumento conteniendo leyes de la naturaleza como premisas, sino un conjunto de información estadísticamente relevante sobre la historia causal de un fenómeno.

Salmon proporciona dos razones para pensar que la información causal es lo que se necesita en las explicaciones.

  • Primero, las llamadas condiciones iniciales proporcionadas por la información explicatorio deben de preceder temporalmente a la explicación, para ser una explicación de lo explicado. La teoría de Hempel no tiene alguna restricción de este tipo. Es interesante que Salmon señale que la dirección temporal de las explicaciones semejen la dirección temporal de la causalidad, que es hacia adelante (las causas deben preceder en tiempo a los efectos).
  • Segundo, no todas las derivaciones a partir de leyes resultan ser explicaciones. Salmon argumenta que algunas “explicaciones Nomológico-Deductivas no son explicaciones de ninguna manera. Por ejemplo, una derivación a partir de la ley del gas ideal PV = nRT y la descripción de las condiciones iniciales. La ley del gas ideal simplemente describe un grupo de restricciones de cómo diversos parámetros (presión, volumen y temperatura) se relacionan, no explica porqué estos parámetros se relacionan de esa manera. La existencia de estas restricciones es una cuestión sustantiva que se responde en la teoría cinética de los gases.

Salmon dice que la diferencia entre leyes explicatorios y no-explicatorias es que las primeras describen procesos causales, mientras que las no-explicatorias (como la ley del gas ideal) solo describen regularidades empíricas.

Rasgos de los procesos causales

La teoría de Salmon sobre la explicación causal tiene tres elementos:

  1. Relevancia Estadística: los argumentos explicatorios (C) aumentan la probabilidad del fenómeno que se quiere explicar (E): pr(E|C) > pr(E)
  2. Procesos Causales: la explicación y lo explicado son partes de procesos causales diferentes
  3. Interacción Causal: estos procesos causales interactúan de tal manera que hacen que se presente el evento (E) en cuestión

Esto nos deja con la tarea de explicar qué es un proceso causal. Básicamente, el enfoque de Salmon es que los procesos causales se caracterizan por dos rasgos.

  • Primero, un proceso causal es una secuencia de eventos en una región continua de tiempo y espacio.
  • Segundo, un proceso causal puede transmitir información (“marcar”).

Existen varias secuencias de eventos que son continuos en el sentido requerido, por ejemplo, un rayo de luz, un proyectil viajando en el espacio, una sombra o un haz de luz que se mueve proyectado en una pared. Un objeto que está quieto, por ejemplo, una bola de billar también se considera como un proceso causal. Cada una de estas cosas es un proceso continuo en algún sentido, pero no todas son procesos causales, por ejemplo, la sombra y la luz en la pared. Veamos un ejemplo que nos aclare esto.

La teoría de la relatividad afirma que nada puede viajar más rápido que la luz. Pero ¿a que “cosa” nos referimos con nada? Imaginemos un cuarto circular con un radio de un año luz. Si tenemos un rayo laser enfocado y montado en un pivote en el centro del cuarto, podemos rotar el laser y hacer que de una vuelta por segundo. Si el laser esta prendido proyectará una luz en la pared. Esta luz también rotará a lo largo de la pared completando una vuelta por segundo, lo que significa que viajará a 2p años luz por segundo! Aunque parezca extraño, esto no está prohibido por la teoría de la relatividad, ya que una luz de este tipo no “transmite información”. Solo las cosas que sí lo hacen están limitadas en su velocidad.

Salmon concluye que un proceso causal es un proceso espaciotemporal continuo que puede transmitir información (dejar “marca”)… la transmisión de la marca consiste en que la marca ocurre “en” un punto del proceso y mantiene su efecto “para” todos los puntos subsecuentes, hasta que otra interacción causal ocurra, que borre la marca.

De acuerdo con Salmon, un principio poderoso para la explicación es el que afirma que siempre que haya una coincidencia (correlación) entre las características de dos procesos, la explicación viene de un evento común a los dos procesos, que da cuenta de su correlación. Esto es, de una “causa común”. Para citar un ejemplo que dimos antes, hay una correlación entre el cáncer de pulmón (C) y las manchas de nicotina en los dedos de una persona (N). Esto es: Pr(C|N) > pr(C)

La causa común de estos dos eventos es un hábito de toda la vida fumando dos cajetillas de cigarros diariamente (S). Con relación a S, C y N son independientes.

Podemos decir: pr(C|N&S) = pr(C|S).

Una vez que S entra en la escena, N se vuelve irrelevante.

Esto es parte de una definición precisada de lo que es una “causa común” y que está sujeta a condiciones probabilísticas formales. Empezamos con que pr(A|B)>pr(A).

C es una causa común de A y B si se dan las siguientes condiciones:

  • pr(A&B|C)=pr(A|C)pr(B|C)
  • pr(A&B|¬C)=pr(A|¬C)pr(B|¬C)
  • pr(A|C)>pr(A|¬C)
  • pr(B|C)>pr(B|¬C)

Sin embargo, esto no completa el concepto de la explicación causal, pues no hay una causa común que haga irrelevante la correlación de eventos independientes. Salmon nos da entonces la dispersión de Compton como ejemplo. Dado que un electrón e- absorbe un fotón de cierta energía E y recibe una energía cinética E* en cierta dirección como resultado, un segundo fotón se emitirá con E** = E – E*. Los niveles de energía del fotón emitido y del electrón estarán correlacionados, aún cuando ocurra la absorción. Esto es: pr(A&B|C)>pr(A|C)pr(B|C)

Críticas a Salmon

Resumiendo el análisis de Salmon sobre la explicación causal, Salmon afirma que una explicación involucra

  1. relevancia estadística
  2. conexión vía procesos causales, y
  3. cambios luego de la interacción causal.

El cambio es el fenómeno que hay que explicar. La noción del proceso causal es complimentada en términos de

  • continuidad temporoespacial, y
  • la habilidad para transmitir información (“marcar”).

Aún cuando algunas veces podemos hablar diciendo que sencillamente la causa y el efecto son las dos partes de un solo proceso causal, el análisis final típicamente se entregaría en términos de conexiones causales más complejas (y muchas veces indirectas), entre las que Salmon identifica dos tipos básicos: relaciones conjuntivas e interactivas.

La visión pragmática de Van Fraassen sobre la explicación

El enfoque pragmático de la explicación según Van Fraassen afirma que una explicación es un tipo particular de respuesta a la interrogante de ¿porqué?, una respuesta que proporciona información relevante que resulta más “favorable” para explicar un fenómeno, de lo que resultan otras explicaciones alternativas. Para Van Fraassen, estas características están determinadas por el contexto en el que se cuestiona la pregunta.

Los elementos básicos de la visión pragmática de la explicación

De acuerdo con Van Fraassen, una interrogante del tipo ¿porqué? Consiste de

  1. una presuposición (¿porque X?)
  2. una serie de clases contrastantes (¿porqué x y no Y, Z, etc.?), y
  3. un criterio implícitamente entendido de relevancia.

La información que se proporciona a una pregunta ¿porqué? en particular constituye una explicación de la presuposición, si la información es relevante y “favorece” la presuposición por encima de las alternativas en sus clases contrastantes.

Tanto las clases contrastantes como el criterio de relevancia están contextualmente determinados, basados en los intereses de los involucrados. Los intereses subjetivos definen lo que contará como una explicación en ese contexto, aunque entonces será una cuestión objetiva si esa información realmente favorece a la presuposición sobre las alternativas en sus clases contrastantes.

Comparación entre los enfoques pragmático y causal de la explicación

Cualquier tipo de información podría contar como relevante. El contexto (los intereses) determinará si algo se considera como una explicación a diferencia de que para nosotros podamos encontrar que una explicación es sobresaliente o más interesante. (De acuerdo con Lewis, lo que hace a una explicación es que proporciona información sobre la historia causal que lleva a que ocurra un fenómeno determinado, el que encontremos esa información interesante o sobresaliente es otra cuestión).

En el enfoque pragmático, Nunca se puede tener una explicación “completa” de un evento, a menos que se tengan intereses. (Una mera descripción de la historia causal que lleva a que ocurra un fenómeno -aunque sea una historia completa-, no es una explicación de ningún tipo, de acuerdo con la visión pragmática).

Las críticas de Van Fraassen a los esquemas tradicionales de explicación

El punto de partida de la crítica de Van Fraassen al patrón clásico de explicación propuesto por Hempel, va a girar en torno al concepto de relevancia explicativa, que como ya hemos visto, constituye uno de los requisitos indispensable que toda explicación debe cumplir para poder ser considerada como científicamente adecuada.

Recordemos que, según este principio, la información proporcionada por las premisas de una explicación debe proveer bases firmes para creer que el fenómeno explicado efectivamente ocurrió u ocurre. Van Fraassen, cree que este principio no proporciona condiciones suficientes, ni mucho menos necesarias, para que se dé una buena explicación, ya que, en primer lugar: “dar bases firmes para creer no siempre equivale a dar una explicación”.

Según este punto de vista, el carácter asimétrico que asumen muchas veces las proposiciones que componen una explicación, hace deficiente este principio. Así, por ejemplo, dos proposiciones pueden llegar a ser equivalentes la una de la otra (con respecto a la teoría aceptada como marco de referencia), pero no a la inversa. Al referirse a este hecho, Van Fraassen hace alusión al ejemplo del barómetro, donde el descenso brusco de la columna mercurial puede indicar, por lo general, la proximidad de una tormenta. Sin embargo, afirma Van Fraassen: “Si aceptamos la hipótesis significativa de que éste desciende exactamente cuando una tormenta está llegando, esto sin embargo, no explica (sino más bien es explicado por) el hecho de que la tormenta está llegando”.

La segunda objeción de Van Fraassen al requisito de relevancia explicativa, se basa en el hecho, de que: “No toda explicación es un caso en el cual se nos dan bases firmes para creer”. Uno de los ejemplos utilizados por Van Fraassen es el del enfermo de paresia, que ya hemos comentado. Se acepta la explicación de que nadie contrae esta enfermedad a menos que padezca de sífilis mal tratada. Sin embargo, el hecho de que el individuo padezca de sífilis no aporta buenas razones para esperar que se contagie de paresia, ya que, sólo un bajo porcentaje de enfermos de sífilis contrae esta enfermedad.

Se podría argumentar, como lo hace el propio Hempel, que la imposibilidad de establecer una relación mucho más estrecha entre ambas enfermedades se debe al hecho de que existen otros factores relacionados a ambas enfermedades que todavía no han sido descubiertos por la ciencia. Sin embargo, una argumentación de este tipo presupondría la creencia de que los fenómenos del mundo, por lo menos, en lo que se refiere a nivel macroscópico, son determinísticos, de manera que obteniendo una información mucho más completa, la explicación correspondiente sería más adecuada. Van Fraassen rechaza esta salida pues es de la opinión que el carácter determinista de los fenómenos del mundo es una cuestión meramente contingente.

El pragmatismo de Van Fraasen vs la relevancia estadística de Salmon

Con el fin de encontrarle una salida al problema de la relevancia explicativa, vimos que Wesley Salmon propuso considerar la explicación como un conglomerado de factores estadísticamente relevantes y no como un conjunto de argumentos o razonamientos, introduciendo así el concepto de relevancia estadística. De acuerdo a este principio, un hecho A es estadísticamente relevante para el fenómeno E exactamente si la probabilidad de E dado A es diferente de E Simpliceter. Según Salmon, dos ejemplos que cumplirían con los requisitos de proporcionar buenas bases para una adecuada explicación, serían los siguientes:

  •  “Juan Pérez estaba casi seguro de recuperarse de su resfriado porque tomó vitamina C, y casi todos los resfriados se alivian en una semana tomando vitamina C”.
  • “Juan Pérez evitó quedarse embarazado durante el año pasado, porque tomo regularmente las píldoras de su mujer, y todo hombre que toma píldoras anticonceptivas evita el embarazo”.

Van Fraassen cree que la aplicación de este criterio es tan insatisfactoria como la propuesta de Hempel, ya que, la circunstancia de haber tomado vitamina C para curarse de un resfriado es completamente irrelevante desde el punto de vista estadístico, dado que, la probabilidad de curarse en una semana es la misma para aquellas personas que tomen o no vitamina C.

Por otro lado, el criterio propuesto por Salmon termina siendo mucho más débil que el propuesto por el propio Hempel, ya que no requiere que la probabilidad de E sea alta (mayor por lo menos que ½), ni siquiera exige que la información A incremente la información de E solamente. Así, por ejemplo, en el caso de la paresia, aunque la probabilidad de que la enfermedad sea contraída por personas que sufrieron sífilis es baja, es distinta de la probabilidad de que una persona tomada al azar padezca de paresia, de manera que la sífilis resulta estadísticamente irrelevante con respecto a la paresia.

En el caso de las condiciones necesarias, una circunstancia puede llevar a explicar un hecho aunque no incida en la probabilidad de que este ocurra. Van Fraassen, nos propone imaginarnos una ficción médica, según la cual, la paresia resulte ya sea de la epilepsia, o ya sea de la sífilis, y de nada más, y que la probabilidad en cualquiera de los casos sea equivalente a 0,1. Además, nos pide que supongamos que Juan Pérez pertenece a una familia cuyos miembros padecen o bien de epilepsia o bien de sífilis (pero no de ambas), ya que Juan sufre de paresia. A la pregunta: “¿Por qué él desarrolló paresia?”, se responderá: “porque tenía sífilis” o “porque tenía epilepsia”, dependiendo de cual de las dos respuestas se ajuste mejor a la realidad. Sin embargo, afirma Van Fraassen: “con toda la demás información que tenemos, la probabilidad de que Pérez contrajera la paresia está ya establecida como 0,1, y está probabilidad no se modifica si no se nos dice además, pongamos por caso, que el tiene una historia de sífilis”.

 De las dos respuestas que pueden obtenerse en este ejemplo, sólo una explica legítimamente la aparición de paresia. Sin embargo, su aparición en Juan Pérez no altera el grado de probabilidad de que éste sufra de paresia. Esto significa, a diferencia de lo expresado por Salmon, que el hecho de que una circunstancia resulte ser un factor estadísticamente relevante no es condición necesaria para que éste se convierta en un explanans inobjetable.

Salmon ha afirmado que su teoría de la explicación causal no se adecúa enteramente para el dominio cuántico debido a ciertas anomalias causales

El problema de la causalidad

Para la mayoría de los filósofos de la ciencia el término explicación estaba estrechamente asociado a la explicación del “porqué” de los hechos, considerándose sólo explicación científica aquella que busca su marco y conceptos de referencia únicamente en las relaciones causales. Van Fraassen, va a cuestionar categóricamente a las distintas concepciones de la causalidad que han estado asociadas con los modelos tradicionales de explicación científica, ya que, para él: “Cuando algo se cita como una causa, ello no implica que sea suficiente para producir el suceso (para garantizar su ocurrencia)”. En otras palabras, Van Fraseen cuestiona la posición asumida desde el punto de vista tradicional, en el sentido de identificar la causa como conditio sine qua non, a la hora de explicar un hecho.

Entender la causa como condición necesaria tampoco resuelve el problema, ya que, en primer lugar, existen condiciones necesarias que no se considerarían la causa de un fenómeno, por ejemplo, la existencia del cuchillo es una condición necesaria para su oxidación, pero nadie aceptará la explicación de que el cuchillo se oxidó por el simple hecho de existir; y en segundo lugar, porque en algunos casos lo que se identifica con la causa de un hecho no puede ser condición necesaria para su ocurrencia.

Con el fin de resolver este problema de la relación causal, J.L.Mackie (1965), propuso la definición de causa como: “La parte insuficiente pero necesaria de una condición innecesaria pero suficiente”. No obstante, para Van Fraassen, tampoco con esta definición se logra una caracterización adecuada de la causalidad. En el caso del ejemplo del cuchillo, es evidente que su existencia es un factor necesario pero insuficiente del conjunto de circunstancias que constituyen una condición suficiente aunque no necesaria para su oxidación. Sin lugar a dudas, nadie afirmaría que la oxidación del cuchillo se debió a su existencia. Según el parecer de Van Fraassen, esto se debe a que: “en primer lugar, no toda condición necesaria es una causa; y en segundo lugar, en algún sentido muy directo una causa puede no ser necesaria, a saber, causas alternativas podrían haber llevado al mismo resultado».

Otra de las definiciones de causalidad rechazadas por Van Fraassen, es la propuesta por David Lewis (1973), quien intento definir la causalidad en términos de condicionales contrafácticos. Lewis, sugirió que la información “A causó B” es equivalente a la proposición “Si A no hubiera ocurrido, B no habría ocurrido”. Van Fraassen, cree que este tipo de equivalencias no pueden ser pensadas en términos de la lógica tradicional como si se anunciara que A es una condición necesaria para que B ocurriera. El “Si……..entonces” no corresponde, observa Van Fraassen, con ninguno de los tipos de implicación conocidos por la lógica tradicional, ya que estos obedecen a la ley de debilitamiento, según la cual:

Si A entonces B.

Se puede inferir,

(1) Si C y A, entonces B.

Pero, puesto que, en el lenguaje natural no rige la ley de debilitamiento, la lógica tradicional no refleja las propiedades de las condiciones que usamos en este tipo de lenguaje. Es por eso, que cualquier persona suscribiría la verdad del enunciado:

(2) Si el cerillo se frota, entonces encenderá.

Pero se negará a aceptar lo que sería su consecuencia, si se atiene a la ley de debilitamiento.

(3) Si el fósforo se moja en el café y se frota, encenderá.

Van Fraassen cree, que el hecho de que esta ley no pueda aplicarse a los condicionales del lenguaje ordinario es debido a que llevan consigo una cláusula tácita de ceteris paribus (si nada interfiere). Se le da este nombre al supuesto de que todas las circunstancias que componen el hecho mencionado en el antecedente permanecen siempre sin alterarse. Es por esto, que el efecto lógico de esta cláusula impide que la ley de debilitamiento sea aplicable al lenguaje natural. Así, por ejemplo, el enunciado (3) daría lugar, si se aplicara esta cláusula al siguiente condicional contrafáctico:

(4) Si el cerillo se hubiese frotado (y las demás circunstancias hubiesen permanecido iguales), entonces se habría encendido.

La posibilidad de afirmar que igualmente se hubiese encendido si se hubiese mojado y se le frotara, queda descartada, dado que la acción de mojarla violaría la permanencia de circunstancias que impone la cláusula ceteris paribus, colocada entre paréntesis.

A juicio de Van Fraassen, la posibilidad de que estos problemas puedan resolverse, siguiendo el camino de la lógica tradicional o el tratamiento formal de los condicionales contrafácticos, como propone Lewis (1973), son remotas. Los intentos por establecer las condiciones de verdad de los enunciados condicionales del lenguaje natural fracasan al desconocer que tales condiciones están determinadas por el contexto en que surgen.

En efecto, ya sabemos que los condicionales del lenguaje ordinario llevan implícito la cláusula ceteris paribus. Sabemos también que esta depende del contexto, es decir, de lo que el hablante decida mantener inalterable. Por tanto, es la variable contextual la que determina el contenido de la cláusula, al tiempo, que es fundamental a la hora de establecer la verdad del enunciado condicional. Suponer como pretende Lewis, que lo que queda fijo es siempre lo mismo para cada hablante es un gravísimo error.

Un condicional contrafáctico podrá ser verdadero en el contexto C1 y falso en el contexto C2, dado que su valor de verdad no esta condicionado por el enunciado en sí, sino por factores pragmáticos, que dependen a su vez del contexto. Al respecto, afirma Van Fraassen: “en algún momento se tuvo la esperanza (….), de que los condicionales contrafácticos proporcionarían un criterio objetivo de lo que es una ley de la naturaleza o, por lo menos, de lo que es un enunciado legaliforme (o nomológico). Una verdad meramente general debía ser distinguida de una ley puesto que ésta ultima, y no la primera, es la que implica los contrafácticos. Esta idea debe invertirse: si las leyes implican contrafácticos, entonces, dado que los contrafácticos son dependientes del contexto, el concepto de ley no señala ninguna distinción objetiva de la naturaleza” (Van Fraassen, 1996:149).

En base a estas observaciones, Van Fraassen llega a la conclusión de que todo intento por caracterizar el concepto de causalidad sobre la base de condiciones suficientes o necesarias, o por medio de condicionales contrafácticos, es un intento condenado al fracaso. Propone, por el contrario, una reformulación del concepto de causalidad en base a su estrecha relación con los factores pragmáticos. Trataremos ahora, de explicar los aspectos más importantes de esta concepción de la causalidad y su articulación en una teoría de la explicación.

La explicación causal y su dependencia del contexto

El modelo de la explicación científica propuesto por Van Fraaseen se apoya básicamente en dos elementos fundamentales: Las ideas de Reichenbach y Salmon sobre la causalidad y las características lógicas y pragmáticas de las preguntas. La vinculación con la causalidad es natural si se toma en cuenta que tradicionalmente “explicar” un fenómeno se ha entendido como determinar los factores (principios causales) que los ocasionaron. En lo que respecta al análisis de las preguntas, su vinculación radica en que una explicación constituye básicamente una respuesta al porqué sucede o sucedió un evento.

Sobre la base de las aportaciones hechas por varios filósofos de la ciencia (Bromberger, Achinstein, Hanson) en esta área, Van Fraassen, desarrolla su modelo reafirmando la importancia que los factores pragmáticos o contextuales poseen a la hora de fundamentar una buena explicación. Para Van Fraassen explicar causalmente un hecho es: “Contar una historia de cómo las cosas sucedieron y cómo, por así decirlo, los sucesos concuerdan entre si”.

Ahora, consciente de las insuficiencias que su concepto de relevancia explicativa poseía a la hora de explicar un hecho, Salmon reelabora su teoría de la explicación apoyándose en la teoría de la causa común de Reichenbach. Un proceso causal es entendido en su nueva teoría como una serie espacio-temporal continua de sucesos, igual al movimiento de un automóvil que se mueve a lo largo del camino y cuya sombra se mueve a la par de él. La explicación -según la nueva caracterización de Salmon- consistirá en mostrar la parte relevante de la red causal que conduce a los sucesos que han de explicarse.

Para Van Fraseen, a pesar de lo práctico que resulta la comparación de la realidad propuesta por Salmon -como una compleja red en la que se encuentran las series de eventos-, una explicación será sólo posible en la medida que se realice una previa selección de las partes de la red que se consideraran relevantes. De manera que, a la hora de explicar un evento: “la explicación solamente tiene que decir que existe una estructura de relaciones causales de cierto tipo, que podría en principio ser descrita en detalles: las características relevantes son las que escogen el cierto tipo”. Esto implica, que un mismo evento merecerá, de acuerdo a cuáles factores sean considerados relevantes, explicaciones alternativas; pudiendo incluso resultar varias de ellas adecuadas al mismo tiempo. En consecuencia, dirá Van Fraassen, que un mismo suceso podrá tener varias causas de muy diversa naturaleza.

Sin embargo, Van Fraassen cree que la elección del factor causal relevante no puede reducirse simplemente a señalar aquel que parezca más interesante. Los factores explicativos deben escogerse entre una gama de factores objetivamente relevantes para alguna teoría científica. Esto significa, que: “ningún factor es relevante explicativamente hablando, a menos que sea científicamente relevante, y entre los factores científicamente relevantes el contexto determina aquellos que son relevantes explicativamente”.

Conclusiones

La búsqueda de explicaciones adecuadas es uno de los principales motivos que impulsa la actividad científica. De allí, que la consideración en torno a la naturaleza y propósito de las explicaciones sea tema obligado en cualquier discusión sobre las funciones que debe cumplir toda ciencia.

Los defensores del modelo nomológico, por ejemplo, están convencidos que su patrón metodológico es aplicable a todas las disciplinas fácticas. Hempel encarna el ideal de muchos filósofos de la ciencia, según el cual, el conocimiento científico queda circunscrito a aquellas disciplinas que puedan confirmarse a través de la experiencia, de allí su esperanza de que todas las ciencias puedan unirse en base a un patrón metodológico de explicación único.

Sin embargo, este ideal ha sido objeto de rigurosos cuestionamientos. Los defensores de que la conducta humana individual, social o histórica, se rige por principios diferentes a los propuestos por el modelo de Hempel, insisten en la necesidad de defender el pluralismo metodológico, rechazando cualquier patrón unitario de explicación para la conducta humana.

Uno de los méritos del modelo pragmático propuesto por Van Fraassen, es que permite una mejor comprensión de los factores que condicionan la aceptación o rechazo de una explicación, resolviendo de esta manera, algunos de los malentendidos vinculados con el término. Uno de estos, es el que se refiere al hecho de que algunas explicaciones pueden resultar aceptables bajo la noción vulgar del término y, no obstante, no ajustarse a las exigencias del modelo de Hempel. El modelo pragmático de Van Fraassen, muestra en términos generales, que no existe diferencia entre las explicaciones que hacemos a diario y las explicaciones que realizan los científicos, salvo que, estas últimas se apoyan en sólidas teorías científicamente confirmadas. Esto significa, que quien construya una teoría de la explicación científica podrá apartarse de las limitaciones que impone el uso vulgar del término, siempre que el resultado sea de alguna manera provechoso. Este enfoque indica claramente que las exigencias que han de enmarcar toda explicación estarán condicionadas siempre por el contexto.

Pero si toda explicación se encuentra condicionada por los intereses y convicciones que cada actor adopta en relación a una serie de circunstancias que van más allá del tópico de la explicación, es decir, si toda explicación está condicionada por el contexto de intereses que cada actor aporta en relación al problema que intenta explicar; ¿no indica esto, que toda caracterización que se haga sobre la explicación no podrá reducirse a una única valoración crítica?

Como puede apreciarse, todo parece indicar, que la posibilidad de articular un patrón metodológico de explicación único, susceptible de ser aplicado a todas las ciencias, continúa siendo sólo un ideal.