Posts etiquetados ‘Explicación’

El enfoque comunicativo de P. Achinstein

Achinstein plantea la explicación científica como un acto ilocucionario. Considera que el tema de la explicación científica es sumamente complejo ya que intervienen varios factores, desde la estructura lógica hasta los criterios de evaluación de las explicaciones.

Achinstein reinterpreta algunas de las teorías de la explicación (Hempel, Salmon y Brody) desde su propia concepción. Así su idea central es que la explicación científica constituye un acto ilocucionario, en el que pueden distinguirse el acto de explicación y el producto de dicho acto. Por tanto hay tres cuestiones que han de tenerse en cuenta en la explicación científica:

  1. ¿Qué es un acto de explicación?

  2. ¿Qué es el producto de una explicación?

  3. ¿Cómo deben evaluarse los productos de una explicación?

Los modelos de explicación propuestos hasta el momento se han centrado en los productos de la explicación: el modelo nomológico-deductivo de Hempel, el modelo de relevancia estadística de Salmon y la teoría pragmática de Van Fraassen responden a la segunda pregunta. En cambio, el criterio de poder unificador con el que hay que valorar una explicación propuesto por Kitcher respondería a la tercera. Todos estos modelos abordarían aspectos parciales de la explicación científica.

Achinstein duda de que exista un modelo de explicación si este debe ajustarse al conjunto de condiciones necesarias para determinar que el explanans explica el explanandum.

La adecuación de las teorías de Hempel ha sido discutida por otro autores en cuanto a las relaciones con las predicciones. A lo que él recurre es a la mala interpretación de las predicaciones.

Dos requisitos del modelo explicativo pueden ser:

  • Ningún conjunto de oraciones del explanans puede implicar el explananduns.

  • La única condición (empírica) del explanas es la de ser verdadera.

El resto de las condiciones son a posteriori. En el modelo N-D no funciona la condición citada, por lo que además de la verdad del explanans deben reunirse otros factores empíricos.

El modelo de Salmon exige condiciones empíricas a posteriori. El formato del modelo es el de relevancia estadística. El modelo de Salmon predice la probabilidad del explanadum.

Brody en cambio plantea un requisito en el que si el explanans corresponde a un enunciado que atribuye una propiedad esencial a una clase de objetos, el explanandum ha de estar en esa clase.

Las principales objeciones al modelo de Salmon fueron realizadas:

  • Van Fraassen: opone a Salmon que la mera relevancia estadística no es condición suficiente.

  • Cartwright y Achinstein: la relevancia estadística para ellos tampoco es condición necesaria.

Hay teorías en cualquier caso (o hechos) que no demandan explicación (o no pueden ser explicadas por lo que no pueden ser determinadas a priori.

Posibilidad de la existencia de un modelo de explicación

Un modelo de explicación sería un conjunto de condiciones bajo las cuales el explanans explicaría correcta y unívocamente el explanandum.

  • Condiciones a priori de los modelos de explicación. Según Achinstein sólo hay una condición a priori: un explanans explica potencialmente a un explanandum sólo si hay una ley universal o estadística válida que relacione al explanans con el explanandum.

  • Condiciones no a priori de los modelos de explicación. También siguiendo a Achinstein dos serían las condiciones no a priori (empíricas):

    • que el conjunto de enunciados del explanans pueda implicar el explanandum

    • la única consideración empírica del explanans es que sea verdadero

Para evitar la paradoja de la muerte en 24 horas después de ingerir arsénico quizá fuese necesario añadir que el explanandum debe ser verdadero (no tiene sentido explicar un hecho falso: quien ingirió arsénico se murió por accidente de coche al ir al hospital).

En el modelo de la propiedad esencial, Brody establece que el explanans atribuye alguna propiedad esencial a una cierta clase de objetos y que el explanandum contiene al menos uno de dicha clase de objetos.

En el modelo de la relevancia estadística, Salmon establece un modelo a partir de enunciados probabilísticos en el explanans mediante el que no se puede predecir el explanandum pero sí su probabilidad.

Van Fraassen objeta a Salmon aduciendo que la mera relevancia estadística no es suficiente. La muerte o la supervivencia de las malas hierbas después de aplicar un herbicida con el 90% de efectividad queda explicada por el mismo conjunto de enunciados del explanans (paradoja de la realización de lo improbable).

El holismo de lo mental

Se puede hacer el símil de una gran red conformada por los estados mentales con intencionalidad, los cuales tendrían una serie de propiedades intencionales por estar integrados en esa red:

  • La intencionalidad de un estado mental es una propiedad holista: el que un estado tenga determinadas condiciones de satisfacción es inseparable de que otros muchos estados tengan las suyas.

  • La identidad de los estados mentales es igualmente holista.

Esa red se caracterizaría por tres rasgos fundamentales que constituirían su trasfondo:

  • La mayor parte de la Red nos resulta opaca: “está sumergida en el insconsciente y nosotros no sabemos del todo cómo sacarla a flote” (J. Searle). Es el Trasfondo de la intencionalidad.

  • El intento de explicitar ese trasfondo se traduce en proposiciones que resultan de alguna forma ‘triviales’ y que parecen desvirtuar su naturaleza.

  • Los estados de la red no se individualizan: no sabemos cómo identificarlos, contarlos, etc.

La intencionalidad de la mente humana se sustenta sobre un substrato de capacidades preintencionales: habilidades, formas de saber-cómo, no un saber-qué de las cosas, de entender para qué están ahí, de actuar sobre ellas, de ejercer distintas destrezas con ellas, etc.

Existen dos casos en que la Red y el Trasfondo de la intencionalidad influyen en el contenido de los estados perceptivos

  • Diferentes creencias causan experiencias perceptivas con diferente contenido, es decir, diferentes condiciones de satisfacción, aunque las causas sean las mismas.

  • Las mismas creencias coexisten con experiencias perceptivas con diferentes contenidos, es decir, condiciones de satisfacción.

La intencionalidad de Dennett

El concepto de intencionalidad fue reintroducido en el siglo XIX por el filósofo y psicólogo Franz Brentano, en su obra Psicología desde un punto de vista empírico (1874). Brentano describe la intencionalidad como una característica de todos los actos de conciencia, tanto “lo psíquico” o “fenómenos mentales”, como la “física” o “fenómenos naturales”.

Dennett ofrece una taxonomía de las teorías actuales acerca de la intencionalidad en el capítulo 10 de su libro La actitud intencional. La mayoría, si no todas las teorías actuales sobre la intencionalidad aceptan la tesis de Brentano de la irreductibilidad de la expresión intencional.

Dice Dennett (1987) que para explicar y predecir el comportamiento de un sistema pueden seguirse tres estrategias, o tomar tres «posturas»:

  • Una postura física, con la que se deduce el comportamiento a partir de la estructura y las leyes de la Física, la Química, la Biología…

  • Una postura de diseño, con la que uno abstrae los detalles (normalmente demasiado enrevesados) de la constitución física del sistema y, suponiendo que ha sido diseñado, puede predecir su comportamiento si se conocen las intenciones del diseñador. Así, podemos predecir cuándo sonará el despertador, aunque no sepamos nada de su estructura interna.

  • Una postura intencional, con la que el comportamiento se deduce a partir de los deseos y creencias que adscribimos al sistema: tratamos al sistema como un agente racional, e imaginamos qué creencias y deseos podría tener el agente, dada su situación en el mundo, y predecimos su comportamiento suponiendo que actuará para satisfacer esos deseos.

Según Dennett, un sistema intencional es aquél «cuyo comportamiento puede predecirse mediante el método de atribuirle creencias, deseos y perspicacia racional» , y puede serlo en distintos grados: uno de primer orden tiene simplemente estados intencionales (creencias, deseos, etc.) propios, uno de segundo orden tiene, además, creencias, deseos, etc. sobre los estados intencionales de otros.

En la vida cotidiana solemos adoptar informalmente esta postura intencional respecto a artefactos: «el coche no quiere arrancar» , «el corrector ortográfico se empeña en corregir esta palabra» … Pero, obviamente, lo hacemos en un sentido metafórico. ¿Está justificado hacerlo «en serio»?

Desde luego, no lo está si se adopta el punto de vista de Brentano. Es la misma objeción de los que niegan la posibilidad de la «inteligencia artificial» bajo la premisa de que la «inteligencia» es un atributo intrínsecamento humano. Naturalmente, no podemos compartir este punto de vista. Resumiendo las opiniones de autores como McCarthy (1978), Shoham (1993), Wooldridge (2002) o el propio Dennett:

  • La postura intencional está justificada cuando la complejidad del sistema impide que se pueda predecir su comportamiento mediante una postura física o de diseño.

  • Los deseos y creencias no son estados internos de la mente, sólo herramientas de abstracción útiles para predecir el comportamiento de un sistema.

Imaginemos un termostato. Podríamos describir su comportamiento diciendo que cuando cree que la temperatura es baja intenta subirla, y cuando cree que es alta intenta reducirla, porque tiene el deseo de mantener un ambiente confortable. Aquí la postura intencional nos parece extravagante, porque el sistema es suficientemente sencillo como para poder describirlo con una postura física.

Imaginémosnos ahora jugando contra un programa de ajedrez complejo. Ante un movimiento suyo podemos tomar una postura intencional: «me deja la torre como señuelo porque quiere lanzar un ataque y cree que voy a caer en la trampa» , o una postura física: «ha hecho este movimiento porque ha aplicado un algoritmo de búsqueda minimax con poda alfa-beta y la función de evaluación ha devuelto el valor 10 para el estado resultante». La segunda descripción es quizás más «realista» , pero la primera es más útil si se trata de decidir cómo responder.

En definitiva, hay una gran variedad de actitudes intencionales que pueden adscribirse a los sistemas:

  • actitudes epistémicas: conocimiento, sabiduría…

  • actitudes doxásticas: creencia, duda…

  • actitudes teleológicas: deseo, intención…

  • actitudes deónticas: obligación, compromiso…

Los argumentos de Dennett

Dennett plantea dos argumentos muy interesantes acerca de la intencionalidad:

  • La intencionalidad de los artefactos es derivada

    1. Las máquinas de Coca-Cola de USA responden cuando se introduce $0.25. Inicialmente se hallan en un estado con el siguiente contenido intencional: “Lata preparada. Inserte $0.25.”

    2. Una máquina de Coca-Cola se traslada a Panamá. Como el balboa panameño lo imprime la Fábrica de Moneda norteamericana, los balboas tienen las mismas propiedades físicas que las monedas de $0.25. Por tanto, su estado inicial tiene este contenido intencional: “Lata preparada. Inserte 1 balboa.”

    3. Luego, la intencionalidad de los estados de las máquinas de Coca- Cola es derivada: otro se la asigna.

  • Toda intencionalidad es derivada, es decir, subyace la irrealidad

    1. La intencionalidad de un artefacto es derivada.

    2. (La tesis de Richard Dawkins) Los seres humanos —y, en general, los seres vivos— son artefactos diseñados por nuestros genes para facilitar su proliferación.

    3. Luego, los seres humanos —y, en general, los seres vivos— son artefactos artefactos diseñados por la Selección Natural.

    4. Luego, la intencionalidad de los seres humanos —y, en general, la de los seres vivos— es derivada.

Analicemos los argumentos de Dennett: Empezando por la segunda premisa, la tesis de Dawkins. Tenemos las siguientes alternativas:

  • Si no aceptamos el argumento de Dennett, hay que rechazar o bien la premisa 1) o bien la premisa 2). ¿Qué elegimos?

  • Pero rechazar (2) es rechazar la tesis de Dawkins; y rechazar la tesis de Dawkins es rechazar la revolución darwiniana.

En la segunda premisa queda claro que toda intencionalidad es asignada por algo/alguien. Pero…

  1. Hay artefactos y artefactos. Aunque seamos artefactos construidos por nuestros genes, éstos no tienen ninguna intencionalidad que transmitirnos.

  2. Más bien, en el proceso de evolución natural, los genes producen artefactos que sí están dotados de propiedades intencionales (por burdas que sean inicialmente).

  3. Nuestra intencionalidad puede ser, a la vez, derivada —en el sentido de estar posibilitada por la acción de los genes— y no derivada —por resultar de los sistemas— que nos conectan con el mundo: un ser idéntico a nosotros la poseería igualmente.

Retroacción negativa

En 1943, Rosemblueth, Wiener y Bigelow escribieron un importante artículo sobre el tema de la explicación científica, titulado “Behavior, Purpose and Teleology”. Aportaban en él la noción de retroacción negativa, importante para los sistemas homeostáticos o autorregulados, tan frecuentes en los seres vivos, mas también en muchas estructuras cibernéticas.

En la teoría de sistemas y en cibernética, entre otras discipinas, la retroalimentación (feedback) es un mecanismo de control de los sistemas dinámicos por el cual una cierta proporción de la señal de salida se redirige a la entrada, y así regula su comportamiento. Existen tres tipos de realimentación

  • Positiva: cuando sale del sistema; tiende a aumentar la señal de salida, o actividad.

  • Negativa: es la que mantiene el sistema funcionando. Devuelve al emisor toda la información que necesita para corregir la pauta de entrada. Mantiene el sistema estable para que siga funcionando.

  • Bipolar; puede aumentar o disminuir la señal o actividad de salida. La realimentación bipolar está presente en muchos sistemas naturales y humanos. De hecho generalmente la realimentación es bipolar es decir, positivo y negativo según las condiciones medioambientales, que, por su diversidad, producen respuestas sinérgicas y antagónicas como respuesta adaptativa de cualquier sistema.

Braithwaite y Nagel también se ocuparon de esta cuestión: la posición general de la concepción heredada sería subsumir las explicaciones teleológicas o finalísticas, e incluso las intencionales (acciones dirigidas a un objetivo), bajo el modelo de explicación causal, e incluso hacerlas compatibles con el modelo de cobertura legal de Hempel (Covering Law Model), es decir, con la explicación nomológica-deductiva.

La teoría de la decisión racional

Uno de los enfoques sobre la racionalidad más desarrollados es el que se conoce como Teoría de la Decisión Racional, o «Teoría de la Decisión». Esta teoría tiene la ventaja de que puede ser formulada matemáticamente, lo que permite, por un lado, discutir con precisión su estructura, sus presupuestos y sus implicaciones, y por otro lado, aplicarla a múltiples casos. El carácter matemático de la teoría la ha hecho especialmente adaptada a la ciencia económica, que es la rama de las ciencias sociales donde la Teoría de la Decisión Racional se ha aplicado más intensamente y donde ha encontrado menos oposición por parte de otros enfoques. De todas formas, como veremos, la teoría tiene algunos aspectos que pueden ser razonablemente criticados. Sin  ir muy lejos ya vemos que su aplicación en la teoría económica hace aguas por momentos, porque al parecer, no son tan racionales las decisiones que tomamos los seres humanos. Ahí están los mercados y la crisis del sistema económico para confirmarlo.

El núcleo básico de la Teoría de la Decisión es, en primer lugar, la descripción de las situaciones a las que se enfrentan los individuos, así como de sus preferencias y sus creencias, de la forma más clara posible, y en segundo lugar, la suposición de que estas creencias y preferencias son internamente coherentes, y coherentes con las acciones elegidas por los sujetos.

Con respecto a la situación, la representaremos indicando las diferentes opciones o alternativas que tiene el individuo (se trata, por supuesto, de las opciones que el individuo cree que tiene, aunque en general se asume que conoce todas las alternativas posibles); estas opciones serán incompatibles entre sí (es decir, el sujeto no podrá elegir más de una), y deben estar representadas todas las opciones posibles (es decir, el sujeto tendrá que elegir necesariamente alguna).

Las preferencias de los individuos no están definidas directamente sobre las opciones, sino sobre los resultados que se obtienen con cada posible elección. En el caso más sencillo, cada una de estas opciones conducirá a un resultado conocido de antemano por el sujeto (por ejemplo, ducharse con agua caliente, con agua fría, o no ducharse), y entonces podremos identificar «opción» con «resultado» en las preferencias de los individuos. Debemos tener en cuenta que el gusto o la molestia que le pueda causar al agente inmediatamente la propia realización de la acción, lo hemos de contar ya entre los «resultados» de la decisión.

De todas formas, lo normal será que el sujeto no sepa con total certeza qué resultado es el que va a ocurrir con cada una de sus posibles decisiones. Esto quiere decir que cada decisión tendrá generalmente más de un resultado posible. Además, en muchos casos el resultado de una decisión será una nueva situación en la que el individuo se vea obligado nuevamente a elegir entre varias alternativas (no necesariamente las mismas que antes). A la descripción de estas cadenas de opciones, decisiones y resultados, se le llama «árbol de decisión», aunque también suele representarse en forma de tabla, indicando en las filas cada una de las alternativas entre las que el sujeto debe elegir (si sólo tiene que hacerlo una vez, o cada posible combinación de alternativas, si tiene que hacerlo varias veces), e indicando en las columnas cada una de las posibles combinaciones de factores independientes de la propia decisión y que pueden afectar a los resultados (a cada una de estas combinaciones posibles de «otros factores» se le llama convencionalmente «estado de la naturaleza», aunque puede incluir acciones realizadas por otros individuos).

Ser racional es maximizar satisfacción, pero debemos ser coherentes

La Teoría de la Decisión Racional es, como toda teoría, no sólo un marco que nos permite describir la realidad, sino un conjunto de hipótesis sobre cómo están relacionadas las cosas entre sí. Pues bien, el principal supuesto de la teoría es el de que los individuos elegirán en cada caso aquella alternativa que sea más coherente con la máxima satisfacción posible de sus preferencias.

Dicho de otra manera, una vez tomada una decisión, los individuos no podrán encontrar después razones para pensar que (dada la información que poseían en aquel momento) habría sido mejor para ellos elegir una opción diferente. Por supuesto, es posible que después encuentren nueva información, que les revele que otra de las alternativas era mejor para ellos, pero lo importante es que, en cada caso, se tome la decisión que es la mejor según la información disponible.

Ahora bien, ¿qué significa exactamente que una opción sea «la mejor»? Para que este concepto tenga un sentido claro es necesario que las preferencias de los individuos cumplan al menos dos requisitos:

  • Deben ser completas: para cualquier par de resultados, a y b
    • o bien el individuo prefiere a o bien prefiere b
    • o bien es indiferente entre los dos (es decir, no puede suceder que el sujeto no sepa si prefiere a o b,
    • o si ambas cosas le dan igual)
  • Las preferencias deben ser transitivas: si un individuo prefiere x a y, y prefiere y a z, entonces preferirá necesariamente x a z.

Para entender por qué son razonables estos dos supuestos, imaginemos lo que sucedería si no se cumplieran.

Respecto al primero, será incluso difícil pensar cómo podría tomarse racionalmente una decisión entre varias opciones si no están definidas las relaciones de preferencia entre ellas (nótese que, si no se cumple la condición 1, ni siquiera estaría determinado si las dos opciones son igual de valoradas).

Respecto a lo segundo, consideremos este ejemplo: una persona está jugando en un concurso, cuyos posibles premios son un viaje, una moto, o un equipo de TV, y que el sujeto prefiere el viaje a la moto (es decir, si tuviera que elegir entre ambas cosas, elegiría la moto), prefiere la moto al equipo de TV, pero prefiere el equipo de TV al viaje. Además de que esta persona no tendría un argumento claro para elegir un premio entre los tres (aunque, para cualesquiera dos premios, sí tiene claro cuál elegir), puede mostrarse que sus preferencias le harían caer fácilmente en el siguiente timo: supongamos que ha ganado el equipo de TV; como prefiere la moto al equipo, seguramente habrá alguna pequeña cantidad de dinero (pongamos, un euro) tal que, si le ofrecemos cambiar el equipo por la moto si nos da un euro por el cambio, aceptará el trato, y se quedará con la moto; como prefiere el viaje a la moto, seguramente ahora también estará dispuesto a pagar un euro a cambio de que le dejemos cambiar la moto por el viaje; pero como prefiere el equipo al viaje, también estará dispuesto a pagar un euro por cambiar el viaje por el equipo. Así que, al final, volverá a estar como al principio (con el equipo de TV), pero con tres euros menos. Si sus preferencias no han cambiado en el proceso, podemos seguir repitiéndolo indefinidamente, sacándole más y más dinero sin ningún coste para nosotros. Un sujeto con preferencias intransitivas sería, por lo tanto, algo así como una «bomba de dinero» (entendiendo bomba en el sentido de «bombear»).

Por argumentos parecidos, aunque más complejos matemáticamente, puede mostrarse que las creencias de los individuos racionales sobre cómo de probables son los posibles resultados de las acciones, esas creencias, decíamos, deben satisfacer los axiomas de la teoría de la probabilidad. Esto significa que dichas creencias deben poder expresarse de forma numérica (para cada posible resultado de elegir una alternativa, la probabilidad de dicho resultado debe ser un número comprendido entre 0 y 1), la probabilidad de que se den dos resultados a la vez debe ser 0 (pues los resultados son incompatibles entre sí), la probabilidad de que se dé alguno de un conjunto de resultados es igual a la suma de las probabilidades de cada uno, y la probabilidad de que se dé algún resultado será iguala 1.

Además, la probabilidad con la que un individuo cree que sucederá cierto resultado si toma cierta decisión, no puede ser una probabilidad cualquiera, sino que debe ser consistente con toda la información de la que el sujeto dispone. Si para un individuo no se cumplieran estas condiciones, también podríamos «bombear» dinero de él, como en el caso anterior, pero esta vez haciéndole apostar.

Consecuencias de ser racionales

Se debe al matemático J. Savage la demostración del teorema fundamental de la Teoría de la Decisión, que afirma que, si la conducta de un individuo es «racional» (en el sentido de que sus decisiones no pueden llevarle a situaciones en las que necesariamente saldría perdiendo, como en los ejemplos que hemos visto), entonces se cumplirán las siguientes consecuencias:

  1. Las preferencias del sujeto se podrán representar mediante una función numérica,u, tal que, si a y b son dos resultados posibles, el sujeto preferirá a a b si y sólo sí u(a) > u(b), y será indiferente entre los dos resultados si y sólo si u(a) = u(b); a esta función la llamaremos «función de utilidad»;

  2. Las creencias del sujeto se podrán representar mediante una función de probabilidad, p, (la expresión «p(a/x)» significa la probabilidad de que se obtenga a, supuesto que se ha hecho x);

  3. En cada situación, el sujeto elegirá aquella opción x para la que sea máximo el valor de la utilidad esperada, definido como sigue: si a, a2, …, an son los posibles resultados de x, la utilidad esperada de x será igual a

u(a1)p(a1/x) + u(a2)p(a2 /x) + … + u(an )p(an /x).

Es decir, la utilidad esperada de x es la media ponderada de las utilidades de todos los resultados a los que puede conducir x, siendo la ponderación de cada resultado igual a su probabilidad.

Si interpretamos estas probabilidades como frecuencias (o, más bien, como hipótesis que hacen los sujetos sobre la frecuencia con la que ocurriría cada resultado si la decisión pudiera ser tomada en las mismas circunstancias innumerables veces), entonces el concepto de utilidad esperada significa que, si se toma la decisión x, se obtendrá la utilidad u(a1) con una frecuencia igual a p(a1 /x), la utilidad u(a2) con una frecuencia p(a2 /x), etc.

 

Queremos explicar lo que hace la gente

En las ciencias sociales, la inmensa mayoría de los hechos para los cuales pretendemos encontrar alguna explicación son acciones llevadas a cabo por seres humanos; queremos explicar lo que la gente hace. Estas acciones pueden ser individuales o colectivas, aunque se ha discutido mucho si esta última noción, la de «acción colectiva», representará algo más aparte de la combinación de las acciones de varios individuos.

El objeto de cada una de las ciencias sociales consiste, por lo general, en una enorme masa de acciones humanas, que esas ciencias deben, en primer lugar, ordenar y clasificar según ciertas categorías, y en segundo lugar, explicar en función de ciertos principios teóricos. La tradición principal de las ciencias sociales se basa en el supuesto de que las acciones de las personas son generalmente el resultado de alguna decisión.

Incluso cuando lo que hay que explicar es la falta de acción de un sujeto en una circunstancia determinada, como por ejemplo no atender una llamada de socorro, casi siempre lo explicamos como fruto de la decisión de no actuar. Así pues, en muchos casos lo que se hace en las ciencias sociales es intentar explicar por qué la gente toma las decisiones que toma, en vez de otras.

Pero las decisiones no se observan

Algunos autores, influidos por las filosofías empirista y positivista, sobretodo a mediados del siglo XX, criticaron esta idea, con el argumento de que las decisiones son acontecimientos esencialmente inobservables (en particular, las decisiones de los demás), y por lo tanto, afirmaban, son imposibles de contrastar empíricamente.

Esta postura llevó al desarrollo de varias escuelas, entre las cuales la más famosa fue el Conductismo (en Psicología), cuyo ideal era la búsqueda de leyes empíricas que establecieran la conexión entre ciertas situaciones y ciertas acciones, sin necesidad de introducir descripciones de lo que pasaba «dentro de la cabeza» de los individuos.

Esta postura ha sido prácticamente abandonada, no sólo por las críticas al modelo positivista de la ciencia, o porque otras disciplinas también utilizan conceptos no observacionales (quark, gen, etc.), sino sobre todo por la escasa capacidad explicativa de las teorías sociales que ignoran radicalmente las decisiones de los sujetos, y por la plausibilidad intuitiva que tiene, para nuestro sentido común, la idea de que los actos de las personas son fruto de «lo que pasa por su mente». Al fin y al cabo, parece que cada uno es consciente de sus propias decisiones, y lo más lógico para él es pensar que los demás seres humanos (al contrario que la mayoría de los animales y que todos los demás seres) también lo hacen. Pese a esto, existen en las ciencias sociales varias concepciones distintas acerca de cuál es el modo como la gente toma sus decisiones.

¿Qué es lo que hacemos al tomar una decisión?

¿Cuáles son las principales diferencias entre una acción que sea el resultado de una decisión, y un acontecimiento «natural» que no lo sea? La diferencia más notable parece ser la de que en el primer caso la acción está originada, de alguna manera, por las creencias y los deseos del individuo, es decir, por la forma en que él percibe la situación a la que se enfrenta, y por la forma en la que él quiere que se transforme dicha situación.

La acción sería, por lo tanto, una cierta manera de ajustar las circunstancias a nuestras preferencias. En cambio, en otro tipo de acontecimientos (la lluvia, la fotosíntesis de las plantas, la digestión de los alimentos en nuestro aparato digestivo), diríamos que todo lo que sucede ocurre de forma «mecánica», en el sentido de que los elementos físicos involucrados en dichos procesos no están organizados de tal modo que haya un pensamiento guiando cada parte del proceso.

Esta diferencia es un poco engañosa, en la medida en que nos lleve a concluir que nuestras decisiones no son «en el fondo» el resultado de los procesos físico-químicos de nuestro cerebro; al fin y al cabo muchos fenómenos naturales pueden explicarse a través de algún concepto de finalidad.

Pero lo importante es el hecho de que, en la toma de decisiones, nosotros somos conscientes de esa finalidad y de las razones que nos permiten tomarla como un motivo para actuar de un modo u otro. A las acciones voluntarias se les llama también acciones intencionales, puesto que responden a alguna «intención» por parte del sujeto, pero también, y esto es lo más importante desde el punto de vista filosófico, porque las creencias y los deseos que intervienen en el proceso de la toma de decisión son «representaciones» de hechos y entidades externas a la propia mente del individuo (tienen lo que suele llamarse un «contenido semántico» o «intencional»).

La explicación de las acciones tiene que partir, por lo tanto, de algún análisis de las creencias y los deseos, y de la forma en la que éstos están relacionados entre sí y con las acciones. A este tipo de explicación se le conoce como explicación intencional. También podemos decir que es el tipo de explicación basado en el principio de que los seres humanos actúan racionalmente.

Racionalidad

El concepto de «racionalidad» es seguramente el más fundamental en la filosofía de las ciencias sociales, pero también es uno de los más polémicos. De hecho, muchos autores distinguen varios «tipos» distintos de racionalidad. Tan intensa es la diferencia entre las distintas teorías, que los actos que algunos enfoques consideran como paradigmáticos de la acción racional son calificados más bien como irracionales por otras concepciones. Veamos algunas dificultades filosóficas que todas ellas comparten.

En primer lugar, el principio de racionalidad afirma que los individuos no son una «mera» marioneta de fuerzas que les determinen «desde abajo» (es decir, según las leyes físicas de los elementos de los que están compuestos nuestros organismos), ni «desde arriba» (es decir, según las leyes que gobiernan las macroestructuras sociales), sino que poseen algún tipo de autonomía, pueden «determinarse a sí mismos». Que esto sea compatible o no con el hecho de que estamos efectivamente constituidos por elementos átomos y moléculas que obedecen «ciegamente» las leyes físicas está asociado al determinismo.

En segundo lugar, podemos discutir la posible coherencia que exista entre las explicaciones intencionales y los otros tipos de explicación científica que hemos analizado en las entradas anteriores.

  • A primera vista, la explicación intencional puede considerarse directamente tanto como un tipo de explicación teleológica (pues obviamente la acción intencional es acción dirigida a unos fines), y también como un tipo de explicación causal (en la medida en la que consideremos que las decisiones, y los motivos que las producen, constituyen las causas de la acción). De todas formas, esto último puede conducir a algunos problemas. Por una parte, no está claro que las razones sean automáticamente causas (p. ej., puedo tener razones estupendas para hacer una cosa, y a pesar de ello no hacerla); este problema puede resolverse indicando que una razón es una causa ceteris paribus, es decir, suponiendo que ninguna otra causa más fuerte interviene en la situación. Por otro lado, las razones, o los motivos y deliberaciones, son acontecimientos de tipo «mental», y resulta problemático entender de qué manera puede «lo mental» tener alguna influencia sobre «lo físico» (es decir, sobre la conducta de mi organismo).
  • Con respecto a la explicación nomológica, el principal problema consiste en determinar cuál es la forma apropiada de representar las leyes que intervendrían en un explanans basado en la explicación intencional. Imaginemos que intento explicar por qué el cartero no ha venido hoy; en el explanas podríamos tener cosas como: «hoy se ha convocado una huelga de trabajadores de Correos», «el cartero cree que los motivos para la huelga son justos, y no teme las represalias que pueda sufrir si hace la huelga». Si dejamos la explicación así, resulta que no tenemos ningún enunciado con forma de ley (es decir, que sea una regularidad), sino sólo enunciados singulares; además, sólo a partir de esos dos enunciados no puede deducirse el hecho que queríamos explicar. Lo que falta, por tanto, es alguna «ley» que afirme (o de la que pueda inferirse) algo así como que «todo el mundo que es convocado a una huelga, que no tiene motivos para oponerse a ella, y que tiene motivos para secundarla, la secundará». Considerado como una «ley», esto sería (¡en el mejor de los casos!) una regularidad empírica de validez muy restringida; para lograr una auténtica explicación científica necesitamos, en cambio, alguna ley más general, de la que podamos inferir regularidades en muchos ámbitos distintos. Pues bien, el «principio de racionalidad» podría desempeñar ese papel, si lo reformulamos de una forma parecida a ésta: «todos los individuos harán aquello que creen que es más apropiado hacer en cada situación, teniendo en cuenta sus preferencias y su percepción de la situación» (esto es lo que Karl Popper ha denominado «el principio cero de las ciencias sociales», entendido como un supuesto que, según este autor, debería subyacer a cualquier explicación social). Esta estrategia tiene varios problemas, de todos modos.
    • El más grave sea tal vez el hecho de que el «principio de racionalidad» expresado al modo de Popper no es un enunciado empíricamente falsable: en principio, cualquier acción que pudiéramos observar, por muy absurda e «irracional» que pareciese, podría ser compatible con el supuesto de que el individuo ha actuado «racionalmente» (basta con suponer que eso precisamente es lo que quería hacer, o lo que le parecía más apropiado). Independientemente del valor que demos a esta crítica, resulta al menos curioso que la principal propuesta de Popper sobre la metodología de las ciencias sociales sea contradictoria con su propia recomendación de utilizar únicamente teorías falsables en la investigación científica.
    • El segundo problema es que el principio es casi totalmente vacío, pues, como se ve en el ejemplo del cartero en huelga, hace falta bastante más información para pasar del enunciado abstracto del principio de racionalidad a la conclusión referida a un hecho tan específico como por qué un cierto sujeto ha realizado determinada acción; dicho de otra manera, el principio de racionalidad, tal como lo hemos definido, no nos explica por qué ciertas acciones les parecen a ciertos individuos más «apropiadas» que otras. Esta crítica, de todas formas, no es excesivamente grave: al fin y al cabo, la situación es la misma en las propias ciencias naturales, donde existen principios muy generales y abstractos (las leyes de la termodinámica, la segunda ley de Newton, etc.) que sólo pueden generar predicciones concretas cuando les añadimos otras leyes o hipótesis más específicas y numerosas condiciones iniciales, que se apliquen al caso que estemos estudiando. La cuestión importante sería, pues, la de cuáles pueden ser esas «leyes de más bajo nivel» que debamos añadir al principio de racionalidad para obtener explicaciones aceptables de los fenómenos sociales.
  • Finalmente, indicaremos una diferencia muy notable entre la explicación intencional y los otros tipos de explicación. Se trata del hecho de que, cuando explicamos la conducta de los individuos según las razones que les han llevado conscientemente a actuar así, estamos utilizando la palabra «explicar» en un sentido muy distinto al que tiene cuando decimos que la ley de la gravedad explica las órbitas de los planetas, o que los órganos de los seres vivos deben ser explicados mediante su función biológica. En el caso de la acción intencional, lo que conseguimos cuando la «explicamos» es comprender el sentido que dicha acción tiene para el individuo que la ha llevado a cabo. La explicación intencional consiste, por lo tanto, en comprender la acción «desde el punto de vista» del sujeto (lo cual no significa que la tengamos que aprobar moralmente), algo que es imposible con los fenómenos en los que no interviene una conciencia racional.

El modelo de explicación funcional

El análisis de la forma de explicación funcional tiene una larga historia en la filosofía de la ciencia. No es fácil hacerle justicia a este tema en los límites que parecen adecuados para una introducción general. Sin duda hay aspectos del funcionalismo, lo mismo que de la teoría de sistemas o del organicismo, a los que se les puede encontrar claros antecedentes en el pensamiento de la antigüedad clásica, pero el funcionalismo como tal es un término que entra con fuerza en el discurso filosófico en el último cuarto delsiglo XIX y que, desde entonces, ha tenido una presencia creciente.

Lo primero que debemos tener en cuenta es que en el análisis funcional se suele adoptar el patrón de explicación funcional aunque el desarrollo de críticas formales muy precisas a ese tipo de explicación hayan llevado a cambios muy profundos en la teorización estructural-funcional. Es importante observar que muchos teóricos han señalado la enorme diversidad de contenidos a los que se aplica el término «función» y que muy poco o nada tienen que ver con la noción matemática de función. Por el contrario, normalmente con función hacemos referencia más bien al papel que tienen los elementos de un sistema para contribuir al sostenimiento de un estado persistente de dicho sistema.

Un momento fundamental en el análisis de este patrón de explicación por las consecuencias, y que se sitúa en torno a la segunda mitad del siglo pasado. En ese período apareció el artículo de E. Nagel «Una formalización del funcionalismo», recogido en su libro Lógica sin metafísica, y en el que se intentaban sistematizar las once tesis de Merton de 1949 sobre el análisis funcional. Nagel en esa formalización hace una referencia especial a las ciencias sociales.

Los resultados de ese trabajo fueron incorporados por Carl Hempel en 1959 en su artículo «Lógica del análisis funcional», que suele admitirse como el tratamiento estándar, desde la filosofía de la ciencia, de tal patrón de explicación. Según Hempel, el modelo de explicación funcional al pretender explicar la persistencia de un determinado rasgo resulta inadecuado porque supone el uso de la falacia de afirmación del consecuente, es decir, aceptar que al afirmar conjuntamente un enunciado condicional (A→B; p. ej., «si llueve, el suelo se mojará») y su consecuente (B; «el suelo se ha mojado») podemos concluir el antecedente (A; «ha llovido»); naturalmente, esta forma de razonar es una falacia porque puede suceder B sin que suceda A (p. ej., el suelo puede mojarse porque lo rieguen). Precisamente por incurrir en tal falacia no puede pretender tener carácter predictivo y, a lo sumo, puede ser una pauta con cierta utilidad heurística pero no explicativa.

Otra manera de resumir esta potente crítica de Hempel a la explicación funcional es decir que la presencia de un rasgo específico en un organismo, presencia que se pretende explicar por su función, no es en general una condición necesaria (o no se sabe que lo sea) para la realización de tal función. Una de las soluciones ofrecidas por Hempel, para mantener la adecuación formal de la explicación funcional, consistía en proponer la explicación de una clase funcional de rasgos —no de un único rasgo— que conduzcan a un mismo resultado. No se podría pretender la explicación de un ítem determinado sino de una familia de rasgos funcionales (cuyo conjunto si resultase necesario), aunque así el interés para la explicación en ciencia social aparecería muy disminuido, pues resulta mucho más complicado el análisis de un conjunto de rasgos, con muchas relaciones posibles entre sí y con otros factores externos.

El debate sobre las explicaciones teleológicas

En las explicaciones funcionales o teleológicas (aunque no son exactamente lo mismo) explicamos los acontecimientos a través de hechos que no están en el pasado sino en el futuro, es decir, la causa del hecho a explicar estaría en el futuro. También podría decirse que, en las circunstancias apropiadas, es recibir una explicación en términos del fin particular al cual se dirige un medio determinado.

Las explicaciones teleológicas, según afirma Nagel, centralizan la atención en las culminaciones y los productos de procesos específicos, y en particular en las contribuciones de varias partes de un sistema para mantener sus propiedades globales o modos de comportamiento.

En las explicaciones funcionales las consecuencias de algún comportamiento o de algún ordenamiento social son elementos esenciales de las causas de ese comportamiento. Un tipo común de este tipo de explicaciones en la vida cotidiana es el de la motivación.

Las teorías funcionales explican los fenómenos por sus consecuencias y pueden ser útiles para explicar los fenómenos sociales, porque hay muchas cadenas de causación inversa que seleccionan pautas de comportamiento por sus consecuencias, como ocurre con los procesos de evolución biológica y social, y con fenómenos de planeamiento individual y colectivo.

Las explicaciones funcionales son formas complejas de teorías causales e involucran conexiones entre variables con una prioridad causal especial de las consecuencias de la actividad a nivel de la explicación total. Pero no toda explicación funcional adopta el compromiso del holismo metodológico.

Desde el individualismo metodológico se ha mantenido que la base de las ciencias sociales son los actos de los sujetos, de tal manera que ya que los únicos que actúan y tienen intenciones son los sujetos, debe evitarse la pretensión de analizar las entidades supraindividuales como agentes sociales. La causalidad procede de lo individual a lo social; se ejerce a partir de los agentes humanos que tienen, por tanto, un papel explicativo fundamental. En cualquier caso son las unidades elementales, los actos de los individuos, los que permiten definir el origen de los hechos sociales entendidos como resultados de la acción de dichos agentes.

La utilización de un lenguaje teleológico normalmente ha tratado de reflejar la diferencia entre los seres vivos y la naturaleza inanimada. Como hace Nagel, es importante distinguir analíticamente entre adscripción de fines y adscripción de funciones. Para precisar que nos encontramos ante algún objetivo hacia el cual se orientan ciertas actividades de un organismo, resulta conveniente distinguir entre objetivos y funciones. Poco a poco los procesos dirigidos a fines han encontrado una forma de análisis; distinguir adecuadamente sus diversos tipos es muy conveniente para no caer en errores lógicos elementales. Ernest Nagel distingue tres tipos principales de procesos teleológicos.

  • El primero se refiere a la conducta propositiva de los humanos. El objetivo G(«goal») de una acción o proceso se dice que es algún estado de hechos pretendido por un agente humano. La intención en sí misma es un estado mental interno que, acoplado con el estado interno de querer G, junto con creer que una determinada acción A contribuye a la realización de G, se dice que es un determinante causal de realizar la acción A. La conducta dirigida a objetivo es la acción A realizada por el agente para lograr el objetivo. No es el objetivo lo que produce la acción, sino más bien las aspiraciones del agente, conjuntamente con su creencia de que la acción contribuirá a la realización de su objetivo. Pero utilizar este tipo de lenguaje resulta totalmente inadecuado cuando estamos tratando con organismos que son incapaces de tener intenciones y creencias. Por ello no nos puede extrañar que quienes adoptan esa forma teleológica de hablar tratan de adscribir intenciones a totalidades (holistas) como el sistema social, el capital o la burguesía.

  • Una segunda forma de proceso teleológico sería el que se ha llamado teleonómico, en el cual la «conducta o proceso debe su direccionalidad a la operación de un programa». Nagel lo llama perspectiva teleológica del programa o código. Estos casos son los que supuestamente vienen reflejados por el código genético y es en esta línea en la que se colocan algunas interpretaciones sociobiológicas. Pero un proceso que no tiene un fin programado no puede ser caracterizado adecuadamente como teleonómico, ya que, aunque esté controlado por un programa, ello no lo hace necesariamente dirigido a objetivo.

  • Se puede, sin embargo, hablar de otra tercera forma de analizar los procesos dirigidos a objetivos. Se trata de una perspectiva que procede de la teoría de sistemas o visión sistémica. Aquí consideramos que se encuentra la manera más interesante actualmente de abordar este tipo de procesos y es un espacio en el que el trabajo interdisciplinar entre diversas ciencias sociales y ciencias de la computación están produciendo resultados de mucho interés. Simplemente señalemos que hay tres propiedades centrales que deben tener los sistemas para que podamos caracterizarlos adecuadamente como dirigidos a objetivos

    • En primer lugar su plasticidad (la existencia de caminos alternativos para llegar al mismo resultado previsto

    • En segundo lugar la persistencia, es decir, que el sistema es capaz de mantener su conducta propositiva como resultado de cambios que ocurren en el sistema y que compensan cualquier desviación (interna o externa) que se haya producido dentro de ciertos límite

    • Y, en tercer lugar, la independencia (u ortogonalidad) de las variables, que quiere decir que dentro de ciertos límites los valores de cada variable en un momento dado deben resultar compatibles con cualesquiera valores de las otras variables en el mismo momento. Esta línea de pensamiento no dice simplemente que «todo esté relacionado con todo» (que es, como ha dicho Elster, el primer principio de la pseu-dociencia) sino que precisamente trata de aislar las variables que cumplan determinadas condiciones y que muestren ser las relevantes para conseguir mantener ese proceso orientado a fines

Las explicaciones teleológicas establecen una relación explicativa intenciones-fines y sostiene tres afirmaciones:

  • La explicación teleológica consiste en explicar un hecho presente por lo que ocurrirá en el futuro.
  • Es legítimo entender el fin en el sentido aristotélico de “causa final” con lo que la relación medios-fin se vuelve relación causal.
  • La explicación teleológica puede, de esa manera, reducirse a una explicación legaliforme.

Pero ninguna de estas tres afirmaciones describe adecuadamente la índole de la explicación teleológica.

  • En primer lugar en ella no se explica un hecho presente por lo que ocurriría en el futuro, se explica un hecho presente por algo que ocurre en el futuro, por la implementación de los medios a partir de las intenciones.
  • En segundo lugar la relación medios-fines no es asimilable a la relación causa-efecto

Si lo describimos en la forma de silogismo práctico:

  • a) la premisa mayor menciona una meta,
  • b) la premisa menor un acto conducente al logro de la meta, un medio dirigido al fin,
  • c) la conclusión consiste en el uso de ese medio para alcanzar el fin.

Obtenemos así el esquema de explicación teleológica:

  • A se propone dar lugar a p.
  • A considera que no puede dar lugar a p a menos que haga a.
  • Por consiguiente, A se dispone a hacer a.

No puede evaluarse en términos de validez lógica porque la verdad de las premisas no garantiza la verdad de la conclusión, puedo arrepentirme o cambiar de idea y no iniciar la acción.

Reconstrucciones formales de la explicación funcional

Elster ha sido el principal oponente de G. Cohen en la discusión interna al marxismo analítico, sobre la adecuación formal y material del funcionalismo. Elster mismo ha sintetizado el estado de la cuestión señalando cuatro versiones principales del funcionalismo. Para verlas en su complejidad resulta muy útil la reconstrucción siguiente.

Decimos que un fenómeno X se explica por su función Y para el grupo Z si y solamente si se cumplen todas estas condiciones:

  1. Y es un efecto de X

  2. Y es beneficiosa para Z

  3. Y no es pretendido por los actores al realizar X

  4. Y no es reconocido por los actores en Z

  5. Y mantiene X por la retroalimentación causal que pasa a través de Z

No todas las explicaciones funcionales satisfacen estos cinco enunciados; de hecho con frecuencia se cumple 1, 2, 3 y 5 pero no el criterio 4 (en ese caso se podría hablar de una especie de «selección artificial»): el fenómeno se mantiene porque el grupo lo considera beneficioso. En otros casos se cumple 1, 2, 3, y 4 pero no 5; en este caso, la falacia que se produce en el razonamiento funcionalista consiste en inferir la existencia del mecanismo de retroalimentación causal a partir de satisfacer los cuatro primeros criterios(del 1 al 4). Por ejemplo, se podría demostrar que la neutralidad aparente del Estado en las sociedades capitalistas contemporáneas satisface mejor los propósitos de los empresarios que un gobierno que tenga un sesgo social; a partir de esto, ciertos marxistas funcionalistas concluyen que este efecto beneficioso explica la neutralidad del Estado. Ahora bien, a menos que uno impute el mecanismo causal de retroalimentación a ciertas agencias de algún comité ejecutivo oculto de la burguesía, parece difícil ver cómo opera este mecanismo. En las ciencias sociales, la retroalimentación causal debe demostrarse más que postularse, a diferencia de lo que ocurre en biología donde la existencia de un efecto beneficioso parece que da una razón inmediata para pensar que es el producto de la selección natural, pues ésta proporciona un mecanismo general para una retroacción causal en la evolución de los seres vivos. De esta manera se pueden distinguir varias formas de funcionalismo:

  • a) En primer lugar tendríamos una variante ingenua del funcionalismo, que asume tácitamente que señalar las consecuencias beneficiosas de determinado efecto, resulta suficiente para establecer la explicación. Evidentemente esta variedad no sólo rechaza que las consecuencias puedan ser accidentales, sino que no cae en la cuenta de que aún cuando la conexión no fuese accidental podría no ser explicativa pues puede ser el caso de que tanto el explanans como el explanandum sean efectos conjuntos de una tercera variable.

  • b) Hay otros proponentes de la explicación funcional que defienden que puede ser el caso que tengamos un conocimiento general del mecanismo que está operando, aún cuando no seamos capaces de suministrar los detalles. Se trata de una extensión por analogía del papel jugado por la teoría de la selección natural en las explicaciones funcionales en biología. El tipo de crítica que se puede hacer a esta posición, que se ha defendido para analizar el cambio técnico mediante procesos de selección entre empresas, se relaciona con el papel del tiempo, pues no tienen en cuenta que la adaptación se refiere a un objetivo en movimiento (que se desplaza) y que los cambios en el entorno social y el ritmo de esos cambios puede producir que se provoque una respuesta inadecuada para la nueva situación. Si el proceso no es intencional no puede plantearse una orientación hacia las que puedan ser las condiciones del futuro, sino que se dirigirá siempre hacia la actual situación del objetivo. Algunas de las críticas a la economía del bienestar y sus dificultades para establecer el descuento del tiempo y tener en cuenta a las generaciones futuras ha sido unade las críticas desde cierto ecologismo a la teoría económica académica (posición de Martínez Alier).

  • c) Una tercera posición es la que defiende que la única explicación funcional completa, adecuada formal y materialmente, es aquella queofrezca los detalles completos del bucle de retroacción que fundamenta la explicación. Sin duda esta es una posición muy exigente y que, diciéndolo con términos de Nagel, reduce la explicación funcional a un tipo de explicación teleológica, dirigida hacia un objetivo y que, en aquellos casos en los que se puede sostener, no es más que un caso de explicación causal. En todo caso es preferible esta tercera posición que la primera ingenua, ya que puede sugerir vías de investigación que no caigan exclusivamente en la búsqueda de una explicación causal sino que puede tener que ver con el lugar de la explicación intencional en ciencias sociales.

  • d)La cuarta posición, entre las que ha sistematizado Jon Elster, sería precisamente la que se apoya en la ley de consecuencia en el sentido de Cohen, y aunque ni Elster ni Cohen han observado tal similitud, se corresponde en gran medida con la posición formulada precisamente por Nagel en 1977. En este caso las dificultades no se referirían a la estructura formal de la explicación, sino que las críticas tendrán que centrarse en los usos concretos y son en buena medida de carácter pragmático:

    • 1) no es frecuente disponer de casos que apoyen una cierta generalización inductiva, que nos hiciera plausible la adopción de la ley de consecuencia. Por ejemplo, el caso estudiado por Cohen sobre la explicación de las relaciones de producción en términos de su impacto beneficioso sobre las fuerzas productivas, que se intenta presentar como una explicación funcional, sería precisamente el único caso de la ley de consecuencia que explica ese mismo hecho. Esta objeción está siendo apoyada por algunas investigaciones sobre la transición del feudalismo al capitalismo, lo que se ha llamado la cuestión de R. Brenner, pues parece que el estudio apoyado en las transformaciones de las relaciones de propiedad suministra mayor clarificación y en un mayor número de casos que la supuesta explicación funcional del materialismo histórico a la Cohen.

    • 2) Por tanto aparece una segunda objeción pragmática, en el sentido de que es mejor estrategia heurística estudiar el mecanismo concreto que la búsqueda de otras instancias confirmadoras de la ley.

    • 3) Además una tercera posición crítica viene a decir que si el término «beneficioso» utilizado por las variedades ingenuas del funcionalismo resultaba vago, la noción que se utiliza a veces proponiendo que se trata de un estudio de óptimos resulta, por el contrario, excesivamente exigente. Adoptar una determinada pauta conductual como óptima puede ser algo muy complejo de establecer.

Funcionalismo y Estructuralismo

Una de las líneas de investigación social que ha tenido cierto predicamento es la conocida como estructuralismo. De hecho ha tenido cierta importancia en la historia de la antropología. El estructuralismo francés de mediados del siglo XX (con antropólogos como Levi-Strauss) supuso un fuerte impacto en ciertos campos de la ciencia social. Una buena manera de entender esa línea de investigación, que en la práctica niega la realidad de la elección intencional entre alternativas, es vincularla a la forma de explicación funcional.

Como ha indicado Jon Elster, podríamos pensar que cualquier acción realizada puede considerarse como el fruto de dos procesos sucesivos de filtraje.

En primer lugar nos encontramos con las restricciones objetivas que reducen el campo abstracto de todo nuestro conjunto de posibilidades, situándonos ante el conjunto de acciones realizables.

Además podemos suponer un segundo mecanismo que explique porque se realiza una acción en vez de otra de entre las que están en nuestro conjunto de acciones realizables. Una manera de negar la realidad de la elección racional consiste en decir que el conjunto de constricciones define efectivamente un conjunto de acciones realizables que se reduce al conjunto unitario, o que de hecho es un conjunto tan pequeño que no se pueden distinguir sus diversos componentes. Esta es la forma en que Elster interpretaba al estructuralismo francés. Resulta interesante analizar lo que se puede llamar «la falacia estructuralista en ciencias sociales». Siguiendo a Jon Elster, se trata de la inferencia siguiente:

  • Todos los miembros de A hicieron x.

  • Cuando todos los miembros de A hacen x, esto tiene el efecto z, conocido y deseado por los miembros de A.

  • Por lo tanto, los miembros de A hicieron x para conseguir z.

Un ejemplo de esta falacia la analiza el historiador Eric Hobsbawn, al precavernos de cierta explicación falaz de los orígenes del capitalismo que coloca elementos económicos externos como motivaciones de los inversores individuales: «El mismo proceso que reorganiza la división social del trabajo, incrementa la proporción de trabajadores no agrícolas, diferencia al peasantry y crea las clases de trabajadores asalariados, también crea hombres que dependen para sus necesidades de las compras en efectivo-clientes para los bienes. Pero este es la mirada del analista sobre el asunto, no la del empresario que es quien decide si invierte o no para revolucionar su producción».

El modelo de explicación funcional en sociología o antropología supone una forma de razonamiento muy cercano a la falacia estructuralista. El rasgo común es que las consecuencias objetivas favorables de algún conjunto de acciones se consideran que explican las acciones. En la falacia estructuralista estas consecuencias se convierten en motivos individuales para la acción mientras que las explicaciones funcionalistas postulan algún mecanismo de retroalimentación causal del efecto a la causa.

La solución darwinista

En el espacio de la filosofía de la biología se ha producido buena parte de la discusión sobre la adecuación de la explicación funcional. Posiblemente esto es así porque tanto en la vida cotidiana como en biología con frecuencia consideramos que explicamos la conducta de un ser o la misma existencia de algo indicando la función que realiza.

Desde luego este tipo de explicaciones finalistas (teleológicas) resultan problemáticas porque hacen referencia a intenciones (en el mejor de los casos) o nos remite a algún agente inteligente que tuvo el propósito de diseñar un componente (el corazón) para que cumpla una determinada función. Ahora bien, como ha indicado A. Rosenberg:

«El problema filosófico no consiste en decidir si estas explicaciones son legítimas en biología, sino en ofrecer un análisis del método y la teoría biológica que explique por qué resultan indispensables este tipo de explicaciones».

Lo que ocurre en biología es que se dispone de una fundamentación para este tipo de explicaciones en términos de la teoría de la selección natural. Nos ofrece el mecanismo subyacente a esta aparente situación en la que los efectos explican las causas. Un efecto posterior no puede explicar una causa anterior. Las funciones parecen ser posteriores, por lo tanto no pueden explicar causas anteriores. Así pues, en el caso de los latidos del corazón se puede considerar que la frase «la función de los latidos es conseguir que circule la sangre» viene a significar implícitamente que, a lo largo de la evolución, se seleccionaron aquellas variaciones aleatorias (mutaciones) en la configuración del corazón que facilitaban la circulación, debido a que esto contribuía a una mejor eficacia adaptativa (fitness) de los animales que las poseían. Por lo tanto, un corazón que facilita la circulación es una adaptación. En consecuencia, la correspondiente afirmación funcional sólo hace referencia de manera aparente a los efectos inmediatos, de hecho hace referencia a causas anteriores a lo largo del pasado evolutivo. Este es el gran «pecado» o «la idea peligrosa» de Darwin: la explicación naturalista de que no hace falta un diseñador o arquitecto intencional para dar cuenta de la estructura y las funciones de los sistemas complejos. Sin entrar en detalles que harían excesivamente compleja la explicación, señalemos lo esencial de la explicación funcional en biología. Según Elster:

«Un rasgo estructural o conductual de un organismo queda explicado funcionalmente si se puede demostrar que es parte de un máximo individual local en relación con la capacidad reproductiva, en un entorno de otros organismos que han alcanzado también sus máximos locales. Si podemos demostrar que un pequeño cambio en el rasgo en cuestión conduce a reducir la capacidad reproductiva del organismo, entonces comprendemos porqué el organismo tiene este rasgo».

Vale la pena observar que este mismo rasgo es el que plantea serias dificultades a la exportación del auténtico modelo explicativo de la biología (la explicación funcional) al ámbito de las ciencias sociales. Es la gran diferencia que existe entre una explicación intencional y una explicación funcional. La selección natural parece que en alguna medida simula la intencionalidad, pero hay muy serias diferencias si observamos la manera en que se produce la adaptación general de los animales y la de los seres humanos. Precisamente la idea de maximizar globalmente los resultados (lo que lleva a establecer compromisos previos en la conducta, a esperar en un momento para actuar posteriormente con mejores condiciones), señala a la posibilidad de adoptar un comportamiento estratégico por parte de los humanos (y posiblemente por parte de algunos animales entre los que se da algo parecido a lo que podríamos calificar de elaboración de herramientas, instrumentos para intervenir en el entorno, así como «vida social»). No se trata de que no se puedan (más bien se debe) realizar trabajo interdisciplinar entre biología y antropología, más bien queremos señalar que la gran falacia se produce si tratamos de transportar globalmente el modelo explicativo de las ciencias biológicas al espacio de las ciencias sociales. Por lo frecuente que resulta el establecimiento de analogías entre el mundo social y el biológico, no está de más indicar algunas precisiones sobre cómo opera la selección natural para no confundirla con ningún tipo de diseño intencional ni como un proceso dirigido a fines. Para ello puede resultar muy adecuadas las siguientes consideradas realizadas por Nagel en «Teleology revisited»:

«¿Ocurre realmente que la selección natural opera de manera que se generen consecuencias conductuales, es decir, produciendo órganos de un tipo particular, precisamente porque la presencia de tales órganos en el organismo del que son componentes da lugar a ciertos efectos? Tal como lo veo, suponer que esto es así sería violentar la teoría neodarwinista de la evolución tal como es comúnmente aceptada (…) De acuerdo con esa teoría, cuáles sean los rasgos heredables, que poseen los organismos que se reproducen sexualmente, depende de los genes que portan los organismos, genes que o son heredados de los organismos progenitores o que son formas mutantes de genes heredados. Cuáles de sus genes transmite un organismo a su progenie, es algo que viene determinado por procesos aleatorios que tienen lugar durante la meiosis y la fertilización de las células sexuales. No viene determinado por los efectos que los genes producen, ni en los organismos paternos ni en los descendientes. Es más, las mutaciones de los genes —la fuente última de la novedad evolutiva— también ocurre aleatoriamente. Los genes no mutan en respuesta a las necesidades que un organismo pueda tener a causa de cambios en su entorno; y qué gen muta es independiente de los efectos que una mutación genética pueda producir en la siguiente generación de organismos. Incluso más, la selección natural«opera» sobre organismos individuales no sobre los genes que portan, y que un organismo sobreviva para reproducirse no depende de si tiene rasgos que podrían resultarle ventajosos en algún entorno futuro.

La selección natural no es literalmente un «agente» que haga algo. Es un proceso complicado, en el cuál los organismos que poseen un tipo de material genético pueden contribuir más, en su entorno actual, al pool genético de su especie que lo que pueden contribuir otros miembros de la especie con diferente genotipo.»

En resumen, la selección natural es «selección» en un sentido muy peculiar de la palabra (Pickwickiano): No hay nada análogo a la foresight (previ-sión) en su operación: no da cuenta de la presencia de organismos que tengan un nuevo genotipo, no controla los cambios del entorno que puedan afectar a las oportunidades que el organismo tenga para reproducirse su propia clase, y no preserva los organismos que tengan rasgos que no son ventajosos para los organismos en su entorno actual, pero que puedan ser ventajosos para ellos en entornos diferentes. El término «selección natural» no es por lo tanto un nombre para algún objeto individual. Es un rótulo para una continua sucesión de cambios medioambientales y genéticos en los que, parcialmente debido a los rasgos genéticamente determinados que poseen los organismos, un grupo de organismos tiene más éxito en un entorno dado que otro grupo de organismos de la misma especie a la hora de reproducir su tipo y en contribuir al pool genético de la especie. La selección natural no tiene ojos para el futuro, si algunos zigotos resultan eliminados por selección natural es porque no se adaptan a su entorno presente.

Hempel. Enfoque en la concepción heredada

El Individualismo Metodológico es la posición del marxismo analítico más reciente, pero tiene precedentes claros. En el conjunto de la filosofía de la ciencia son los positivistas los que han defendido dichas posiciones, aunque tal vez, en el siglo XX, esa adscripción genérica sea parcialmente injusta, ya que otras corrientes teóricas también se pueden identificar como defensores del individualismo metodológico. Pero los fundamentos teóricos del individualismo metodológico, en el siglo XX, indiscutiblemente se relacionan con los esfuerzos del positivismo lógico por fundamentar las explicaciones científicas en unidades elementales que pudieran ser analizadas plenamente. Sin necesidad de entrar en matices que tendrían difícil cabida en un trabajo de esta naturaleza, es posible resumir la cuestión afirmando que la herencia positivista en la tradición de las ciencias sociales se afianza sobre tres principios básicos, conforme a la concepción preconizada por quienes la han consolidado:

  • a) Existe un componente ontológico según el cual es preciso admitir que la realidad existe de forma independiente y está regida por leyes inmutables; en consecuencia, el conocimiento debe predecir y explicar los fenómenos mediante el conocimiento de esas leyes.

  • b) Hemos de partir de un componente epistemológico, según el cual el investigador debe adoptar una postura de distancia, no interactiva, procurando que los valores y juicios propios no interfieran en la obtención de resultados.

  • c) Finalmente, el componente metodológico exige que las hipótesis sean sometidas a pruebas empíricas bajo condiciones contrastadas por medio de la experimentación empírica manipulativa. (Guba 1990)

En el positivismo dominante hasta bien entrados los años setenta del siglo XX, se daban estos tres componentes claramente entrelazados, aunque las reformas radicales de Popper produjeron un importante cambio, manteniendo una concepción en la que el componente epistemológico estaba claramente relacionado con el metodológico. En el individualismo metodológico, especialmente, en el marxismo analítico, tampoco se daba esa relación entre los tres componentes, ya que, siguiendo a Popper, pretendían que sólo se mantuviese una relación sistemática entre la dimensión epistemológica y la metodológica. Se trataría de una reflexión sobre la manera de explicar los hechos sociales y no sobre la composición ontológica del universo social, o sobre la búsqueda de una legitimación o justificación de las instituciones sociales a partir de una concepción individualista.

La postura general de la concepción heredada fue subsumir todas las explicaciones teleológicas y finales bajo el modelo de la explicación causal y compatibilizarlas con el modelo de cobertura legal de Hempel.

Hempel la estudia como la lógica del análisis funcional. La explicación teleológica, al recurrir a entelequias, no cumple los mínimos requisitos empíricos: no permite predicciones ni retrodicciones. Sin embargo, el análisis funcional (expresado a menudo en términos teleológicos) tiene un núcleo empírico y no acude a dichas entidades.

En este caso el explanandum es una pauta de conducta recurrente. Su forma es la siguiente:

  • Un sistema (S) funciona adecuadamente bajo unas condiciones internas y externas (Ci + Ce = C).

  • S funciona adecuadamente si se da cierta condición necesaria (N).

  • Si un rasgo (I) está presente entonces se cumple la N.

  • Luego I está presente en S.

Aparte del problema de significado de la expresión “funcionar adecuadamente”, el razonamiento involucra la falacia de afirmar el antecedente. Habría que ser más restrictivo con el rasgo I: N sólo es posible si se da I. Podríamos interpretar I como una clase de rasgos pero entonces sólo podríamos inferir la presencia de alguno de los rasgos de la clase I.

El problema en esta clase de explicaciones es el uso de hipótesis de autoregulación no empíricas. Involucran el problema del tiempo, el significado de necesidad o de funcionamiento correcto, etc. Asociación peligrosa de los conceptos de función y propósito. Es importante reseñar el papel heurístico del análisis funcional: búsqueda de los aspectos autoreguladores de un sistema (social, biológico, psíquico, etc.).

Causa y Causalidad

El problema de la explicación causal, por más que se ha intentado, reaparece constantemente porque las palabras causa y efecto se introducen en el discurso aún cuando sean repudiadas en las propuestas metodológicas, como si la visión causal del mundo estuviera inscrita en algún rincón de la conciencia más allá de cualquier convicción metodológica.

Hay que distinguir muy claramente entre la naturaleza de la causación y la explicación causal. No es lo mismo un acontecimiento causal que una explicación causal. El hecho de que un acontecimiento cause otro es independiente del hecho en sí. La explicación causal subsume los acontecimientos bajo leyes causales.

La idea de causa surge de manera intuitiva al intentar explicarnos lo que sucede a nuestro alrededor mediante un esquema lógico subyacente que nos permita relacionar unos eventos con otros mediante conexiones necesarias.

Se trata pues de una habilidad cognitiva básica, muy importante porque existe la evidencia empírica de que siempre que se dan las mismas circunstancias como causas, se producirá el mismo efecto. Y esto es lo que entendemos por principio de causalidad.

Dados dos eventos, A y B, se dice que A es causa de B si se cumplen dos condiciones lógicas:

  • Cuando sucede A, sucede B, es decir, existe una correlación positiva entre ambos eventos
  • Cuando no ocurre B, implica que tampoco ocurre A, aunque la ocurrencia de B no tiene que estar necesariamente ligada a la ocurrencia de A

Si se cumplen ambas condiciones, existe una relación causal entre ambos eventos: A es causa de B o B es un efecto de A.

La idea de causa aparece en los diferentes contextos que abarca la ciencia:

  • En física el término suele denominarse causalidad, en mecánica newtoniana se admite además que la causa precede siempre al efecto.
  • En estadística es analizado por la estadística diferencial.
  • En ciencias sociales el concepto suele aparecer ligado a un análisis estadístico de variables observadas.
  • En ciencias naturales diferentes de la física y en procesos en los que no podemos reducir la concurrencia de eventos a un mecanimo físico simple, la idea de causa aparece en procesos complejos entre los que hemos observado una relación causal. Así tras las ecuaciones empíricas se supone hay un proceso físico causal que lleva a una conexión necesaria entre ciertos eventos.

La idea de “causa” ha suscitado un buen número de debates filosóficos y científicos.

  • Aristótelesconcluye el libro de los Segundos Analíticos con el modo en que la mente humana llega a conocer las verdades básicas o premisas primarias o primeros principios, que no son innatos, ya que es posible desconocerlos durante gran parte de nuestra vida. Tampoco pueden deducirse a partir de ningún conocimiento anterior, o no serían primeros principios. Afirma que los primeros principios se derivan por inducción, de la percepción sensorial, que implanta los verdaderos universales en la mente humana. De esta idea proviene la máxima escolástica “nada hay en el intelecto que no haya estado antes en los sentidos”. Al mantener que “conocer la naturaleza de una cosa es conocer, ¿por qué es?” y que “poseemos conocimiento científico de una cosa sólo cuando conocemos su causa”. Aristóteles postuló cuatro tipos mayores de causa como los términos medios más buscados de demostración:
    • Material, de lo que está hecho ese algo
    • Formal, lo que ese algo es
    • Eficiente, lo que ha producido ese algo
    • Final, para lo que ese algo existe o puede llegar a ser
  • En la filosofía occidental, el concepto de causa como “conexión necesaria” fue criticado por el filósofo David Hume, que dijo que nunca había observaciones suficientes para relacionar A con B. En las relaciones causales encontramos que:
    • Observamos que las cosas no están aisladas, sino que unas están ligadas a otras en un proceso de interacción. Unas cosas suceden a otras, y siempre en el mismo orden.
    • Un conjunto de hechos definen una situación, y a este momento siempre le sucede otra situación y siempre la misma.
    • Al primer conjunto que define la situación lo llamamos causa, y a la segunda situación la llamamos efecto.
    • La ley de la causalidad no debe confundirse con el Principio de razón suficiente. Tal paso es ilegítimo, como bien establecido está en el pensamiento científico y filosófico.
    • Sin embargo la ley de la causalidad es el esquema fundamental de la investigación científica, suponiendo que la mejor forma de comprender y explicar es conocer las causas, porque por un lado podemos prevenir y por otro controlar los efectos, en definitiva dominar los sucesos naturales.
  • Para Kant la causalidad es una de las categorías a priori del entendimiento, y entonces no proviene de la costumbre (como decía Hume) sino tiene un carácter necesario y universal. Esto permite que la ciencia se apoye sobre el principio de causalidad sin dejar de ser necesaria y universal.

Salmon y la relevancia estadística positiva

El problema con la visión inferencial está en que no siempre se puede usar la información explicatoria como base para la predicción. Esto es debido a que frecuentemente ofrecemos explicaciones de fenómenos con baja probabilidad.

En estos casos no se podría predecir el resultado que ocurrirá, pues la información no confiere una probabilidad alta para el resultado. No obstante, la información ofrecida constituye una explicación de ese resultado, pues aumenta la probabilidad de que ocurra.

En los 1960’s y 1970’s, Wesley Salmon propuso una visión de la explicación estadística que postulaba que, a diferencia de lo que había dicho Hempel antes, la probabilidad alta no era necesaria para la explicación, bastaba sólo una relevancia estadística positiva.

Es decir, una hipótesis h es relevante positivamente (correlaciona) con e, si h hace que e sea más probable

Pr(h|e) > pr(h)

El problema para Salmon ahora era distinguir entre casos donde la información pudiera proporcionar una explicación sustantiva, de otros casos donde la información reportada fuera una mera correlación.

Por ejemplo, tener manchas de nicotina en los dedos correlaciona positivamente con el cáncer de pulmón, pero no se puede explicar porqué una persona contrajo el cáncer de pulmón diciendo que es porque esa persona tiene manchas de nicotina en los dedos. Es imposible diferenciar entre estos dos casos mediante relaciones puramente estadísticas.

Obviamente se requiere de otro tipo de información para hacer la distinción. Luego de este tropiezo, Salmon vino a creer que explicar un fenómeno no es proporcionar información suficiente para predecirlo, sino dar información sobre las causas de tal fenómeno. En este enfoque, la explicación no es un tipo de argumento conteniendo leyes de la naturaleza como premisas, sino un conjunto de información estadísticamente relevante sobre la historia causal de un fenómeno.

Salmon proporciona dos razones para pensar que la información causal es lo que se necesita en las explicaciones.

  • Primero, las llamadas condiciones iniciales proporcionadas por la información explicatorio deben de preceder temporalmente a la explicación, para ser una explicación de lo explicado. La teoría de Hempel no tiene alguna restricción de este tipo. Es interesante que Salmon señale que la dirección temporal de las explicaciones semejen la dirección temporal de la causalidad, que es hacia adelante (las causas deben preceder en tiempo a los efectos).
  • Segundo, no todas las derivaciones a partir de leyes resultan ser explicaciones. Salmon argumenta que algunas “explicaciones Nomológico-Deductivas no son explicaciones de ninguna manera. Por ejemplo, una derivación a partir de la ley del gas ideal PV = nRT y la descripción de las condiciones iniciales. La ley del gas ideal simplemente describe un grupo de restricciones de cómo diversos parámetros (presión, volumen y temperatura) se relacionan, no explica porqué estos parámetros se relacionan de esa manera. La existencia de estas restricciones es una cuestión sustantiva que se responde en la teoría cinética de los gases.

Salmon dice que la diferencia entre leyes explicatorios y no-explicatorias es que las primeras describen procesos causales, mientras que las no-explicatorias (como la ley del gas ideal) solo describen regularidades empíricas.

Rasgos de los procesos causales

La teoría de Salmon sobre la explicación causal tiene tres elementos:

  1. Relevancia Estadística: los argumentos explicatorios (C) aumentan la probabilidad del fenómeno que se quiere explicar (E): pr(E|C) > pr(E)
  2. Procesos Causales: la explicación y lo explicado son partes de procesos causales diferentes
  3. Interacción Causal: estos procesos causales interactúan de tal manera que hacen que se presente el evento (E) en cuestión

Esto nos deja con la tarea de explicar qué es un proceso causal. Básicamente, el enfoque de Salmon es que los procesos causales se caracterizan por dos rasgos.

  • Primero, un proceso causal es una secuencia de eventos en una región continua de tiempo y espacio.
  • Segundo, un proceso causal puede transmitir información (“marcar”).

Existen varias secuencias de eventos que son continuos en el sentido requerido, por ejemplo, un rayo de luz, un proyectil viajando en el espacio, una sombra o un haz de luz que se mueve proyectado en una pared. Un objeto que está quieto, por ejemplo, una bola de billar también se considera como un proceso causal. Cada una de estas cosas es un proceso continuo en algún sentido, pero no todas son procesos causales, por ejemplo, la sombra y la luz en la pared. Veamos un ejemplo que nos aclare esto.

La teoría de la relatividad afirma que nada puede viajar más rápido que la luz. Pero ¿a que “cosa” nos referimos con nada? Imaginemos un cuarto circular con un radio de un año luz. Si tenemos un rayo laser enfocado y montado en un pivote en el centro del cuarto, podemos rotar el laser y hacer que de una vuelta por segundo. Si el laser esta prendido proyectará una luz en la pared. Esta luz también rotará a lo largo de la pared completando una vuelta por segundo, lo que significa que viajará a 2p años luz por segundo! Aunque parezca extraño, esto no está prohibido por la teoría de la relatividad, ya que una luz de este tipo no “transmite información”. Solo las cosas que sí lo hacen están limitadas en su velocidad.

Salmon concluye que un proceso causal es un proceso espaciotemporal continuo que puede transmitir información (dejar “marca”)… la transmisión de la marca consiste en que la marca ocurre “en” un punto del proceso y mantiene su efecto “para” todos los puntos subsecuentes, hasta que otra interacción causal ocurra, que borre la marca.

De acuerdo con Salmon, un principio poderoso para la explicación es el que afirma que siempre que haya una coincidencia (correlación) entre las características de dos procesos, la explicación viene de un evento común a los dos procesos, que da cuenta de su correlación. Esto es, de una “causa común”. Para citar un ejemplo que dimos antes, hay una correlación entre el cáncer de pulmón (C) y las manchas de nicotina en los dedos de una persona (N). Esto es: Pr(C|N) > pr(C)

La causa común de estos dos eventos es un hábito de toda la vida fumando dos cajetillas de cigarros diariamente (S). Con relación a S, C y N son independientes.

Podemos decir: pr(C|N&S) = pr(C|S).

Una vez que S entra en la escena, N se vuelve irrelevante.

Esto es parte de una definición precisada de lo que es una “causa común” y que está sujeta a condiciones probabilísticas formales. Empezamos con que pr(A|B)>pr(A).

C es una causa común de A y B si se dan las siguientes condiciones:

  • pr(A&B|C)=pr(A|C)pr(B|C)
  • pr(A&B|¬C)=pr(A|¬C)pr(B|¬C)
  • pr(A|C)>pr(A|¬C)
  • pr(B|C)>pr(B|¬C)

Sin embargo, esto no completa el concepto de la explicación causal, pues no hay una causa común que haga irrelevante la correlación de eventos independientes. Salmon nos da entonces la dispersión de Compton como ejemplo. Dado que un electrón e- absorbe un fotón de cierta energía E y recibe una energía cinética E* en cierta dirección como resultado, un segundo fotón se emitirá con E** = E – E*. Los niveles de energía del fotón emitido y del electrón estarán correlacionados, aún cuando ocurra la absorción. Esto es: pr(A&B|C)>pr(A|C)pr(B|C)

Críticas a Salmon

Resumiendo el análisis de Salmon sobre la explicación causal, Salmon afirma que una explicación involucra

  1. relevancia estadística
  2. conexión vía procesos causales, y
  3. cambios luego de la interacción causal.

El cambio es el fenómeno que hay que explicar. La noción del proceso causal es complimentada en términos de

  • continuidad temporoespacial, y
  • la habilidad para transmitir información (“marcar”).

Aún cuando algunas veces podemos hablar diciendo que sencillamente la causa y el efecto son las dos partes de un solo proceso causal, el análisis final típicamente se entregaría en términos de conexiones causales más complejas (y muchas veces indirectas), entre las que Salmon identifica dos tipos básicos: relaciones conjuntivas e interactivas.

La visión pragmática de Van Fraassen sobre la explicación

El enfoque pragmático de la explicación según Van Fraassen afirma que una explicación es un tipo particular de respuesta a la interrogante de ¿porqué?, una respuesta que proporciona información relevante que resulta más “favorable” para explicar un fenómeno, de lo que resultan otras explicaciones alternativas. Para Van Fraassen, estas características están determinadas por el contexto en el que se cuestiona la pregunta.

Los elementos básicos de la visión pragmática de la explicación

De acuerdo con Van Fraassen, una interrogante del tipo ¿porqué? Consiste de

  1. una presuposición (¿porque X?)
  2. una serie de clases contrastantes (¿porqué x y no Y, Z, etc.?), y
  3. un criterio implícitamente entendido de relevancia.

La información que se proporciona a una pregunta ¿porqué? en particular constituye una explicación de la presuposición, si la información es relevante y “favorece” la presuposición por encima de las alternativas en sus clases contrastantes.

Tanto las clases contrastantes como el criterio de relevancia están contextualmente determinados, basados en los intereses de los involucrados. Los intereses subjetivos definen lo que contará como una explicación en ese contexto, aunque entonces será una cuestión objetiva si esa información realmente favorece a la presuposición sobre las alternativas en sus clases contrastantes.

Comparación entre los enfoques pragmático y causal de la explicación

Cualquier tipo de información podría contar como relevante. El contexto (los intereses) determinará si algo se considera como una explicación a diferencia de que para nosotros podamos encontrar que una explicación es sobresaliente o más interesante. (De acuerdo con Lewis, lo que hace a una explicación es que proporciona información sobre la historia causal que lleva a que ocurra un fenómeno determinado, el que encontremos esa información interesante o sobresaliente es otra cuestión).

En el enfoque pragmático, Nunca se puede tener una explicación “completa” de un evento, a menos que se tengan intereses. (Una mera descripción de la historia causal que lleva a que ocurra un fenómeno -aunque sea una historia completa-, no es una explicación de ningún tipo, de acuerdo con la visión pragmática).

Las críticas de Van Fraassen a los esquemas tradicionales de explicación

El punto de partida de la crítica de Van Fraassen al patrón clásico de explicación propuesto por Hempel, va a girar en torno al concepto de relevancia explicativa, que como ya hemos visto, constituye uno de los requisitos indispensable que toda explicación debe cumplir para poder ser considerada como científicamente adecuada.

Recordemos que, según este principio, la información proporcionada por las premisas de una explicación debe proveer bases firmes para creer que el fenómeno explicado efectivamente ocurrió u ocurre. Van Fraassen, cree que este principio no proporciona condiciones suficientes, ni mucho menos necesarias, para que se dé una buena explicación, ya que, en primer lugar: “dar bases firmes para creer no siempre equivale a dar una explicación”.

Según este punto de vista, el carácter asimétrico que asumen muchas veces las proposiciones que componen una explicación, hace deficiente este principio. Así, por ejemplo, dos proposiciones pueden llegar a ser equivalentes la una de la otra (con respecto a la teoría aceptada como marco de referencia), pero no a la inversa. Al referirse a este hecho, Van Fraassen hace alusión al ejemplo del barómetro, donde el descenso brusco de la columna mercurial puede indicar, por lo general, la proximidad de una tormenta. Sin embargo, afirma Van Fraassen: “Si aceptamos la hipótesis significativa de que éste desciende exactamente cuando una tormenta está llegando, esto sin embargo, no explica (sino más bien es explicado por) el hecho de que la tormenta está llegando”.

La segunda objeción de Van Fraassen al requisito de relevancia explicativa, se basa en el hecho, de que: “No toda explicación es un caso en el cual se nos dan bases firmes para creer”. Uno de los ejemplos utilizados por Van Fraassen es el del enfermo de paresia, que ya hemos comentado. Se acepta la explicación de que nadie contrae esta enfermedad a menos que padezca de sífilis mal tratada. Sin embargo, el hecho de que el individuo padezca de sífilis no aporta buenas razones para esperar que se contagie de paresia, ya que, sólo un bajo porcentaje de enfermos de sífilis contrae esta enfermedad.

Se podría argumentar, como lo hace el propio Hempel, que la imposibilidad de establecer una relación mucho más estrecha entre ambas enfermedades se debe al hecho de que existen otros factores relacionados a ambas enfermedades que todavía no han sido descubiertos por la ciencia. Sin embargo, una argumentación de este tipo presupondría la creencia de que los fenómenos del mundo, por lo menos, en lo que se refiere a nivel macroscópico, son determinísticos, de manera que obteniendo una información mucho más completa, la explicación correspondiente sería más adecuada. Van Fraassen rechaza esta salida pues es de la opinión que el carácter determinista de los fenómenos del mundo es una cuestión meramente contingente.

El pragmatismo de Van Fraasen vs la relevancia estadística de Salmon

Con el fin de encontrarle una salida al problema de la relevancia explicativa, vimos que Wesley Salmon propuso considerar la explicación como un conglomerado de factores estadísticamente relevantes y no como un conjunto de argumentos o razonamientos, introduciendo así el concepto de relevancia estadística. De acuerdo a este principio, un hecho A es estadísticamente relevante para el fenómeno E exactamente si la probabilidad de E dado A es diferente de E Simpliceter. Según Salmon, dos ejemplos que cumplirían con los requisitos de proporcionar buenas bases para una adecuada explicación, serían los siguientes:

  •  “Juan Pérez estaba casi seguro de recuperarse de su resfriado porque tomó vitamina C, y casi todos los resfriados se alivian en una semana tomando vitamina C”.
  • “Juan Pérez evitó quedarse embarazado durante el año pasado, porque tomo regularmente las píldoras de su mujer, y todo hombre que toma píldoras anticonceptivas evita el embarazo”.

Van Fraassen cree que la aplicación de este criterio es tan insatisfactoria como la propuesta de Hempel, ya que, la circunstancia de haber tomado vitamina C para curarse de un resfriado es completamente irrelevante desde el punto de vista estadístico, dado que, la probabilidad de curarse en una semana es la misma para aquellas personas que tomen o no vitamina C.

Por otro lado, el criterio propuesto por Salmon termina siendo mucho más débil que el propuesto por el propio Hempel, ya que no requiere que la probabilidad de E sea alta (mayor por lo menos que ½), ni siquiera exige que la información A incremente la información de E solamente. Así, por ejemplo, en el caso de la paresia, aunque la probabilidad de que la enfermedad sea contraída por personas que sufrieron sífilis es baja, es distinta de la probabilidad de que una persona tomada al azar padezca de paresia, de manera que la sífilis resulta estadísticamente irrelevante con respecto a la paresia.

En el caso de las condiciones necesarias, una circunstancia puede llevar a explicar un hecho aunque no incida en la probabilidad de que este ocurra. Van Fraassen, nos propone imaginarnos una ficción médica, según la cual, la paresia resulte ya sea de la epilepsia, o ya sea de la sífilis, y de nada más, y que la probabilidad en cualquiera de los casos sea equivalente a 0,1. Además, nos pide que supongamos que Juan Pérez pertenece a una familia cuyos miembros padecen o bien de epilepsia o bien de sífilis (pero no de ambas), ya que Juan sufre de paresia. A la pregunta: “¿Por qué él desarrolló paresia?”, se responderá: “porque tenía sífilis” o “porque tenía epilepsia”, dependiendo de cual de las dos respuestas se ajuste mejor a la realidad. Sin embargo, afirma Van Fraassen: “con toda la demás información que tenemos, la probabilidad de que Pérez contrajera la paresia está ya establecida como 0,1, y está probabilidad no se modifica si no se nos dice además, pongamos por caso, que el tiene una historia de sífilis”.

 De las dos respuestas que pueden obtenerse en este ejemplo, sólo una explica legítimamente la aparición de paresia. Sin embargo, su aparición en Juan Pérez no altera el grado de probabilidad de que éste sufra de paresia. Esto significa, a diferencia de lo expresado por Salmon, que el hecho de que una circunstancia resulte ser un factor estadísticamente relevante no es condición necesaria para que éste se convierta en un explanans inobjetable.

Salmon ha afirmado que su teoría de la explicación causal no se adecúa enteramente para el dominio cuántico debido a ciertas anomalias causales

El problema de la causalidad

Para la mayoría de los filósofos de la ciencia el término explicación estaba estrechamente asociado a la explicación del “porqué” de los hechos, considerándose sólo explicación científica aquella que busca su marco y conceptos de referencia únicamente en las relaciones causales. Van Fraassen, va a cuestionar categóricamente a las distintas concepciones de la causalidad que han estado asociadas con los modelos tradicionales de explicación científica, ya que, para él: “Cuando algo se cita como una causa, ello no implica que sea suficiente para producir el suceso (para garantizar su ocurrencia)”. En otras palabras, Van Fraseen cuestiona la posición asumida desde el punto de vista tradicional, en el sentido de identificar la causa como conditio sine qua non, a la hora de explicar un hecho.

Entender la causa como condición necesaria tampoco resuelve el problema, ya que, en primer lugar, existen condiciones necesarias que no se considerarían la causa de un fenómeno, por ejemplo, la existencia del cuchillo es una condición necesaria para su oxidación, pero nadie aceptará la explicación de que el cuchillo se oxidó por el simple hecho de existir; y en segundo lugar, porque en algunos casos lo que se identifica con la causa de un hecho no puede ser condición necesaria para su ocurrencia.

Con el fin de resolver este problema de la relación causal, J.L.Mackie (1965), propuso la definición de causa como: “La parte insuficiente pero necesaria de una condición innecesaria pero suficiente”. No obstante, para Van Fraassen, tampoco con esta definición se logra una caracterización adecuada de la causalidad. En el caso del ejemplo del cuchillo, es evidente que su existencia es un factor necesario pero insuficiente del conjunto de circunstancias que constituyen una condición suficiente aunque no necesaria para su oxidación. Sin lugar a dudas, nadie afirmaría que la oxidación del cuchillo se debió a su existencia. Según el parecer de Van Fraassen, esto se debe a que: “en primer lugar, no toda condición necesaria es una causa; y en segundo lugar, en algún sentido muy directo una causa puede no ser necesaria, a saber, causas alternativas podrían haber llevado al mismo resultado”.

Otra de las definiciones de causalidad rechazadas por Van Fraassen, es la propuesta por David Lewis (1973), quien intento definir la causalidad en términos de condicionales contrafácticos. Lewis, sugirió que la información “A causó B” es equivalente a la proposición “Si A no hubiera ocurrido, B no habría ocurrido”. Van Fraassen, cree que este tipo de equivalencias no pueden ser pensadas en términos de la lógica tradicional como si se anunciara que A es una condición necesaria para que B ocurriera. El “Si……..entonces” no corresponde, observa Van Fraassen, con ninguno de los tipos de implicación conocidos por la lógica tradicional, ya que estos obedecen a la ley de debilitamiento, según la cual:

Si A entonces B.

Se puede inferir,

(1) Si C y A, entonces B.

Pero, puesto que, en el lenguaje natural no rige la ley de debilitamiento, la lógica tradicional no refleja las propiedades de las condiciones que usamos en este tipo de lenguaje. Es por eso, que cualquier persona suscribiría la verdad del enunciado:

(2) Si el cerillo se frota, entonces encenderá.

Pero se negará a aceptar lo que sería su consecuencia, si se atiene a la ley de debilitamiento.

(3) Si el fósforo se moja en el café y se frota, encenderá.

Van Fraassen cree, que el hecho de que esta ley no pueda aplicarse a los condicionales del lenguaje ordinario es debido a que llevan consigo una cláusula tácita de ceteris paribus (si nada interfiere). Se le da este nombre al supuesto de que todas las circunstancias que componen el hecho mencionado en el antecedente permanecen siempre sin alterarse. Es por esto, que el efecto lógico de esta cláusula impide que la ley de debilitamiento sea aplicable al lenguaje natural. Así, por ejemplo, el enunciado (3) daría lugar, si se aplicara esta cláusula al siguiente condicional contrafáctico:

(4) Si el cerillo se hubiese frotado (y las demás circunstancias hubiesen permanecido iguales), entonces se habría encendido.

La posibilidad de afirmar que igualmente se hubiese encendido si se hubiese mojado y se le frotara, queda descartada, dado que la acción de mojarla violaría la permanencia de circunstancias que impone la cláusula ceteris paribus, colocada entre paréntesis.

A juicio de Van Fraassen, la posibilidad de que estos problemas puedan resolverse, siguiendo el camino de la lógica tradicional o el tratamiento formal de los condicionales contrafácticos, como propone Lewis (1973), son remotas. Los intentos por establecer las condiciones de verdad de los enunciados condicionales del lenguaje natural fracasan al desconocer que tales condiciones están determinadas por el contexto en que surgen.

En efecto, ya sabemos que los condicionales del lenguaje ordinario llevan implícito la cláusula ceteris paribus. Sabemos también que esta depende del contexto, es decir, de lo que el hablante decida mantener inalterable. Por tanto, es la variable contextual la que determina el contenido de la cláusula, al tiempo, que es fundamental a la hora de establecer la verdad del enunciado condicional. Suponer como pretende Lewis, que lo que queda fijo es siempre lo mismo para cada hablante es un gravísimo error.

Un condicional contrafáctico podrá ser verdadero en el contexto C1 y falso en el contexto C2, dado que su valor de verdad no esta condicionado por el enunciado en sí, sino por factores pragmáticos, que dependen a su vez del contexto. Al respecto, afirma Van Fraassen: “en algún momento se tuvo la esperanza (….), de que los condicionales contrafácticos proporcionarían un criterio objetivo de lo que es una ley de la naturaleza o, por lo menos, de lo que es un enunciado legaliforme (o nomológico). Una verdad meramente general debía ser distinguida de una ley puesto que ésta ultima, y no la primera, es la que implica los contrafácticos. Esta idea debe invertirse: si las leyes implican contrafácticos, entonces, dado que los contrafácticos son dependientes del contexto, el concepto de ley no señala ninguna distinción objetiva de la naturaleza” (Van Fraassen, 1996:149).

En base a estas observaciones, Van Fraassen llega a la conclusión de que todo intento por caracterizar el concepto de causalidad sobre la base de condiciones suficientes o necesarias, o por medio de condicionales contrafácticos, es un intento condenado al fracaso. Propone, por el contrario, una reformulación del concepto de causalidad en base a su estrecha relación con los factores pragmáticos. Trataremos ahora, de explicar los aspectos más importantes de esta concepción de la causalidad y su articulación en una teoría de la explicación.

La explicación causal y su dependencia del contexto

El modelo de la explicación científica propuesto por Van Fraaseen se apoya básicamente en dos elementos fundamentales: Las ideas de Reichenbach y Salmon sobre la causalidad y las características lógicas y pragmáticas de las preguntas. La vinculación con la causalidad es natural si se toma en cuenta que tradicionalmente “explicar” un fenómeno se ha entendido como determinar los factores (principios causales) que los ocasionaron. En lo que respecta al análisis de las preguntas, su vinculación radica en que una explicación constituye básicamente una respuesta al porqué sucede o sucedió un evento.

Sobre la base de las aportaciones hechas por varios filósofos de la ciencia (Bromberger, Achinstein, Hanson) en esta área, Van Fraassen, desarrolla su modelo reafirmando la importancia que los factores pragmáticos o contextuales poseen a la hora de fundamentar una buena explicación. Para Van Fraassen explicar causalmente un hecho es: “Contar una historia de cómo las cosas sucedieron y cómo, por así decirlo, los sucesos concuerdan entre si”.

Ahora, consciente de las insuficiencias que su concepto de relevancia explicativa poseía a la hora de explicar un hecho, Salmon reelabora su teoría de la explicación apoyándose en la teoría de la causa común de Reichenbach. Un proceso causal es entendido en su nueva teoría como una serie espacio-temporal continua de sucesos, igual al movimiento de un automóvil que se mueve a lo largo del camino y cuya sombra se mueve a la par de él. La explicación -según la nueva caracterización de Salmon- consistirá en mostrar la parte relevante de la red causal que conduce a los sucesos que han de explicarse.

Para Van Fraseen, a pesar de lo práctico que resulta la comparación de la realidad propuesta por Salmon -como una compleja red en la que se encuentran las series de eventos-, una explicación será sólo posible en la medida que se realice una previa selección de las partes de la red que se consideraran relevantes. De manera que, a la hora de explicar un evento: “la explicación solamente tiene que decir que existe una estructura de relaciones causales de cierto tipo, que podría en principio ser descrita en detalles: las características relevantes son las que escogen el cierto tipo”. Esto implica, que un mismo evento merecerá, de acuerdo a cuáles factores sean considerados relevantes, explicaciones alternativas; pudiendo incluso resultar varias de ellas adecuadas al mismo tiempo. En consecuencia, dirá Van Fraassen, que un mismo suceso podrá tener varias causas de muy diversa naturaleza.

Sin embargo, Van Fraassen cree que la elección del factor causal relevante no puede reducirse simplemente a señalar aquel que parezca más interesante. Los factores explicativos deben escogerse entre una gama de factores objetivamente relevantes para alguna teoría científica. Esto significa, que: “ningún factor es relevante explicativamente hablando, a menos que sea científicamente relevante, y entre los factores científicamente relevantes el contexto determina aquellos que son relevantes explicativamente”.

Conclusiones

La búsqueda de explicaciones adecuadas es uno de los principales motivos que impulsa la actividad científica. De allí, que la consideración en torno a la naturaleza y propósito de las explicaciones sea tema obligado en cualquier discusión sobre las funciones que debe cumplir toda ciencia.

Los defensores del modelo nomológico, por ejemplo, están convencidos que su patrón metodológico es aplicable a todas las disciplinas fácticas. Hempel encarna el ideal de muchos filósofos de la ciencia, según el cual, el conocimiento científico queda circunscrito a aquellas disciplinas que puedan confirmarse a través de la experiencia, de allí su esperanza de que todas las ciencias puedan unirse en base a un patrón metodológico de explicación único.

Sin embargo, este ideal ha sido objeto de rigurosos cuestionamientos. Los defensores de que la conducta humana individual, social o histórica, se rige por principios diferentes a los propuestos por el modelo de Hempel, insisten en la necesidad de defender el pluralismo metodológico, rechazando cualquier patrón unitario de explicación para la conducta humana.

Uno de los méritos del modelo pragmático propuesto por Van Fraassen, es que permite una mejor comprensión de los factores que condicionan la aceptación o rechazo de una explicación, resolviendo de esta manera, algunos de los malentendidos vinculados con el término. Uno de estos, es el que se refiere al hecho de que algunas explicaciones pueden resultar aceptables bajo la noción vulgar del término y, no obstante, no ajustarse a las exigencias del modelo de Hempel. El modelo pragmático de Van Fraassen, muestra en términos generales, que no existe diferencia entre las explicaciones que hacemos a diario y las explicaciones que realizan los científicos, salvo que, estas últimas se apoyan en sólidas teorías científicamente confirmadas. Esto significa, que quien construya una teoría de la explicación científica podrá apartarse de las limitaciones que impone el uso vulgar del término, siempre que el resultado sea de alguna manera provechoso. Este enfoque indica claramente que las exigencias que han de enmarcar toda explicación estarán condicionadas siempre por el contexto.

Pero si toda explicación se encuentra condicionada por los intereses y convicciones que cada actor adopta en relación a una serie de circunstancias que van más allá del tópico de la explicación, es decir, si toda explicación está condicionada por el contexto de intereses que cada actor aporta en relación al problema que intenta explicar; ¿no indica esto, que toda caracterización que se haga sobre la explicación no podrá reducirse a una única valoración crítica?

Como puede apreciarse, todo parece indicar, que la posibilidad de articular un patrón metodológico de explicación único, susceptible de ser aplicado a todas las ciencias, continúa siendo sólo un ideal.

Introducción: el supermodelo de cobertura legal

Este modelo es un intento de capturar los rasgos característicos de las explicación científica, de una manera muy próxima a la idea pre-teórica que muchas personas no expertas pueden tener sobre la explicación científica.

Hace unos meses vimos que fue Aristóteles el que inventó la ciencia, más o menos. Nos tenemos que remontar hasta él para encontrar el origen del enfoque deductivo de la explicación científica.

Popper escribió en 1934 La lógica de la investigación científica, y en esta obra esbozaba las ideas básicas del modelo de cobertura legal. Pero fue unos años después, en un artículo  de 1948 titulado Studies in the logic of explanation escrito por Carl Hempel y Paul Oppenheim, donde podemos encontrar la primera formulación precisa de este modelo.
Hempel y Oppenheim sostuvieron que una explicación científica es un argumento en el cual las premisas (leyes y datos) explican un hecho (o una regularidad) descrito por la conclusión de ese argumento.

El modelo ofrecido por Hempel y Oppenheim pronto se transformó en todo un supermodelo. En sucesivas publicaciones Hempel fue profundizando su análisis hasta acabar en tres modelos de explicación, todos ellos aplicables tanto a explicaciones de hechos como a explicaciones de leyes científicas, que podían ser

  1. Nomológico-deductivas (N-D), que es el que veremos con más detalle. Nomos significa ley, y por lo tanto se trata de un modelo para deducir leyes universales
  2. Estadístico-deductivas (E-D), similar al esquema anterior pero con la diferencia de que lo que deducimos es una ley estadística, no universal
  3. Estadístico-inductivas (E-I), en este caso lo que hace el modelo es inducir leyes estadísticas.

La diferencia entre una ley universal y una ley estadística, es que en el caso de las segundas, las premisas apoyan a la conclusión con una probabilidad P (numero comprendido entre 0 y 1). En el caso de una ley universal, P siempre sería 1.

Lo que estos tres modelos tienen en común es que presentan las explicaciones científicas como argumentos en los que el enunciado que describe aquello que se desea explicar resulta de un razonamiento cuyas premisas están compuestas por leyes y datos.
El ahora célebre artículo de Hempel y Oppenheim, junto con sus numerosas secuelas debidas principalmente a Hempel, suscitó una cascada de críticas y tentativas de enmienda que se transformó rápidamente en la columna vertebral del debate sobre la explicación científica en el siglo XX y en la base de la noción de explicación científica propia del empirismo lógico en filosofía de la ciencia.

Aspectos coincidentes en los tres submodelos

De acuerdo a este supermodelo, toda explicación que pretenda ser sólida, debe presentar dos componentes teóricos fundamentales.

  • El explanandum, que Hempel lo define, como: “la oración que describe el fenómeno a explicar y no el fenómeno mismo”.
  • El explanans, por el cual entiende las clases de oraciones que se aducen para dilucidar el fenómeno. El explanans, a su vez, puede presentarse bajo dos formas:
    • como oraciones que formulan condiciones antecedentes específicas que se dan previas al fenómeno a explicar o,
    • como oraciones que expresan “leyes generales”.

Partiendo de estas definiciones, en los tres submodelos de cobertura legal se deben cumplir los siguientes requisitos:

  •  Adecuación lógica
    • El explanandum debe ser una consecuencia lógica del explanans. Ésta es la manera de satisfacer el requisito de pertinencia explicativa del explanans respecto del explanandum. En el caso de los submodelos estadísticos la conclusión no se deduce de las premisas: el explanans no implica lógicamente al explanandum, sólo le otorga una cierta probabilidad. Es decir, mientras la explicación nomológico-deductiva representa implicación lógica, la explicación estadística-inductiva significa una relación de sustento inductivo tal que el valor numérico particular de la variable P constituye la “fuerza” de ese apoyo.
    • El explanans debe contener leyes generales (universales o probabilísticas según el caso) que resulten necesarias para la derivación del explanandum.
    • El explanans debe poseer contenido empírico, es decir, debe ser posible someterlo a prueba empírica.
  •  Adecuación empírica
    •  Los enunciados del explanans deben ser verdaderos o, al menos, buenas aproximaciones a la verdad.

El modelo tradicional de explicación: Modelo Nomológico-Deductivo de Hempel

El esquema de explicación “deductivo-nomológico” (nomos = ley), ha sido uno de los modelos que más influencia ha tenido en las distintas disciplinas científicas.

Para Hempel, uno de los objetivos fundamentales de toda empresa científica es la de explicar los fenómenos del mundo físico, pero no con el objetivo de descubrir ningún hecho concreto, sino para alcanzar una comprensión explicativa. Además, toda explicación que pretenda ser considerada científica debe proporcionar siempre una sólida comprensión del mundo, que mantenga una relación lógica con nuestra experiencia y que, al mismo tiempo, sea susceptible de contrastación empírica.

En su obra, “Filosofía de la ciencia natural” (1977), menciona dos requisitos epistémicos que, a su modo de ver, son fundamentales en todas aquellas explicaciones científicamente adecuadas.

  • Requisito de relevancia explicativa, en el que toda la información que se proporciona es para tener una buena base para poder creer que el fenómeno que se trata de explicar tuvo o tiene lugar.
  • Requisito de contrastabilidad, donde los enunciados que constituyen una explicación científica deben ser susceptibles de contrastación empírica.

Si bien Hempel reconoce que ambos requisitos están íntimamente relacionados, sólo considera como necesario para toda explicación científica el primero.

Hempel, resume las características de su modelo de explicación en el siguiente esquema:

El fenómeno explicado puede describir un evento que ocurre en un lugar o en un tiempo determinado. O, puede reflejar alguna regularidad general expresada en una ley empírica que suscita la pregunta ¿por qué ocurre tal evento? A la pregunta, por ejemplo, ¿por qué los cuerpos en caída libre se mueven de acuerdo con la ley de Galileo? o ¿por qué el movimiento de los planetas presenta las uniformidades mencionadas por la ley de Kepler?, se responderá en base a principios teóricos que se refieren a estructuras y procesos que subyacen a las uniformidades en cuestión. Así, la respuesta asume la forma de un razonamiento deductivo, que subsume la regularidad a explicar bajo leyes más inclusivas o principios teóricos.

De esta manera, el esquema nomológico-deductivo satisface el requisito de relevancia explicativa, en cuanto que la información explicativa que proporciona, implica deductivamente el enunciado explanans, ofreciendo así una base lógica concluyente para esperar que se produzca el fenómeno explanandum. Pero, al mismo tiempo, cumple con el requisito de contrastabilidad, ya que el explanans implica que, dadas las condiciones específicas, se producirá el fenómeno explanandum.

Descomponiendo la explicación nomológica-deductiva:

La explicación de un enunciado (E) está integrada por dos tipos de enunciados:

  1. las condiciones antecedentes (C) que describen las circunstancias iniciales en las que se produce el enunciado
  2. las leyes generales (L) que explican el enunciado.

Los antecedentes y las leyes funcionan como premisas de una inferencia deductiva cuya conclusión es el enunciado. El esquema de explicación deductiva sería por tanto:

  • L1,L2,…Ln: Explanans (lo que explica), conjunto de enunciados, integrado por una o más leyes científicas y por las condiciones iniciales. Las leyes que lo componen se llaman enunciados legales.
  • C1,C2,…Cn y E: Explanandum (lo explicado), puede describir un acontecimiento que ocurre en un lugar y un tiempo determinados o puede expresar una regularidad general que suscita la pregunta de por qué ocurre.Describe el fenómeno a explicar

En la explicación nomológica-deductiva, la ocurrencia del fenómeno que se pretende explicar puede afirmarse con certeza a partir del conocimiento de las leyes universales y demás condiciones relevantes. Se deduce el explanandum del explanans. Pretende demostrar que el hecho obedece a determinadas leyes. Puede aplicarse tanto a hechos como a leyes:

  • Explicación de hechos o sucesos singulares:
    • Explanandum: enunciado que describe el hecho a explicar.
    • Explanans: Condiciones iniciales (singulares) y leyes.
  • Explicación de leyes o regularidades generales:
    • Explanandum: Ley a ser explicada
    • Explanans: Sólo leyes

Las condiciones de adecuación que deben cumplirse serían:

  1. El explanandum debe ser consecuencia lógica del explanans.
  2. El explanans debe contener las leyes generales.
  3. El explanans debe tener contenido empírico.
  4. Los enunciados que componen el explanans deben ser verdaderos.

Las 3 primeras son de carácter lógico, mientras que la 4 es de carácter empírico

Hempel considera que el tipo de explicación nomológica-deductiva es la fundamental, las otras formas de explicación serán pertinentes en la medida en que se aproximen a ella.

El concepto de explicación deductivo-nomológica

El modelo deductivo nomológico tiene como requisito fundamental la existencia de una ley natural verdadera. Sin esta ley el sistema cae directo al suelo, ya que es imposible derivar conjetura o predicción alguna. La generación de hipótesis universales hay que entenderla como una conjetura, un salto al vacío que podrá desconfirmarse o no, pero que no proviene enteramente de la experiencia, sino más bien del sujeto.

Lo único de lo cual puedes estar seguro es que las leyes universales tienen características bien definidas: universales y con un alto grado de confirmación. El modelo nomológico deductivo asegura solamente que “si tus premisas son verdaderas -la ley, las condiciones iniciales-, la conclusión también lo será-la explicación-“

En la meta-observación de cómo se explica un fenómeno realizada desde el enfoque del Empirismo Lógico, se pasa totalmente por alto el análisis de las condiciones que posibilitan la constitución de la experiencia.

Este problema esencial ya fue planteado por Kant, pero recurriendo a elementos aprióricos, es decir, las “categorías”, independientes de la misma experiencia y que se hallan en la misma capacidad cognoscitiva del observador.

Al dejar de lado la observación de las condiciones (en la estructura misma cognoscitiva del observador) que posibilitan en el observador científico llegar a explicar ciertos fenómenos, el problema se desplaza al examen del mismo proceso sobre enunciados y formulaciones: las de la ley natural que se considera da razón de los fenómenos, y las del mismo proceso de inferencia desde dicha ley a los fenómenos que habrá que comprender como casos de aplicación de la ley.

Es decir, el problema de la explicación científica se plantea al nivel de observación del lenguaje y lógica dominante en los enunciados científicos: el que una presunta ley natural sea considerada como la razón de que se den ciertos fenómenos. Esto requiere que la cuestión de la validez de la explicación científica sea contestada desde el punto de vista o marco de referencia orientada al lenguaje (científico), las condiciones para que aceptar que una ley natural sea o no aceptable como razón de la existencia de ciertos fenómenos. O lo que es lo mismo: el razonamiento metateórico realiza un examen de las condiciones, en los mismos enunciados de leyes, o en las inferencias desde esos enunciados universales a los particulares (el caso en que se aplica la ley) para que una explicación (como conjunto de enunciados en relaciones internas que permiten pasar de unos a otros) sea o no aceptable.

Esta esquematización de lo que es el explicar científicamente es estructurada en forma de una inferencia o conclusión lógica (a partir de unas premisas, siguiendo unas reglas lógicas, se llega a una conclusión).

Las premisas constan de enunciados singulares, los llamados datos antecedentes (que indican las circunstancias que se dan) y de enunciados universales (hipótesis sobre leyes naturales). La conclusión inferida describe el fenómeno o evento que se deseaba explicar como causado por esas leyes. La explicación hallada se denomina explicación causal porque las premisas a partir de las que se realiza la inferencia están constituídas por las llamadas leyes causales.

Los datos antecedentes son también causa del hecho a explicar. Aquí debe notarse que en este modo de explicación el campo de fenómenos observados se reduce al de la experiencia científica, es decir, la experiencia realizada primariamente en el mundo físico. Si se realiza una experiencia sobre fenómenos, por ejemplo, sociales o psicológicos, se presupone deberán poder ser observados con la misma óptica o métodos empleados en el análisis de fenomenos materiales.

En el caso más normal, donde serán posibles varias leyes que explicarán la aparición de un evento, el esquema sería así:

A1, A2, ……. Ak (condiciones antecedentes)

G1, G2, ……… Gn (leyes naturales)

____________ inferencia lógica

E Explanandum

El explanans está constituido por el conjunto de las condiciones iniciales y por las leyes. El explanandum se deduce, según las reglas de la lógica, a partir del explanans.

Para poder distinguir una explicación auténtica de una sólo aparente, Hempel y Oppenheim imponen ciertas exigencias a las condiciones de adecuación: junto a la exigencia de una corrección formal en la operación de inferir la conclusión, se pide:

  • que el argumento que lleva del explanans al explanandum se estructure con correccion lógica;
  • que el explanans debe contener, por lo menos, una ley válida generalmente (o debe contener un enunciado del que se siga lógicamente una ley universal) y que tal ley sea utilizable en la deducción de la conclusión o explanandum;
  • que las leyes del explanans tengan un contenido empírico (o lo que es lo mismo, que sean sometibles a prueba mediante experimento u observación);
  • que todas las afirmaciones del explanans sean verdaderas o estén verificadas.

Si se cumplen estas condiciones, Hempel y Oppenheim dicen que se evitarán consecuencias como las de que afirmar ciertas explicaciones en un estadio del desarrollo científico que en otro posterior deberán ser negadas. Es decir, se evitará afirmar sucesivamente la corrección o falsedad de una misma hipótesis.

Necesitamos explicar las cosas

Si hay un rasgo que caracterice a nuestro mundo tal como lo conocemos, es sin duda, la interminable sucesión de fenómenos. Y si hay un rasgo que caracterice al ser humano es su curiosidad innata por encontrar explicaciones a dichos fenómenos. Necesidad existencial podría decirse, ya que dedicamos gran parte de nuestra vida en tratar de comprender lo que nos rodea y encontrar respuestas que satisfagan nuestra marcada tendencia a darle sentido a todo.

Pero no sólo se trata de curiosidad, sino también de supervivencia. Controlando el entorno es como hemos conseguido nuestro status en la cúspide de la piramide de la evolución biológica. Pronosticando los fenómenos y tratando de controlarlos hemos conseguido grados de adaptabilidad inauditos para el resto de especies.

La Ciencia no sólo describe, explica

La formulación de leyes y teorías científicas es lo más adecuado a la hora de prever eventos naturales y controlarlos. De esta manera, la ciencia dispone de métodos sistemáticos, muy sofisticados, que permiten por medio de clasificaciones y generalizaciones, describir los diversos aspectos de los fenómenos naturales, para así, poder explicarlos.

Una manera de comprender estos métodos utilizados por la ciencia, ha sido concebirlos como modos de dar respuestas a cierta clase de preguntas sobre los fenómenos. Pero, las respuestas a estas preguntas, sólo adquieren el rango de leyes si logran alcanzar cierto grado de generalidad y precisión.

Sin embargo, las ciencias no se conforman con sólo describir fenómenos y establecer leyes a partir de ciertas generalidades. En su incesante búsqueda de respuestas, tratan también de responder a la pregunta del porqué esos fenómenos son lo que son y por qué se dan o pueden darse ciertos sucesos.

En nuestro día a día encontramos diferentes intenciones significativas. Desde la narración descriptiva de hechos, a la distinción o elucidación de conceptos, pasando por el adiestramiento. Y aunque en nuestra vida cotidiana describir y explicar pueden ser conceptos intercambiables en la mayoría de las ocasiones, debe quedar claro que para la ciencia, describir y explicar son conceptos claramente diferenciados.

  • Describir es responder a la pregunta acerca de cómo es algo,
  • Explicar es responder a la pregunta acerca de por qué algo es como es.

En esta búsqueda de explicaciones sistemáticas, la ciencia, específicamente la desarrollada en las primeras décadas del siglo XX, trata de eliminar toda forma de indeterminación del lenguaje corriente, sometiéndolo a rigurosas modificaciones para aumentar la especificidad de sus expresiones lingüísticas. El propósito de esta precisión en el lenguaje es que los enunciados científicos sean susceptibles de ser sometidos a pruebas a través de la experiencia.

Destripando la explicación

Distinguimos tres tipos principales de explicación, atendiendo a los hechos que describe:

  • Si se trata de hechos particulares, tendremos dos tipos de explicación
    • Determinista (EDP)
    • Indeterminista (EIP)
  • Si se trata de hechos universales, las explicaciones se llaman generales (EG) o leyes

Analizando en más profundidad el concepto de explicación podemos identificar los siguientes componentes:

  • Explanandum (Exm), aquello que requiere una explicación
  • Explanans(Exs), aquello que proporciona la explicación.
  • Relación Explicativa (EXP), la que se establece entre Exm y Exs en virtud de la cual Exs explica Exm
  • Análisis (Exs EXP Exm),especificar qué son Exm, Exs y EXP en cada uno de los tres casos EDP, EIP, y EG de modo que
    •  (i) se muestre qué hay en común y qué hay de diferente,
    • (ii) coincidan con los casos paradigmático.

Es decir, toda explicación está formada por un   explanandum (enunciado relativo a un hecho). y un explanans (leyes, condiciones factuales).

Para que una explicación sea científica…

No obstante, a pesar del incesante deseo de hallar respuestas satisfactorias al flujo continuo de eventos, no todas las respuestas relacionadas con la pregunta ¿por qué? alcanzan siempre rango de cientificidad. Si bien una explicación es una posible respuesta a una pregunta del tipo ¿por qué? no todos los modos de responderla siguen siempre el mismo patrón, ni todas las preguntas de este tipo poseen el mismo sentido.

Esto llevó a los positivistas lógicos a intentar reducir los diferentes modelos de explicación a un modelo común que pudiera ser utilizado en todas las ciencias. El término “explicación” quedó restringido, desde esta perspectiva, a la simple explicación del “por qué” de los hechos; considerándose sólo como explicación científica aquella que busca su marco y conceptos de referencia únicamente en las relaciones causales. En otras palabras, toda explicación debía dejar claro por qué, dada ciertas condiciones antecedentes, se podría haber esperado que ocurriese el acontecimiento a explicar.

De esta manera, la forma científica de toda explicación quedó estructurada en relación a los por qué (razones o causas), que permiten entender el modo como se concibe un evento, es decir, el establecimiento de inferencias causales o de pronósticos que permitan la predicción de sucesos por estar referidos al cumplimiento de leyes. La tarea de la ciencia, desde este punto de vista, estaría limitada a explicar los fenómenos sobre la base de leyes de la naturaleza que traduzcan un orden necesario de las cosas y por tanto, que sean algo más que contingentemente verdaderas.

Las leyes explican así nuestra experiencia en virtud de que la ordenan refiriéndola a instancias particulares de principios generales que permiten establecer un orden explicativo y predictivo entre los complejísimos datos de nuestra experiencia, es decir, los fenómenos del mundo. Al proporcionar, de esta manera, razones, generalizaciones o postulados universales en que los casos particulares logran explicarse, las leyes se convierten en un elemento esencial en toda explicación científica.

Sin embargo, en esta búsqueda de principios generales (leyes), no todas las ciencias presentan un cuadro altamente integrado de explicación sistemática. Si bien para algunas disciplinas científicas el desideratum de tal sistematización rigurosa continua siendo un ideal, la necesidad de organizar y clasificar el conocimiento sobre la base de principios explicativos se mantiene como una constante en cada una de estas disciplinas. A pesar de los intentos por reducir el acto de explicación a un patrón metodológico único, susceptible de ser aplicado en todas las ciencias; empieza a percibirse en la filosofía de la ciencia contemporánea una tendencia a rechazar el formalismo y los rigurosos esquemas sobre los cuales se erigieron estos modelos.

El problema de la explicación en la Ciencia

Desde 1948, cuando Hempel y Oppenheim publicaron su famoso artículo Studies in the logic of explanation, han aparecidos varios modelos de explicación científica. Sin embargo, cada uno ha tenido sus dificultades en proporcionar instrucciones científicas universales que sean necesarias y suficientes a la hora de evaluar una explicación.

Pero, a pesar de estos fallidos intentos, las distintas teorías que se han elaborado acerca de la explicación científica, siguen enfrentándose ante la misma problemática: la cuestión de si existe un modelo de explicación que pueda ser compartido por todas las ciencias o si, por el contrario, los criterios de evaluación de una explicación deben ser elaborados de acuerdo a la naturaleza de cada disciplina científica.

Para algunos filósofos de la ciencia (Hempel, Nagel, Wright, Popper), la naturaleza misma de ciertas disciplinas científicas impide compartir con otras sus modelos especiales de dar explicaciones.

  • En el caso de la Psicología y la Historia, por ejemplo, en la medida que sus explicaciones van dirigidas hacia actos humanos intencionales, no pueden dejar de hacer referencia a los fines que tales actos persiguen.
  • De igual modo, sucede en la Biología, en la que se tiende a explicar los fenómenos biológicos en términos de funciones o finalidades.
  • Todo esto contrasta con lo que ocurre en ciencias como la Física o la Química, cuyos paradigmas son defendidos por aquellos que abogan a favor de un modelo de explicación único para todas las ciencias.

Tipos de explicación

Sin embargo, el modo como se ha desarrollado el debate hasta hoy, pareciera darle la razón a aquellos que piensan que es imposible desarrollar un modelo único de explicación que pueda ser aplicado a todas las ciencias.

En este sentido, uno de los modelos que más influencia ha tenido en los esquemas de explicación que hoy día siguen siendo utilizados en las diversas disciplinas científicas, es sin duda, el modelo nomológico-deductivo propuesto por Hempel, del que hablaremos con detalle en la siguiente entrada.

La rigurosidad del análisis propuesto por este modelo, animó a muchos filósofos de la ciencia a reducir a los mismos esquemas básicos, diferentes tipos de explicación presentes en las distintas disciplinas científicas.

Pero, algunos pensadores han puesto en duda la viabilidad de esta propuesta. La pretensión de extender el modelo nomológico-deductivo al campo de las ciencias sociales o humanas, ha generado una reacción tal, que se duda, incluso, de que este modelo pueda dar cuenta siquiera del concepto de explicación en el ámbito de las ciencias fácticas.

Una de esas voces contrarias es la de Bas Van Fraassen, quien arguye que en el debate sobre la explicación científica, no se ha logrado encontrar una solución al problema debido al permanente rechazo que se le ha dado a los aspectos pragmáticos (como deseos o intenciones) que giran en torno a toda explicación. La tesis principal de Van Fraseen es que toda explicación sólo surge en función a un determinado contexto y que este contexto es el que determina finalmente los aspectos que han de considerarse a la hora de evaluar una explicación. La explicación pasa, de esta manera, de una simple relación entre el hecho a explicar y el conjunto de conocimientos que pueden explicarlo, a una interpretación entre los hechos, la teoría y el contexto.

Con el fin de entender este complicado panorama, en las sucesivas entradas trataremos de describir en mayor detalle los diferentes modelos de explicación científica, que se pueden agrupar en tres grandes grupos:

  • Modelo epistémico. Parte de las ideas Aristotélicas de que las explicaciones son argumentos. Ejemplos de explicaciones incluidas en este modelo serían:
    • Modelo de cobertura legal de Hempel, en el que se incluyen a su vez tres submodelos
      • Explicación nomológico-deductiva, donde un hecho queda explicado cuando puede derivarse de la aplicación de una ley
      • Explicación estadístico-deductiva
      • Explicación estadístico-inductiva
    • Explicación por unificación, desarrollado por Friedman e impulsado por Kitcher
  • Modelo óntico, donde una explicación consiste en mostrar cómo el hecho que se desea explicar se ajusta a la estructura causal del mundo. Dentro de este modelo se incluirían explicaciones del tipo
    • Explicación Causal, desarrollada por Salmon
    • Las diferentes explicaciones Mecanicistas o Intencionales, como las de Bunge o Bechtel
    • Explicación Funcional, también denominada Teleológica, porque responde a la pregunta ¿para qué?, es decir, se centra en descubrir la finalidad que persigue un hecho
  • Modelo pragmático, que parte de la idea de que las explicaciones responden a preguntas cuyo sentido está condicionado por el contexto pragmático en el que se formula la pregunta. Achinstein y Van Fraassen son sus dos representantes de mayor renombre

Iremos entrando en detalle de las particularidades de cada modelo.

Referencias

Para la confección de esta entrada y las siguientes relacionadas con la explicación científica se ha utilizado las siguientes fuentes:

  • Studies in the Logic of Explanation Carl G. Hempel; Paul Oppenheim Philosophy of Science, Vol. 15, No. 2. (Apr., 1948), pp. 135-175.
  • Hempel  La explicación Científica
  • EP. Achinstein, La Naturaleza de la Explicación, FCE, 1989.
  • CHIRINOS BOSSIO, Ricardo. El problema de la explicación en la ciencia: Las explicaciones causales en Bas Van Fraassen. Opcion, ago. 2007, vol.23, no.53, p.140-155. ISSN 1012-1587.
  • Apuntes para la asignatura de Filosofía de la Ciencia de la UNED preparados por el Catedrático J. C. Armero
  • Esquema deductivo-nomológico o de explicación causal. Prof. Dr. José Rodríguez de Rivera. Dpto. Ciencias Empresariales. Universidad de Alcala
  • http://www.altillo.com