Posts etiquetados ‘Epistemología’

¿Qué significa contrastar una teoría?

En la visión tradicional, las hipótesis o teorías son el centro de la adquisición de conocimiento. La investigación científica comienza con la formulación de problemas. Las hipótesis o teorías son respuestas, o intento de soluciones, a los mismos. Tales “soluciones” son conjeturas.
El objeto de la ciencia es la explicación y la predicción, para lo cual se requieren leyes universales. La estructura lógica de ambas formas argumentales es idéntica: consiste en deducir un enunciado singular observacional a partir de un conjunto de premisas que contienen al menos una ley y enunciados singulares pertinentes. A las hipótesis solo puede asignárseles un uso predictivo o explicativo si han sido convenientemente evaluadas. El primer paso de la evaluación es examinar su coherencia interna y con el cuerpo de conocimientos admitidos. El siguiente es el control empírico o contrastación. La contrastación combina el razonamiento lógico (deducción) y la observación empírica.

El método de contrastar críticamente las teorías y de escogerlas, teniendo en cuenta los resultados obtenidos en su contraste, procede siempre del siguiente modo.

  • Presentada a título provisional una idea, aun no justificada en absoluto, se extraen conclusiones de ella por medio de la deducción lógica;
  • esas conclusiones se comparan entre sí y con otros enunciados pertinentes, con objeto de hallar las relaciones lógicas (equivalencia, deductibilidad, compatibilidad, etc.) que existan entre ellas.

Procedimientos de constrastación de teorías 

Se pueden distinguir cuatro procedimientos de llevar a cabo la contrastación de una teoría:

  • Se encuentra la comparación lógica de las conclusiones unas con otras: con lo cual se somete a contraste la coherencia interna del sistema.

  • Se estudia la forma lógica de la teoría, con objeto de determinar su carácter: si es una teoría empírica –científica- o si, por ejemplo, es tautológica.

  • Comparación con otras teorías, cuya principal mira es averiguar si la teoría examinada constituiría un adelanto científico en caso de que sobreviviera a las diferentes contrastaciones a que la sometemos.

  • Analizando las aplicaciones empíricas de las conclusiones que pueda deducirse de ella.

Con el último punto se pretende descubrir hasta qué punto satisfarán las nuevas consecuencias de la teoría –sea cual fuere la novedad de sus asertos- a los requerimientos de la práctica, ya provengan éstos de experimentos puramente científicos o de aplicaciones tecnológicas prácticas. También en este caso el procedimiento resulta ser deductivo; así, con ayuda de otros enunciados anteriormente aceptados se deducen de la teoría a contrastar ciertos enunciados singulares –“predicciones”-; en especial, predicciones que sean fácilmente contrastables o aplicables. Se eligen de estos enunciados los que no sean deducibles de la teoría vigente, y, más en particular, los que se encuentren en contradicción con ella. A continuación tratamos de decidir en lo que se refiere a estos enunciados deducidos (y a otros), comparándolos con los resultados de las aplicaciones prácticas y de experimentos. Si las conclusiones singulares resultan ser aceptables, o verificadas, la teoría a que nos referimos ha pasado con éxito las contrastaciones: no hemos encontrado razones para desecharla. Pero si la decisión es negativa, o sea, si las conclusiones han sido falsadas, esta falsación revela que la teoría de la que se han deducido lógicamente es también falsa.

Conviene observar que una decisión positiva puede apoyar a la teoría examinada sólo temporalmente, pues otras decisiones negativas subsiguientes pueden siempre derrocarla. Durante el tiempo en que una teoría resiste contrastaciones exigentes y minuciosas, podemos decir que ha “demostrado su temple” o que está “corroborada” por la experiencia.

En el procedimiento que acabamos de esbozar no aparece nada que pueda asemejarse a la lógica inductiva. En ningún momento se ha asumido que podamos pasar por un razonamiento de la verdad de enunciados singulares a la verdad de teorías. Tampoco se ha supuesto que en virtud de unas condiciones “verificadas”, pueda establecerse que unas teorías sean “verdaderas”, ni siquiera meramente “probables”.

Iremos profundizando en entradas sucesivas, haciendo especial hincapié en los siguientes temas:

  • La verificación y la confirmación.
  • El falsacionismo de Popper.
  • Los experimentos cruciales y el problema de la carga teórica.
  • Convencionalismo, holismo y falsacionismo refinado.

Anuncios

El enfoque comunicativo de P. Achinstein

Achinstein plantea la explicación científica como un acto ilocucionario. Considera que el tema de la explicación científica es sumamente complejo ya que intervienen varios factores, desde la estructura lógica hasta los criterios de evaluación de las explicaciones.

Achinstein reinterpreta algunas de las teorías de la explicación (Hempel, Salmon y Brody) desde su propia concepción. Así su idea central es que la explicación científica constituye un acto ilocucionario, en el que pueden distinguirse el acto de explicación y el producto de dicho acto. Por tanto hay tres cuestiones que han de tenerse en cuenta en la explicación científica:

  1. ¿Qué es un acto de explicación?

  2. ¿Qué es el producto de una explicación?

  3. ¿Cómo deben evaluarse los productos de una explicación?

Los modelos de explicación propuestos hasta el momento se han centrado en los productos de la explicación: el modelo nomológico-deductivo de Hempel, el modelo de relevancia estadística de Salmon y la teoría pragmática de Van Fraassen responden a la segunda pregunta. En cambio, el criterio de poder unificador con el que hay que valorar una explicación propuesto por Kitcher respondería a la tercera. Todos estos modelos abordarían aspectos parciales de la explicación científica.

Achinstein duda de que exista un modelo de explicación si este debe ajustarse al conjunto de condiciones necesarias para determinar que el explanans explica el explanandum.

La adecuación de las teorías de Hempel ha sido discutida por otro autores en cuanto a las relaciones con las predicciones. A lo que él recurre es a la mala interpretación de las predicaciones.

Dos requisitos del modelo explicativo pueden ser:

  • Ningún conjunto de oraciones del explanans puede implicar el explananduns.

  • La única condición (empírica) del explanas es la de ser verdadera.

El resto de las condiciones son a posteriori. En el modelo N-D no funciona la condición citada, por lo que además de la verdad del explanans deben reunirse otros factores empíricos.

El modelo de Salmon exige condiciones empíricas a posteriori. El formato del modelo es el de relevancia estadística. El modelo de Salmon predice la probabilidad del explanadum.

Brody en cambio plantea un requisito en el que si el explanans corresponde a un enunciado que atribuye una propiedad esencial a una clase de objetos, el explanandum ha de estar en esa clase.

Las principales objeciones al modelo de Salmon fueron realizadas:

  • Van Fraassen: opone a Salmon que la mera relevancia estadística no es condición suficiente.

  • Cartwright y Achinstein: la relevancia estadística para ellos tampoco es condición necesaria.

Hay teorías en cualquier caso (o hechos) que no demandan explicación (o no pueden ser explicadas por lo que no pueden ser determinadas a priori.

Posibilidad de la existencia de un modelo de explicación

Un modelo de explicación sería un conjunto de condiciones bajo las cuales el explanans explicaría correcta y unívocamente el explanandum.

  • Condiciones a priori de los modelos de explicación. Según Achinstein sólo hay una condición a priori: un explanans explica potencialmente a un explanandum sólo si hay una ley universal o estadística válida que relacione al explanans con el explanandum.

  • Condiciones no a priori de los modelos de explicación. También siguiendo a Achinstein dos serían las condiciones no a priori (empíricas):

    • que el conjunto de enunciados del explanans pueda implicar el explanandum

    • la única consideración empírica del explanans es que sea verdadero

Para evitar la paradoja de la muerte en 24 horas después de ingerir arsénico quizá fuese necesario añadir que el explanandum debe ser verdadero (no tiene sentido explicar un hecho falso: quien ingirió arsénico se murió por accidente de coche al ir al hospital).

En el modelo de la propiedad esencial, Brody establece que el explanans atribuye alguna propiedad esencial a una cierta clase de objetos y que el explanandum contiene al menos uno de dicha clase de objetos.

En el modelo de la relevancia estadística, Salmon establece un modelo a partir de enunciados probabilísticos en el explanans mediante el que no se puede predecir el explanandum pero sí su probabilidad.

Van Fraassen objeta a Salmon aduciendo que la mera relevancia estadística no es suficiente. La muerte o la supervivencia de las malas hierbas después de aplicar un herbicida con el 90% de efectividad queda explicada por el mismo conjunto de enunciados del explanans (paradoja de la realización de lo improbable).

El modelo de explicación de Kitcher

Algunas de las teorías de la explicación científica parten, no del establecimiento de la estructura lógica requerida (Hempel, Salmon), sino de la introducción de algún criterio epistemológico a partir del cual se puedan evaluar las explicaciones de un fenómeno dado.

Tal es el caso de P. Kitcher, para el que el valor explicativo de una teoría reside en su poder unificador. Esta idea, según Kitcher, se encuentra en la versión no oficial de la concepción heredada sobre explicación científica frente a la oficial del modelo de ley cubriente o modelo nomológico-deductivo. Incluso podríamos encontrar este criterio, de forma implícita, en otras concepciones sobre la explicación científica, pero es Kitcher quien formaliza y define con rigor este criterio.

El análisis del poder unificador de las leyes y teorías científicas supone la introducción de una serie de conceptos previos que Kitcher define con precisión. Así, en un momento de la historia de una disciplina puede delimitarse:

  • K: el conjunto de sentencias aceptadas y supuestamente consistentes

  • Almacén explicativo: es el conjunto de argumentos disponibles para llevar a cabo los propósitos explicativos.

  • E(K): es el almacén explicativo formado a partir de K. Podemos definirlo como el conjunto de argumentos aceptables , o sea, como la base para los actos de explicación en que las creencias son exactamente miembros de K.

Una teoría unifica nuestras creencias cuando proporciona un/os patrón/es de argumentos que puedan ser utilizados en la derivación de un amplio número de sentencias que aceptamos. Por tanto, la noción de patrón argumentativo es fundamental para la unificación.

Entender el concepto de explicación es ver que si se acepta un argumento como explicativo, entonces uno se compromete a aceptar como explicativo otros argumentos que son instancias del mismo patrón argumentativo. El problema de la explicación es especificar qué conjunto de argumentos tenemos que aceptar para explicar un fenómeno, dado que sostenemos que una serie de sentencias son verdaderas.

Según Kitcher, una teoría de la explicación debe cumplir los siguientes requisitos:

  • En primer lugar, deseamos entender y evaluar el reclamo ampliamente extendido de que las ciencias naturales no nos brindan meramente un apilamiento de aspectos de conocimiento inconexos con mayor o menor significación práctica; por el contrario aumentan nuestro conocimiento del mundo. Una teoría de la explicación debe mostrarnos cómo la explicación científica incrementa nuestro conocimiento.

  • En segundo lugar, una teoría de la explicación debe permitirnos ser capaces de comprender y arbitrar en las disputas de la ciencia del pasado y del presente. A menudo se realiza una defensa de las teorías embriogénicas apelando a su poder explicatorio. Una teoría de la explicación debe ser capaz de juzgar lo adecuado de dicha defensa.

Kitcher considera que su teoría de la explicación como unificación se encuentra en inmejorables condiciones para dar respuesta a ambos requisitos. Aunque él mismo reconoce que la tarea es ardua, se limita a diseñar el marco dentro del cual emerge esta noción de unificación: una teoría puede unificar nuestras creencias cuando nos provee de uno o más patrones de argumentación, los cuales pueden ser utilizados en la derivación de un gran número de proposiciones cuya aceptación para nosotros se encuentra justificada. Pero esta propuesta se encuentra a otro tipo de problemas: ¿del hecho de que una teoría explique una diversidad de fenómenos, en el sentido de patrones de unificación, se sigue que tenemos razones para aceptarla?¿Cuál es el vínculo que se establece entre la noción de patrones de unificación y por ejemplo, el concepto de verdad o el de adecuación empírica?

Aparte de las posibles críticas que puedan hacérsele a Kitcher, el mismo reflexiona en un pie de página evitando muchas de esas posibles críticas:

“Creo que esta concepción de la explicación presentada en el presente artículo podría extenderse para cubrir respuestas explicativas a otros tipos de preguntas, tales como preguntas de cómo. Pero quiero rechazar la afirmación de que la unificación es pertinente para todo tipo de explicación”

Esto quiere decir que un caso histórico que no encaje con este criterio no constituye un contraejemplo para Kitcher.

La intuición básica que inspira el modelo de explicación como unificación es que explicar consiste en “reducir la cantidad de fenómenos independientes que tenemos que aceptar como últimos”. Aumentamos nuestra comprensión del mundo reduciendo el número de supuestos básicos que dan cuenta de los fenómenos. Las leyes de Newton explican las de Kepler porque, además de implicarlas, reducen la cantidad de regularidades que se aceptan independientemente unas de otras: antes de la explicación, las leyes de Kepler y, p.e., la de Galileo eran aceptadas independientemente unas de otras, después no; la reducción de la temperatura a la energía cinética media amplía todavía más ese proceso de unificación explicativa. Contrariamente, la mera conjunción de, p.e. las leyes de Kepler con la de Boyle no es una explicación de las primeras porque no produce ese efecto unificador, no permite simplificar la cantidad de supuestos primitivos. Esta noción de explicación está esencialmente relativizada a un cuerpo K de creencias aceptadas en un momento dado, y exige una elucidación precisa de la independiente aceptabilidad entre creencias. Quien ha desarrollado con más detalle este modelo ha sido P. Kitcher mediante sus nociones de patrón argumentativo y “almacén” explicativo (‘explanatory store’) (1981,1989, 1993), caracterizando el poder unificador en función de:

  • la cantidad de fenómenos derivados por el conjunto de patrones argumentativos,

  • el rigor de los patrones y

  • el número de patrones.

Simetría, irrelevancia y horquillas

El modelo unificacionista tiene su propio modo de dar cuenta de los casos de simetría, irrelevancia y horquillas. La estrategia es mostrar que, dadas dos inferencias alternativas, será explicativa la que pertenezca a la sistematización más unificadora, y que esta comparación arroja en los casos en consideración los resultados intuitivamente esperados.

  • Horquillas: la sistematización que deriva la bajada del barómetro y la ocurrencia de la tormenta a partir del descenso de la presión es más unificadora que la que deriva la ocurrencia de la tormenta a partir del descenso del barómetro.

  • Simetría: la altura del mástil explica la longitud de la sombra y no al revés pues dadas dos sistematizaciones, una que contenga inferencias que parten de la altura del mástil y conducen hasta la longitud de la sombra, y otra que contenga inferencias que proceden al revés, la primera es más unificadora que la segunda; si la segunda no tiene otro tipo de inferencias, pierde algunas conclusiones pues no podrá establecer, p.e. la altura de mástiles de noche, o en días nubosos, etc; para recuperar esas conclusiones debería de introducir nuevos patrones argumentativos.

  • Irrelevancia: una sistematización que contiene derivaciones del no embarazo de Juan usando como premisa que Juan toma pastillas anticonceptivas no puede ser la mejor pues, o bien no explica que otros varones que no toman pastillas tampoco se quedan embarazados, o si lo explica deberá introducir nuevos patrones que también se aplicarán a Juan, con lo que podríamos prescindir de las primeras inferencias obteniendo una sistematización con menos patrones, más unificada.

Como reconoce Kitcher, estos dos últimos casos requieren que las sistematizaciones no usen predicados no proyectables.

El modelo unificacionista no sólo aplica a hechos generales

Aunque el modelo unificacionista se aplica más naturalmente a explicaciones de hechos generales, se puede aplicar también a hechos particulares considerando estos casos derivativos de aquellos: “La pregunta ‘¿por qué este objeto particular se comporta de este particular modo?’ es transformada en la pregunta ‘¿por qué objetos ideales de este tipo general exhiben esas propiedades?’”.

Por otro lado, para este modelo no representan en principio ningún problema las explicaciones de hechos probabilistas, siempre que se puedan inferir de ciertos patrones, ni las explicaciones intuitivamente no causales, pues no se compromete con ningún tipo de mecanismo específico que expresen los patrones argumentativos. El modelo unificacionista debe afrontar, principalmente, dos retos. El primero es el de proporcionar un criterio adecuado de ponderación entre los parámetros (a)-(c) que determinan la simplicidad comparativa. El segundo es el de recoger un sentido suficientemente fuerte de la objetividad de las explicaciones.

Acabamos de ver que para descartar, por ejemplo, la explicación del no embarazo de Juan a partir de su ingestión de anticonceptivos, debemos excluir que la sistematización use predicados no proyectables. Sin embargo, la elucidación independiente de cuándo un predicado es proyectable o natural constituye un problema en sí mismo. Para unos ello nos retrotrae al problema de la causalidad, en cuyo caso estaríamos implícitamente ante análisis causalistas, que serán realistas o antirrealistas dependiendo de cómo se analice a su vez la causalidad. Para otros, tal elucidación sólo puede ser epistémica o pragmática, en este caso el análisis suele ser, aunque no siempre se reconozca, de corte antirrealista.

Compatibilidad con Van Fraassen

Vamos ahora a explorar las diversas posibilidades de compatibilidad entre ambos modelos. Para ello utilizaremos ocasionalmente el esquema que van Fraassen (1977) ofrece de los contextos explicativos, esquema que pone de manifiesto los diversos parámetros involucrados en una explicación y que cada modelo fija de un modo específico. Cada uno de tales contextos consiste al menos en una pregunta por qué, por ejemplo,“¿por qué Adán comió la manzana?”, “¿por qué el alcalde contrajo paresis?”. Esta pregunta es el tema. Con el tema sólo, sin embargo, no basta, pues no expresa el aspecto por el que se demanda explicación. En el primer caso, por ejemplo, tenemos tres alternativas: “¿por qué Adán (y no Eva, o la serpiente, o…) comió la manzana?”, “¿por qué Adán comió (y no rechazó, o …) la manzana?”, “¿por qué Adán comió la manzana (y no una pera, u otra manzana, o …)?”. Así, junto al tema debe incluirse (usualmente de modo implícito determinado por el contexto), una clase de alternativas, la clase de contraste, frente a las que se contrapone el hecho por cuya razón se inquiere: “¿por qué α , contrariamente a ß1, ß2,…?”. En opinión de Van Fraassen, el tema α y la clase de contraste X no bastan, sin embargo, para identificar completamente la demanda de explicación pues, incluso fijada X, puede haber varios tipos de respuesta adecuada dependiendo de qué relación se considere en ese contexto que es la relevante para poder considerar a una respuesta una explicación adecuada. Hasta que el contexto no determina el tipo de respuesta que se considera explicativa la demanda de explicación está indeterminada.

Junto con el tema y la clase de contraste hay que incluir entonces una relación de relevancia explicativa, R. Así, podemos representar un contexto explicativo mediante una terna Q=<α, X, R >, donde α es el tema y X y R son, respectivamente, la clase de contraste y la relación de relevancia explicativa determinadas por el contexto. En algunos contextos, como los científicos en períodos de ciencia normal, están fijados con bastante rigidez, pero en otros pueden ser muy variables.

El holismo de lo mental

Se puede hacer el símil de una gran red conformada por los estados mentales con intencionalidad, los cuales tendrían una serie de propiedades intencionales por estar integrados en esa red:

  • La intencionalidad de un estado mental es una propiedad holista: el que un estado tenga determinadas condiciones de satisfacción es inseparable de que otros muchos estados tengan las suyas.

  • La identidad de los estados mentales es igualmente holista.

Esa red se caracterizaría por tres rasgos fundamentales que constituirían su trasfondo:

  • La mayor parte de la Red nos resulta opaca: “está sumergida en el insconsciente y nosotros no sabemos del todo cómo sacarla a flote” (J. Searle). Es el Trasfondo de la intencionalidad.

  • El intento de explicitar ese trasfondo se traduce en proposiciones que resultan de alguna forma ‘triviales’ y que parecen desvirtuar su naturaleza.

  • Los estados de la red no se individualizan: no sabemos cómo identificarlos, contarlos, etc.

La intencionalidad de la mente humana se sustenta sobre un substrato de capacidades preintencionales: habilidades, formas de saber-cómo, no un saber-qué de las cosas, de entender para qué están ahí, de actuar sobre ellas, de ejercer distintas destrezas con ellas, etc.

Existen dos casos en que la Red y el Trasfondo de la intencionalidad influyen en el contenido de los estados perceptivos

  • Diferentes creencias causan experiencias perceptivas con diferente contenido, es decir, diferentes condiciones de satisfacción, aunque las causas sean las mismas.

  • Las mismas creencias coexisten con experiencias perceptivas con diferentes contenidos, es decir, condiciones de satisfacción.

La intencionalidad de Dennett

El concepto de intencionalidad fue reintroducido en el siglo XIX por el filósofo y psicólogo Franz Brentano, en su obra Psicología desde un punto de vista empírico (1874). Brentano describe la intencionalidad como una característica de todos los actos de conciencia, tanto “lo psíquico” o “fenómenos mentales”, como la “física” o “fenómenos naturales”.

Dennett ofrece una taxonomía de las teorías actuales acerca de la intencionalidad en el capítulo 10 de su libro La actitud intencional. La mayoría, si no todas las teorías actuales sobre la intencionalidad aceptan la tesis de Brentano de la irreductibilidad de la expresión intencional.

Dice Dennett (1987) que para explicar y predecir el comportamiento de un sistema pueden seguirse tres estrategias, o tomar tres «posturas»:

  • Una postura física, con la que se deduce el comportamiento a partir de la estructura y las leyes de la Física, la Química, la Biología…

  • Una postura de diseño, con la que uno abstrae los detalles (normalmente demasiado enrevesados) de la constitución física del sistema y, suponiendo que ha sido diseñado, puede predecir su comportamiento si se conocen las intenciones del diseñador. Así, podemos predecir cuándo sonará el despertador, aunque no sepamos nada de su estructura interna.

  • Una postura intencional, con la que el comportamiento se deduce a partir de los deseos y creencias que adscribimos al sistema: tratamos al sistema como un agente racional, e imaginamos qué creencias y deseos podría tener el agente, dada su situación en el mundo, y predecimos su comportamiento suponiendo que actuará para satisfacer esos deseos.

Según Dennett, un sistema intencional es aquél «cuyo comportamiento puede predecirse mediante el método de atribuirle creencias, deseos y perspicacia racional» , y puede serlo en distintos grados: uno de primer orden tiene simplemente estados intencionales (creencias, deseos, etc.) propios, uno de segundo orden tiene, además, creencias, deseos, etc. sobre los estados intencionales de otros.

En la vida cotidiana solemos adoptar informalmente esta postura intencional respecto a artefactos: «el coche no quiere arrancar» , «el corrector ortográfico se empeña en corregir esta palabra» … Pero, obviamente, lo hacemos en un sentido metafórico. ¿Está justificado hacerlo «en serio»?

Desde luego, no lo está si se adopta el punto de vista de Brentano. Es la misma objeción de los que niegan la posibilidad de la «inteligencia artificial» bajo la premisa de que la «inteligencia» es un atributo intrínsecamento humano. Naturalmente, no podemos compartir este punto de vista. Resumiendo las opiniones de autores como McCarthy (1978), Shoham (1993), Wooldridge (2002) o el propio Dennett:

  • La postura intencional está justificada cuando la complejidad del sistema impide que se pueda predecir su comportamiento mediante una postura física o de diseño.

  • Los deseos y creencias no son estados internos de la mente, sólo herramientas de abstracción útiles para predecir el comportamiento de un sistema.

Imaginemos un termostato. Podríamos describir su comportamiento diciendo que cuando cree que la temperatura es baja intenta subirla, y cuando cree que es alta intenta reducirla, porque tiene el deseo de mantener un ambiente confortable. Aquí la postura intencional nos parece extravagante, porque el sistema es suficientemente sencillo como para poder describirlo con una postura física.

Imaginémosnos ahora jugando contra un programa de ajedrez complejo. Ante un movimiento suyo podemos tomar una postura intencional: «me deja la torre como señuelo porque quiere lanzar un ataque y cree que voy a caer en la trampa» , o una postura física: «ha hecho este movimiento porque ha aplicado un algoritmo de búsqueda minimax con poda alfa-beta y la función de evaluación ha devuelto el valor 10 para el estado resultante». La segunda descripción es quizás más «realista» , pero la primera es más útil si se trata de decidir cómo responder.

En definitiva, hay una gran variedad de actitudes intencionales que pueden adscribirse a los sistemas:

  • actitudes epistémicas: conocimiento, sabiduría…

  • actitudes doxásticas: creencia, duda…

  • actitudes teleológicas: deseo, intención…

  • actitudes deónticas: obligación, compromiso…

Los argumentos de Dennett

Dennett plantea dos argumentos muy interesantes acerca de la intencionalidad:

  • La intencionalidad de los artefactos es derivada

    1. Las máquinas de Coca-Cola de USA responden cuando se introduce $0.25. Inicialmente se hallan en un estado con el siguiente contenido intencional: “Lata preparada. Inserte $0.25.”

    2. Una máquina de Coca-Cola se traslada a Panamá. Como el balboa panameño lo imprime la Fábrica de Moneda norteamericana, los balboas tienen las mismas propiedades físicas que las monedas de $0.25. Por tanto, su estado inicial tiene este contenido intencional: “Lata preparada. Inserte 1 balboa.”

    3. Luego, la intencionalidad de los estados de las máquinas de Coca- Cola es derivada: otro se la asigna.

  • Toda intencionalidad es derivada, es decir, subyace la irrealidad

    1. La intencionalidad de un artefacto es derivada.

    2. (La tesis de Richard Dawkins) Los seres humanos —y, en general, los seres vivos— son artefactos diseñados por nuestros genes para facilitar su proliferación.

    3. Luego, los seres humanos —y, en general, los seres vivos— son artefactos artefactos diseñados por la Selección Natural.

    4. Luego, la intencionalidad de los seres humanos —y, en general, la de los seres vivos— es derivada.

Analicemos los argumentos de Dennett: Empezando por la segunda premisa, la tesis de Dawkins. Tenemos las siguientes alternativas:

  • Si no aceptamos el argumento de Dennett, hay que rechazar o bien la premisa 1) o bien la premisa 2). ¿Qué elegimos?

  • Pero rechazar (2) es rechazar la tesis de Dawkins; y rechazar la tesis de Dawkins es rechazar la revolución darwiniana.

En la segunda premisa queda claro que toda intencionalidad es asignada por algo/alguien. Pero…

  1. Hay artefactos y artefactos. Aunque seamos artefactos construidos por nuestros genes, éstos no tienen ninguna intencionalidad que transmitirnos.

  2. Más bien, en el proceso de evolución natural, los genes producen artefactos que sí están dotados de propiedades intencionales (por burdas que sean inicialmente).

  3. Nuestra intencionalidad puede ser, a la vez, derivada —en el sentido de estar posibilitada por la acción de los genes— y no derivada —por resultar de los sistemas— que nos conectan con el mundo: un ser idéntico a nosotros la poseería igualmente.

Retroacción negativa

En 1943, Rosemblueth, Wiener y Bigelow escribieron un importante artículo sobre el tema de la explicación científica, titulado “Behavior, Purpose and Teleology”. Aportaban en él la noción de retroacción negativa, importante para los sistemas homeostáticos o autorregulados, tan frecuentes en los seres vivos, mas también en muchas estructuras cibernéticas.

En la teoría de sistemas y en cibernética, entre otras discipinas, la retroalimentación (feedback) es un mecanismo de control de los sistemas dinámicos por el cual una cierta proporción de la señal de salida se redirige a la entrada, y así regula su comportamiento. Existen tres tipos de realimentación

  • Positiva: cuando sale del sistema; tiende a aumentar la señal de salida, o actividad.

  • Negativa: es la que mantiene el sistema funcionando. Devuelve al emisor toda la información que necesita para corregir la pauta de entrada. Mantiene el sistema estable para que siga funcionando.

  • Bipolar; puede aumentar o disminuir la señal o actividad de salida. La realimentación bipolar está presente en muchos sistemas naturales y humanos. De hecho generalmente la realimentación es bipolar es decir, positivo y negativo según las condiciones medioambientales, que, por su diversidad, producen respuestas sinérgicas y antagónicas como respuesta adaptativa de cualquier sistema.

Braithwaite y Nagel también se ocuparon de esta cuestión: la posición general de la concepción heredada sería subsumir las explicaciones teleológicas o finalísticas, e incluso las intencionales (acciones dirigidas a un objetivo), bajo el modelo de explicación causal, e incluso hacerlas compatibles con el modelo de cobertura legal de Hempel (Covering Law Model), es decir, con la explicación nomológica-deductiva.

Teoría de los Roles

La Teoría de la Decisión Racional constituye una posible vía para desarrollar la idea de que la explicación de las acciones humanas debe basarse fundamentalmente en la comprensión de las intenciones de los agentes.

Pero no es la única vía posible: al contrario que en el caso de la economía, en las otras grandes «ciencias sociales» (la sociología y la antropología) se ha solido preferir un enfoque completamente distinto, más cualitativo y menos susceptible de desarrollo matemático. Se trata de la llamada «Teoría de los Roles».

La denominación de «Teoría» no debe hacernos pensar que se trata de una estructura formalmente especificada, como en el caso de la Teoría de la Decisión Racional; más bien es un conjunto de enfoques cualitativos, más o menos semejantes entre sí.

En la sociología, su principal impulsor fue Max Weber (principios del siglo XX), y posteriormente Talcott Parsons (mediados del siglo XX).

A la imagen del ser humano que se infiere de la Teoría de la Decisión Racional, como un ser «frío y calculador», se la ha denominado «homo oeconomicus»; la expresión la formuló John Stuart Mill a mediados del XIX como una idealización útil para la disciplina económica, pero en tiempos más recientes ha tendido a convertirse en una denominación peyorativa. Como reacción, a la imagen de la persona como movida por roles sociales se la ha denominado el «homo sociologicus».

Según la Teoría de los Roles, el orden social (no las leyes que han sido impuestas en una sociedad, sino la estructura que nos permite comprender el funcionamiento de esa sociedad) consiste básicamente en un conjunto muy amplio de posiciones sociales mutuamente relacionadas e interdependientes. Cada una de estas posiciones está asociada a un conjunto de expectativas normativas por parte de los agentes que ocupan las otras posiciones (o los otros individuos que ocupan la misma posición): los agentes esperan que quien ocupa una determinada posición actúe de una manera determinada cuando se dan tales y cuales circunstancias (esto es lo que significa el término «expectativas»), y además, están dispuestos a sancionar de algún modo a quien no se comporte de acuerdo con las expectativas asociadas a su posición (eso es lo que hace que las expectativas sean «normativas»).

Dicho de otro modo, para cada posición, los agentes que la ocupan «deben» comportarse de cierta forma. La especificación de estos deberes es lo que constituye el «rol» asociado a cada posición. Un conjunto de posiciones relacionadas de forma sistemática y que, en conjunto, desempeñan una función determinada dentro de cierta sociedad, constituyen una institución.

Y cada sociedad constituiría, de este modo, un conjunto de instituciones mutuamente interconectadas y que, en cierta medida, forman una unidad autónoma, relativamente independiente de otras sociedades; esta definición, de todas formas, hace bastante problemático determinar los límites de «las» diversas «sociedades» en un mundo en el que, como ocurre actualmente, cada «sociedad» está fuertemente conectada con muchas otras.

Hermenéutica

Conviene insistir en que los «deberes» incluidos en un rol no se corresponden necesariamente con las leyes de la sociedad a la que las posiciones pertenezcan. A menudo no hay ningún código escrito, u oficialmente sancionado de cualquier otra forma, que determine qué es lo que se espera que haga la persona que ocupe cierta posición. Es más, muchas veces lo que «se espera» que una persona haga puede ser incluso contrario a las leyes vigentes.

Por otro lado, tampoco pueden identificarse estas expectativas normativas con la idea del «deber moral»: también puede uno fácilmente sentir que lo que «se espera» de él que haga es profundamente inmoral. Así pues, las «expectativas normativas» son más bien un determinado consenso (no necesariamente entre todos los miembros de la sociedad) acerca de qué formas de conducta son reprobables (o, por el contrario, elogiables) en cada circunstancia socialmente definida.

Ahora bien, resulta conveniente recordar que en el fondo de la distinción entre estas diferentes opciones, a veces interviene una oposición más radical. En muchas ocasiones utilizamos la noción de «comprensión» como opuesta a «explicación», pero simplemente con la idea de establecer algún tipo de explicación intencional que tiene en cuenta los intereses, aspiraciones, intenciones de los agentes para obtener el fin previsto.

Pero hay otra línea que mantiene la irreductible de la comprensión porque la investigación social tendría que preocuparse por la interpretación de las prácticas humanas que están dotadas de significado. Como señala von Wright: «La explicación supone identificar causas generales de un acontecimiento, mientras que la comprensión supone descubrir el significado de un acontecimiento o práctica en un contexto social particular».

Una buena parte de la ciencia social se plantea con frecuencia como el intento de reconstruir el significado de las prácticas y estructuras sociales. Esta es la razón por la cual este tipo de orientación se encuentra en la cercanía de lo que podemos llamar «hermeneútica».

Los fenómenos sociales aparecen como «textos» que tienen que ser analizados mediante la reconstrucción atenta del significado de los diversos componentes de la acción social. Esta es una posición que puede verse defendida claramente por filósofos como Charles Taylor quien defiende que las ciencias sociales deben seguir la senda interpretativa y hermeneútica.

Como señala David Little en un buen resumen sobre el programa interpretativo para las ciencias sociales, esta orientación se caracteriza por considerar que: «Las acciones individuales y las creencias solamente se pueden comprender mediante un acto de interpretación, por el cual el investigador intenta descubrir el significado de las acciones o creencias del agente. Hay una diversidad radical entre las culturas por lo que se refiere a la manera en que se conceptualiza la vida social y estas diferencias dan lugar a diversos mundos sociales.

Las prácticas sociales (la negociación, el prometer, el trabajo, el cuidado de los hijos) se constituyen mediante los significados que les atribuyen los participantes. No hay «hechos brutos» en la ciencia social (hechos que no se remitan a significados culturales específicos».

Queda así muy claro que se trata de plantear que todas las ciencias sociales son radicalmente hermenéuticas y que si el científico social no consigue ofrecernos ese tipo de comprensión no estará (de acuerdo con esta orientación) obteniendo un resultado adecuado.

En esta misma dirección se insertan los trabajos de un antropólogo contemporáneo de primera fila, Clifford Geertz, que se puede considerar como uno de los más destacados defensores de un cierto tipo de antropología interpretativa. Precisamente ha sido estudiado en otras materias y puede ser un buen ejercicio el realizar un trabajo de análisis crítico sobre esa orientación, cómo se relaciona y cómo se distingue de las orientaciones cercanas al materialismo cultural del tipo de Marvin Harris.

La polémica está servida

Si la Teoría de la Decisión Racional ha sido habitualmente vista con buenos ojos por los filósofos de orientación «analítica», «empirista» o «positivista» (sobre todo por su aparente capacidad de transferir a las ciencias sociales la metodología matemática y experimental de las ciencias naturales), la Teoría de los Roles ha gozado de más simpatías entre otras corrientes filosóficas las que los anglosajones denominan «continentales», como

  • la hermenéutica (Dilthey, Gadamer…),
  • la fenomenología (Husserl, Merleau-Ponty),
  • el existencialismo (Heidegger, Ortega, Sartre…),
  • el estructuralismo (Levy-Strauss, Foucault…),
  • el marxismo (Bloch, Habermas) y
  • el deconstruccionismo (Derrida, Deleuze…).

Salvando todas las grandes diferencias que puede haber entre estos autores y enfoques filosóficos, un punto que, en nuestra opinión, suelen tener en común es la idea de que las realidades «humanas» son accesibles para nuestro conocimiento a través de algún método diferente a los que se utilizan en las ciencias de la naturaleza.

En éstas, el objeto del conocimiento es una realidad «externa», cuyas cualidades sólo podemos determinar «objetivamente» mediante su manipulación física (experimentos, mediciones) y mediante la construcción de modelos mentales abstractos, fruto de nuestra imaginación. En cambio, en las «ciencias humanas» tendríamos algún método de «acceso a la realidad» más directo, una especie de comprensión intuitiva de los significados.

El problema es que hay tal vez muchas opiniones contradictorias acerca de cuál puede ser este «método especial»; una de las respuestas más habituales es el que lo identifica con la hermenéutica; originalmente, este concepto designaba la técnica de interpretación de textos, en especial la de los libros sagrados, y, en general, la de textos antiguos, con cuyos autores no podemos «dialogar»;

  • Dilthey (segunda mitad del XIX) lo generalizó como un método para las «ciencias del espíritu» en general, y las «ciencias históricas» en particular, y más recientemente,
  • Gadamer y sus seguidores (años 60) lo propusieron como el método general para la mutua comprensión de los seres humanos y sus productos, considerando que los «prejuicios» de cada uno son tanto lo que permite iniciar ese proceso de comprensión como lo que determina sus límites.

En relación a esto último es importante señalar dos cosas:

  • Primera, no sólo los «científicos sociales» (o los filósofos) tienen un «acceso privilegiado» a la realidad que estudian (en relación con los científicos naturales), sino que las propias realidades sociales o culturales están constituidas gracias a la capacidad de las personas para comprender sus propias acciones y las de los otros; la realidad social y cultural, al contrario que la «naturaleza», está formada por «significados», «creencias», «valores», «subjetividad», etc., entidades que son por completo incomprensibles desde una metodología que las tome como «meros hechos objetivos», hacia los que hubiera que mantener una actitud «neutral», «libre de valores».
  • Segunda, estas corrientes de pensamiento no infieren a partir de aquí, de todas maneras, que la visión que tienen «las personas corrientes» de su situación y de la realidad social en su conjunto sea una visión necesariamente «correcta»; más bien, el papel de los filósofos, sociólogos, antropólogos, etc., sería el de descubrir la «verdadera» estructura de esas realidades, la forma como las instituciones sociales influyen sobre las percepciones y valores de unos sujetos, y viceversa…, o tal vez el objetivo sea mostrar la absoluta inexistencia de algo así como una «estructura verdadera de la realidad social», pese a las apariencias.

Ya hablamos en la entrada anterior sobre el modelo clásico de racionalidad, que es el que se recoge bajo la la Teoría de la Decisión Racional

Vamos a discutir a continuación algunos problemas filosóficos que plantea dicha teoría.

¿Nuestros deseos son magnitudes?

En primer lugar, el hecho de que las preferencias de un sujeto racional tengan que poder ser expresadas mediante una función numérica, ¿significa algo así como que las preferencias se pueden medir como si fueran una magnitud física?

Esto no es necesariamente así; lo único que afirma el teorema de Savage es que, si las decisiones son racionales, habrá al menos una función u que pueda considerarse una función de utilidad, pero puede haber varias, y ninguna de ellas tendrá por qué ser más «correcta» que las demás.

En el caso de que el individuo esté seguro de las consecuencias que tendrán sus decisiones (de modo que podamos olvidarnos de las probabilidades, pues todos los resultados que puedan darse tendrán probabilidad igual a 1, y los que no puedan darse, probabilidad igual a 0), en este caso, lo único que exige la condición anterior es que, si el sujeto prefiere a a b y b a c, p. ej., entonces la función de utilidad u que elijamos debe ser tal que

u(a)> u(b) > u(c).

¡Pero esto puede ser válido tanto si

  • u(a)= 10, u(b)= 5 y u(c)=1,
  • como si u(a)= 200, u(b)= 3 y u(c)= 2!

Ninguna de las dos funciones es más apropiada que la otra en este caso, pues las dos cumplen el requisito necesario: ordenar los resultados del más preferido al menos preferido.

Ahora bien, cuando la situación es de incertidumbre, y por lo tanto sí que hemos de tener en cuenta las probabilidades, la conclusión es distinta. Imaginemos que el sujeto tiene que decidir bien el resultado b, o bien aceptar un sorteo entre los resultados a y c; supongamos también que podemos ir variando a nuestro gusto la probabilidad con la que se obtienen a o c en ese sorteo. El sujeto se enfrenta, pues, a una elección entre obtener u(b) con seguridad, u obtener la utilidad esperada del sorteo, igual a u(a)p(a) + u(c)p(c).

  • Supongamos, como antes, que u(a) > u(b) > u(c), y sea p(a)= 0,9.
    • En este caso, la utilidad esperada del sorteo es 0,9 u(a)+ 0,1 u(c), que puede ser mayor o menor que u(b).
    • Si es mayor, podemos ir disminuyendo la probabilidad de a (aumentando con ello la de c) hasta que u(b) =u(a)p(a) + u(c)p(c) (en cuyo caso, el sujeto será indiferente entre b y el sorteo), lo que necesariamente se cumplirá para algún valor de p(a) mayor que 0 (y, por tanto, un valor de p(c) menor que 1) pues cuando p(c) = 1, la utilidad esperada del sorteo será igual a u(c), que hemos supuesto que era menor que u(b).
  • Supongamos que la igualdad se cumple para p(a) = 0,4.
    • Entonces, u(b)= 0,4 u(a) +0,6u(c).

Ahora bien, u(b) = 0,4 u(b) + 0,6 u(b), y por lo tanto, 0,4 u(a) + 0,6 u(c) = 0,4 u(b)+ 0,6 u(b),

de donde podemos deducir que

u(a)–u(b)        0,6

————- = —– = 1,5

u(b)–u(c)        0,4

La conclusión de este razonamiento es la siguiente: las preferencias del sujeto de nuestro ejemplo no podrán ser representadas por cualquier función u que cumpla la condición de que u(a) > u(b) > u(c), sino sólo por funciones que cumplan, además, la condición de que la proporción entre la diferencia de utilidad entre a y b, y la diferencia entre la utilidad de b y c, sea exactamente igual a 1,5.

La utilidad no es una magnitud cuantitativa

Puede demostrarse que, si una función u representa correctamente las preferencias de un individuo racional, entonces también lo harán aquellas funciones v (y sólo aquellas) tales que existan dos números A y B (el primero de ellos mayor que 0) para los que se cumpla que v(x) = u(x)A + B, para cualquier resultado x (estas funciones v son las «transformaciones lineales» de u).

Pero…¿Significa esto que la utilidad es una magnitud cuantitativa, como la masa o la longitud?

No, porque en el caso de estas magnitudes tenemos una restricción adicional: si la función m mide correctamente la masa o la longitud de los objetos (p. ej., m(x) puede ser la masa de x en kilogramos, o su longitud en centímetros), entonces la función m’  la medirá también correctamente si y sólo si m(x)/m(y)=m’(x)/m’(y) para cualesquiera objetos x e y (p. ej., m’ puede ser la masa en libras, o la longitud en millas).

Esta condición equivale a presuponer que las afirmaciones del tipo «la masa de este objeto es cuatro veces igual a la masa de este otro objeto» son afirmaciones con un significado real (ya sean verdaderas o falsas); y esta condición no es necesario que la cumplan las funciones de utilidad (no tiene sentido afirmar «esta cosa me gusta cuatro veces más que aquélla»).

En cambio, las condiciones formales que deben satisfacer las funciones de utilidad coinciden, curiosamente, con las que deben satisfacer las funciones de temperatura (salvo las de temperatura absoluta): podemos elegir el 0 de la escala en el punto que queramos (esto equivale a la elección del número B citado más arriba), y también podemos elegir el «tamaño» que queramos para los grados (esto equivale a la elección del número A), siempre que las proporciones entre las diferencias de temperatura sean constantes.

Por ejemplo, si medimos la temperatura en Valencia y en Granada y la expresamos en grados Celsius, puede que resulte que la primera sea el doble de la segunda, pero eso dejará de ser verdad si expresamos ambas temperaturas en grados Farenheit; pero si decimos que la proporción entre la diferencia de temperatura entre Valencia y Granada, y la diferencia de tem-peratura entre Sevilla y Ávila, es de 2,6 cuando expresamos estas temperaturas en grados Celsius, entonces esa proporción entre las diferencias tendrá que ser necesariamente de 2,6 también si las expresamos en grados Farenheit.

Naturalmente, cabe plantear la cuestión de si este requisito no será demasiado fuerte: ¿puede realmente determinarse con tanta precisión la intensidad de nuestras preferencias (o, al menos, las diferencias de intensidad)? Tal vez los seres humanos de carne y hueso no seamos capaces de tomar decisiones de forma tan coherente como supone el modelo clásico de racionalidad.

No elegimos en función de la métrica…

Otro problema filosófico importante de la Teoría de la Decisión es la de cuál es la propia naturaleza de esta teoría: ¿se trata de un conjunto de hipótesis empíricas, cuya validez habría que determinar mediante la contrastación de sus predicciones con la experiencia?

Por un lado, a menudo los críticos de la teoría señalan a sus «fallos empíricos» como una razón para no aceptarla: especialmente en algunas situaciones experimentales diseñadas para poner a prueba la teoría, los sujetos parece que no eligen de forma coherente con aquellas hipótesis, sobre todo cuando la situación exige tener en cuenta probabilidades.

Los estudios psicológicos parecen sugerir más bien que los procedimientos mediante los que los individuos toman sus decisiones no pueden ni siquiera ser expresados en los términos de la Teoría de la Decisión: en lugar de meras preferencias por los resultados, creencias sobre la probabilidad de cada posible suceso, y cálculo de la utilidad esperada de cada alternativa, los sujetos suelen emplear mecanismos de razonamiento («heurísticas») de carácter más bien cualitativo, que, aunque no garantizan obtener un resultado óptimo todas las veces, por lo menos funcionan relativamente bien en un gran abanico de situaciones.

Por otro lado, los defensores del valor empírico de la teoría argumentan que, aunque no sea una descripción exacta de los procedimientos reales de toma de decisiones, la Teoría de la Decisión Racional genera predicciones bastante correctas en muchos casos, sobre todo en aquellas situaciones donde la presión competitiva entre los individuos es tan fuerte que, si alguno de ellos se comporta sistemáticamente en contra de los postulados de la Teoría, se verá forzado a cambiar de estrategia, o será expulsado por los demás competidores.

La teoría aspira a la idealización de nuestro comportamiento

Ahora bien, también es posible defender la Teoría de la Decisión con el argumento de que con ella no pretendemos hacer una descripción del comportamiento real de los individuos, sino tan sólo averiguar cuál sería la forma ideal de ese comportamiento.

Según esto, no se trataría de una teoría empírica (descriptiva o explicativa), sino más bien de una teoría normativa, que nos dice cómo deben actuar los individuos si quieren satisfacer sus preferencias.

La cuestión no sería, por lo tanto, si de hecho los sujetos se comportan o no de acuerdo con los postulados de la Teoría de la Decisión, sino simplemente que quienes no lo hagan, actuarán de modo irracional; lo cual quiere decir, como hemos visto, que estos sujetos tenían alguna alternativa que habría sido mejor para ellos, una alternativa que, dada la información que tenían en el momento de tomar la decisión, podían haber identificado «fácilmente».

Esta última expresión la hemos puesto entre comillas porque puede parecer que el realizar los cálculos exigidos para encontrar la opción que maximiza el valor de la utilidad esperada en cada situación, es algo que no está al alcance de todo el mundo; y si no fuese cierto que un sujeto tiene la capacidad de averiguar cuál es esa opción, entonces ¿cómo podemos afirmar que debería haberla elegido?

Los defensores del enfoque clásico de la racionalidad responden que esta teoría no pretende describir los procesos cognitivos que tienen lugar realmente en los cerebros de las personas. Es decir, la teoría no afirma que el procedimiento psicológico real por el que los sujetos racionales consiguen encontrar la alternativa óptima sea precisamente calculando la utilidad esperada de cada alternativa.

Lo que la teoría dice sería, tan sólo, que sean cuales sean esos procedimientos cognitivos, los sujetos que actuarán racionalmente serán los que usen mecanismos de deliberación que les conduzcan a decisiones que maximicen la utilidad esperada. Aunque, frente a esta respuesta, parece lógico formular la pregunta de cuáles pueden ser esos procesos cognitivos, y si de hecho hay o puede haber algunos que lleven efectivamente a esas decisiones.

¿Por qué preferimos lo que preferimos?

Otra cuestión relevante desde el punto de vista filosófico es la de cuál es la naturaleza de las «preferencias» o de la «función de utilidad» de los individuos.

Por una parte, se ha solido criticar el enfoque clásico con el argumento de que esta teoría representa a los seres humanos como preocupados únicamente por la maximización de «su propio» bienestar.

Esta crítica es sólo parcialmente válida: es cierto que en muchas aplicaciones concretas de la teoría, se supone que los individuos intentan maximizar su renta, o su nivel de consumo, o los beneficios de sus empresas, y eso es justificable en la medida en que, empíricamente, podamos mostrar que ese supuesto simplificador es relativamente aproximado a la verdad; pero la Teoría de la Decisión, entendida como un marco teórico general, solamente presupone que cada individuo tiene algunas preferencias bien definidas, y no hace absolutamente ninguna afirmación acerca de cuál sea el contenido de esas prefererencias; por así decir, ése es un problema de los sujetos: algunos preferirán la opción a a la opción b porque la primera les proporcione más renta, y otros preferirán la segunda opción porque sea más coherente con sus principios morales. Ambos tipos de preferencia son igual de válidos para la Teoría de la Decisión, con el único límite de su coherencia interna y de la coherencia de la conducta de los individuos con la optimización de dichas preferencias.

Por otro lado, un problema realmente serio es el de cómo averiguar cuáles son las verdaderas preferencias de los sujetos, cuál es su verdadera función de utilidad.

En muchos casos, al aplicar la Teoría de la Decisión simplemente hacemos una hipótesis acerca de dichas preferencias; esta hipótesis nos sirve para hacer predicciones sobre la conducta de los individuos, y luego habrá que contrastar dichas predicciones con la conducta realmente observada.

Pero, por el ya conocido problema de Duhem, si estas predicciones fallan, ¿será porque nos hemos equivocado al imaginar cierta función de utilidad, o será porque los sujetos no siguen realmente el principio de maximización de la utilidad esperada?…o tal vez por ambas cosas.

Afortunadamente para la Teoría, las predicciones son correctas en bastantes casos, y con lo que los críticos se verán obligados a presentar otras teorías alternativas que tengan al menos el mismo grado de éxito con sus propias predicciones. Esta situación es ventajosa para la Teoría de la Decisión Racional en la medida en que, al estar formulada matemáticamente, es mucho más fácil generar predicciones específicas a partir de ella, que a partir de otras teorías que se expresan en un marco puramente cualitativo.

La teoría de la decisión racional

Uno de los enfoques sobre la racionalidad más desarrollados es el que se conoce como Teoría de la Decisión Racional, o «Teoría de la Decisión». Esta teoría tiene la ventaja de que puede ser formulada matemáticamente, lo que permite, por un lado, discutir con precisión su estructura, sus presupuestos y sus implicaciones, y por otro lado, aplicarla a múltiples casos. El carácter matemático de la teoría la ha hecho especialmente adaptada a la ciencia económica, que es la rama de las ciencias sociales donde la Teoría de la Decisión Racional se ha aplicado más intensamente y donde ha encontrado menos oposición por parte de otros enfoques. De todas formas, como veremos, la teoría tiene algunos aspectos que pueden ser razonablemente criticados. Sin  ir muy lejos ya vemos que su aplicación en la teoría económica hace aguas por momentos, porque al parecer, no son tan racionales las decisiones que tomamos los seres humanos. Ahí están los mercados y la crisis del sistema económico para confirmarlo.

El núcleo básico de la Teoría de la Decisión es, en primer lugar, la descripción de las situaciones a las que se enfrentan los individuos, así como de sus preferencias y sus creencias, de la forma más clara posible, y en segundo lugar, la suposición de que estas creencias y preferencias son internamente coherentes, y coherentes con las acciones elegidas por los sujetos.

Con respecto a la situación, la representaremos indicando las diferentes opciones o alternativas que tiene el individuo (se trata, por supuesto, de las opciones que el individuo cree que tiene, aunque en general se asume que conoce todas las alternativas posibles); estas opciones serán incompatibles entre sí (es decir, el sujeto no podrá elegir más de una), y deben estar representadas todas las opciones posibles (es decir, el sujeto tendrá que elegir necesariamente alguna).

Las preferencias de los individuos no están definidas directamente sobre las opciones, sino sobre los resultados que se obtienen con cada posible elección. En el caso más sencillo, cada una de estas opciones conducirá a un resultado conocido de antemano por el sujeto (por ejemplo, ducharse con agua caliente, con agua fría, o no ducharse), y entonces podremos identificar «opción» con «resultado» en las preferencias de los individuos. Debemos tener en cuenta que el gusto o la molestia que le pueda causar al agente inmediatamente la propia realización de la acción, lo hemos de contar ya entre los «resultados» de la decisión.

De todas formas, lo normal será que el sujeto no sepa con total certeza qué resultado es el que va a ocurrir con cada una de sus posibles decisiones. Esto quiere decir que cada decisión tendrá generalmente más de un resultado posible. Además, en muchos casos el resultado de una decisión será una nueva situación en la que el individuo se vea obligado nuevamente a elegir entre varias alternativas (no necesariamente las mismas que antes). A la descripción de estas cadenas de opciones, decisiones y resultados, se le llama «árbol de decisión», aunque también suele representarse en forma de tabla, indicando en las filas cada una de las alternativas entre las que el sujeto debe elegir (si sólo tiene que hacerlo una vez, o cada posible combinación de alternativas, si tiene que hacerlo varias veces), e indicando en las columnas cada una de las posibles combinaciones de factores independientes de la propia decisión y que pueden afectar a los resultados (a cada una de estas combinaciones posibles de «otros factores» se le llama convencionalmente «estado de la naturaleza», aunque puede incluir acciones realizadas por otros individuos).

Ser racional es maximizar satisfacción, pero debemos ser coherentes

La Teoría de la Decisión Racional es, como toda teoría, no sólo un marco que nos permite describir la realidad, sino un conjunto de hipótesis sobre cómo están relacionadas las cosas entre sí. Pues bien, el principal supuesto de la teoría es el de que los individuos elegirán en cada caso aquella alternativa que sea más coherente con la máxima satisfacción posible de sus preferencias.

Dicho de otra manera, una vez tomada una decisión, los individuos no podrán encontrar después razones para pensar que (dada la información que poseían en aquel momento) habría sido mejor para ellos elegir una opción diferente. Por supuesto, es posible que después encuentren nueva información, que les revele que otra de las alternativas era mejor para ellos, pero lo importante es que, en cada caso, se tome la decisión que es la mejor según la información disponible.

Ahora bien, ¿qué significa exactamente que una opción sea «la mejor»? Para que este concepto tenga un sentido claro es necesario que las preferencias de los individuos cumplan al menos dos requisitos:

  • Deben ser completas: para cualquier par de resultados, a y b
    • o bien el individuo prefiere a o bien prefiere b
    • o bien es indiferente entre los dos (es decir, no puede suceder que el sujeto no sepa si prefiere a o b,
    • o si ambas cosas le dan igual)
  • Las preferencias deben ser transitivas: si un individuo prefiere x a y, y prefiere y a z, entonces preferirá necesariamente x a z.

Para entender por qué son razonables estos dos supuestos, imaginemos lo que sucedería si no se cumplieran.

Respecto al primero, será incluso difícil pensar cómo podría tomarse racionalmente una decisión entre varias opciones si no están definidas las relaciones de preferencia entre ellas (nótese que, si no se cumple la condición 1, ni siquiera estaría determinado si las dos opciones son igual de valoradas).

Respecto a lo segundo, consideremos este ejemplo: una persona está jugando en un concurso, cuyos posibles premios son un viaje, una moto, o un equipo de TV, y que el sujeto prefiere el viaje a la moto (es decir, si tuviera que elegir entre ambas cosas, elegiría la moto), prefiere la moto al equipo de TV, pero prefiere el equipo de TV al viaje. Además de que esta persona no tendría un argumento claro para elegir un premio entre los tres (aunque, para cualesquiera dos premios, sí tiene claro cuál elegir), puede mostrarse que sus preferencias le harían caer fácilmente en el siguiente timo: supongamos que ha ganado el equipo de TV; como prefiere la moto al equipo, seguramente habrá alguna pequeña cantidad de dinero (pongamos, un euro) tal que, si le ofrecemos cambiar el equipo por la moto si nos da un euro por el cambio, aceptará el trato, y se quedará con la moto; como prefiere el viaje a la moto, seguramente ahora también estará dispuesto a pagar un euro a cambio de que le dejemos cambiar la moto por el viaje; pero como prefiere el equipo al viaje, también estará dispuesto a pagar un euro por cambiar el viaje por el equipo. Así que, al final, volverá a estar como al principio (con el equipo de TV), pero con tres euros menos. Si sus preferencias no han cambiado en el proceso, podemos seguir repitiéndolo indefinidamente, sacándole más y más dinero sin ningún coste para nosotros. Un sujeto con preferencias intransitivas sería, por lo tanto, algo así como una «bomba de dinero» (entendiendo bomba en el sentido de «bombear»).

Por argumentos parecidos, aunque más complejos matemáticamente, puede mostrarse que las creencias de los individuos racionales sobre cómo de probables son los posibles resultados de las acciones, esas creencias, decíamos, deben satisfacer los axiomas de la teoría de la probabilidad. Esto significa que dichas creencias deben poder expresarse de forma numérica (para cada posible resultado de elegir una alternativa, la probabilidad de dicho resultado debe ser un número comprendido entre 0 y 1), la probabilidad de que se den dos resultados a la vez debe ser 0 (pues los resultados son incompatibles entre sí), la probabilidad de que se dé alguno de un conjunto de resultados es igual a la suma de las probabilidades de cada uno, y la probabilidad de que se dé algún resultado será iguala 1.

Además, la probabilidad con la que un individuo cree que sucederá cierto resultado si toma cierta decisión, no puede ser una probabilidad cualquiera, sino que debe ser consistente con toda la información de la que el sujeto dispone. Si para un individuo no se cumplieran estas condiciones, también podríamos «bombear» dinero de él, como en el caso anterior, pero esta vez haciéndole apostar.

Consecuencias de ser racionales

Se debe al matemático J. Savage la demostración del teorema fundamental de la Teoría de la Decisión, que afirma que, si la conducta de un individuo es «racional» (en el sentido de que sus decisiones no pueden llevarle a situaciones en las que necesariamente saldría perdiendo, como en los ejemplos que hemos visto), entonces se cumplirán las siguientes consecuencias:

  1. Las preferencias del sujeto se podrán representar mediante una función numérica,u, tal que, si a y b son dos resultados posibles, el sujeto preferirá a a b si y sólo sí u(a) > u(b), y será indiferente entre los dos resultados si y sólo si u(a) = u(b); a esta función la llamaremos «función de utilidad»;

  2. Las creencias del sujeto se podrán representar mediante una función de probabilidad, p, (la expresión «p(a/x)» significa la probabilidad de que se obtenga a, supuesto que se ha hecho x);

  3. En cada situación, el sujeto elegirá aquella opción x para la que sea máximo el valor de la utilidad esperada, definido como sigue: si a, a2, …, an son los posibles resultados de x, la utilidad esperada de x será igual a

u(a1)p(a1/x) + u(a2)p(a2 /x) + … + u(an )p(an /x).

Es decir, la utilidad esperada de x es la media ponderada de las utilidades de todos los resultados a los que puede conducir x, siendo la ponderación de cada resultado igual a su probabilidad.

Si interpretamos estas probabilidades como frecuencias (o, más bien, como hipótesis que hacen los sujetos sobre la frecuencia con la que ocurriría cada resultado si la decisión pudiera ser tomada en las mismas circunstancias innumerables veces), entonces el concepto de utilidad esperada significa que, si se toma la decisión x, se obtendrá la utilidad u(a1) con una frecuencia igual a p(a1 /x), la utilidad u(a2) con una frecuencia p(a2 /x), etc.

 

Queremos explicar lo que hace la gente

En las ciencias sociales, la inmensa mayoría de los hechos para los cuales pretendemos encontrar alguna explicación son acciones llevadas a cabo por seres humanos; queremos explicar lo que la gente hace. Estas acciones pueden ser individuales o colectivas, aunque se ha discutido mucho si esta última noción, la de «acción colectiva», representará algo más aparte de la combinación de las acciones de varios individuos.

El objeto de cada una de las ciencias sociales consiste, por lo general, en una enorme masa de acciones humanas, que esas ciencias deben, en primer lugar, ordenar y clasificar según ciertas categorías, y en segundo lugar, explicar en función de ciertos principios teóricos. La tradición principal de las ciencias sociales se basa en el supuesto de que las acciones de las personas son generalmente el resultado de alguna decisión.

Incluso cuando lo que hay que explicar es la falta de acción de un sujeto en una circunstancia determinada, como por ejemplo no atender una llamada de socorro, casi siempre lo explicamos como fruto de la decisión de no actuar. Así pues, en muchos casos lo que se hace en las ciencias sociales es intentar explicar por qué la gente toma las decisiones que toma, en vez de otras.

Pero las decisiones no se observan

Algunos autores, influidos por las filosofías empirista y positivista, sobretodo a mediados del siglo XX, criticaron esta idea, con el argumento de que las decisiones son acontecimientos esencialmente inobservables (en particular, las decisiones de los demás), y por lo tanto, afirmaban, son imposibles de contrastar empíricamente.

Esta postura llevó al desarrollo de varias escuelas, entre las cuales la más famosa fue el Conductismo (en Psicología), cuyo ideal era la búsqueda de leyes empíricas que establecieran la conexión entre ciertas situaciones y ciertas acciones, sin necesidad de introducir descripciones de lo que pasaba «dentro de la cabeza» de los individuos.

Esta postura ha sido prácticamente abandonada, no sólo por las críticas al modelo positivista de la ciencia, o porque otras disciplinas también utilizan conceptos no observacionales (quark, gen, etc.), sino sobre todo por la escasa capacidad explicativa de las teorías sociales que ignoran radicalmente las decisiones de los sujetos, y por la plausibilidad intuitiva que tiene, para nuestro sentido común, la idea de que los actos de las personas son fruto de «lo que pasa por su mente». Al fin y al cabo, parece que cada uno es consciente de sus propias decisiones, y lo más lógico para él es pensar que los demás seres humanos (al contrario que la mayoría de los animales y que todos los demás seres) también lo hacen. Pese a esto, existen en las ciencias sociales varias concepciones distintas acerca de cuál es el modo como la gente toma sus decisiones.

¿Qué es lo que hacemos al tomar una decisión?

¿Cuáles son las principales diferencias entre una acción que sea el resultado de una decisión, y un acontecimiento «natural» que no lo sea? La diferencia más notable parece ser la de que en el primer caso la acción está originada, de alguna manera, por las creencias y los deseos del individuo, es decir, por la forma en que él percibe la situación a la que se enfrenta, y por la forma en la que él quiere que se transforme dicha situación.

La acción sería, por lo tanto, una cierta manera de ajustar las circunstancias a nuestras preferencias. En cambio, en otro tipo de acontecimientos (la lluvia, la fotosíntesis de las plantas, la digestión de los alimentos en nuestro aparato digestivo), diríamos que todo lo que sucede ocurre de forma «mecánica», en el sentido de que los elementos físicos involucrados en dichos procesos no están organizados de tal modo que haya un pensamiento guiando cada parte del proceso.

Esta diferencia es un poco engañosa, en la medida en que nos lleve a concluir que nuestras decisiones no son «en el fondo» el resultado de los procesos físico-químicos de nuestro cerebro; al fin y al cabo muchos fenómenos naturales pueden explicarse a través de algún concepto de finalidad.

Pero lo importante es el hecho de que, en la toma de decisiones, nosotros somos conscientes de esa finalidad y de las razones que nos permiten tomarla como un motivo para actuar de un modo u otro. A las acciones voluntarias se les llama también acciones intencionales, puesto que responden a alguna «intención» por parte del sujeto, pero también, y esto es lo más importante desde el punto de vista filosófico, porque las creencias y los deseos que intervienen en el proceso de la toma de decisión son «representaciones» de hechos y entidades externas a la propia mente del individuo (tienen lo que suele llamarse un «contenido semántico» o «intencional»).

La explicación de las acciones tiene que partir, por lo tanto, de algún análisis de las creencias y los deseos, y de la forma en la que éstos están relacionados entre sí y con las acciones. A este tipo de explicación se le conoce como explicación intencional. También podemos decir que es el tipo de explicación basado en el principio de que los seres humanos actúan racionalmente.

Racionalidad

El concepto de «racionalidad» es seguramente el más fundamental en la filosofía de las ciencias sociales, pero también es uno de los más polémicos. De hecho, muchos autores distinguen varios «tipos» distintos de racionalidad. Tan intensa es la diferencia entre las distintas teorías, que los actos que algunos enfoques consideran como paradigmáticos de la acción racional son calificados más bien como irracionales por otras concepciones. Veamos algunas dificultades filosóficas que todas ellas comparten.

En primer lugar, el principio de racionalidad afirma que los individuos no son una «mera» marioneta de fuerzas que les determinen «desde abajo» (es decir, según las leyes físicas de los elementos de los que están compuestos nuestros organismos), ni «desde arriba» (es decir, según las leyes que gobiernan las macroestructuras sociales), sino que poseen algún tipo de autonomía, pueden «determinarse a sí mismos». Que esto sea compatible o no con el hecho de que estamos efectivamente constituidos por elementos átomos y moléculas que obedecen «ciegamente» las leyes físicas está asociado al determinismo.

En segundo lugar, podemos discutir la posible coherencia que exista entre las explicaciones intencionales y los otros tipos de explicación científica que hemos analizado en las entradas anteriores.

  • A primera vista, la explicación intencional puede considerarse directamente tanto como un tipo de explicación teleológica (pues obviamente la acción intencional es acción dirigida a unos fines), y también como un tipo de explicación causal (en la medida en la que consideremos que las decisiones, y los motivos que las producen, constituyen las causas de la acción). De todas formas, esto último puede conducir a algunos problemas. Por una parte, no está claro que las razones sean automáticamente causas (p. ej., puedo tener razones estupendas para hacer una cosa, y a pesar de ello no hacerla); este problema puede resolverse indicando que una razón es una causa ceteris paribus, es decir, suponiendo que ninguna otra causa más fuerte interviene en la situación. Por otro lado, las razones, o los motivos y deliberaciones, son acontecimientos de tipo «mental», y resulta problemático entender de qué manera puede «lo mental» tener alguna influencia sobre «lo físico» (es decir, sobre la conducta de mi organismo).
  • Con respecto a la explicación nomológica, el principal problema consiste en determinar cuál es la forma apropiada de representar las leyes que intervendrían en un explanans basado en la explicación intencional. Imaginemos que intento explicar por qué el cartero no ha venido hoy; en el explanas podríamos tener cosas como: «hoy se ha convocado una huelga de trabajadores de Correos», «el cartero cree que los motivos para la huelga son justos, y no teme las represalias que pueda sufrir si hace la huelga». Si dejamos la explicación así, resulta que no tenemos ningún enunciado con forma de ley (es decir, que sea una regularidad), sino sólo enunciados singulares; además, sólo a partir de esos dos enunciados no puede deducirse el hecho que queríamos explicar. Lo que falta, por tanto, es alguna «ley» que afirme (o de la que pueda inferirse) algo así como que «todo el mundo que es convocado a una huelga, que no tiene motivos para oponerse a ella, y que tiene motivos para secundarla, la secundará». Considerado como una «ley», esto sería (¡en el mejor de los casos!) una regularidad empírica de validez muy restringida; para lograr una auténtica explicación científica necesitamos, en cambio, alguna ley más general, de la que podamos inferir regularidades en muchos ámbitos distintos. Pues bien, el «principio de racionalidad» podría desempeñar ese papel, si lo reformulamos de una forma parecida a ésta: «todos los individuos harán aquello que creen que es más apropiado hacer en cada situación, teniendo en cuenta sus preferencias y su percepción de la situación» (esto es lo que Karl Popper ha denominado «el principio cero de las ciencias sociales», entendido como un supuesto que, según este autor, debería subyacer a cualquier explicación social). Esta estrategia tiene varios problemas, de todos modos.
    • El más grave sea tal vez el hecho de que el «principio de racionalidad» expresado al modo de Popper no es un enunciado empíricamente falsable: en principio, cualquier acción que pudiéramos observar, por muy absurda e «irracional» que pareciese, podría ser compatible con el supuesto de que el individuo ha actuado «racionalmente» (basta con suponer que eso precisamente es lo que quería hacer, o lo que le parecía más apropiado). Independientemente del valor que demos a esta crítica, resulta al menos curioso que la principal propuesta de Popper sobre la metodología de las ciencias sociales sea contradictoria con su propia recomendación de utilizar únicamente teorías falsables en la investigación científica.
    • El segundo problema es que el principio es casi totalmente vacío, pues, como se ve en el ejemplo del cartero en huelga, hace falta bastante más información para pasar del enunciado abstracto del principio de racionalidad a la conclusión referida a un hecho tan específico como por qué un cierto sujeto ha realizado determinada acción; dicho de otra manera, el principio de racionalidad, tal como lo hemos definido, no nos explica por qué ciertas acciones les parecen a ciertos individuos más «apropiadas» que otras. Esta crítica, de todas formas, no es excesivamente grave: al fin y al cabo, la situación es la misma en las propias ciencias naturales, donde existen principios muy generales y abstractos (las leyes de la termodinámica, la segunda ley de Newton, etc.) que sólo pueden generar predicciones concretas cuando les añadimos otras leyes o hipótesis más específicas y numerosas condiciones iniciales, que se apliquen al caso que estemos estudiando. La cuestión importante sería, pues, la de cuáles pueden ser esas «leyes de más bajo nivel» que debamos añadir al principio de racionalidad para obtener explicaciones aceptables de los fenómenos sociales.
  • Finalmente, indicaremos una diferencia muy notable entre la explicación intencional y los otros tipos de explicación. Se trata del hecho de que, cuando explicamos la conducta de los individuos según las razones que les han llevado conscientemente a actuar así, estamos utilizando la palabra «explicar» en un sentido muy distinto al que tiene cuando decimos que la ley de la gravedad explica las órbitas de los planetas, o que los órganos de los seres vivos deben ser explicados mediante su función biológica. En el caso de la acción intencional, lo que conseguimos cuando la «explicamos» es comprender el sentido que dicha acción tiene para el individuo que la ha llevado a cabo. La explicación intencional consiste, por lo tanto, en comprender la acción «desde el punto de vista» del sujeto (lo cual no significa que la tengamos que aprobar moralmente), algo que es imposible con los fenómenos en los que no interviene una conciencia racional.

El modelo de explicación funcional

El análisis de la forma de explicación funcional tiene una larga historia en la filosofía de la ciencia. No es fácil hacerle justicia a este tema en los límites que parecen adecuados para una introducción general. Sin duda hay aspectos del funcionalismo, lo mismo que de la teoría de sistemas o del organicismo, a los que se les puede encontrar claros antecedentes en el pensamiento de la antigüedad clásica, pero el funcionalismo como tal es un término que entra con fuerza en el discurso filosófico en el último cuarto delsiglo XIX y que, desde entonces, ha tenido una presencia creciente.

Lo primero que debemos tener en cuenta es que en el análisis funcional se suele adoptar el patrón de explicación funcional aunque el desarrollo de críticas formales muy precisas a ese tipo de explicación hayan llevado a cambios muy profundos en la teorización estructural-funcional. Es importante observar que muchos teóricos han señalado la enorme diversidad de contenidos a los que se aplica el término «función» y que muy poco o nada tienen que ver con la noción matemática de función. Por el contrario, normalmente con función hacemos referencia más bien al papel que tienen los elementos de un sistema para contribuir al sostenimiento de un estado persistente de dicho sistema.

Un momento fundamental en el análisis de este patrón de explicación por las consecuencias, y que se sitúa en torno a la segunda mitad del siglo pasado. En ese período apareció el artículo de E. Nagel «Una formalización del funcionalismo», recogido en su libro Lógica sin metafísica, y en el que se intentaban sistematizar las once tesis de Merton de 1949 sobre el análisis funcional. Nagel en esa formalización hace una referencia especial a las ciencias sociales.

Los resultados de ese trabajo fueron incorporados por Carl Hempel en 1959 en su artículo «Lógica del análisis funcional», que suele admitirse como el tratamiento estándar, desde la filosofía de la ciencia, de tal patrón de explicación. Según Hempel, el modelo de explicación funcional al pretender explicar la persistencia de un determinado rasgo resulta inadecuado porque supone el uso de la falacia de afirmación del consecuente, es decir, aceptar que al afirmar conjuntamente un enunciado condicional (A→B; p. ej., «si llueve, el suelo se mojará») y su consecuente (B; «el suelo se ha mojado») podemos concluir el antecedente (A; «ha llovido»); naturalmente, esta forma de razonar es una falacia porque puede suceder B sin que suceda A (p. ej., el suelo puede mojarse porque lo rieguen). Precisamente por incurrir en tal falacia no puede pretender tener carácter predictivo y, a lo sumo, puede ser una pauta con cierta utilidad heurística pero no explicativa.

Otra manera de resumir esta potente crítica de Hempel a la explicación funcional es decir que la presencia de un rasgo específico en un organismo, presencia que se pretende explicar por su función, no es en general una condición necesaria (o no se sabe que lo sea) para la realización de tal función. Una de las soluciones ofrecidas por Hempel, para mantener la adecuación formal de la explicación funcional, consistía en proponer la explicación de una clase funcional de rasgos —no de un único rasgo— que conduzcan a un mismo resultado. No se podría pretender la explicación de un ítem determinado sino de una familia de rasgos funcionales (cuyo conjunto si resultase necesario), aunque así el interés para la explicación en ciencia social aparecería muy disminuido, pues resulta mucho más complicado el análisis de un conjunto de rasgos, con muchas relaciones posibles entre sí y con otros factores externos.

El debate sobre las explicaciones teleológicas

En las explicaciones funcionales o teleológicas (aunque no son exactamente lo mismo) explicamos los acontecimientos a través de hechos que no están en el pasado sino en el futuro, es decir, la causa del hecho a explicar estaría en el futuro. También podría decirse que, en las circunstancias apropiadas, es recibir una explicación en términos del fin particular al cual se dirige un medio determinado.

Las explicaciones teleológicas, según afirma Nagel, centralizan la atención en las culminaciones y los productos de procesos específicos, y en particular en las contribuciones de varias partes de un sistema para mantener sus propiedades globales o modos de comportamiento.

En las explicaciones funcionales las consecuencias de algún comportamiento o de algún ordenamiento social son elementos esenciales de las causas de ese comportamiento. Un tipo común de este tipo de explicaciones en la vida cotidiana es el de la motivación.

Las teorías funcionales explican los fenómenos por sus consecuencias y pueden ser útiles para explicar los fenómenos sociales, porque hay muchas cadenas de causación inversa que seleccionan pautas de comportamiento por sus consecuencias, como ocurre con los procesos de evolución biológica y social, y con fenómenos de planeamiento individual y colectivo.

Las explicaciones funcionales son formas complejas de teorías causales e involucran conexiones entre variables con una prioridad causal especial de las consecuencias de la actividad a nivel de la explicación total. Pero no toda explicación funcional adopta el compromiso del holismo metodológico.

Desde el individualismo metodológico se ha mantenido que la base de las ciencias sociales son los actos de los sujetos, de tal manera que ya que los únicos que actúan y tienen intenciones son los sujetos, debe evitarse la pretensión de analizar las entidades supraindividuales como agentes sociales. La causalidad procede de lo individual a lo social; se ejerce a partir de los agentes humanos que tienen, por tanto, un papel explicativo fundamental. En cualquier caso son las unidades elementales, los actos de los individuos, los que permiten definir el origen de los hechos sociales entendidos como resultados de la acción de dichos agentes.

La utilización de un lenguaje teleológico normalmente ha tratado de reflejar la diferencia entre los seres vivos y la naturaleza inanimada. Como hace Nagel, es importante distinguir analíticamente entre adscripción de fines y adscripción de funciones. Para precisar que nos encontramos ante algún objetivo hacia el cual se orientan ciertas actividades de un organismo, resulta conveniente distinguir entre objetivos y funciones. Poco a poco los procesos dirigidos a fines han encontrado una forma de análisis; distinguir adecuadamente sus diversos tipos es muy conveniente para no caer en errores lógicos elementales. Ernest Nagel distingue tres tipos principales de procesos teleológicos.

  • El primero se refiere a la conducta propositiva de los humanos. El objetivo G(«goal») de una acción o proceso se dice que es algún estado de hechos pretendido por un agente humano. La intención en sí misma es un estado mental interno que, acoplado con el estado interno de querer G, junto con creer que una determinada acción A contribuye a la realización de G, se dice que es un determinante causal de realizar la acción A. La conducta dirigida a objetivo es la acción A realizada por el agente para lograr el objetivo. No es el objetivo lo que produce la acción, sino más bien las aspiraciones del agente, conjuntamente con su creencia de que la acción contribuirá a la realización de su objetivo. Pero utilizar este tipo de lenguaje resulta totalmente inadecuado cuando estamos tratando con organismos que son incapaces de tener intenciones y creencias. Por ello no nos puede extrañar que quienes adoptan esa forma teleológica de hablar tratan de adscribir intenciones a totalidades (holistas) como el sistema social, el capital o la burguesía.

  • Una segunda forma de proceso teleológico sería el que se ha llamado teleonómico, en el cual la «conducta o proceso debe su direccionalidad a la operación de un programa». Nagel lo llama perspectiva teleológica del programa o código. Estos casos son los que supuestamente vienen reflejados por el código genético y es en esta línea en la que se colocan algunas interpretaciones sociobiológicas. Pero un proceso que no tiene un fin programado no puede ser caracterizado adecuadamente como teleonómico, ya que, aunque esté controlado por un programa, ello no lo hace necesariamente dirigido a objetivo.

  • Se puede, sin embargo, hablar de otra tercera forma de analizar los procesos dirigidos a objetivos. Se trata de una perspectiva que procede de la teoría de sistemas o visión sistémica. Aquí consideramos que se encuentra la manera más interesante actualmente de abordar este tipo de procesos y es un espacio en el que el trabajo interdisciplinar entre diversas ciencias sociales y ciencias de la computación están produciendo resultados de mucho interés. Simplemente señalemos que hay tres propiedades centrales que deben tener los sistemas para que podamos caracterizarlos adecuadamente como dirigidos a objetivos

    • En primer lugar su plasticidad (la existencia de caminos alternativos para llegar al mismo resultado previsto

    • En segundo lugar la persistencia, es decir, que el sistema es capaz de mantener su conducta propositiva como resultado de cambios que ocurren en el sistema y que compensan cualquier desviación (interna o externa) que se haya producido dentro de ciertos límite

    • Y, en tercer lugar, la independencia (u ortogonalidad) de las variables, que quiere decir que dentro de ciertos límites los valores de cada variable en un momento dado deben resultar compatibles con cualesquiera valores de las otras variables en el mismo momento. Esta línea de pensamiento no dice simplemente que «todo esté relacionado con todo» (que es, como ha dicho Elster, el primer principio de la pseu-dociencia) sino que precisamente trata de aislar las variables que cumplan determinadas condiciones y que muestren ser las relevantes para conseguir mantener ese proceso orientado a fines

Las explicaciones teleológicas establecen una relación explicativa intenciones-fines y sostiene tres afirmaciones:

  • La explicación teleológica consiste en explicar un hecho presente por lo que ocurrirá en el futuro.
  • Es legítimo entender el fin en el sentido aristotélico de “causa final” con lo que la relación medios-fin se vuelve relación causal.
  • La explicación teleológica puede, de esa manera, reducirse a una explicación legaliforme.

Pero ninguna de estas tres afirmaciones describe adecuadamente la índole de la explicación teleológica.

  • En primer lugar en ella no se explica un hecho presente por lo que ocurriría en el futuro, se explica un hecho presente por algo que ocurre en el futuro, por la implementación de los medios a partir de las intenciones.
  • En segundo lugar la relación medios-fines no es asimilable a la relación causa-efecto

Si lo describimos en la forma de silogismo práctico:

  • a) la premisa mayor menciona una meta,
  • b) la premisa menor un acto conducente al logro de la meta, un medio dirigido al fin,
  • c) la conclusión consiste en el uso de ese medio para alcanzar el fin.

Obtenemos así el esquema de explicación teleológica:

  • A se propone dar lugar a p.
  • A considera que no puede dar lugar a p a menos que haga a.
  • Por consiguiente, A se dispone a hacer a.

No puede evaluarse en términos de validez lógica porque la verdad de las premisas no garantiza la verdad de la conclusión, puedo arrepentirme o cambiar de idea y no iniciar la acción.

Reconstrucciones formales de la explicación funcional

Elster ha sido el principal oponente de G. Cohen en la discusión interna al marxismo analítico, sobre la adecuación formal y material del funcionalismo. Elster mismo ha sintetizado el estado de la cuestión señalando cuatro versiones principales del funcionalismo. Para verlas en su complejidad resulta muy útil la reconstrucción siguiente.

Decimos que un fenómeno X se explica por su función Y para el grupo Z si y solamente si se cumplen todas estas condiciones:

  1. Y es un efecto de X

  2. Y es beneficiosa para Z

  3. Y no es pretendido por los actores al realizar X

  4. Y no es reconocido por los actores en Z

  5. Y mantiene X por la retroalimentación causal que pasa a través de Z

No todas las explicaciones funcionales satisfacen estos cinco enunciados; de hecho con frecuencia se cumple 1, 2, 3 y 5 pero no el criterio 4 (en ese caso se podría hablar de una especie de «selección artificial»): el fenómeno se mantiene porque el grupo lo considera beneficioso. En otros casos se cumple 1, 2, 3, y 4 pero no 5; en este caso, la falacia que se produce en el razonamiento funcionalista consiste en inferir la existencia del mecanismo de retroalimentación causal a partir de satisfacer los cuatro primeros criterios(del 1 al 4). Por ejemplo, se podría demostrar que la neutralidad aparente del Estado en las sociedades capitalistas contemporáneas satisface mejor los propósitos de los empresarios que un gobierno que tenga un sesgo social; a partir de esto, ciertos marxistas funcionalistas concluyen que este efecto beneficioso explica la neutralidad del Estado. Ahora bien, a menos que uno impute el mecanismo causal de retroalimentación a ciertas agencias de algún comité ejecutivo oculto de la burguesía, parece difícil ver cómo opera este mecanismo. En las ciencias sociales, la retroalimentación causal debe demostrarse más que postularse, a diferencia de lo que ocurre en biología donde la existencia de un efecto beneficioso parece que da una razón inmediata para pensar que es el producto de la selección natural, pues ésta proporciona un mecanismo general para una retroacción causal en la evolución de los seres vivos. De esta manera se pueden distinguir varias formas de funcionalismo:

  • a) En primer lugar tendríamos una variante ingenua del funcionalismo, que asume tácitamente que señalar las consecuencias beneficiosas de determinado efecto, resulta suficiente para establecer la explicación. Evidentemente esta variedad no sólo rechaza que las consecuencias puedan ser accidentales, sino que no cae en la cuenta de que aún cuando la conexión no fuese accidental podría no ser explicativa pues puede ser el caso de que tanto el explanans como el explanandum sean efectos conjuntos de una tercera variable.

  • b) Hay otros proponentes de la explicación funcional que defienden que puede ser el caso que tengamos un conocimiento general del mecanismo que está operando, aún cuando no seamos capaces de suministrar los detalles. Se trata de una extensión por analogía del papel jugado por la teoría de la selección natural en las explicaciones funcionales en biología. El tipo de crítica que se puede hacer a esta posición, que se ha defendido para analizar el cambio técnico mediante procesos de selección entre empresas, se relaciona con el papel del tiempo, pues no tienen en cuenta que la adaptación se refiere a un objetivo en movimiento (que se desplaza) y que los cambios en el entorno social y el ritmo de esos cambios puede producir que se provoque una respuesta inadecuada para la nueva situación. Si el proceso no es intencional no puede plantearse una orientación hacia las que puedan ser las condiciones del futuro, sino que se dirigirá siempre hacia la actual situación del objetivo. Algunas de las críticas a la economía del bienestar y sus dificultades para establecer el descuento del tiempo y tener en cuenta a las generaciones futuras ha sido unade las críticas desde cierto ecologismo a la teoría económica académica (posición de Martínez Alier).

  • c) Una tercera posición es la que defiende que la única explicación funcional completa, adecuada formal y materialmente, es aquella queofrezca los detalles completos del bucle de retroacción que fundamenta la explicación. Sin duda esta es una posición muy exigente y que, diciéndolo con términos de Nagel, reduce la explicación funcional a un tipo de explicación teleológica, dirigida hacia un objetivo y que, en aquellos casos en los que se puede sostener, no es más que un caso de explicación causal. En todo caso es preferible esta tercera posición que la primera ingenua, ya que puede sugerir vías de investigación que no caigan exclusivamente en la búsqueda de una explicación causal sino que puede tener que ver con el lugar de la explicación intencional en ciencias sociales.

  • d)La cuarta posición, entre las que ha sistematizado Jon Elster, sería precisamente la que se apoya en la ley de consecuencia en el sentido de Cohen, y aunque ni Elster ni Cohen han observado tal similitud, se corresponde en gran medida con la posición formulada precisamente por Nagel en 1977. En este caso las dificultades no se referirían a la estructura formal de la explicación, sino que las críticas tendrán que centrarse en los usos concretos y son en buena medida de carácter pragmático:

    • 1) no es frecuente disponer de casos que apoyen una cierta generalización inductiva, que nos hiciera plausible la adopción de la ley de consecuencia. Por ejemplo, el caso estudiado por Cohen sobre la explicación de las relaciones de producción en términos de su impacto beneficioso sobre las fuerzas productivas, que se intenta presentar como una explicación funcional, sería precisamente el único caso de la ley de consecuencia que explica ese mismo hecho. Esta objeción está siendo apoyada por algunas investigaciones sobre la transición del feudalismo al capitalismo, lo que se ha llamado la cuestión de R. Brenner, pues parece que el estudio apoyado en las transformaciones de las relaciones de propiedad suministra mayor clarificación y en un mayor número de casos que la supuesta explicación funcional del materialismo histórico a la Cohen.

    • 2) Por tanto aparece una segunda objeción pragmática, en el sentido de que es mejor estrategia heurística estudiar el mecanismo concreto que la búsqueda de otras instancias confirmadoras de la ley.

    • 3) Además una tercera posición crítica viene a decir que si el término «beneficioso» utilizado por las variedades ingenuas del funcionalismo resultaba vago, la noción que se utiliza a veces proponiendo que se trata de un estudio de óptimos resulta, por el contrario, excesivamente exigente. Adoptar una determinada pauta conductual como óptima puede ser algo muy complejo de establecer.

Funcionalismo y Estructuralismo

Una de las líneas de investigación social que ha tenido cierto predicamento es la conocida como estructuralismo. De hecho ha tenido cierta importancia en la historia de la antropología. El estructuralismo francés de mediados del siglo XX (con antropólogos como Levi-Strauss) supuso un fuerte impacto en ciertos campos de la ciencia social. Una buena manera de entender esa línea de investigación, que en la práctica niega la realidad de la elección intencional entre alternativas, es vincularla a la forma de explicación funcional.

Como ha indicado Jon Elster, podríamos pensar que cualquier acción realizada puede considerarse como el fruto de dos procesos sucesivos de filtraje.

En primer lugar nos encontramos con las restricciones objetivas que reducen el campo abstracto de todo nuestro conjunto de posibilidades, situándonos ante el conjunto de acciones realizables.

Además podemos suponer un segundo mecanismo que explique porque se realiza una acción en vez de otra de entre las que están en nuestro conjunto de acciones realizables. Una manera de negar la realidad de la elección racional consiste en decir que el conjunto de constricciones define efectivamente un conjunto de acciones realizables que se reduce al conjunto unitario, o que de hecho es un conjunto tan pequeño que no se pueden distinguir sus diversos componentes. Esta es la forma en que Elster interpretaba al estructuralismo francés. Resulta interesante analizar lo que se puede llamar «la falacia estructuralista en ciencias sociales». Siguiendo a Jon Elster, se trata de la inferencia siguiente:

  • Todos los miembros de A hicieron x.

  • Cuando todos los miembros de A hacen x, esto tiene el efecto z, conocido y deseado por los miembros de A.

  • Por lo tanto, los miembros de A hicieron x para conseguir z.

Un ejemplo de esta falacia la analiza el historiador Eric Hobsbawn, al precavernos de cierta explicación falaz de los orígenes del capitalismo que coloca elementos económicos externos como motivaciones de los inversores individuales: «El mismo proceso que reorganiza la división social del trabajo, incrementa la proporción de trabajadores no agrícolas, diferencia al peasantry y crea las clases de trabajadores asalariados, también crea hombres que dependen para sus necesidades de las compras en efectivo-clientes para los bienes. Pero este es la mirada del analista sobre el asunto, no la del empresario que es quien decide si invierte o no para revolucionar su producción».

El modelo de explicación funcional en sociología o antropología supone una forma de razonamiento muy cercano a la falacia estructuralista. El rasgo común es que las consecuencias objetivas favorables de algún conjunto de acciones se consideran que explican las acciones. En la falacia estructuralista estas consecuencias se convierten en motivos individuales para la acción mientras que las explicaciones funcionalistas postulan algún mecanismo de retroalimentación causal del efecto a la causa.

La solución darwinista

En el espacio de la filosofía de la biología se ha producido buena parte de la discusión sobre la adecuación de la explicación funcional. Posiblemente esto es así porque tanto en la vida cotidiana como en biología con frecuencia consideramos que explicamos la conducta de un ser o la misma existencia de algo indicando la función que realiza.

Desde luego este tipo de explicaciones finalistas (teleológicas) resultan problemáticas porque hacen referencia a intenciones (en el mejor de los casos) o nos remite a algún agente inteligente que tuvo el propósito de diseñar un componente (el corazón) para que cumpla una determinada función. Ahora bien, como ha indicado A. Rosenberg:

«El problema filosófico no consiste en decidir si estas explicaciones son legítimas en biología, sino en ofrecer un análisis del método y la teoría biológica que explique por qué resultan indispensables este tipo de explicaciones».

Lo que ocurre en biología es que se dispone de una fundamentación para este tipo de explicaciones en términos de la teoría de la selección natural. Nos ofrece el mecanismo subyacente a esta aparente situación en la que los efectos explican las causas. Un efecto posterior no puede explicar una causa anterior. Las funciones parecen ser posteriores, por lo tanto no pueden explicar causas anteriores. Así pues, en el caso de los latidos del corazón se puede considerar que la frase «la función de los latidos es conseguir que circule la sangre» viene a significar implícitamente que, a lo largo de la evolución, se seleccionaron aquellas variaciones aleatorias (mutaciones) en la configuración del corazón que facilitaban la circulación, debido a que esto contribuía a una mejor eficacia adaptativa (fitness) de los animales que las poseían. Por lo tanto, un corazón que facilita la circulación es una adaptación. En consecuencia, la correspondiente afirmación funcional sólo hace referencia de manera aparente a los efectos inmediatos, de hecho hace referencia a causas anteriores a lo largo del pasado evolutivo. Este es el gran «pecado» o «la idea peligrosa» de Darwin: la explicación naturalista de que no hace falta un diseñador o arquitecto intencional para dar cuenta de la estructura y las funciones de los sistemas complejos. Sin entrar en detalles que harían excesivamente compleja la explicación, señalemos lo esencial de la explicación funcional en biología. Según Elster:

«Un rasgo estructural o conductual de un organismo queda explicado funcionalmente si se puede demostrar que es parte de un máximo individual local en relación con la capacidad reproductiva, en un entorno de otros organismos que han alcanzado también sus máximos locales. Si podemos demostrar que un pequeño cambio en el rasgo en cuestión conduce a reducir la capacidad reproductiva del organismo, entonces comprendemos porqué el organismo tiene este rasgo».

Vale la pena observar que este mismo rasgo es el que plantea serias dificultades a la exportación del auténtico modelo explicativo de la biología (la explicación funcional) al ámbito de las ciencias sociales. Es la gran diferencia que existe entre una explicación intencional y una explicación funcional. La selección natural parece que en alguna medida simula la intencionalidad, pero hay muy serias diferencias si observamos la manera en que se produce la adaptación general de los animales y la de los seres humanos. Precisamente la idea de maximizar globalmente los resultados (lo que lleva a establecer compromisos previos en la conducta, a esperar en un momento para actuar posteriormente con mejores condiciones), señala a la posibilidad de adoptar un comportamiento estratégico por parte de los humanos (y posiblemente por parte de algunos animales entre los que se da algo parecido a lo que podríamos calificar de elaboración de herramientas, instrumentos para intervenir en el entorno, así como «vida social»). No se trata de que no se puedan (más bien se debe) realizar trabajo interdisciplinar entre biología y antropología, más bien queremos señalar que la gran falacia se produce si tratamos de transportar globalmente el modelo explicativo de las ciencias biológicas al espacio de las ciencias sociales. Por lo frecuente que resulta el establecimiento de analogías entre el mundo social y el biológico, no está de más indicar algunas precisiones sobre cómo opera la selección natural para no confundirla con ningún tipo de diseño intencional ni como un proceso dirigido a fines. Para ello puede resultar muy adecuadas las siguientes consideradas realizadas por Nagel en «Teleology revisited»:

«¿Ocurre realmente que la selección natural opera de manera que se generen consecuencias conductuales, es decir, produciendo órganos de un tipo particular, precisamente porque la presencia de tales órganos en el organismo del que son componentes da lugar a ciertos efectos? Tal como lo veo, suponer que esto es así sería violentar la teoría neodarwinista de la evolución tal como es comúnmente aceptada (…) De acuerdo con esa teoría, cuáles sean los rasgos heredables, que poseen los organismos que se reproducen sexualmente, depende de los genes que portan los organismos, genes que o son heredados de los organismos progenitores o que son formas mutantes de genes heredados. Cuáles de sus genes transmite un organismo a su progenie, es algo que viene determinado por procesos aleatorios que tienen lugar durante la meiosis y la fertilización de las células sexuales. No viene determinado por los efectos que los genes producen, ni en los organismos paternos ni en los descendientes. Es más, las mutaciones de los genes —la fuente última de la novedad evolutiva— también ocurre aleatoriamente. Los genes no mutan en respuesta a las necesidades que un organismo pueda tener a causa de cambios en su entorno; y qué gen muta es independiente de los efectos que una mutación genética pueda producir en la siguiente generación de organismos. Incluso más, la selección natural«opera» sobre organismos individuales no sobre los genes que portan, y que un organismo sobreviva para reproducirse no depende de si tiene rasgos que podrían resultarle ventajosos en algún entorno futuro.

La selección natural no es literalmente un «agente» que haga algo. Es un proceso complicado, en el cuál los organismos que poseen un tipo de material genético pueden contribuir más, en su entorno actual, al pool genético de su especie que lo que pueden contribuir otros miembros de la especie con diferente genotipo.»

En resumen, la selección natural es «selección» en un sentido muy peculiar de la palabra (Pickwickiano): No hay nada análogo a la foresight (previ-sión) en su operación: no da cuenta de la presencia de organismos que tengan un nuevo genotipo, no controla los cambios del entorno que puedan afectar a las oportunidades que el organismo tenga para reproducirse su propia clase, y no preserva los organismos que tengan rasgos que no son ventajosos para los organismos en su entorno actual, pero que puedan ser ventajosos para ellos en entornos diferentes. El término «selección natural» no es por lo tanto un nombre para algún objeto individual. Es un rótulo para una continua sucesión de cambios medioambientales y genéticos en los que, parcialmente debido a los rasgos genéticamente determinados que poseen los organismos, un grupo de organismos tiene más éxito en un entorno dado que otro grupo de organismos de la misma especie a la hora de reproducir su tipo y en contribuir al pool genético de la especie. La selección natural no tiene ojos para el futuro, si algunos zigotos resultan eliminados por selección natural es porque no se adaptan a su entorno presente.

Hempel. Enfoque en la concepción heredada

El Individualismo Metodológico es la posición del marxismo analítico más reciente, pero tiene precedentes claros. En el conjunto de la filosofía de la ciencia son los positivistas los que han defendido dichas posiciones, aunque tal vez, en el siglo XX, esa adscripción genérica sea parcialmente injusta, ya que otras corrientes teóricas también se pueden identificar como defensores del individualismo metodológico. Pero los fundamentos teóricos del individualismo metodológico, en el siglo XX, indiscutiblemente se relacionan con los esfuerzos del positivismo lógico por fundamentar las explicaciones científicas en unidades elementales que pudieran ser analizadas plenamente. Sin necesidad de entrar en matices que tendrían difícil cabida en un trabajo de esta naturaleza, es posible resumir la cuestión afirmando que la herencia positivista en la tradición de las ciencias sociales se afianza sobre tres principios básicos, conforme a la concepción preconizada por quienes la han consolidado:

  • a) Existe un componente ontológico según el cual es preciso admitir que la realidad existe de forma independiente y está regida por leyes inmutables; en consecuencia, el conocimiento debe predecir y explicar los fenómenos mediante el conocimiento de esas leyes.

  • b) Hemos de partir de un componente epistemológico, según el cual el investigador debe adoptar una postura de distancia, no interactiva, procurando que los valores y juicios propios no interfieran en la obtención de resultados.

  • c) Finalmente, el componente metodológico exige que las hipótesis sean sometidas a pruebas empíricas bajo condiciones contrastadas por medio de la experimentación empírica manipulativa. (Guba 1990)

En el positivismo dominante hasta bien entrados los años setenta del siglo XX, se daban estos tres componentes claramente entrelazados, aunque las reformas radicales de Popper produjeron un importante cambio, manteniendo una concepción en la que el componente epistemológico estaba claramente relacionado con el metodológico. En el individualismo metodológico, especialmente, en el marxismo analítico, tampoco se daba esa relación entre los tres componentes, ya que, siguiendo a Popper, pretendían que sólo se mantuviese una relación sistemática entre la dimensión epistemológica y la metodológica. Se trataría de una reflexión sobre la manera de explicar los hechos sociales y no sobre la composición ontológica del universo social, o sobre la búsqueda de una legitimación o justificación de las instituciones sociales a partir de una concepción individualista.

La postura general de la concepción heredada fue subsumir todas las explicaciones teleológicas y finales bajo el modelo de la explicación causal y compatibilizarlas con el modelo de cobertura legal de Hempel.

Hempel la estudia como la lógica del análisis funcional. La explicación teleológica, al recurrir a entelequias, no cumple los mínimos requisitos empíricos: no permite predicciones ni retrodicciones. Sin embargo, el análisis funcional (expresado a menudo en términos teleológicos) tiene un núcleo empírico y no acude a dichas entidades.

En este caso el explanandum es una pauta de conducta recurrente. Su forma es la siguiente:

  • Un sistema (S) funciona adecuadamente bajo unas condiciones internas y externas (Ci + Ce = C).

  • S funciona adecuadamente si se da cierta condición necesaria (N).

  • Si un rasgo (I) está presente entonces se cumple la N.

  • Luego I está presente en S.

Aparte del problema de significado de la expresión “funcionar adecuadamente”, el razonamiento involucra la falacia de afirmar el antecedente. Habría que ser más restrictivo con el rasgo I: N sólo es posible si se da I. Podríamos interpretar I como una clase de rasgos pero entonces sólo podríamos inferir la presencia de alguno de los rasgos de la clase I.

El problema en esta clase de explicaciones es el uso de hipótesis de autoregulación no empíricas. Involucran el problema del tiempo, el significado de necesidad o de funcionamiento correcto, etc. Asociación peligrosa de los conceptos de función y propósito. Es importante reseñar el papel heurístico del análisis funcional: búsqueda de los aspectos autoreguladores de un sistema (social, biológico, psíquico, etc.).

Causa y Causalidad

El problema de la explicación causal, por más que se ha intentado, reaparece constantemente porque las palabras causa y efecto se introducen en el discurso aún cuando sean repudiadas en las propuestas metodológicas, como si la visión causal del mundo estuviera inscrita en algún rincón de la conciencia más allá de cualquier convicción metodológica.

Hay que distinguir muy claramente entre la naturaleza de la causación y la explicación causal. No es lo mismo un acontecimiento causal que una explicación causal. El hecho de que un acontecimiento cause otro es independiente del hecho en sí. La explicación causal subsume los acontecimientos bajo leyes causales.

La idea de causa surge de manera intuitiva al intentar explicarnos lo que sucede a nuestro alrededor mediante un esquema lógico subyacente que nos permita relacionar unos eventos con otros mediante conexiones necesarias.

Se trata pues de una habilidad cognitiva básica, muy importante porque existe la evidencia empírica de que siempre que se dan las mismas circunstancias como causas, se producirá el mismo efecto. Y esto es lo que entendemos por principio de causalidad.

Dados dos eventos, A y B, se dice que A es causa de B si se cumplen dos condiciones lógicas:

  • Cuando sucede A, sucede B, es decir, existe una correlación positiva entre ambos eventos
  • Cuando no ocurre B, implica que tampoco ocurre A, aunque la ocurrencia de B no tiene que estar necesariamente ligada a la ocurrencia de A

Si se cumplen ambas condiciones, existe una relación causal entre ambos eventos: A es causa de B o B es un efecto de A.

La idea de causa aparece en los diferentes contextos que abarca la ciencia:

  • En física el término suele denominarse causalidad, en mecánica newtoniana se admite además que la causa precede siempre al efecto.
  • En estadística es analizado por la estadística diferencial.
  • En ciencias sociales el concepto suele aparecer ligado a un análisis estadístico de variables observadas.
  • En ciencias naturales diferentes de la física y en procesos en los que no podemos reducir la concurrencia de eventos a un mecanimo físico simple, la idea de causa aparece en procesos complejos entre los que hemos observado una relación causal. Así tras las ecuaciones empíricas se supone hay un proceso físico causal que lleva a una conexión necesaria entre ciertos eventos.

La idea de “causa” ha suscitado un buen número de debates filosóficos y científicos.

  • Aristótelesconcluye el libro de los Segundos Analíticos con el modo en que la mente humana llega a conocer las verdades básicas o premisas primarias o primeros principios, que no son innatos, ya que es posible desconocerlos durante gran parte de nuestra vida. Tampoco pueden deducirse a partir de ningún conocimiento anterior, o no serían primeros principios. Afirma que los primeros principios se derivan por inducción, de la percepción sensorial, que implanta los verdaderos universales en la mente humana. De esta idea proviene la máxima escolástica “nada hay en el intelecto que no haya estado antes en los sentidos”. Al mantener que “conocer la naturaleza de una cosa es conocer, ¿por qué es?” y que “poseemos conocimiento científico de una cosa sólo cuando conocemos su causa”. Aristóteles postuló cuatro tipos mayores de causa como los términos medios más buscados de demostración:
    • Material, de lo que está hecho ese algo
    • Formal, lo que ese algo es
    • Eficiente, lo que ha producido ese algo
    • Final, para lo que ese algo existe o puede llegar a ser
  • En la filosofía occidental, el concepto de causa como “conexión necesaria” fue criticado por el filósofo David Hume, que dijo que nunca había observaciones suficientes para relacionar A con B. En las relaciones causales encontramos que:
    • Observamos que las cosas no están aisladas, sino que unas están ligadas a otras en un proceso de interacción. Unas cosas suceden a otras, y siempre en el mismo orden.
    • Un conjunto de hechos definen una situación, y a este momento siempre le sucede otra situación y siempre la misma.
    • Al primer conjunto que define la situación lo llamamos causa, y a la segunda situación la llamamos efecto.
    • La ley de la causalidad no debe confundirse con el Principio de razón suficiente. Tal paso es ilegítimo, como bien establecido está en el pensamiento científico y filosófico.
    • Sin embargo la ley de la causalidad es el esquema fundamental de la investigación científica, suponiendo que la mejor forma de comprender y explicar es conocer las causas, porque por un lado podemos prevenir y por otro controlar los efectos, en definitiva dominar los sucesos naturales.
  • Para Kant la causalidad es una de las categorías a priori del entendimiento, y entonces no proviene de la costumbre (como decía Hume) sino tiene un carácter necesario y universal. Esto permite que la ciencia se apoye sobre el principio de causalidad sin dejar de ser necesaria y universal.

Salmon y la relevancia estadística positiva

El problema con la visión inferencial está en que no siempre se puede usar la información explicatoria como base para la predicción. Esto es debido a que frecuentemente ofrecemos explicaciones de fenómenos con baja probabilidad.

En estos casos no se podría predecir el resultado que ocurrirá, pues la información no confiere una probabilidad alta para el resultado. No obstante, la información ofrecida constituye una explicación de ese resultado, pues aumenta la probabilidad de que ocurra.

En los 1960’s y 1970’s, Wesley Salmon propuso una visión de la explicación estadística que postulaba que, a diferencia de lo que había dicho Hempel antes, la probabilidad alta no era necesaria para la explicación, bastaba sólo una relevancia estadística positiva.

Es decir, una hipótesis h es relevante positivamente (correlaciona) con e, si h hace que e sea más probable

Pr(h|e) > pr(h)

El problema para Salmon ahora era distinguir entre casos donde la información pudiera proporcionar una explicación sustantiva, de otros casos donde la información reportada fuera una mera correlación.

Por ejemplo, tener manchas de nicotina en los dedos correlaciona positivamente con el cáncer de pulmón, pero no se puede explicar porqué una persona contrajo el cáncer de pulmón diciendo que es porque esa persona tiene manchas de nicotina en los dedos. Es imposible diferenciar entre estos dos casos mediante relaciones puramente estadísticas.

Obviamente se requiere de otro tipo de información para hacer la distinción. Luego de este tropiezo, Salmon vino a creer que explicar un fenómeno no es proporcionar información suficiente para predecirlo, sino dar información sobre las causas de tal fenómeno. En este enfoque, la explicación no es un tipo de argumento conteniendo leyes de la naturaleza como premisas, sino un conjunto de información estadísticamente relevante sobre la historia causal de un fenómeno.

Salmon proporciona dos razones para pensar que la información causal es lo que se necesita en las explicaciones.

  • Primero, las llamadas condiciones iniciales proporcionadas por la información explicatorio deben de preceder temporalmente a la explicación, para ser una explicación de lo explicado. La teoría de Hempel no tiene alguna restricción de este tipo. Es interesante que Salmon señale que la dirección temporal de las explicaciones semejen la dirección temporal de la causalidad, que es hacia adelante (las causas deben preceder en tiempo a los efectos).
  • Segundo, no todas las derivaciones a partir de leyes resultan ser explicaciones. Salmon argumenta que algunas “explicaciones Nomológico-Deductivas no son explicaciones de ninguna manera. Por ejemplo, una derivación a partir de la ley del gas ideal PV = nRT y la descripción de las condiciones iniciales. La ley del gas ideal simplemente describe un grupo de restricciones de cómo diversos parámetros (presión, volumen y temperatura) se relacionan, no explica porqué estos parámetros se relacionan de esa manera. La existencia de estas restricciones es una cuestión sustantiva que se responde en la teoría cinética de los gases.

Salmon dice que la diferencia entre leyes explicatorios y no-explicatorias es que las primeras describen procesos causales, mientras que las no-explicatorias (como la ley del gas ideal) solo describen regularidades empíricas.

Rasgos de los procesos causales

La teoría de Salmon sobre la explicación causal tiene tres elementos:

  1. Relevancia Estadística: los argumentos explicatorios (C) aumentan la probabilidad del fenómeno que se quiere explicar (E): pr(E|C) > pr(E)
  2. Procesos Causales: la explicación y lo explicado son partes de procesos causales diferentes
  3. Interacción Causal: estos procesos causales interactúan de tal manera que hacen que se presente el evento (E) en cuestión

Esto nos deja con la tarea de explicar qué es un proceso causal. Básicamente, el enfoque de Salmon es que los procesos causales se caracterizan por dos rasgos.

  • Primero, un proceso causal es una secuencia de eventos en una región continua de tiempo y espacio.
  • Segundo, un proceso causal puede transmitir información (“marcar”).

Existen varias secuencias de eventos que son continuos en el sentido requerido, por ejemplo, un rayo de luz, un proyectil viajando en el espacio, una sombra o un haz de luz que se mueve proyectado en una pared. Un objeto que está quieto, por ejemplo, una bola de billar también se considera como un proceso causal. Cada una de estas cosas es un proceso continuo en algún sentido, pero no todas son procesos causales, por ejemplo, la sombra y la luz en la pared. Veamos un ejemplo que nos aclare esto.

La teoría de la relatividad afirma que nada puede viajar más rápido que la luz. Pero ¿a que “cosa” nos referimos con nada? Imaginemos un cuarto circular con un radio de un año luz. Si tenemos un rayo laser enfocado y montado en un pivote en el centro del cuarto, podemos rotar el laser y hacer que de una vuelta por segundo. Si el laser esta prendido proyectará una luz en la pared. Esta luz también rotará a lo largo de la pared completando una vuelta por segundo, lo que significa que viajará a 2p años luz por segundo! Aunque parezca extraño, esto no está prohibido por la teoría de la relatividad, ya que una luz de este tipo no “transmite información”. Solo las cosas que sí lo hacen están limitadas en su velocidad.

Salmon concluye que un proceso causal es un proceso espaciotemporal continuo que puede transmitir información (dejar “marca”)… la transmisión de la marca consiste en que la marca ocurre “en” un punto del proceso y mantiene su efecto “para” todos los puntos subsecuentes, hasta que otra interacción causal ocurra, que borre la marca.

De acuerdo con Salmon, un principio poderoso para la explicación es el que afirma que siempre que haya una coincidencia (correlación) entre las características de dos procesos, la explicación viene de un evento común a los dos procesos, que da cuenta de su correlación. Esto es, de una “causa común”. Para citar un ejemplo que dimos antes, hay una correlación entre el cáncer de pulmón (C) y las manchas de nicotina en los dedos de una persona (N). Esto es: Pr(C|N) > pr(C)

La causa común de estos dos eventos es un hábito de toda la vida fumando dos cajetillas de cigarros diariamente (S). Con relación a S, C y N son independientes.

Podemos decir: pr(C|N&S) = pr(C|S).

Una vez que S entra en la escena, N se vuelve irrelevante.

Esto es parte de una definición precisada de lo que es una “causa común” y que está sujeta a condiciones probabilísticas formales. Empezamos con que pr(A|B)>pr(A).

C es una causa común de A y B si se dan las siguientes condiciones:

  • pr(A&B|C)=pr(A|C)pr(B|C)
  • pr(A&B|¬C)=pr(A|¬C)pr(B|¬C)
  • pr(A|C)>pr(A|¬C)
  • pr(B|C)>pr(B|¬C)

Sin embargo, esto no completa el concepto de la explicación causal, pues no hay una causa común que haga irrelevante la correlación de eventos independientes. Salmon nos da entonces la dispersión de Compton como ejemplo. Dado que un electrón e- absorbe un fotón de cierta energía E y recibe una energía cinética E* en cierta dirección como resultado, un segundo fotón se emitirá con E** = E – E*. Los niveles de energía del fotón emitido y del electrón estarán correlacionados, aún cuando ocurra la absorción. Esto es: pr(A&B|C)>pr(A|C)pr(B|C)

Críticas a Salmon

Resumiendo el análisis de Salmon sobre la explicación causal, Salmon afirma que una explicación involucra

  1. relevancia estadística
  2. conexión vía procesos causales, y
  3. cambios luego de la interacción causal.

El cambio es el fenómeno que hay que explicar. La noción del proceso causal es complimentada en términos de

  • continuidad temporoespacial, y
  • la habilidad para transmitir información (“marcar”).

Aún cuando algunas veces podemos hablar diciendo que sencillamente la causa y el efecto son las dos partes de un solo proceso causal, el análisis final típicamente se entregaría en términos de conexiones causales más complejas (y muchas veces indirectas), entre las que Salmon identifica dos tipos básicos: relaciones conjuntivas e interactivas.

La visión pragmática de Van Fraassen sobre la explicación

El enfoque pragmático de la explicación según Van Fraassen afirma que una explicación es un tipo particular de respuesta a la interrogante de ¿porqué?, una respuesta que proporciona información relevante que resulta más “favorable” para explicar un fenómeno, de lo que resultan otras explicaciones alternativas. Para Van Fraassen, estas características están determinadas por el contexto en el que se cuestiona la pregunta.

Los elementos básicos de la visión pragmática de la explicación

De acuerdo con Van Fraassen, una interrogante del tipo ¿porqué? Consiste de

  1. una presuposición (¿porque X?)
  2. una serie de clases contrastantes (¿porqué x y no Y, Z, etc.?), y
  3. un criterio implícitamente entendido de relevancia.

La información que se proporciona a una pregunta ¿porqué? en particular constituye una explicación de la presuposición, si la información es relevante y “favorece” la presuposición por encima de las alternativas en sus clases contrastantes.

Tanto las clases contrastantes como el criterio de relevancia están contextualmente determinados, basados en los intereses de los involucrados. Los intereses subjetivos definen lo que contará como una explicación en ese contexto, aunque entonces será una cuestión objetiva si esa información realmente favorece a la presuposición sobre las alternativas en sus clases contrastantes.

Comparación entre los enfoques pragmático y causal de la explicación

Cualquier tipo de información podría contar como relevante. El contexto (los intereses) determinará si algo se considera como una explicación a diferencia de que para nosotros podamos encontrar que una explicación es sobresaliente o más interesante. (De acuerdo con Lewis, lo que hace a una explicación es que proporciona información sobre la historia causal que lleva a que ocurra un fenómeno determinado, el que encontremos esa información interesante o sobresaliente es otra cuestión).

En el enfoque pragmático, Nunca se puede tener una explicación “completa” de un evento, a menos que se tengan intereses. (Una mera descripción de la historia causal que lleva a que ocurra un fenómeno -aunque sea una historia completa-, no es una explicación de ningún tipo, de acuerdo con la visión pragmática).

Las críticas de Van Fraassen a los esquemas tradicionales de explicación

El punto de partida de la crítica de Van Fraassen al patrón clásico de explicación propuesto por Hempel, va a girar en torno al concepto de relevancia explicativa, que como ya hemos visto, constituye uno de los requisitos indispensable que toda explicación debe cumplir para poder ser considerada como científicamente adecuada.

Recordemos que, según este principio, la información proporcionada por las premisas de una explicación debe proveer bases firmes para creer que el fenómeno explicado efectivamente ocurrió u ocurre. Van Fraassen, cree que este principio no proporciona condiciones suficientes, ni mucho menos necesarias, para que se dé una buena explicación, ya que, en primer lugar: “dar bases firmes para creer no siempre equivale a dar una explicación”.

Según este punto de vista, el carácter asimétrico que asumen muchas veces las proposiciones que componen una explicación, hace deficiente este principio. Así, por ejemplo, dos proposiciones pueden llegar a ser equivalentes la una de la otra (con respecto a la teoría aceptada como marco de referencia), pero no a la inversa. Al referirse a este hecho, Van Fraassen hace alusión al ejemplo del barómetro, donde el descenso brusco de la columna mercurial puede indicar, por lo general, la proximidad de una tormenta. Sin embargo, afirma Van Fraassen: “Si aceptamos la hipótesis significativa de que éste desciende exactamente cuando una tormenta está llegando, esto sin embargo, no explica (sino más bien es explicado por) el hecho de que la tormenta está llegando”.

La segunda objeción de Van Fraassen al requisito de relevancia explicativa, se basa en el hecho, de que: “No toda explicación es un caso en el cual se nos dan bases firmes para creer”. Uno de los ejemplos utilizados por Van Fraassen es el del enfermo de paresia, que ya hemos comentado. Se acepta la explicación de que nadie contrae esta enfermedad a menos que padezca de sífilis mal tratada. Sin embargo, el hecho de que el individuo padezca de sífilis no aporta buenas razones para esperar que se contagie de paresia, ya que, sólo un bajo porcentaje de enfermos de sífilis contrae esta enfermedad.

Se podría argumentar, como lo hace el propio Hempel, que la imposibilidad de establecer una relación mucho más estrecha entre ambas enfermedades se debe al hecho de que existen otros factores relacionados a ambas enfermedades que todavía no han sido descubiertos por la ciencia. Sin embargo, una argumentación de este tipo presupondría la creencia de que los fenómenos del mundo, por lo menos, en lo que se refiere a nivel macroscópico, son determinísticos, de manera que obteniendo una información mucho más completa, la explicación correspondiente sería más adecuada. Van Fraassen rechaza esta salida pues es de la opinión que el carácter determinista de los fenómenos del mundo es una cuestión meramente contingente.

El pragmatismo de Van Fraasen vs la relevancia estadística de Salmon

Con el fin de encontrarle una salida al problema de la relevancia explicativa, vimos que Wesley Salmon propuso considerar la explicación como un conglomerado de factores estadísticamente relevantes y no como un conjunto de argumentos o razonamientos, introduciendo así el concepto de relevancia estadística. De acuerdo a este principio, un hecho A es estadísticamente relevante para el fenómeno E exactamente si la probabilidad de E dado A es diferente de E Simpliceter. Según Salmon, dos ejemplos que cumplirían con los requisitos de proporcionar buenas bases para una adecuada explicación, serían los siguientes:

  •  “Juan Pérez estaba casi seguro de recuperarse de su resfriado porque tomó vitamina C, y casi todos los resfriados se alivian en una semana tomando vitamina C”.
  • “Juan Pérez evitó quedarse embarazado durante el año pasado, porque tomo regularmente las píldoras de su mujer, y todo hombre que toma píldoras anticonceptivas evita el embarazo”.

Van Fraassen cree que la aplicación de este criterio es tan insatisfactoria como la propuesta de Hempel, ya que, la circunstancia de haber tomado vitamina C para curarse de un resfriado es completamente irrelevante desde el punto de vista estadístico, dado que, la probabilidad de curarse en una semana es la misma para aquellas personas que tomen o no vitamina C.

Por otro lado, el criterio propuesto por Salmon termina siendo mucho más débil que el propuesto por el propio Hempel, ya que no requiere que la probabilidad de E sea alta (mayor por lo menos que ½), ni siquiera exige que la información A incremente la información de E solamente. Así, por ejemplo, en el caso de la paresia, aunque la probabilidad de que la enfermedad sea contraída por personas que sufrieron sífilis es baja, es distinta de la probabilidad de que una persona tomada al azar padezca de paresia, de manera que la sífilis resulta estadísticamente irrelevante con respecto a la paresia.

En el caso de las condiciones necesarias, una circunstancia puede llevar a explicar un hecho aunque no incida en la probabilidad de que este ocurra. Van Fraassen, nos propone imaginarnos una ficción médica, según la cual, la paresia resulte ya sea de la epilepsia, o ya sea de la sífilis, y de nada más, y que la probabilidad en cualquiera de los casos sea equivalente a 0,1. Además, nos pide que supongamos que Juan Pérez pertenece a una familia cuyos miembros padecen o bien de epilepsia o bien de sífilis (pero no de ambas), ya que Juan sufre de paresia. A la pregunta: “¿Por qué él desarrolló paresia?”, se responderá: “porque tenía sífilis” o “porque tenía epilepsia”, dependiendo de cual de las dos respuestas se ajuste mejor a la realidad. Sin embargo, afirma Van Fraassen: “con toda la demás información que tenemos, la probabilidad de que Pérez contrajera la paresia está ya establecida como 0,1, y está probabilidad no se modifica si no se nos dice además, pongamos por caso, que el tiene una historia de sífilis”.

 De las dos respuestas que pueden obtenerse en este ejemplo, sólo una explica legítimamente la aparición de paresia. Sin embargo, su aparición en Juan Pérez no altera el grado de probabilidad de que éste sufra de paresia. Esto significa, a diferencia de lo expresado por Salmon, que el hecho de que una circunstancia resulte ser un factor estadísticamente relevante no es condición necesaria para que éste se convierta en un explanans inobjetable.

Salmon ha afirmado que su teoría de la explicación causal no se adecúa enteramente para el dominio cuántico debido a ciertas anomalias causales

El problema de la causalidad

Para la mayoría de los filósofos de la ciencia el término explicación estaba estrechamente asociado a la explicación del “porqué” de los hechos, considerándose sólo explicación científica aquella que busca su marco y conceptos de referencia únicamente en las relaciones causales. Van Fraassen, va a cuestionar categóricamente a las distintas concepciones de la causalidad que han estado asociadas con los modelos tradicionales de explicación científica, ya que, para él: “Cuando algo se cita como una causa, ello no implica que sea suficiente para producir el suceso (para garantizar su ocurrencia)”. En otras palabras, Van Fraseen cuestiona la posición asumida desde el punto de vista tradicional, en el sentido de identificar la causa como conditio sine qua non, a la hora de explicar un hecho.

Entender la causa como condición necesaria tampoco resuelve el problema, ya que, en primer lugar, existen condiciones necesarias que no se considerarían la causa de un fenómeno, por ejemplo, la existencia del cuchillo es una condición necesaria para su oxidación, pero nadie aceptará la explicación de que el cuchillo se oxidó por el simple hecho de existir; y en segundo lugar, porque en algunos casos lo que se identifica con la causa de un hecho no puede ser condición necesaria para su ocurrencia.

Con el fin de resolver este problema de la relación causal, J.L.Mackie (1965), propuso la definición de causa como: “La parte insuficiente pero necesaria de una condición innecesaria pero suficiente”. No obstante, para Van Fraassen, tampoco con esta definición se logra una caracterización adecuada de la causalidad. En el caso del ejemplo del cuchillo, es evidente que su existencia es un factor necesario pero insuficiente del conjunto de circunstancias que constituyen una condición suficiente aunque no necesaria para su oxidación. Sin lugar a dudas, nadie afirmaría que la oxidación del cuchillo se debió a su existencia. Según el parecer de Van Fraassen, esto se debe a que: “en primer lugar, no toda condición necesaria es una causa; y en segundo lugar, en algún sentido muy directo una causa puede no ser necesaria, a saber, causas alternativas podrían haber llevado al mismo resultado”.

Otra de las definiciones de causalidad rechazadas por Van Fraassen, es la propuesta por David Lewis (1973), quien intento definir la causalidad en términos de condicionales contrafácticos. Lewis, sugirió que la información “A causó B” es equivalente a la proposición “Si A no hubiera ocurrido, B no habría ocurrido”. Van Fraassen, cree que este tipo de equivalencias no pueden ser pensadas en términos de la lógica tradicional como si se anunciara que A es una condición necesaria para que B ocurriera. El “Si……..entonces” no corresponde, observa Van Fraassen, con ninguno de los tipos de implicación conocidos por la lógica tradicional, ya que estos obedecen a la ley de debilitamiento, según la cual:

Si A entonces B.

Se puede inferir,

(1) Si C y A, entonces B.

Pero, puesto que, en el lenguaje natural no rige la ley de debilitamiento, la lógica tradicional no refleja las propiedades de las condiciones que usamos en este tipo de lenguaje. Es por eso, que cualquier persona suscribiría la verdad del enunciado:

(2) Si el cerillo se frota, entonces encenderá.

Pero se negará a aceptar lo que sería su consecuencia, si se atiene a la ley de debilitamiento.

(3) Si el fósforo se moja en el café y se frota, encenderá.

Van Fraassen cree, que el hecho de que esta ley no pueda aplicarse a los condicionales del lenguaje ordinario es debido a que llevan consigo una cláusula tácita de ceteris paribus (si nada interfiere). Se le da este nombre al supuesto de que todas las circunstancias que componen el hecho mencionado en el antecedente permanecen siempre sin alterarse. Es por esto, que el efecto lógico de esta cláusula impide que la ley de debilitamiento sea aplicable al lenguaje natural. Así, por ejemplo, el enunciado (3) daría lugar, si se aplicara esta cláusula al siguiente condicional contrafáctico:

(4) Si el cerillo se hubiese frotado (y las demás circunstancias hubiesen permanecido iguales), entonces se habría encendido.

La posibilidad de afirmar que igualmente se hubiese encendido si se hubiese mojado y se le frotara, queda descartada, dado que la acción de mojarla violaría la permanencia de circunstancias que impone la cláusula ceteris paribus, colocada entre paréntesis.

A juicio de Van Fraassen, la posibilidad de que estos problemas puedan resolverse, siguiendo el camino de la lógica tradicional o el tratamiento formal de los condicionales contrafácticos, como propone Lewis (1973), son remotas. Los intentos por establecer las condiciones de verdad de los enunciados condicionales del lenguaje natural fracasan al desconocer que tales condiciones están determinadas por el contexto en que surgen.

En efecto, ya sabemos que los condicionales del lenguaje ordinario llevan implícito la cláusula ceteris paribus. Sabemos también que esta depende del contexto, es decir, de lo que el hablante decida mantener inalterable. Por tanto, es la variable contextual la que determina el contenido de la cláusula, al tiempo, que es fundamental a la hora de establecer la verdad del enunciado condicional. Suponer como pretende Lewis, que lo que queda fijo es siempre lo mismo para cada hablante es un gravísimo error.

Un condicional contrafáctico podrá ser verdadero en el contexto C1 y falso en el contexto C2, dado que su valor de verdad no esta condicionado por el enunciado en sí, sino por factores pragmáticos, que dependen a su vez del contexto. Al respecto, afirma Van Fraassen: “en algún momento se tuvo la esperanza (….), de que los condicionales contrafácticos proporcionarían un criterio objetivo de lo que es una ley de la naturaleza o, por lo menos, de lo que es un enunciado legaliforme (o nomológico). Una verdad meramente general debía ser distinguida de una ley puesto que ésta ultima, y no la primera, es la que implica los contrafácticos. Esta idea debe invertirse: si las leyes implican contrafácticos, entonces, dado que los contrafácticos son dependientes del contexto, el concepto de ley no señala ninguna distinción objetiva de la naturaleza” (Van Fraassen, 1996:149).

En base a estas observaciones, Van Fraassen llega a la conclusión de que todo intento por caracterizar el concepto de causalidad sobre la base de condiciones suficientes o necesarias, o por medio de condicionales contrafácticos, es un intento condenado al fracaso. Propone, por el contrario, una reformulación del concepto de causalidad en base a su estrecha relación con los factores pragmáticos. Trataremos ahora, de explicar los aspectos más importantes de esta concepción de la causalidad y su articulación en una teoría de la explicación.

La explicación causal y su dependencia del contexto

El modelo de la explicación científica propuesto por Van Fraaseen se apoya básicamente en dos elementos fundamentales: Las ideas de Reichenbach y Salmon sobre la causalidad y las características lógicas y pragmáticas de las preguntas. La vinculación con la causalidad es natural si se toma en cuenta que tradicionalmente “explicar” un fenómeno se ha entendido como determinar los factores (principios causales) que los ocasionaron. En lo que respecta al análisis de las preguntas, su vinculación radica en que una explicación constituye básicamente una respuesta al porqué sucede o sucedió un evento.

Sobre la base de las aportaciones hechas por varios filósofos de la ciencia (Bromberger, Achinstein, Hanson) en esta área, Van Fraassen, desarrolla su modelo reafirmando la importancia que los factores pragmáticos o contextuales poseen a la hora de fundamentar una buena explicación. Para Van Fraassen explicar causalmente un hecho es: “Contar una historia de cómo las cosas sucedieron y cómo, por así decirlo, los sucesos concuerdan entre si”.

Ahora, consciente de las insuficiencias que su concepto de relevancia explicativa poseía a la hora de explicar un hecho, Salmon reelabora su teoría de la explicación apoyándose en la teoría de la causa común de Reichenbach. Un proceso causal es entendido en su nueva teoría como una serie espacio-temporal continua de sucesos, igual al movimiento de un automóvil que se mueve a lo largo del camino y cuya sombra se mueve a la par de él. La explicación -según la nueva caracterización de Salmon- consistirá en mostrar la parte relevante de la red causal que conduce a los sucesos que han de explicarse.

Para Van Fraseen, a pesar de lo práctico que resulta la comparación de la realidad propuesta por Salmon -como una compleja red en la que se encuentran las series de eventos-, una explicación será sólo posible en la medida que se realice una previa selección de las partes de la red que se consideraran relevantes. De manera que, a la hora de explicar un evento: “la explicación solamente tiene que decir que existe una estructura de relaciones causales de cierto tipo, que podría en principio ser descrita en detalles: las características relevantes son las que escogen el cierto tipo”. Esto implica, que un mismo evento merecerá, de acuerdo a cuáles factores sean considerados relevantes, explicaciones alternativas; pudiendo incluso resultar varias de ellas adecuadas al mismo tiempo. En consecuencia, dirá Van Fraassen, que un mismo suceso podrá tener varias causas de muy diversa naturaleza.

Sin embargo, Van Fraassen cree que la elección del factor causal relevante no puede reducirse simplemente a señalar aquel que parezca más interesante. Los factores explicativos deben escogerse entre una gama de factores objetivamente relevantes para alguna teoría científica. Esto significa, que: “ningún factor es relevante explicativamente hablando, a menos que sea científicamente relevante, y entre los factores científicamente relevantes el contexto determina aquellos que son relevantes explicativamente”.

Conclusiones

La búsqueda de explicaciones adecuadas es uno de los principales motivos que impulsa la actividad científica. De allí, que la consideración en torno a la naturaleza y propósito de las explicaciones sea tema obligado en cualquier discusión sobre las funciones que debe cumplir toda ciencia.

Los defensores del modelo nomológico, por ejemplo, están convencidos que su patrón metodológico es aplicable a todas las disciplinas fácticas. Hempel encarna el ideal de muchos filósofos de la ciencia, según el cual, el conocimiento científico queda circunscrito a aquellas disciplinas que puedan confirmarse a través de la experiencia, de allí su esperanza de que todas las ciencias puedan unirse en base a un patrón metodológico de explicación único.

Sin embargo, este ideal ha sido objeto de rigurosos cuestionamientos. Los defensores de que la conducta humana individual, social o histórica, se rige por principios diferentes a los propuestos por el modelo de Hempel, insisten en la necesidad de defender el pluralismo metodológico, rechazando cualquier patrón unitario de explicación para la conducta humana.

Uno de los méritos del modelo pragmático propuesto por Van Fraassen, es que permite una mejor comprensión de los factores que condicionan la aceptación o rechazo de una explicación, resolviendo de esta manera, algunos de los malentendidos vinculados con el término. Uno de estos, es el que se refiere al hecho de que algunas explicaciones pueden resultar aceptables bajo la noción vulgar del término y, no obstante, no ajustarse a las exigencias del modelo de Hempel. El modelo pragmático de Van Fraassen, muestra en términos generales, que no existe diferencia entre las explicaciones que hacemos a diario y las explicaciones que realizan los científicos, salvo que, estas últimas se apoyan en sólidas teorías científicamente confirmadas. Esto significa, que quien construya una teoría de la explicación científica podrá apartarse de las limitaciones que impone el uso vulgar del término, siempre que el resultado sea de alguna manera provechoso. Este enfoque indica claramente que las exigencias que han de enmarcar toda explicación estarán condicionadas siempre por el contexto.

Pero si toda explicación se encuentra condicionada por los intereses y convicciones que cada actor adopta en relación a una serie de circunstancias que van más allá del tópico de la explicación, es decir, si toda explicación está condicionada por el contexto de intereses que cada actor aporta en relación al problema que intenta explicar; ¿no indica esto, que toda caracterización que se haga sobre la explicación no podrá reducirse a una única valoración crítica?

Como puede apreciarse, todo parece indicar, que la posibilidad de articular un patrón metodológico de explicación único, susceptible de ser aplicado a todas las ciencias, continúa siendo sólo un ideal.