Archivos para May, 2012

Teoría de los Roles

La Teoría de la Decisión Racional constituye una posible vía para desarrollar la idea de que la explicación de las acciones humanas debe basarse fundamentalmente en la comprensión de las intenciones de los agentes.

Pero no es la única vía posible: al contrario que en el caso de la economía, en las otras grandes «ciencias sociales» (la sociología y la antropología) se ha solido preferir un enfoque completamente distinto, más cualitativo y menos susceptible de desarrollo matemático. Se trata de la llamada «Teoría de los Roles».

La denominación de «Teoría» no debe hacernos pensar que se trata de una estructura formalmente especificada, como en el caso de la Teoría de la Decisión Racional; más bien es un conjunto de enfoques cualitativos, más o menos semejantes entre sí.

En la sociología, su principal impulsor fue Max Weber (principios del siglo XX), y posteriormente Talcott Parsons (mediados del siglo XX).

A la imagen del ser humano que se infiere de la Teoría de la Decisión Racional, como un ser «frío y calculador», se la ha denominado «homo oeconomicus»; la expresión la formuló John Stuart Mill a mediados del XIX como una idealización útil para la disciplina económica, pero en tiempos más recientes ha tendido a convertirse en una denominación peyorativa. Como reacción, a la imagen de la persona como movida por roles sociales se la ha denominado el «homo sociologicus».

Según la Teoría de los Roles, el orden social (no las leyes que han sido impuestas en una sociedad, sino la estructura que nos permite comprender el funcionamiento de esa sociedad) consiste básicamente en un conjunto muy amplio de posiciones sociales mutuamente relacionadas e interdependientes. Cada una de estas posiciones está asociada a un conjunto de expectativas normativas por parte de los agentes que ocupan las otras posiciones (o los otros individuos que ocupan la misma posición): los agentes esperan que quien ocupa una determinada posición actúe de una manera determinada cuando se dan tales y cuales circunstancias (esto es lo que significa el término «expectativas»), y además, están dispuestos a sancionar de algún modo a quien no se comporte de acuerdo con las expectativas asociadas a su posición (eso es lo que hace que las expectativas sean «normativas»).

Dicho de otro modo, para cada posición, los agentes que la ocupan «deben» comportarse de cierta forma. La especificación de estos deberes es lo que constituye el «rol» asociado a cada posición. Un conjunto de posiciones relacionadas de forma sistemática y que, en conjunto, desempeñan una función determinada dentro de cierta sociedad, constituyen una institución.

Y cada sociedad constituiría, de este modo, un conjunto de instituciones mutuamente interconectadas y que, en cierta medida, forman una unidad autónoma, relativamente independiente de otras sociedades; esta definición, de todas formas, hace bastante problemático determinar los límites de «las» diversas «sociedades» en un mundo en el que, como ocurre actualmente, cada «sociedad» está fuertemente conectada con muchas otras.

Hermenéutica

Conviene insistir en que los «deberes» incluidos en un rol no se corresponden necesariamente con las leyes de la sociedad a la que las posiciones pertenezcan. A menudo no hay ningún código escrito, u oficialmente sancionado de cualquier otra forma, que determine qué es lo que se espera que haga la persona que ocupe cierta posición. Es más, muchas veces lo que «se espera» que una persona haga puede ser incluso contrario a las leyes vigentes.

Por otro lado, tampoco pueden identificarse estas expectativas normativas con la idea del «deber moral»: también puede uno fácilmente sentir que lo que «se espera» de él que haga es profundamente inmoral. Así pues, las «expectativas normativas» son más bien un determinado consenso (no necesariamente entre todos los miembros de la sociedad) acerca de qué formas de conducta son reprobables (o, por el contrario, elogiables) en cada circunstancia socialmente definida.

Ahora bien, resulta conveniente recordar que en el fondo de la distinción entre estas diferentes opciones, a veces interviene una oposición más radical. En muchas ocasiones utilizamos la noción de «comprensión» como opuesta a «explicación», pero simplemente con la idea de establecer algún tipo de explicación intencional que tiene en cuenta los intereses, aspiraciones, intenciones de los agentes para obtener el fin previsto.

Pero hay otra línea que mantiene la irreductible de la comprensión porque la investigación social tendría que preocuparse por la interpretación de las prácticas humanas que están dotadas de significado. Como señala von Wright: «La explicación supone identificar causas generales de un acontecimiento, mientras que la comprensión supone descubrir el significado de un acontecimiento o práctica en un contexto social particular».

Una buena parte de la ciencia social se plantea con frecuencia como el intento de reconstruir el significado de las prácticas y estructuras sociales. Esta es la razón por la cual este tipo de orientación se encuentra en la cercanía de lo que podemos llamar «hermeneútica».

Los fenómenos sociales aparecen como «textos» que tienen que ser analizados mediante la reconstrucción atenta del significado de los diversos componentes de la acción social. Esta es una posición que puede verse defendida claramente por filósofos como Charles Taylor quien defiende que las ciencias sociales deben seguir la senda interpretativa y hermeneútica.

Como señala David Little en un buen resumen sobre el programa interpretativo para las ciencias sociales, esta orientación se caracteriza por considerar que: «Las acciones individuales y las creencias solamente se pueden comprender mediante un acto de interpretación, por el cual el investigador intenta descubrir el significado de las acciones o creencias del agente. Hay una diversidad radical entre las culturas por lo que se refiere a la manera en que se conceptualiza la vida social y estas diferencias dan lugar a diversos mundos sociales.

Las prácticas sociales (la negociación, el prometer, el trabajo, el cuidado de los hijos) se constituyen mediante los significados que les atribuyen los participantes. No hay «hechos brutos» en la ciencia social (hechos que no se remitan a significados culturales específicos».

Queda así muy claro que se trata de plantear que todas las ciencias sociales son radicalmente hermenéuticas y que si el científico social no consigue ofrecernos ese tipo de comprensión no estará (de acuerdo con esta orientación) obteniendo un resultado adecuado.

En esta misma dirección se insertan los trabajos de un antropólogo contemporáneo de primera fila, Clifford Geertz, que se puede considerar como uno de los más destacados defensores de un cierto tipo de antropología interpretativa. Precisamente ha sido estudiado en otras materias y puede ser un buen ejercicio el realizar un trabajo de análisis crítico sobre esa orientación, cómo se relaciona y cómo se distingue de las orientaciones cercanas al materialismo cultural del tipo de Marvin Harris.

La polémica está servida

Si la Teoría de la Decisión Racional ha sido habitualmente vista con buenos ojos por los filósofos de orientación «analítica», «empirista» o «positivista» (sobre todo por su aparente capacidad de transferir a las ciencias sociales la metodología matemática y experimental de las ciencias naturales), la Teoría de los Roles ha gozado de más simpatías entre otras corrientes filosóficas las que los anglosajones denominan «continentales», como

  • la hermenéutica (Dilthey, Gadamer…),
  • la fenomenología (Husserl, Merleau-Ponty),
  • el existencialismo (Heidegger, Ortega, Sartre…),
  • el estructuralismo (Levy-Strauss, Foucault…),
  • el marxismo (Bloch, Habermas) y
  • el deconstruccionismo (Derrida, Deleuze…).

Salvando todas las grandes diferencias que puede haber entre estos autores y enfoques filosóficos, un punto que, en nuestra opinión, suelen tener en común es la idea de que las realidades «humanas» son accesibles para nuestro conocimiento a través de algún método diferente a los que se utilizan en las ciencias de la naturaleza.

En éstas, el objeto del conocimiento es una realidad «externa», cuyas cualidades sólo podemos determinar «objetivamente» mediante su manipulación física (experimentos, mediciones) y mediante la construcción de modelos mentales abstractos, fruto de nuestra imaginación. En cambio, en las «ciencias humanas» tendríamos algún método de «acceso a la realidad» más directo, una especie de comprensión intuitiva de los significados.

El problema es que hay tal vez muchas opiniones contradictorias acerca de cuál puede ser este «método especial»; una de las respuestas más habituales es el que lo identifica con la hermenéutica; originalmente, este concepto designaba la técnica de interpretación de textos, en especial la de los libros sagrados, y, en general, la de textos antiguos, con cuyos autores no podemos «dialogar»;

  • Dilthey (segunda mitad del XIX) lo generalizó como un método para las «ciencias del espíritu» en general, y las «ciencias históricas» en particular, y más recientemente,
  • Gadamer y sus seguidores (años 60) lo propusieron como el método general para la mutua comprensión de los seres humanos y sus productos, considerando que los «prejuicios» de cada uno son tanto lo que permite iniciar ese proceso de comprensión como lo que determina sus límites.

En relación a esto último es importante señalar dos cosas:

  • Primera, no sólo los «científicos sociales» (o los filósofos) tienen un «acceso privilegiado» a la realidad que estudian (en relación con los científicos naturales), sino que las propias realidades sociales o culturales están constituidas gracias a la capacidad de las personas para comprender sus propias acciones y las de los otros; la realidad social y cultural, al contrario que la «naturaleza», está formada por «significados», «creencias», «valores», «subjetividad», etc., entidades que son por completo incomprensibles desde una metodología que las tome como «meros hechos objetivos», hacia los que hubiera que mantener una actitud «neutral», «libre de valores».
  • Segunda, estas corrientes de pensamiento no infieren a partir de aquí, de todas maneras, que la visión que tienen «las personas corrientes» de su situación y de la realidad social en su conjunto sea una visión necesariamente «correcta»; más bien, el papel de los filósofos, sociólogos, antropólogos, etc., sería el de descubrir la «verdadera» estructura de esas realidades, la forma como las instituciones sociales influyen sobre las percepciones y valores de unos sujetos, y viceversa…, o tal vez el objetivo sea mostrar la absoluta inexistencia de algo así como una «estructura verdadera de la realidad social», pese a las apariencias.

Ya hablamos en la entrada anterior sobre el modelo clásico de racionalidad, que es el que se recoge bajo la la Teoría de la Decisión Racional

Vamos a discutir a continuación algunos problemas filosóficos que plantea dicha teoría.

¿Nuestros deseos son magnitudes?

En primer lugar, el hecho de que las preferencias de un sujeto racional tengan que poder ser expresadas mediante una función numérica, ¿significa algo así como que las preferencias se pueden medir como si fueran una magnitud física?

Esto no es necesariamente así; lo único que afirma el teorema de Savage es que, si las decisiones son racionales, habrá al menos una función u que pueda considerarse una función de utilidad, pero puede haber varias, y ninguna de ellas tendrá por qué ser más «correcta» que las demás.

En el caso de que el individuo esté seguro de las consecuencias que tendrán sus decisiones (de modo que podamos olvidarnos de las probabilidades, pues todos los resultados que puedan darse tendrán probabilidad igual a 1, y los que no puedan darse, probabilidad igual a 0), en este caso, lo único que exige la condición anterior es que, si el sujeto prefiere a a b y b a c, p. ej., entonces la función de utilidad u que elijamos debe ser tal que

u(a)> u(b) > u(c).

¡Pero esto puede ser válido tanto si

  • u(a)= 10, u(b)= 5 y u(c)=1,
  • como si u(a)= 200, u(b)= 3 y u(c)= 2!

Ninguna de las dos funciones es más apropiada que la otra en este caso, pues las dos cumplen el requisito necesario: ordenar los resultados del más preferido al menos preferido.

Ahora bien, cuando la situación es de incertidumbre, y por lo tanto sí que hemos de tener en cuenta las probabilidades, la conclusión es distinta. Imaginemos que el sujeto tiene que decidir bien el resultado b, o bien aceptar un sorteo entre los resultados a y c; supongamos también que podemos ir variando a nuestro gusto la probabilidad con la que se obtienen a o c en ese sorteo. El sujeto se enfrenta, pues, a una elección entre obtener u(b) con seguridad, u obtener la utilidad esperada del sorteo, igual a u(a)p(a) + u(c)p(c).

  • Supongamos, como antes, que u(a) > u(b) > u(c), y sea p(a)= 0,9.
    • En este caso, la utilidad esperada del sorteo es 0,9 u(a)+ 0,1 u(c), que puede ser mayor o menor que u(b).
    • Si es mayor, podemos ir disminuyendo la probabilidad de a (aumentando con ello la de c) hasta que u(b) =u(a)p(a) + u(c)p(c) (en cuyo caso, el sujeto será indiferente entre b y el sorteo), lo que necesariamente se cumplirá para algún valor de p(a) mayor que 0 (y, por tanto, un valor de p(c) menor que 1) pues cuando p(c) = 1, la utilidad esperada del sorteo será igual a u(c), que hemos supuesto que era menor que u(b).
  • Supongamos que la igualdad se cumple para p(a) = 0,4.
    • Entonces, u(b)= 0,4 u(a) +0,6u(c).

Ahora bien, u(b) = 0,4 u(b) + 0,6 u(b), y por lo tanto, 0,4 u(a) + 0,6 u(c) = 0,4 u(b)+ 0,6 u(b),

de donde podemos deducir que

u(a)–u(b)        0,6

————- = —– = 1,5

u(b)–u(c)        0,4

La conclusión de este razonamiento es la siguiente: las preferencias del sujeto de nuestro ejemplo no podrán ser representadas por cualquier función u que cumpla la condición de que u(a) > u(b) > u(c), sino sólo por funciones que cumplan, además, la condición de que la proporción entre la diferencia de utilidad entre a y b, y la diferencia entre la utilidad de b y c, sea exactamente igual a 1,5.

La utilidad no es una magnitud cuantitativa

Puede demostrarse que, si una función u representa correctamente las preferencias de un individuo racional, entonces también lo harán aquellas funciones v (y sólo aquellas) tales que existan dos números A y B (el primero de ellos mayor que 0) para los que se cumpla que v(x) = u(x)A + B, para cualquier resultado x (estas funciones v son las «transformaciones lineales» de u).

Pero…¿Significa esto que la utilidad es una magnitud cuantitativa, como la masa o la longitud?

No, porque en el caso de estas magnitudes tenemos una restricción adicional: si la función m mide correctamente la masa o la longitud de los objetos (p. ej., m(x) puede ser la masa de x en kilogramos, o su longitud en centímetros), entonces la función m’  la medirá también correctamente si y sólo si m(x)/m(y)=m’(x)/m’(y) para cualesquiera objetos x e y (p. ej., m’ puede ser la masa en libras, o la longitud en millas).

Esta condición equivale a presuponer que las afirmaciones del tipo «la masa de este objeto es cuatro veces igual a la masa de este otro objeto» son afirmaciones con un significado real (ya sean verdaderas o falsas); y esta condición no es necesario que la cumplan las funciones de utilidad (no tiene sentido afirmar «esta cosa me gusta cuatro veces más que aquélla»).

En cambio, las condiciones formales que deben satisfacer las funciones de utilidad coinciden, curiosamente, con las que deben satisfacer las funciones de temperatura (salvo las de temperatura absoluta): podemos elegir el 0 de la escala en el punto que queramos (esto equivale a la elección del número B citado más arriba), y también podemos elegir el «tamaño» que queramos para los grados (esto equivale a la elección del número A), siempre que las proporciones entre las diferencias de temperatura sean constantes.

Por ejemplo, si medimos la temperatura en Valencia y en Granada y la expresamos en grados Celsius, puede que resulte que la primera sea el doble de la segunda, pero eso dejará de ser verdad si expresamos ambas temperaturas en grados Farenheit; pero si decimos que la proporción entre la diferencia de temperatura entre Valencia y Granada, y la diferencia de tem-peratura entre Sevilla y Ávila, es de 2,6 cuando expresamos estas temperaturas en grados Celsius, entonces esa proporción entre las diferencias tendrá que ser necesariamente de 2,6 también si las expresamos en grados Farenheit.

Naturalmente, cabe plantear la cuestión de si este requisito no será demasiado fuerte: ¿puede realmente determinarse con tanta precisión la intensidad de nuestras preferencias (o, al menos, las diferencias de intensidad)? Tal vez los seres humanos de carne y hueso no seamos capaces de tomar decisiones de forma tan coherente como supone el modelo clásico de racionalidad.

No elegimos en función de la métrica…

Otro problema filosófico importante de la Teoría de la Decisión es la de cuál es la propia naturaleza de esta teoría: ¿se trata de un conjunto de hipótesis empíricas, cuya validez habría que determinar mediante la contrastación de sus predicciones con la experiencia?

Por un lado, a menudo los críticos de la teoría señalan a sus «fallos empíricos» como una razón para no aceptarla: especialmente en algunas situaciones experimentales diseñadas para poner a prueba la teoría, los sujetos parece que no eligen de forma coherente con aquellas hipótesis, sobre todo cuando la situación exige tener en cuenta probabilidades.

Los estudios psicológicos parecen sugerir más bien que los procedimientos mediante los que los individuos toman sus decisiones no pueden ni siquiera ser expresados en los términos de la Teoría de la Decisión: en lugar de meras preferencias por los resultados, creencias sobre la probabilidad de cada posible suceso, y cálculo de la utilidad esperada de cada alternativa, los sujetos suelen emplear mecanismos de razonamiento («heurísticas») de carácter más bien cualitativo, que, aunque no garantizan obtener un resultado óptimo todas las veces, por lo menos funcionan relativamente bien en un gran abanico de situaciones.

Por otro lado, los defensores del valor empírico de la teoría argumentan que, aunque no sea una descripción exacta de los procedimientos reales de toma de decisiones, la Teoría de la Decisión Racional genera predicciones bastante correctas en muchos casos, sobre todo en aquellas situaciones donde la presión competitiva entre los individuos es tan fuerte que, si alguno de ellos se comporta sistemáticamente en contra de los postulados de la Teoría, se verá forzado a cambiar de estrategia, o será expulsado por los demás competidores.

La teoría aspira a la idealización de nuestro comportamiento

Ahora bien, también es posible defender la Teoría de la Decisión con el argumento de que con ella no pretendemos hacer una descripción del comportamiento real de los individuos, sino tan sólo averiguar cuál sería la forma ideal de ese comportamiento.

Según esto, no se trataría de una teoría empírica (descriptiva o explicativa), sino más bien de una teoría normativa, que nos dice cómo deben actuar los individuos si quieren satisfacer sus preferencias.

La cuestión no sería, por lo tanto, si de hecho los sujetos se comportan o no de acuerdo con los postulados de la Teoría de la Decisión, sino simplemente que quienes no lo hagan, actuarán de modo irracional; lo cual quiere decir, como hemos visto, que estos sujetos tenían alguna alternativa que habría sido mejor para ellos, una alternativa que, dada la información que tenían en el momento de tomar la decisión, podían haber identificado «fácilmente».

Esta última expresión la hemos puesto entre comillas porque puede parecer que el realizar los cálculos exigidos para encontrar la opción que maximiza el valor de la utilidad esperada en cada situación, es algo que no está al alcance de todo el mundo; y si no fuese cierto que un sujeto tiene la capacidad de averiguar cuál es esa opción, entonces ¿cómo podemos afirmar que debería haberla elegido?

Los defensores del enfoque clásico de la racionalidad responden que esta teoría no pretende describir los procesos cognitivos que tienen lugar realmente en los cerebros de las personas. Es decir, la teoría no afirma que el procedimiento psicológico real por el que los sujetos racionales consiguen encontrar la alternativa óptima sea precisamente calculando la utilidad esperada de cada alternativa.

Lo que la teoría dice sería, tan sólo, que sean cuales sean esos procedimientos cognitivos, los sujetos que actuarán racionalmente serán los que usen mecanismos de deliberación que les conduzcan a decisiones que maximicen la utilidad esperada. Aunque, frente a esta respuesta, parece lógico formular la pregunta de cuáles pueden ser esos procesos cognitivos, y si de hecho hay o puede haber algunos que lleven efectivamente a esas decisiones.

¿Por qué preferimos lo que preferimos?

Otra cuestión relevante desde el punto de vista filosófico es la de cuál es la naturaleza de las «preferencias» o de la «función de utilidad» de los individuos.

Por una parte, se ha solido criticar el enfoque clásico con el argumento de que esta teoría representa a los seres humanos como preocupados únicamente por la maximización de «su propio» bienestar.

Esta crítica es sólo parcialmente válida: es cierto que en muchas aplicaciones concretas de la teoría, se supone que los individuos intentan maximizar su renta, o su nivel de consumo, o los beneficios de sus empresas, y eso es justificable en la medida en que, empíricamente, podamos mostrar que ese supuesto simplificador es relativamente aproximado a la verdad; pero la Teoría de la Decisión, entendida como un marco teórico general, solamente presupone que cada individuo tiene algunas preferencias bien definidas, y no hace absolutamente ninguna afirmación acerca de cuál sea el contenido de esas prefererencias; por así decir, ése es un problema de los sujetos: algunos preferirán la opción a a la opción b porque la primera les proporcione más renta, y otros preferirán la segunda opción porque sea más coherente con sus principios morales. Ambos tipos de preferencia son igual de válidos para la Teoría de la Decisión, con el único límite de su coherencia interna y de la coherencia de la conducta de los individuos con la optimización de dichas preferencias.

Por otro lado, un problema realmente serio es el de cómo averiguar cuáles son las verdaderas preferencias de los sujetos, cuál es su verdadera función de utilidad.

En muchos casos, al aplicar la Teoría de la Decisión simplemente hacemos una hipótesis acerca de dichas preferencias; esta hipótesis nos sirve para hacer predicciones sobre la conducta de los individuos, y luego habrá que contrastar dichas predicciones con la conducta realmente observada.

Pero, por el ya conocido problema de Duhem, si estas predicciones fallan, ¿será porque nos hemos equivocado al imaginar cierta función de utilidad, o será porque los sujetos no siguen realmente el principio de maximización de la utilidad esperada?…o tal vez por ambas cosas.

Afortunadamente para la Teoría, las predicciones son correctas en bastantes casos, y con lo que los críticos se verán obligados a presentar otras teorías alternativas que tengan al menos el mismo grado de éxito con sus propias predicciones. Esta situación es ventajosa para la Teoría de la Decisión Racional en la medida en que, al estar formulada matemáticamente, es mucho más fácil generar predicciones específicas a partir de ella, que a partir de otras teorías que se expresan en un marco puramente cualitativo.

La teoría de la decisión racional

Uno de los enfoques sobre la racionalidad más desarrollados es el que se conoce como Teoría de la Decisión Racional, o «Teoría de la Decisión». Esta teoría tiene la ventaja de que puede ser formulada matemáticamente, lo que permite, por un lado, discutir con precisión su estructura, sus presupuestos y sus implicaciones, y por otro lado, aplicarla a múltiples casos. El carácter matemático de la teoría la ha hecho especialmente adaptada a la ciencia económica, que es la rama de las ciencias sociales donde la Teoría de la Decisión Racional se ha aplicado más intensamente y donde ha encontrado menos oposición por parte de otros enfoques. De todas formas, como veremos, la teoría tiene algunos aspectos que pueden ser razonablemente criticados. Sin  ir muy lejos ya vemos que su aplicación en la teoría económica hace aguas por momentos, porque al parecer, no son tan racionales las decisiones que tomamos los seres humanos. Ahí están los mercados y la crisis del sistema económico para confirmarlo.

El núcleo básico de la Teoría de la Decisión es, en primer lugar, la descripción de las situaciones a las que se enfrentan los individuos, así como de sus preferencias y sus creencias, de la forma más clara posible, y en segundo lugar, la suposición de que estas creencias y preferencias son internamente coherentes, y coherentes con las acciones elegidas por los sujetos.

Con respecto a la situación, la representaremos indicando las diferentes opciones o alternativas que tiene el individuo (se trata, por supuesto, de las opciones que el individuo cree que tiene, aunque en general se asume que conoce todas las alternativas posibles); estas opciones serán incompatibles entre sí (es decir, el sujeto no podrá elegir más de una), y deben estar representadas todas las opciones posibles (es decir, el sujeto tendrá que elegir necesariamente alguna).

Las preferencias de los individuos no están definidas directamente sobre las opciones, sino sobre los resultados que se obtienen con cada posible elección. En el caso más sencillo, cada una de estas opciones conducirá a un resultado conocido de antemano por el sujeto (por ejemplo, ducharse con agua caliente, con agua fría, o no ducharse), y entonces podremos identificar «opción» con «resultado» en las preferencias de los individuos. Debemos tener en cuenta que el gusto o la molestia que le pueda causar al agente inmediatamente la propia realización de la acción, lo hemos de contar ya entre los «resultados» de la decisión.

De todas formas, lo normal será que el sujeto no sepa con total certeza qué resultado es el que va a ocurrir con cada una de sus posibles decisiones. Esto quiere decir que cada decisión tendrá generalmente más de un resultado posible. Además, en muchos casos el resultado de una decisión será una nueva situación en la que el individuo se vea obligado nuevamente a elegir entre varias alternativas (no necesariamente las mismas que antes). A la descripción de estas cadenas de opciones, decisiones y resultados, se le llama «árbol de decisión», aunque también suele representarse en forma de tabla, indicando en las filas cada una de las alternativas entre las que el sujeto debe elegir (si sólo tiene que hacerlo una vez, o cada posible combinación de alternativas, si tiene que hacerlo varias veces), e indicando en las columnas cada una de las posibles combinaciones de factores independientes de la propia decisión y que pueden afectar a los resultados (a cada una de estas combinaciones posibles de «otros factores» se le llama convencionalmente «estado de la naturaleza», aunque puede incluir acciones realizadas por otros individuos).

Ser racional es maximizar satisfacción, pero debemos ser coherentes

La Teoría de la Decisión Racional es, como toda teoría, no sólo un marco que nos permite describir la realidad, sino un conjunto de hipótesis sobre cómo están relacionadas las cosas entre sí. Pues bien, el principal supuesto de la teoría es el de que los individuos elegirán en cada caso aquella alternativa que sea más coherente con la máxima satisfacción posible de sus preferencias.

Dicho de otra manera, una vez tomada una decisión, los individuos no podrán encontrar después razones para pensar que (dada la información que poseían en aquel momento) habría sido mejor para ellos elegir una opción diferente. Por supuesto, es posible que después encuentren nueva información, que les revele que otra de las alternativas era mejor para ellos, pero lo importante es que, en cada caso, se tome la decisión que es la mejor según la información disponible.

Ahora bien, ¿qué significa exactamente que una opción sea «la mejor»? Para que este concepto tenga un sentido claro es necesario que las preferencias de los individuos cumplan al menos dos requisitos:

  • Deben ser completas: para cualquier par de resultados, a y b
    • o bien el individuo prefiere a o bien prefiere b
    • o bien es indiferente entre los dos (es decir, no puede suceder que el sujeto no sepa si prefiere a o b,
    • o si ambas cosas le dan igual)
  • Las preferencias deben ser transitivas: si un individuo prefiere x a y, y prefiere y a z, entonces preferirá necesariamente x a z.

Para entender por qué son razonables estos dos supuestos, imaginemos lo que sucedería si no se cumplieran.

Respecto al primero, será incluso difícil pensar cómo podría tomarse racionalmente una decisión entre varias opciones si no están definidas las relaciones de preferencia entre ellas (nótese que, si no se cumple la condición 1, ni siquiera estaría determinado si las dos opciones son igual de valoradas).

Respecto a lo segundo, consideremos este ejemplo: una persona está jugando en un concurso, cuyos posibles premios son un viaje, una moto, o un equipo de TV, y que el sujeto prefiere el viaje a la moto (es decir, si tuviera que elegir entre ambas cosas, elegiría la moto), prefiere la moto al equipo de TV, pero prefiere el equipo de TV al viaje. Además de que esta persona no tendría un argumento claro para elegir un premio entre los tres (aunque, para cualesquiera dos premios, sí tiene claro cuál elegir), puede mostrarse que sus preferencias le harían caer fácilmente en el siguiente timo: supongamos que ha ganado el equipo de TV; como prefiere la moto al equipo, seguramente habrá alguna pequeña cantidad de dinero (pongamos, un euro) tal que, si le ofrecemos cambiar el equipo por la moto si nos da un euro por el cambio, aceptará el trato, y se quedará con la moto; como prefiere el viaje a la moto, seguramente ahora también estará dispuesto a pagar un euro a cambio de que le dejemos cambiar la moto por el viaje; pero como prefiere el equipo al viaje, también estará dispuesto a pagar un euro por cambiar el viaje por el equipo. Así que, al final, volverá a estar como al principio (con el equipo de TV), pero con tres euros menos. Si sus preferencias no han cambiado en el proceso, podemos seguir repitiéndolo indefinidamente, sacándole más y más dinero sin ningún coste para nosotros. Un sujeto con preferencias intransitivas sería, por lo tanto, algo así como una «bomba de dinero» (entendiendo bomba en el sentido de «bombear»).

Por argumentos parecidos, aunque más complejos matemáticamente, puede mostrarse que las creencias de los individuos racionales sobre cómo de probables son los posibles resultados de las acciones, esas creencias, decíamos, deben satisfacer los axiomas de la teoría de la probabilidad. Esto significa que dichas creencias deben poder expresarse de forma numérica (para cada posible resultado de elegir una alternativa, la probabilidad de dicho resultado debe ser un número comprendido entre 0 y 1), la probabilidad de que se den dos resultados a la vez debe ser 0 (pues los resultados son incompatibles entre sí), la probabilidad de que se dé alguno de un conjunto de resultados es igual a la suma de las probabilidades de cada uno, y la probabilidad de que se dé algún resultado será iguala 1.

Además, la probabilidad con la que un individuo cree que sucederá cierto resultado si toma cierta decisión, no puede ser una probabilidad cualquiera, sino que debe ser consistente con toda la información de la que el sujeto dispone. Si para un individuo no se cumplieran estas condiciones, también podríamos «bombear» dinero de él, como en el caso anterior, pero esta vez haciéndole apostar.

Consecuencias de ser racionales

Se debe al matemático J. Savage la demostración del teorema fundamental de la Teoría de la Decisión, que afirma que, si la conducta de un individuo es «racional» (en el sentido de que sus decisiones no pueden llevarle a situaciones en las que necesariamente saldría perdiendo, como en los ejemplos que hemos visto), entonces se cumplirán las siguientes consecuencias:

  1. Las preferencias del sujeto se podrán representar mediante una función numérica,u, tal que, si a y b son dos resultados posibles, el sujeto preferirá a a b si y sólo sí u(a) > u(b), y será indiferente entre los dos resultados si y sólo si u(a) = u(b); a esta función la llamaremos «función de utilidad»;

  2. Las creencias del sujeto se podrán representar mediante una función de probabilidad, p, (la expresión «p(a/x)» significa la probabilidad de que se obtenga a, supuesto que se ha hecho x);

  3. En cada situación, el sujeto elegirá aquella opción x para la que sea máximo el valor de la utilidad esperada, definido como sigue: si a, a2, …, an son los posibles resultados de x, la utilidad esperada de x será igual a

u(a1)p(a1/x) + u(a2)p(a2 /x) + … + u(an )p(an /x).

Es decir, la utilidad esperada de x es la media ponderada de las utilidades de todos los resultados a los que puede conducir x, siendo la ponderación de cada resultado igual a su probabilidad.

Si interpretamos estas probabilidades como frecuencias (o, más bien, como hipótesis que hacen los sujetos sobre la frecuencia con la que ocurriría cada resultado si la decisión pudiera ser tomada en las mismas circunstancias innumerables veces), entonces el concepto de utilidad esperada significa que, si se toma la decisión x, se obtendrá la utilidad u(a1) con una frecuencia igual a p(a1 /x), la utilidad u(a2) con una frecuencia p(a2 /x), etc.

 

Queremos explicar lo que hace la gente

En las ciencias sociales, la inmensa mayoría de los hechos para los cuales pretendemos encontrar alguna explicación son acciones llevadas a cabo por seres humanos; queremos explicar lo que la gente hace. Estas acciones pueden ser individuales o colectivas, aunque se ha discutido mucho si esta última noción, la de «acción colectiva», representará algo más aparte de la combinación de las acciones de varios individuos.

El objeto de cada una de las ciencias sociales consiste, por lo general, en una enorme masa de acciones humanas, que esas ciencias deben, en primer lugar, ordenar y clasificar según ciertas categorías, y en segundo lugar, explicar en función de ciertos principios teóricos. La tradición principal de las ciencias sociales se basa en el supuesto de que las acciones de las personas son generalmente el resultado de alguna decisión.

Incluso cuando lo que hay que explicar es la falta de acción de un sujeto en una circunstancia determinada, como por ejemplo no atender una llamada de socorro, casi siempre lo explicamos como fruto de la decisión de no actuar. Así pues, en muchos casos lo que se hace en las ciencias sociales es intentar explicar por qué la gente toma las decisiones que toma, en vez de otras.

Pero las decisiones no se observan

Algunos autores, influidos por las filosofías empirista y positivista, sobretodo a mediados del siglo XX, criticaron esta idea, con el argumento de que las decisiones son acontecimientos esencialmente inobservables (en particular, las decisiones de los demás), y por lo tanto, afirmaban, son imposibles de contrastar empíricamente.

Esta postura llevó al desarrollo de varias escuelas, entre las cuales la más famosa fue el Conductismo (en Psicología), cuyo ideal era la búsqueda de leyes empíricas que establecieran la conexión entre ciertas situaciones y ciertas acciones, sin necesidad de introducir descripciones de lo que pasaba «dentro de la cabeza» de los individuos.

Esta postura ha sido prácticamente abandonada, no sólo por las críticas al modelo positivista de la ciencia, o porque otras disciplinas también utilizan conceptos no observacionales (quark, gen, etc.), sino sobre todo por la escasa capacidad explicativa de las teorías sociales que ignoran radicalmente las decisiones de los sujetos, y por la plausibilidad intuitiva que tiene, para nuestro sentido común, la idea de que los actos de las personas son fruto de «lo que pasa por su mente». Al fin y al cabo, parece que cada uno es consciente de sus propias decisiones, y lo más lógico para él es pensar que los demás seres humanos (al contrario que la mayoría de los animales y que todos los demás seres) también lo hacen. Pese a esto, existen en las ciencias sociales varias concepciones distintas acerca de cuál es el modo como la gente toma sus decisiones.

¿Qué es lo que hacemos al tomar una decisión?

¿Cuáles son las principales diferencias entre una acción que sea el resultado de una decisión, y un acontecimiento «natural» que no lo sea? La diferencia más notable parece ser la de que en el primer caso la acción está originada, de alguna manera, por las creencias y los deseos del individuo, es decir, por la forma en que él percibe la situación a la que se enfrenta, y por la forma en la que él quiere que se transforme dicha situación.

La acción sería, por lo tanto, una cierta manera de ajustar las circunstancias a nuestras preferencias. En cambio, en otro tipo de acontecimientos (la lluvia, la fotosíntesis de las plantas, la digestión de los alimentos en nuestro aparato digestivo), diríamos que todo lo que sucede ocurre de forma «mecánica», en el sentido de que los elementos físicos involucrados en dichos procesos no están organizados de tal modo que haya un pensamiento guiando cada parte del proceso.

Esta diferencia es un poco engañosa, en la medida en que nos lleve a concluir que nuestras decisiones no son «en el fondo» el resultado de los procesos físico-químicos de nuestro cerebro; al fin y al cabo muchos fenómenos naturales pueden explicarse a través de algún concepto de finalidad.

Pero lo importante es el hecho de que, en la toma de decisiones, nosotros somos conscientes de esa finalidad y de las razones que nos permiten tomarla como un motivo para actuar de un modo u otro. A las acciones voluntarias se les llama también acciones intencionales, puesto que responden a alguna «intención» por parte del sujeto, pero también, y esto es lo más importante desde el punto de vista filosófico, porque las creencias y los deseos que intervienen en el proceso de la toma de decisión son «representaciones» de hechos y entidades externas a la propia mente del individuo (tienen lo que suele llamarse un «contenido semántico» o «intencional»).

La explicación de las acciones tiene que partir, por lo tanto, de algún análisis de las creencias y los deseos, y de la forma en la que éstos están relacionados entre sí y con las acciones. A este tipo de explicación se le conoce como explicación intencional. También podemos decir que es el tipo de explicación basado en el principio de que los seres humanos actúan racionalmente.

Racionalidad

El concepto de «racionalidad» es seguramente el más fundamental en la filosofía de las ciencias sociales, pero también es uno de los más polémicos. De hecho, muchos autores distinguen varios «tipos» distintos de racionalidad. Tan intensa es la diferencia entre las distintas teorías, que los actos que algunos enfoques consideran como paradigmáticos de la acción racional son calificados más bien como irracionales por otras concepciones. Veamos algunas dificultades filosóficas que todas ellas comparten.

En primer lugar, el principio de racionalidad afirma que los individuos no son una «mera» marioneta de fuerzas que les determinen «desde abajo» (es decir, según las leyes físicas de los elementos de los que están compuestos nuestros organismos), ni «desde arriba» (es decir, según las leyes que gobiernan las macroestructuras sociales), sino que poseen algún tipo de autonomía, pueden «determinarse a sí mismos». Que esto sea compatible o no con el hecho de que estamos efectivamente constituidos por elementos átomos y moléculas que obedecen «ciegamente» las leyes físicas está asociado al determinismo.

En segundo lugar, podemos discutir la posible coherencia que exista entre las explicaciones intencionales y los otros tipos de explicación científica que hemos analizado en las entradas anteriores.

  • A primera vista, la explicación intencional puede considerarse directamente tanto como un tipo de explicación teleológica (pues obviamente la acción intencional es acción dirigida a unos fines), y también como un tipo de explicación causal (en la medida en la que consideremos que las decisiones, y los motivos que las producen, constituyen las causas de la acción). De todas formas, esto último puede conducir a algunos problemas. Por una parte, no está claro que las razones sean automáticamente causas (p. ej., puedo tener razones estupendas para hacer una cosa, y a pesar de ello no hacerla); este problema puede resolverse indicando que una razón es una causa ceteris paribus, es decir, suponiendo que ninguna otra causa más fuerte interviene en la situación. Por otro lado, las razones, o los motivos y deliberaciones, son acontecimientos de tipo «mental», y resulta problemático entender de qué manera puede «lo mental» tener alguna influencia sobre «lo físico» (es decir, sobre la conducta de mi organismo).
  • Con respecto a la explicación nomológica, el principal problema consiste en determinar cuál es la forma apropiada de representar las leyes que intervendrían en un explanans basado en la explicación intencional. Imaginemos que intento explicar por qué el cartero no ha venido hoy; en el explanas podríamos tener cosas como: «hoy se ha convocado una huelga de trabajadores de Correos», «el cartero cree que los motivos para la huelga son justos, y no teme las represalias que pueda sufrir si hace la huelga». Si dejamos la explicación así, resulta que no tenemos ningún enunciado con forma de ley (es decir, que sea una regularidad), sino sólo enunciados singulares; además, sólo a partir de esos dos enunciados no puede deducirse el hecho que queríamos explicar. Lo que falta, por tanto, es alguna «ley» que afirme (o de la que pueda inferirse) algo así como que «todo el mundo que es convocado a una huelga, que no tiene motivos para oponerse a ella, y que tiene motivos para secundarla, la secundará». Considerado como una «ley», esto sería (¡en el mejor de los casos!) una regularidad empírica de validez muy restringida; para lograr una auténtica explicación científica necesitamos, en cambio, alguna ley más general, de la que podamos inferir regularidades en muchos ámbitos distintos. Pues bien, el «principio de racionalidad» podría desempeñar ese papel, si lo reformulamos de una forma parecida a ésta: «todos los individuos harán aquello que creen que es más apropiado hacer en cada situación, teniendo en cuenta sus preferencias y su percepción de la situación» (esto es lo que Karl Popper ha denominado «el principio cero de las ciencias sociales», entendido como un supuesto que, según este autor, debería subyacer a cualquier explicación social). Esta estrategia tiene varios problemas, de todos modos.
    • El más grave sea tal vez el hecho de que el «principio de racionalidad» expresado al modo de Popper no es un enunciado empíricamente falsable: en principio, cualquier acción que pudiéramos observar, por muy absurda e «irracional» que pareciese, podría ser compatible con el supuesto de que el individuo ha actuado «racionalmente» (basta con suponer que eso precisamente es lo que quería hacer, o lo que le parecía más apropiado). Independientemente del valor que demos a esta crítica, resulta al menos curioso que la principal propuesta de Popper sobre la metodología de las ciencias sociales sea contradictoria con su propia recomendación de utilizar únicamente teorías falsables en la investigación científica.
    • El segundo problema es que el principio es casi totalmente vacío, pues, como se ve en el ejemplo del cartero en huelga, hace falta bastante más información para pasar del enunciado abstracto del principio de racionalidad a la conclusión referida a un hecho tan específico como por qué un cierto sujeto ha realizado determinada acción; dicho de otra manera, el principio de racionalidad, tal como lo hemos definido, no nos explica por qué ciertas acciones les parecen a ciertos individuos más «apropiadas» que otras. Esta crítica, de todas formas, no es excesivamente grave: al fin y al cabo, la situación es la misma en las propias ciencias naturales, donde existen principios muy generales y abstractos (las leyes de la termodinámica, la segunda ley de Newton, etc.) que sólo pueden generar predicciones concretas cuando les añadimos otras leyes o hipótesis más específicas y numerosas condiciones iniciales, que se apliquen al caso que estemos estudiando. La cuestión importante sería, pues, la de cuáles pueden ser esas «leyes de más bajo nivel» que debamos añadir al principio de racionalidad para obtener explicaciones aceptables de los fenómenos sociales.
  • Finalmente, indicaremos una diferencia muy notable entre la explicación intencional y los otros tipos de explicación. Se trata del hecho de que, cuando explicamos la conducta de los individuos según las razones que les han llevado conscientemente a actuar así, estamos utilizando la palabra «explicar» en un sentido muy distinto al que tiene cuando decimos que la ley de la gravedad explica las órbitas de los planetas, o que los órganos de los seres vivos deben ser explicados mediante su función biológica. En el caso de la acción intencional, lo que conseguimos cuando la «explicamos» es comprender el sentido que dicha acción tiene para el individuo que la ha llevado a cabo. La explicación intencional consiste, por lo tanto, en comprender la acción «desde el punto de vista» del sujeto (lo cual no significa que la tengamos que aprobar moralmente), algo que es imposible con los fenómenos en los que no interviene una conciencia racional.

Ya se empieza a convertir en un clásico. Me encantan las lasañas, y sobre todo de espinacas, cambiando las láminas de pasta de trigo por láminas de papel de arroz pasa de ser un plato contundente a ser un plato muy muy ligero, original y muy bueno. Así que ¿por qué no probarlo?

Para esta lasaña usaremos ingredientes muy básicos y casi inmediatos. Un huevo por persona que pondremos a cocer hasta que queden duros. Un bloque de espinacas de unos 100 gramos por persona, una lata de atún al natural de las pequeñas por personal

Abriendo la lata el asunto del atún está solucionado, pero las espinacas las saltearemos con unos ajos y un yogurt o queso crema para darle un poquito de vidilla.

Para montar la lasaña se van alternando las hojas de papel de arroz con los diferentes ingredientes. Las hojas hay que hidratarlas previamente en agua tibia, hasta que sean manejables, y si las cocinas que sea durante muy muy poco tiempo, ya que se vuelven a endurecer. Vamos, que es un plato que se toma frío o tibio. Ideal para las cenas de verano, incluso para comidas ligeras.

Adornarla un poco espolvoreamos alguna semilla negra para que contraste con el blanco de la última capa de papel de arroz, sésamo negro, amapola, chía…incluso mostaza negra. Quedará estupendamente. ¡Buen provech0!

INGREDIENTES (por persona)

  • 100 gramos de espinacas
  • 1 huevo
  • 2 cucharadas de queso crema
  • 2 dientes de ajo
  • 1 lata de atún
  • Sal, pimienta, AOVE
  • 4 hojas de papel de arroz

MANUFACTURA

El modelo de explicación funcional

El análisis de la forma de explicación funcional tiene una larga historia en la filosofía de la ciencia. No es fácil hacerle justicia a este tema en los límites que parecen adecuados para una introducción general. Sin duda hay aspectos del funcionalismo, lo mismo que de la teoría de sistemas o del organicismo, a los que se les puede encontrar claros antecedentes en el pensamiento de la antigüedad clásica, pero el funcionalismo como tal es un término que entra con fuerza en el discurso filosófico en el último cuarto delsiglo XIX y que, desde entonces, ha tenido una presencia creciente.

Lo primero que debemos tener en cuenta es que en el análisis funcional se suele adoptar el patrón de explicación funcional aunque el desarrollo de críticas formales muy precisas a ese tipo de explicación hayan llevado a cambios muy profundos en la teorización estructural-funcional. Es importante observar que muchos teóricos han señalado la enorme diversidad de contenidos a los que se aplica el término «función» y que muy poco o nada tienen que ver con la noción matemática de función. Por el contrario, normalmente con función hacemos referencia más bien al papel que tienen los elementos de un sistema para contribuir al sostenimiento de un estado persistente de dicho sistema.

Un momento fundamental en el análisis de este patrón de explicación por las consecuencias, y que se sitúa en torno a la segunda mitad del siglo pasado. En ese período apareció el artículo de E. Nagel «Una formalización del funcionalismo», recogido en su libro Lógica sin metafísica, y en el que se intentaban sistematizar las once tesis de Merton de 1949 sobre el análisis funcional. Nagel en esa formalización hace una referencia especial a las ciencias sociales.

Los resultados de ese trabajo fueron incorporados por Carl Hempel en 1959 en su artículo «Lógica del análisis funcional», que suele admitirse como el tratamiento estándar, desde la filosofía de la ciencia, de tal patrón de explicación. Según Hempel, el modelo de explicación funcional al pretender explicar la persistencia de un determinado rasgo resulta inadecuado porque supone el uso de la falacia de afirmación del consecuente, es decir, aceptar que al afirmar conjuntamente un enunciado condicional (A→B; p. ej., «si llueve, el suelo se mojará») y su consecuente (B; «el suelo se ha mojado») podemos concluir el antecedente (A; «ha llovido»); naturalmente, esta forma de razonar es una falacia porque puede suceder B sin que suceda A (p. ej., el suelo puede mojarse porque lo rieguen). Precisamente por incurrir en tal falacia no puede pretender tener carácter predictivo y, a lo sumo, puede ser una pauta con cierta utilidad heurística pero no explicativa.

Otra manera de resumir esta potente crítica de Hempel a la explicación funcional es decir que la presencia de un rasgo específico en un organismo, presencia que se pretende explicar por su función, no es en general una condición necesaria (o no se sabe que lo sea) para la realización de tal función. Una de las soluciones ofrecidas por Hempel, para mantener la adecuación formal de la explicación funcional, consistía en proponer la explicación de una clase funcional de rasgos —no de un único rasgo— que conduzcan a un mismo resultado. No se podría pretender la explicación de un ítem determinado sino de una familia de rasgos funcionales (cuyo conjunto si resultase necesario), aunque así el interés para la explicación en ciencia social aparecería muy disminuido, pues resulta mucho más complicado el análisis de un conjunto de rasgos, con muchas relaciones posibles entre sí y con otros factores externos.

El debate sobre las explicaciones teleológicas

En las explicaciones funcionales o teleológicas (aunque no son exactamente lo mismo) explicamos los acontecimientos a través de hechos que no están en el pasado sino en el futuro, es decir, la causa del hecho a explicar estaría en el futuro. También podría decirse que, en las circunstancias apropiadas, es recibir una explicación en términos del fin particular al cual se dirige un medio determinado.

Las explicaciones teleológicas, según afirma Nagel, centralizan la atención en las culminaciones y los productos de procesos específicos, y en particular en las contribuciones de varias partes de un sistema para mantener sus propiedades globales o modos de comportamiento.

En las explicaciones funcionales las consecuencias de algún comportamiento o de algún ordenamiento social son elementos esenciales de las causas de ese comportamiento. Un tipo común de este tipo de explicaciones en la vida cotidiana es el de la motivación.

Las teorías funcionales explican los fenómenos por sus consecuencias y pueden ser útiles para explicar los fenómenos sociales, porque hay muchas cadenas de causación inversa que seleccionan pautas de comportamiento por sus consecuencias, como ocurre con los procesos de evolución biológica y social, y con fenómenos de planeamiento individual y colectivo.

Las explicaciones funcionales son formas complejas de teorías causales e involucran conexiones entre variables con una prioridad causal especial de las consecuencias de la actividad a nivel de la explicación total. Pero no toda explicación funcional adopta el compromiso del holismo metodológico.

Desde el individualismo metodológico se ha mantenido que la base de las ciencias sociales son los actos de los sujetos, de tal manera que ya que los únicos que actúan y tienen intenciones son los sujetos, debe evitarse la pretensión de analizar las entidades supraindividuales como agentes sociales. La causalidad procede de lo individual a lo social; se ejerce a partir de los agentes humanos que tienen, por tanto, un papel explicativo fundamental. En cualquier caso son las unidades elementales, los actos de los individuos, los que permiten definir el origen de los hechos sociales entendidos como resultados de la acción de dichos agentes.

La utilización de un lenguaje teleológico normalmente ha tratado de reflejar la diferencia entre los seres vivos y la naturaleza inanimada. Como hace Nagel, es importante distinguir analíticamente entre adscripción de fines y adscripción de funciones. Para precisar que nos encontramos ante algún objetivo hacia el cual se orientan ciertas actividades de un organismo, resulta conveniente distinguir entre objetivos y funciones. Poco a poco los procesos dirigidos a fines han encontrado una forma de análisis; distinguir adecuadamente sus diversos tipos es muy conveniente para no caer en errores lógicos elementales. Ernest Nagel distingue tres tipos principales de procesos teleológicos.

  • El primero se refiere a la conducta propositiva de los humanos. El objetivo G(«goal») de una acción o proceso se dice que es algún estado de hechos pretendido por un agente humano. La intención en sí misma es un estado mental interno que, acoplado con el estado interno de querer G, junto con creer que una determinada acción A contribuye a la realización de G, se dice que es un determinante causal de realizar la acción A. La conducta dirigida a objetivo es la acción A realizada por el agente para lograr el objetivo. No es el objetivo lo que produce la acción, sino más bien las aspiraciones del agente, conjuntamente con su creencia de que la acción contribuirá a la realización de su objetivo. Pero utilizar este tipo de lenguaje resulta totalmente inadecuado cuando estamos tratando con organismos que son incapaces de tener intenciones y creencias. Por ello no nos puede extrañar que quienes adoptan esa forma teleológica de hablar tratan de adscribir intenciones a totalidades (holistas) como el sistema social, el capital o la burguesía.

  • Una segunda forma de proceso teleológico sería el que se ha llamado teleonómico, en el cual la «conducta o proceso debe su direccionalidad a la operación de un programa». Nagel lo llama perspectiva teleológica del programa o código. Estos casos son los que supuestamente vienen reflejados por el código genético y es en esta línea en la que se colocan algunas interpretaciones sociobiológicas. Pero un proceso que no tiene un fin programado no puede ser caracterizado adecuadamente como teleonómico, ya que, aunque esté controlado por un programa, ello no lo hace necesariamente dirigido a objetivo.

  • Se puede, sin embargo, hablar de otra tercera forma de analizar los procesos dirigidos a objetivos. Se trata de una perspectiva que procede de la teoría de sistemas o visión sistémica. Aquí consideramos que se encuentra la manera más interesante actualmente de abordar este tipo de procesos y es un espacio en el que el trabajo interdisciplinar entre diversas ciencias sociales y ciencias de la computación están produciendo resultados de mucho interés. Simplemente señalemos que hay tres propiedades centrales que deben tener los sistemas para que podamos caracterizarlos adecuadamente como dirigidos a objetivos

    • En primer lugar su plasticidad (la existencia de caminos alternativos para llegar al mismo resultado previsto

    • En segundo lugar la persistencia, es decir, que el sistema es capaz de mantener su conducta propositiva como resultado de cambios que ocurren en el sistema y que compensan cualquier desviación (interna o externa) que se haya producido dentro de ciertos límite

    • Y, en tercer lugar, la independencia (u ortogonalidad) de las variables, que quiere decir que dentro de ciertos límites los valores de cada variable en un momento dado deben resultar compatibles con cualesquiera valores de las otras variables en el mismo momento. Esta línea de pensamiento no dice simplemente que «todo esté relacionado con todo» (que es, como ha dicho Elster, el primer principio de la pseu-dociencia) sino que precisamente trata de aislar las variables que cumplan determinadas condiciones y que muestren ser las relevantes para conseguir mantener ese proceso orientado a fines

Las explicaciones teleológicas establecen una relación explicativa intenciones-fines y sostiene tres afirmaciones:

  • La explicación teleológica consiste en explicar un hecho presente por lo que ocurrirá en el futuro.
  • Es legítimo entender el fin en el sentido aristotélico de “causa final” con lo que la relación medios-fin se vuelve relación causal.
  • La explicación teleológica puede, de esa manera, reducirse a una explicación legaliforme.

Pero ninguna de estas tres afirmaciones describe adecuadamente la índole de la explicación teleológica.

  • En primer lugar en ella no se explica un hecho presente por lo que ocurriría en el futuro, se explica un hecho presente por algo que ocurre en el futuro, por la implementación de los medios a partir de las intenciones.
  • En segundo lugar la relación medios-fines no es asimilable a la relación causa-efecto

Si lo describimos en la forma de silogismo práctico:

  • a) la premisa mayor menciona una meta,
  • b) la premisa menor un acto conducente al logro de la meta, un medio dirigido al fin,
  • c) la conclusión consiste en el uso de ese medio para alcanzar el fin.

Obtenemos así el esquema de explicación teleológica:

  • A se propone dar lugar a p.
  • A considera que no puede dar lugar a p a menos que haga a.
  • Por consiguiente, A se dispone a hacer a.

No puede evaluarse en términos de validez lógica porque la verdad de las premisas no garantiza la verdad de la conclusión, puedo arrepentirme o cambiar de idea y no iniciar la acción.

Reconstrucciones formales de la explicación funcional

Elster ha sido el principal oponente de G. Cohen en la discusión interna al marxismo analítico, sobre la adecuación formal y material del funcionalismo. Elster mismo ha sintetizado el estado de la cuestión señalando cuatro versiones principales del funcionalismo. Para verlas en su complejidad resulta muy útil la reconstrucción siguiente.

Decimos que un fenómeno X se explica por su función Y para el grupo Z si y solamente si se cumplen todas estas condiciones:

  1. Y es un efecto de X

  2. Y es beneficiosa para Z

  3. Y no es pretendido por los actores al realizar X

  4. Y no es reconocido por los actores en Z

  5. Y mantiene X por la retroalimentación causal que pasa a través de Z

No todas las explicaciones funcionales satisfacen estos cinco enunciados; de hecho con frecuencia se cumple 1, 2, 3 y 5 pero no el criterio 4 (en ese caso se podría hablar de una especie de «selección artificial»): el fenómeno se mantiene porque el grupo lo considera beneficioso. En otros casos se cumple 1, 2, 3, y 4 pero no 5; en este caso, la falacia que se produce en el razonamiento funcionalista consiste en inferir la existencia del mecanismo de retroalimentación causal a partir de satisfacer los cuatro primeros criterios(del 1 al 4). Por ejemplo, se podría demostrar que la neutralidad aparente del Estado en las sociedades capitalistas contemporáneas satisface mejor los propósitos de los empresarios que un gobierno que tenga un sesgo social; a partir de esto, ciertos marxistas funcionalistas concluyen que este efecto beneficioso explica la neutralidad del Estado. Ahora bien, a menos que uno impute el mecanismo causal de retroalimentación a ciertas agencias de algún comité ejecutivo oculto de la burguesía, parece difícil ver cómo opera este mecanismo. En las ciencias sociales, la retroalimentación causal debe demostrarse más que postularse, a diferencia de lo que ocurre en biología donde la existencia de un efecto beneficioso parece que da una razón inmediata para pensar que es el producto de la selección natural, pues ésta proporciona un mecanismo general para una retroacción causal en la evolución de los seres vivos. De esta manera se pueden distinguir varias formas de funcionalismo:

  • a) En primer lugar tendríamos una variante ingenua del funcionalismo, que asume tácitamente que señalar las consecuencias beneficiosas de determinado efecto, resulta suficiente para establecer la explicación. Evidentemente esta variedad no sólo rechaza que las consecuencias puedan ser accidentales, sino que no cae en la cuenta de que aún cuando la conexión no fuese accidental podría no ser explicativa pues puede ser el caso de que tanto el explanans como el explanandum sean efectos conjuntos de una tercera variable.

  • b) Hay otros proponentes de la explicación funcional que defienden que puede ser el caso que tengamos un conocimiento general del mecanismo que está operando, aún cuando no seamos capaces de suministrar los detalles. Se trata de una extensión por analogía del papel jugado por la teoría de la selección natural en las explicaciones funcionales en biología. El tipo de crítica que se puede hacer a esta posición, que se ha defendido para analizar el cambio técnico mediante procesos de selección entre empresas, se relaciona con el papel del tiempo, pues no tienen en cuenta que la adaptación se refiere a un objetivo en movimiento (que se desplaza) y que los cambios en el entorno social y el ritmo de esos cambios puede producir que se provoque una respuesta inadecuada para la nueva situación. Si el proceso no es intencional no puede plantearse una orientación hacia las que puedan ser las condiciones del futuro, sino que se dirigirá siempre hacia la actual situación del objetivo. Algunas de las críticas a la economía del bienestar y sus dificultades para establecer el descuento del tiempo y tener en cuenta a las generaciones futuras ha sido unade las críticas desde cierto ecologismo a la teoría económica académica (posición de Martínez Alier).

  • c) Una tercera posición es la que defiende que la única explicación funcional completa, adecuada formal y materialmente, es aquella queofrezca los detalles completos del bucle de retroacción que fundamenta la explicación. Sin duda esta es una posición muy exigente y que, diciéndolo con términos de Nagel, reduce la explicación funcional a un tipo de explicación teleológica, dirigida hacia un objetivo y que, en aquellos casos en los que se puede sostener, no es más que un caso de explicación causal. En todo caso es preferible esta tercera posición que la primera ingenua, ya que puede sugerir vías de investigación que no caigan exclusivamente en la búsqueda de una explicación causal sino que puede tener que ver con el lugar de la explicación intencional en ciencias sociales.

  • d)La cuarta posición, entre las que ha sistematizado Jon Elster, sería precisamente la que se apoya en la ley de consecuencia en el sentido de Cohen, y aunque ni Elster ni Cohen han observado tal similitud, se corresponde en gran medida con la posición formulada precisamente por Nagel en 1977. En este caso las dificultades no se referirían a la estructura formal de la explicación, sino que las críticas tendrán que centrarse en los usos concretos y son en buena medida de carácter pragmático:

    • 1) no es frecuente disponer de casos que apoyen una cierta generalización inductiva, que nos hiciera plausible la adopción de la ley de consecuencia. Por ejemplo, el caso estudiado por Cohen sobre la explicación de las relaciones de producción en términos de su impacto beneficioso sobre las fuerzas productivas, que se intenta presentar como una explicación funcional, sería precisamente el único caso de la ley de consecuencia que explica ese mismo hecho. Esta objeción está siendo apoyada por algunas investigaciones sobre la transición del feudalismo al capitalismo, lo que se ha llamado la cuestión de R. Brenner, pues parece que el estudio apoyado en las transformaciones de las relaciones de propiedad suministra mayor clarificación y en un mayor número de casos que la supuesta explicación funcional del materialismo histórico a la Cohen.

    • 2) Por tanto aparece una segunda objeción pragmática, en el sentido de que es mejor estrategia heurística estudiar el mecanismo concreto que la búsqueda de otras instancias confirmadoras de la ley.

    • 3) Además una tercera posición crítica viene a decir que si el término «beneficioso» utilizado por las variedades ingenuas del funcionalismo resultaba vago, la noción que se utiliza a veces proponiendo que se trata de un estudio de óptimos resulta, por el contrario, excesivamente exigente. Adoptar una determinada pauta conductual como óptima puede ser algo muy complejo de establecer.

Funcionalismo y Estructuralismo

Una de las líneas de investigación social que ha tenido cierto predicamento es la conocida como estructuralismo. De hecho ha tenido cierta importancia en la historia de la antropología. El estructuralismo francés de mediados del siglo XX (con antropólogos como Levi-Strauss) supuso un fuerte impacto en ciertos campos de la ciencia social. Una buena manera de entender esa línea de investigación, que en la práctica niega la realidad de la elección intencional entre alternativas, es vincularla a la forma de explicación funcional.

Como ha indicado Jon Elster, podríamos pensar que cualquier acción realizada puede considerarse como el fruto de dos procesos sucesivos de filtraje.

En primer lugar nos encontramos con las restricciones objetivas que reducen el campo abstracto de todo nuestro conjunto de posibilidades, situándonos ante el conjunto de acciones realizables.

Además podemos suponer un segundo mecanismo que explique porque se realiza una acción en vez de otra de entre las que están en nuestro conjunto de acciones realizables. Una manera de negar la realidad de la elección racional consiste en decir que el conjunto de constricciones define efectivamente un conjunto de acciones realizables que se reduce al conjunto unitario, o que de hecho es un conjunto tan pequeño que no se pueden distinguir sus diversos componentes. Esta es la forma en que Elster interpretaba al estructuralismo francés. Resulta interesante analizar lo que se puede llamar «la falacia estructuralista en ciencias sociales». Siguiendo a Jon Elster, se trata de la inferencia siguiente:

  • Todos los miembros de A hicieron x.

  • Cuando todos los miembros de A hacen x, esto tiene el efecto z, conocido y deseado por los miembros de A.

  • Por lo tanto, los miembros de A hicieron x para conseguir z.

Un ejemplo de esta falacia la analiza el historiador Eric Hobsbawn, al precavernos de cierta explicación falaz de los orígenes del capitalismo que coloca elementos económicos externos como motivaciones de los inversores individuales: «El mismo proceso que reorganiza la división social del trabajo, incrementa la proporción de trabajadores no agrícolas, diferencia al peasantry y crea las clases de trabajadores asalariados, también crea hombres que dependen para sus necesidades de las compras en efectivo-clientes para los bienes. Pero este es la mirada del analista sobre el asunto, no la del empresario que es quien decide si invierte o no para revolucionar su producción».

El modelo de explicación funcional en sociología o antropología supone una forma de razonamiento muy cercano a la falacia estructuralista. El rasgo común es que las consecuencias objetivas favorables de algún conjunto de acciones se consideran que explican las acciones. En la falacia estructuralista estas consecuencias se convierten en motivos individuales para la acción mientras que las explicaciones funcionalistas postulan algún mecanismo de retroalimentación causal del efecto a la causa.

La solución darwinista

En el espacio de la filosofía de la biología se ha producido buena parte de la discusión sobre la adecuación de la explicación funcional. Posiblemente esto es así porque tanto en la vida cotidiana como en biología con frecuencia consideramos que explicamos la conducta de un ser o la misma existencia de algo indicando la función que realiza.

Desde luego este tipo de explicaciones finalistas (teleológicas) resultan problemáticas porque hacen referencia a intenciones (en el mejor de los casos) o nos remite a algún agente inteligente que tuvo el propósito de diseñar un componente (el corazón) para que cumpla una determinada función. Ahora bien, como ha indicado A. Rosenberg:

«El problema filosófico no consiste en decidir si estas explicaciones son legítimas en biología, sino en ofrecer un análisis del método y la teoría biológica que explique por qué resultan indispensables este tipo de explicaciones».

Lo que ocurre en biología es que se dispone de una fundamentación para este tipo de explicaciones en términos de la teoría de la selección natural. Nos ofrece el mecanismo subyacente a esta aparente situación en la que los efectos explican las causas. Un efecto posterior no puede explicar una causa anterior. Las funciones parecen ser posteriores, por lo tanto no pueden explicar causas anteriores. Así pues, en el caso de los latidos del corazón se puede considerar que la frase «la función de los latidos es conseguir que circule la sangre» viene a significar implícitamente que, a lo largo de la evolución, se seleccionaron aquellas variaciones aleatorias (mutaciones) en la configuración del corazón que facilitaban la circulación, debido a que esto contribuía a una mejor eficacia adaptativa (fitness) de los animales que las poseían. Por lo tanto, un corazón que facilita la circulación es una adaptación. En consecuencia, la correspondiente afirmación funcional sólo hace referencia de manera aparente a los efectos inmediatos, de hecho hace referencia a causas anteriores a lo largo del pasado evolutivo. Este es el gran «pecado» o «la idea peligrosa» de Darwin: la explicación naturalista de que no hace falta un diseñador o arquitecto intencional para dar cuenta de la estructura y las funciones de los sistemas complejos. Sin entrar en detalles que harían excesivamente compleja la explicación, señalemos lo esencial de la explicación funcional en biología. Según Elster:

«Un rasgo estructural o conductual de un organismo queda explicado funcionalmente si se puede demostrar que es parte de un máximo individual local en relación con la capacidad reproductiva, en un entorno de otros organismos que han alcanzado también sus máximos locales. Si podemos demostrar que un pequeño cambio en el rasgo en cuestión conduce a reducir la capacidad reproductiva del organismo, entonces comprendemos porqué el organismo tiene este rasgo».

Vale la pena observar que este mismo rasgo es el que plantea serias dificultades a la exportación del auténtico modelo explicativo de la biología (la explicación funcional) al ámbito de las ciencias sociales. Es la gran diferencia que existe entre una explicación intencional y una explicación funcional. La selección natural parece que en alguna medida simula la intencionalidad, pero hay muy serias diferencias si observamos la manera en que se produce la adaptación general de los animales y la de los seres humanos. Precisamente la idea de maximizar globalmente los resultados (lo que lleva a establecer compromisos previos en la conducta, a esperar en un momento para actuar posteriormente con mejores condiciones), señala a la posibilidad de adoptar un comportamiento estratégico por parte de los humanos (y posiblemente por parte de algunos animales entre los que se da algo parecido a lo que podríamos calificar de elaboración de herramientas, instrumentos para intervenir en el entorno, así como «vida social»). No se trata de que no se puedan (más bien se debe) realizar trabajo interdisciplinar entre biología y antropología, más bien queremos señalar que la gran falacia se produce si tratamos de transportar globalmente el modelo explicativo de las ciencias biológicas al espacio de las ciencias sociales. Por lo frecuente que resulta el establecimiento de analogías entre el mundo social y el biológico, no está de más indicar algunas precisiones sobre cómo opera la selección natural para no confundirla con ningún tipo de diseño intencional ni como un proceso dirigido a fines. Para ello puede resultar muy adecuadas las siguientes consideradas realizadas por Nagel en «Teleology revisited»:

«¿Ocurre realmente que la selección natural opera de manera que se generen consecuencias conductuales, es decir, produciendo órganos de un tipo particular, precisamente porque la presencia de tales órganos en el organismo del que son componentes da lugar a ciertos efectos? Tal como lo veo, suponer que esto es así sería violentar la teoría neodarwinista de la evolución tal como es comúnmente aceptada (…) De acuerdo con esa teoría, cuáles sean los rasgos heredables, que poseen los organismos que se reproducen sexualmente, depende de los genes que portan los organismos, genes que o son heredados de los organismos progenitores o que son formas mutantes de genes heredados. Cuáles de sus genes transmite un organismo a su progenie, es algo que viene determinado por procesos aleatorios que tienen lugar durante la meiosis y la fertilización de las células sexuales. No viene determinado por los efectos que los genes producen, ni en los organismos paternos ni en los descendientes. Es más, las mutaciones de los genes —la fuente última de la novedad evolutiva— también ocurre aleatoriamente. Los genes no mutan en respuesta a las necesidades que un organismo pueda tener a causa de cambios en su entorno; y qué gen muta es independiente de los efectos que una mutación genética pueda producir en la siguiente generación de organismos. Incluso más, la selección natural«opera» sobre organismos individuales no sobre los genes que portan, y que un organismo sobreviva para reproducirse no depende de si tiene rasgos que podrían resultarle ventajosos en algún entorno futuro.

La selección natural no es literalmente un «agente» que haga algo. Es un proceso complicado, en el cuál los organismos que poseen un tipo de material genético pueden contribuir más, en su entorno actual, al pool genético de su especie que lo que pueden contribuir otros miembros de la especie con diferente genotipo.»

En resumen, la selección natural es «selección» en un sentido muy peculiar de la palabra (Pickwickiano): No hay nada análogo a la foresight (previ-sión) en su operación: no da cuenta de la presencia de organismos que tengan un nuevo genotipo, no controla los cambios del entorno que puedan afectar a las oportunidades que el organismo tenga para reproducirse su propia clase, y no preserva los organismos que tengan rasgos que no son ventajosos para los organismos en su entorno actual, pero que puedan ser ventajosos para ellos en entornos diferentes. El término «selección natural» no es por lo tanto un nombre para algún objeto individual. Es un rótulo para una continua sucesión de cambios medioambientales y genéticos en los que, parcialmente debido a los rasgos genéticamente determinados que poseen los organismos, un grupo de organismos tiene más éxito en un entorno dado que otro grupo de organismos de la misma especie a la hora de reproducir su tipo y en contribuir al pool genético de la especie. La selección natural no tiene ojos para el futuro, si algunos zigotos resultan eliminados por selección natural es porque no se adaptan a su entorno presente.

Hempel. Enfoque en la concepción heredada

El Individualismo Metodológico es la posición del marxismo analítico más reciente, pero tiene precedentes claros. En el conjunto de la filosofía de la ciencia son los positivistas los que han defendido dichas posiciones, aunque tal vez, en el siglo XX, esa adscripción genérica sea parcialmente injusta, ya que otras corrientes teóricas también se pueden identificar como defensores del individualismo metodológico. Pero los fundamentos teóricos del individualismo metodológico, en el siglo XX, indiscutiblemente se relacionan con los esfuerzos del positivismo lógico por fundamentar las explicaciones científicas en unidades elementales que pudieran ser analizadas plenamente. Sin necesidad de entrar en matices que tendrían difícil cabida en un trabajo de esta naturaleza, es posible resumir la cuestión afirmando que la herencia positivista en la tradición de las ciencias sociales se afianza sobre tres principios básicos, conforme a la concepción preconizada por quienes la han consolidado:

  • a) Existe un componente ontológico según el cual es preciso admitir que la realidad existe de forma independiente y está regida por leyes inmutables; en consecuencia, el conocimiento debe predecir y explicar los fenómenos mediante el conocimiento de esas leyes.

  • b) Hemos de partir de un componente epistemológico, según el cual el investigador debe adoptar una postura de distancia, no interactiva, procurando que los valores y juicios propios no interfieran en la obtención de resultados.

  • c) Finalmente, el componente metodológico exige que las hipótesis sean sometidas a pruebas empíricas bajo condiciones contrastadas por medio de la experimentación empírica manipulativa. (Guba 1990)

En el positivismo dominante hasta bien entrados los años setenta del siglo XX, se daban estos tres componentes claramente entrelazados, aunque las reformas radicales de Popper produjeron un importante cambio, manteniendo una concepción en la que el componente epistemológico estaba claramente relacionado con el metodológico. En el individualismo metodológico, especialmente, en el marxismo analítico, tampoco se daba esa relación entre los tres componentes, ya que, siguiendo a Popper, pretendían que sólo se mantuviese una relación sistemática entre la dimensión epistemológica y la metodológica. Se trataría de una reflexión sobre la manera de explicar los hechos sociales y no sobre la composición ontológica del universo social, o sobre la búsqueda de una legitimación o justificación de las instituciones sociales a partir de una concepción individualista.

La postura general de la concepción heredada fue subsumir todas las explicaciones teleológicas y finales bajo el modelo de la explicación causal y compatibilizarlas con el modelo de cobertura legal de Hempel.

Hempel la estudia como la lógica del análisis funcional. La explicación teleológica, al recurrir a entelequias, no cumple los mínimos requisitos empíricos: no permite predicciones ni retrodicciones. Sin embargo, el análisis funcional (expresado a menudo en términos teleológicos) tiene un núcleo empírico y no acude a dichas entidades.

En este caso el explanandum es una pauta de conducta recurrente. Su forma es la siguiente:

  • Un sistema (S) funciona adecuadamente bajo unas condiciones internas y externas (Ci + Ce = C).

  • S funciona adecuadamente si se da cierta condición necesaria (N).

  • Si un rasgo (I) está presente entonces se cumple la N.

  • Luego I está presente en S.

Aparte del problema de significado de la expresión «funcionar adecuadamente», el razonamiento involucra la falacia de afirmar el antecedente. Habría que ser más restrictivo con el rasgo I: N sólo es posible si se da I. Podríamos interpretar I como una clase de rasgos pero entonces sólo podríamos inferir la presencia de alguno de los rasgos de la clase I.

El problema en esta clase de explicaciones es el uso de hipótesis de autoregulación no empíricas. Involucran el problema del tiempo, el significado de necesidad o de funcionamiento correcto, etc. Asociación peligrosa de los conceptos de función y propósito. Es importante reseñar el papel heurístico del análisis funcional: búsqueda de los aspectos autoreguladores de un sistema (social, biológico, psíquico, etc.).

Manzanas Asadas con Miel

Publicado: 23 May, 2012 en Cocina
Etiquetas:, , , ,

Deliciosa manera de comer manzanas, que a mí personalmente me acaban aburriendo, porque es tan difícil encontrar una buena manzana…

Para asar, y cocinar en general, utilizo manzanas reinetas, son las que sin duda salen mejor. En cambio en crudo no me gustan tanto.

Partimos pues de unas manzanas reinetas que lavaremos muy bien y quitaremos el tallo haciendo un pequeño agujero alrededor. El tamaño del agujero dependerá de lo golosones que seais, ya que en dicho agujerito echaremos un buen chorreón de miel. Cuanto mejor sea la miel, más bueno saldrá.

Podríamos añadirles un punto de canela, pero no le hace ninguna falta.

Metemos las manzanas en una bandeja de horno y al ídemo, a unos 160 grados una hora más o menos. La idea es que las manzanas se rompan y empiecen a dorarse.

Una vez asadas se dejan enfríar y ya están listas para comer.

Postre delicioso, merienda estupenda, incluso cena ligera. Aguanta unos cuantos días en la nevera. ¡Buen provecho!

INGREDIENTES

  • Manzanas reinetas
  • miel

MANUFACTURA

  • Lavar bien las manzanas y quitarles el tallo hacienco una hendidura
  • Verter miel en los huecos
  • Horno 160 grados arriba y abajo una hora hasta que estén rotas y doradas
  • Servir frías

Causa y Causalidad

El problema de la explicación causal, por más que se ha intentado, reaparece constantemente porque las palabras causa y efecto se introducen en el discurso aún cuando sean repudiadas en las propuestas metodológicas, como si la visión causal del mundo estuviera inscrita en algún rincón de la conciencia más allá de cualquier convicción metodológica.

Hay que distinguir muy claramente entre la naturaleza de la causación y la explicación causal. No es lo mismo un acontecimiento causal que una explicación causal. El hecho de que un acontecimiento cause otro es independiente del hecho en sí. La explicación causal subsume los acontecimientos bajo leyes causales.

La idea de causa surge de manera intuitiva al intentar explicarnos lo que sucede a nuestro alrededor mediante un esquema lógico subyacente que nos permita relacionar unos eventos con otros mediante conexiones necesarias.

Se trata pues de una habilidad cognitiva básica, muy importante porque existe la evidencia empírica de que siempre que se dan las mismas circunstancias como causas, se producirá el mismo efecto. Y esto es lo que entendemos por principio de causalidad.

Dados dos eventos, A y B, se dice que A es causa de B si se cumplen dos condiciones lógicas:

  • Cuando sucede A, sucede B, es decir, existe una correlación positiva entre ambos eventos
  • Cuando no ocurre B, implica que tampoco ocurre A, aunque la ocurrencia de B no tiene que estar necesariamente ligada a la ocurrencia de A

Si se cumplen ambas condiciones, existe una relación causal entre ambos eventos: A es causa de B o B es un efecto de A.

La idea de causa aparece en los diferentes contextos que abarca la ciencia:

  • En física el término suele denominarse causalidad, en mecánica newtoniana se admite además que la causa precede siempre al efecto.
  • En estadística es analizado por la estadística diferencial.
  • En ciencias sociales el concepto suele aparecer ligado a un análisis estadístico de variables observadas.
  • En ciencias naturales diferentes de la física y en procesos en los que no podemos reducir la concurrencia de eventos a un mecanimo físico simple, la idea de causa aparece en procesos complejos entre los que hemos observado una relación causal. Así tras las ecuaciones empíricas se supone hay un proceso físico causal que lleva a una conexión necesaria entre ciertos eventos.

La idea de «causa» ha suscitado un buen número de debates filosóficos y científicos.

  • Aristótelesconcluye el libro de los Segundos Analíticos con el modo en que la mente humana llega a conocer las verdades básicas o premisas primarias o primeros principios, que no son innatos, ya que es posible desconocerlos durante gran parte de nuestra vida. Tampoco pueden deducirse a partir de ningún conocimiento anterior, o no serían primeros principios. Afirma que los primeros principios se derivan por inducción, de la percepción sensorial, que implanta los verdaderos universales en la mente humana. De esta idea proviene la máxima escolástica «nada hay en el intelecto que no haya estado antes en los sentidos». Al mantener que «conocer la naturaleza de una cosa es conocer, ¿por qué es?» y que «poseemos conocimiento científico de una cosa sólo cuando conocemos su causa». Aristóteles postuló cuatro tipos mayores de causa como los términos medios más buscados de demostración:
    • Material, de lo que está hecho ese algo
    • Formal, lo que ese algo es
    • Eficiente, lo que ha producido ese algo
    • Final, para lo que ese algo existe o puede llegar a ser
  • En la filosofía occidental, el concepto de causa como «conexión necesaria» fue criticado por el filósofo David Hume, que dijo que nunca había observaciones suficientes para relacionar A con B. En las relaciones causales encontramos que:
    • Observamos que las cosas no están aisladas, sino que unas están ligadas a otras en un proceso de interacción. Unas cosas suceden a otras, y siempre en el mismo orden.
    • Un conjunto de hechos definen una situación, y a este momento siempre le sucede otra situación y siempre la misma.
    • Al primer conjunto que define la situación lo llamamos causa, y a la segunda situación la llamamos efecto.
    • La ley de la causalidad no debe confundirse con el Principio de razón suficiente. Tal paso es ilegítimo, como bien establecido está en el pensamiento científico y filosófico.
    • Sin embargo la ley de la causalidad es el esquema fundamental de la investigación científica, suponiendo que la mejor forma de comprender y explicar es conocer las causas, porque por un lado podemos prevenir y por otro controlar los efectos, en definitiva dominar los sucesos naturales.
  • Para Kant la causalidad es una de las categorías a priori del entendimiento, y entonces no proviene de la costumbre (como decía Hume) sino tiene un carácter necesario y universal. Esto permite que la ciencia se apoye sobre el principio de causalidad sin dejar de ser necesaria y universal.

Salmon y la relevancia estadística positiva

El problema con la visión inferencial está en que no siempre se puede usar la información explicatoria como base para la predicción. Esto es debido a que frecuentemente ofrecemos explicaciones de fenómenos con baja probabilidad.

En estos casos no se podría predecir el resultado que ocurrirá, pues la información no confiere una probabilidad alta para el resultado. No obstante, la información ofrecida constituye una explicación de ese resultado, pues aumenta la probabilidad de que ocurra.

En los 1960’s y 1970’s, Wesley Salmon propuso una visión de la explicación estadística que postulaba que, a diferencia de lo que había dicho Hempel antes, la probabilidad alta no era necesaria para la explicación, bastaba sólo una relevancia estadística positiva.

Es decir, una hipótesis h es relevante positivamente (correlaciona) con e, si h hace que e sea más probable

Pr(h|e) > pr(h)

El problema para Salmon ahora era distinguir entre casos donde la información pudiera proporcionar una explicación sustantiva, de otros casos donde la información reportada fuera una mera correlación.

Por ejemplo, tener manchas de nicotina en los dedos correlaciona positivamente con el cáncer de pulmón, pero no se puede explicar porqué una persona contrajo el cáncer de pulmón diciendo que es porque esa persona tiene manchas de nicotina en los dedos. Es imposible diferenciar entre estos dos casos mediante relaciones puramente estadísticas.

Obviamente se requiere de otro tipo de información para hacer la distinción. Luego de este tropiezo, Salmon vino a creer que explicar un fenómeno no es proporcionar información suficiente para predecirlo, sino dar información sobre las causas de tal fenómeno. En este enfoque, la explicación no es un tipo de argumento conteniendo leyes de la naturaleza como premisas, sino un conjunto de información estadísticamente relevante sobre la historia causal de un fenómeno.

Salmon proporciona dos razones para pensar que la información causal es lo que se necesita en las explicaciones.

  • Primero, las llamadas condiciones iniciales proporcionadas por la información explicatorio deben de preceder temporalmente a la explicación, para ser una explicación de lo explicado. La teoría de Hempel no tiene alguna restricción de este tipo. Es interesante que Salmon señale que la dirección temporal de las explicaciones semejen la dirección temporal de la causalidad, que es hacia adelante (las causas deben preceder en tiempo a los efectos).
  • Segundo, no todas las derivaciones a partir de leyes resultan ser explicaciones. Salmon argumenta que algunas “explicaciones Nomológico-Deductivas no son explicaciones de ninguna manera. Por ejemplo, una derivación a partir de la ley del gas ideal PV = nRT y la descripción de las condiciones iniciales. La ley del gas ideal simplemente describe un grupo de restricciones de cómo diversos parámetros (presión, volumen y temperatura) se relacionan, no explica porqué estos parámetros se relacionan de esa manera. La existencia de estas restricciones es una cuestión sustantiva que se responde en la teoría cinética de los gases.

Salmon dice que la diferencia entre leyes explicatorios y no-explicatorias es que las primeras describen procesos causales, mientras que las no-explicatorias (como la ley del gas ideal) solo describen regularidades empíricas.

Rasgos de los procesos causales

La teoría de Salmon sobre la explicación causal tiene tres elementos:

  1. Relevancia Estadística: los argumentos explicatorios (C) aumentan la probabilidad del fenómeno que se quiere explicar (E): pr(E|C) > pr(E)
  2. Procesos Causales: la explicación y lo explicado son partes de procesos causales diferentes
  3. Interacción Causal: estos procesos causales interactúan de tal manera que hacen que se presente el evento (E) en cuestión

Esto nos deja con la tarea de explicar qué es un proceso causal. Básicamente, el enfoque de Salmon es que los procesos causales se caracterizan por dos rasgos.

  • Primero, un proceso causal es una secuencia de eventos en una región continua de tiempo y espacio.
  • Segundo, un proceso causal puede transmitir información (“marcar”).

Existen varias secuencias de eventos que son continuos en el sentido requerido, por ejemplo, un rayo de luz, un proyectil viajando en el espacio, una sombra o un haz de luz que se mueve proyectado en una pared. Un objeto que está quieto, por ejemplo, una bola de billar también se considera como un proceso causal. Cada una de estas cosas es un proceso continuo en algún sentido, pero no todas son procesos causales, por ejemplo, la sombra y la luz en la pared. Veamos un ejemplo que nos aclare esto.

La teoría de la relatividad afirma que nada puede viajar más rápido que la luz. Pero ¿a que “cosa” nos referimos con nada? Imaginemos un cuarto circular con un radio de un año luz. Si tenemos un rayo laser enfocado y montado en un pivote en el centro del cuarto, podemos rotar el laser y hacer que de una vuelta por segundo. Si el laser esta prendido proyectará una luz en la pared. Esta luz también rotará a lo largo de la pared completando una vuelta por segundo, lo que significa que viajará a 2p años luz por segundo! Aunque parezca extraño, esto no está prohibido por la teoría de la relatividad, ya que una luz de este tipo no “transmite información”. Solo las cosas que sí lo hacen están limitadas en su velocidad.

Salmon concluye que un proceso causal es un proceso espaciotemporal continuo que puede transmitir información (dejar “marca”)… la transmisión de la marca consiste en que la marca ocurre “en” un punto del proceso y mantiene su efecto “para” todos los puntos subsecuentes, hasta que otra interacción causal ocurra, que borre la marca.

De acuerdo con Salmon, un principio poderoso para la explicación es el que afirma que siempre que haya una coincidencia (correlación) entre las características de dos procesos, la explicación viene de un evento común a los dos procesos, que da cuenta de su correlación. Esto es, de una “causa común”. Para citar un ejemplo que dimos antes, hay una correlación entre el cáncer de pulmón (C) y las manchas de nicotina en los dedos de una persona (N). Esto es: Pr(C|N) > pr(C)

La causa común de estos dos eventos es un hábito de toda la vida fumando dos cajetillas de cigarros diariamente (S). Con relación a S, C y N son independientes.

Podemos decir: pr(C|N&S) = pr(C|S).

Una vez que S entra en la escena, N se vuelve irrelevante.

Esto es parte de una definición precisada de lo que es una “causa común” y que está sujeta a condiciones probabilísticas formales. Empezamos con que pr(A|B)>pr(A).

C es una causa común de A y B si se dan las siguientes condiciones:

  • pr(A&B|C)=pr(A|C)pr(B|C)
  • pr(A&B|¬C)=pr(A|¬C)pr(B|¬C)
  • pr(A|C)>pr(A|¬C)
  • pr(B|C)>pr(B|¬C)

Sin embargo, esto no completa el concepto de la explicación causal, pues no hay una causa común que haga irrelevante la correlación de eventos independientes. Salmon nos da entonces la dispersión de Compton como ejemplo. Dado que un electrón e- absorbe un fotón de cierta energía E y recibe una energía cinética E* en cierta dirección como resultado, un segundo fotón se emitirá con E** = E – E*. Los niveles de energía del fotón emitido y del electrón estarán correlacionados, aún cuando ocurra la absorción. Esto es: pr(A&B|C)>pr(A|C)pr(B|C)

Críticas a Salmon

Resumiendo el análisis de Salmon sobre la explicación causal, Salmon afirma que una explicación involucra

  1. relevancia estadística
  2. conexión vía procesos causales, y
  3. cambios luego de la interacción causal.

El cambio es el fenómeno que hay que explicar. La noción del proceso causal es complimentada en términos de

  • continuidad temporoespacial, y
  • la habilidad para transmitir información (“marcar”).

Aún cuando algunas veces podemos hablar diciendo que sencillamente la causa y el efecto son las dos partes de un solo proceso causal, el análisis final típicamente se entregaría en términos de conexiones causales más complejas (y muchas veces indirectas), entre las que Salmon identifica dos tipos básicos: relaciones conjuntivas e interactivas.

La visión pragmática de Van Fraassen sobre la explicación

El enfoque pragmático de la explicación según Van Fraassen afirma que una explicación es un tipo particular de respuesta a la interrogante de ¿porqué?, una respuesta que proporciona información relevante que resulta más “favorable” para explicar un fenómeno, de lo que resultan otras explicaciones alternativas. Para Van Fraassen, estas características están determinadas por el contexto en el que se cuestiona la pregunta.

Los elementos básicos de la visión pragmática de la explicación

De acuerdo con Van Fraassen, una interrogante del tipo ¿porqué? Consiste de

  1. una presuposición (¿porque X?)
  2. una serie de clases contrastantes (¿porqué x y no Y, Z, etc.?), y
  3. un criterio implícitamente entendido de relevancia.

La información que se proporciona a una pregunta ¿porqué? en particular constituye una explicación de la presuposición, si la información es relevante y “favorece” la presuposición por encima de las alternativas en sus clases contrastantes.

Tanto las clases contrastantes como el criterio de relevancia están contextualmente determinados, basados en los intereses de los involucrados. Los intereses subjetivos definen lo que contará como una explicación en ese contexto, aunque entonces será una cuestión objetiva si esa información realmente favorece a la presuposición sobre las alternativas en sus clases contrastantes.

Comparación entre los enfoques pragmático y causal de la explicación

Cualquier tipo de información podría contar como relevante. El contexto (los intereses) determinará si algo se considera como una explicación a diferencia de que para nosotros podamos encontrar que una explicación es sobresaliente o más interesante. (De acuerdo con Lewis, lo que hace a una explicación es que proporciona información sobre la historia causal que lleva a que ocurra un fenómeno determinado, el que encontremos esa información interesante o sobresaliente es otra cuestión).

En el enfoque pragmático, Nunca se puede tener una explicación “completa” de un evento, a menos que se tengan intereses. (Una mera descripción de la historia causal que lleva a que ocurra un fenómeno -aunque sea una historia completa-, no es una explicación de ningún tipo, de acuerdo con la visión pragmática).

Las críticas de Van Fraassen a los esquemas tradicionales de explicación

El punto de partida de la crítica de Van Fraassen al patrón clásico de explicación propuesto por Hempel, va a girar en torno al concepto de relevancia explicativa, que como ya hemos visto, constituye uno de los requisitos indispensable que toda explicación debe cumplir para poder ser considerada como científicamente adecuada.

Recordemos que, según este principio, la información proporcionada por las premisas de una explicación debe proveer bases firmes para creer que el fenómeno explicado efectivamente ocurrió u ocurre. Van Fraassen, cree que este principio no proporciona condiciones suficientes, ni mucho menos necesarias, para que se dé una buena explicación, ya que, en primer lugar: “dar bases firmes para creer no siempre equivale a dar una explicación”.

Según este punto de vista, el carácter asimétrico que asumen muchas veces las proposiciones que componen una explicación, hace deficiente este principio. Así, por ejemplo, dos proposiciones pueden llegar a ser equivalentes la una de la otra (con respecto a la teoría aceptada como marco de referencia), pero no a la inversa. Al referirse a este hecho, Van Fraassen hace alusión al ejemplo del barómetro, donde el descenso brusco de la columna mercurial puede indicar, por lo general, la proximidad de una tormenta. Sin embargo, afirma Van Fraassen: “Si aceptamos la hipótesis significativa de que éste desciende exactamente cuando una tormenta está llegando, esto sin embargo, no explica (sino más bien es explicado por) el hecho de que la tormenta está llegando”.

La segunda objeción de Van Fraassen al requisito de relevancia explicativa, se basa en el hecho, de que: “No toda explicación es un caso en el cual se nos dan bases firmes para creer”. Uno de los ejemplos utilizados por Van Fraassen es el del enfermo de paresia, que ya hemos comentado. Se acepta la explicación de que nadie contrae esta enfermedad a menos que padezca de sífilis mal tratada. Sin embargo, el hecho de que el individuo padezca de sífilis no aporta buenas razones para esperar que se contagie de paresia, ya que, sólo un bajo porcentaje de enfermos de sífilis contrae esta enfermedad.

Se podría argumentar, como lo hace el propio Hempel, que la imposibilidad de establecer una relación mucho más estrecha entre ambas enfermedades se debe al hecho de que existen otros factores relacionados a ambas enfermedades que todavía no han sido descubiertos por la ciencia. Sin embargo, una argumentación de este tipo presupondría la creencia de que los fenómenos del mundo, por lo menos, en lo que se refiere a nivel macroscópico, son determinísticos, de manera que obteniendo una información mucho más completa, la explicación correspondiente sería más adecuada. Van Fraassen rechaza esta salida pues es de la opinión que el carácter determinista de los fenómenos del mundo es una cuestión meramente contingente.

El pragmatismo de Van Fraasen vs la relevancia estadística de Salmon

Con el fin de encontrarle una salida al problema de la relevancia explicativa, vimos que Wesley Salmon propuso considerar la explicación como un conglomerado de factores estadísticamente relevantes y no como un conjunto de argumentos o razonamientos, introduciendo así el concepto de relevancia estadística. De acuerdo a este principio, un hecho A es estadísticamente relevante para el fenómeno E exactamente si la probabilidad de E dado A es diferente de E Simpliceter. Según Salmon, dos ejemplos que cumplirían con los requisitos de proporcionar buenas bases para una adecuada explicación, serían los siguientes:

  •  “Juan Pérez estaba casi seguro de recuperarse de su resfriado porque tomó vitamina C, y casi todos los resfriados se alivian en una semana tomando vitamina C”.
  • “Juan Pérez evitó quedarse embarazado durante el año pasado, porque tomo regularmente las píldoras de su mujer, y todo hombre que toma píldoras anticonceptivas evita el embarazo”.

Van Fraassen cree que la aplicación de este criterio es tan insatisfactoria como la propuesta de Hempel, ya que, la circunstancia de haber tomado vitamina C para curarse de un resfriado es completamente irrelevante desde el punto de vista estadístico, dado que, la probabilidad de curarse en una semana es la misma para aquellas personas que tomen o no vitamina C.

Por otro lado, el criterio propuesto por Salmon termina siendo mucho más débil que el propuesto por el propio Hempel, ya que no requiere que la probabilidad de E sea alta (mayor por lo menos que ½), ni siquiera exige que la información A incremente la información de E solamente. Así, por ejemplo, en el caso de la paresia, aunque la probabilidad de que la enfermedad sea contraída por personas que sufrieron sífilis es baja, es distinta de la probabilidad de que una persona tomada al azar padezca de paresia, de manera que la sífilis resulta estadísticamente irrelevante con respecto a la paresia.

En el caso de las condiciones necesarias, una circunstancia puede llevar a explicar un hecho aunque no incida en la probabilidad de que este ocurra. Van Fraassen, nos propone imaginarnos una ficción médica, según la cual, la paresia resulte ya sea de la epilepsia, o ya sea de la sífilis, y de nada más, y que la probabilidad en cualquiera de los casos sea equivalente a 0,1. Además, nos pide que supongamos que Juan Pérez pertenece a una familia cuyos miembros padecen o bien de epilepsia o bien de sífilis (pero no de ambas), ya que Juan sufre de paresia. A la pregunta: “¿Por qué él desarrolló paresia?”, se responderá: “porque tenía sífilis” o “porque tenía epilepsia”, dependiendo de cual de las dos respuestas se ajuste mejor a la realidad. Sin embargo, afirma Van Fraassen: “con toda la demás información que tenemos, la probabilidad de que Pérez contrajera la paresia está ya establecida como 0,1, y está probabilidad no se modifica si no se nos dice además, pongamos por caso, que el tiene una historia de sífilis”.

 De las dos respuestas que pueden obtenerse en este ejemplo, sólo una explica legítimamente la aparición de paresia. Sin embargo, su aparición en Juan Pérez no altera el grado de probabilidad de que éste sufra de paresia. Esto significa, a diferencia de lo expresado por Salmon, que el hecho de que una circunstancia resulte ser un factor estadísticamente relevante no es condición necesaria para que éste se convierta en un explanans inobjetable.

Salmon ha afirmado que su teoría de la explicación causal no se adecúa enteramente para el dominio cuántico debido a ciertas anomalias causales

El problema de la causalidad

Para la mayoría de los filósofos de la ciencia el término explicación estaba estrechamente asociado a la explicación del “porqué” de los hechos, considerándose sólo explicación científica aquella que busca su marco y conceptos de referencia únicamente en las relaciones causales. Van Fraassen, va a cuestionar categóricamente a las distintas concepciones de la causalidad que han estado asociadas con los modelos tradicionales de explicación científica, ya que, para él: “Cuando algo se cita como una causa, ello no implica que sea suficiente para producir el suceso (para garantizar su ocurrencia)”. En otras palabras, Van Fraseen cuestiona la posición asumida desde el punto de vista tradicional, en el sentido de identificar la causa como conditio sine qua non, a la hora de explicar un hecho.

Entender la causa como condición necesaria tampoco resuelve el problema, ya que, en primer lugar, existen condiciones necesarias que no se considerarían la causa de un fenómeno, por ejemplo, la existencia del cuchillo es una condición necesaria para su oxidación, pero nadie aceptará la explicación de que el cuchillo se oxidó por el simple hecho de existir; y en segundo lugar, porque en algunos casos lo que se identifica con la causa de un hecho no puede ser condición necesaria para su ocurrencia.

Con el fin de resolver este problema de la relación causal, J.L.Mackie (1965), propuso la definición de causa como: “La parte insuficiente pero necesaria de una condición innecesaria pero suficiente”. No obstante, para Van Fraassen, tampoco con esta definición se logra una caracterización adecuada de la causalidad. En el caso del ejemplo del cuchillo, es evidente que su existencia es un factor necesario pero insuficiente del conjunto de circunstancias que constituyen una condición suficiente aunque no necesaria para su oxidación. Sin lugar a dudas, nadie afirmaría que la oxidación del cuchillo se debió a su existencia. Según el parecer de Van Fraassen, esto se debe a que: “en primer lugar, no toda condición necesaria es una causa; y en segundo lugar, en algún sentido muy directo una causa puede no ser necesaria, a saber, causas alternativas podrían haber llevado al mismo resultado».

Otra de las definiciones de causalidad rechazadas por Van Fraassen, es la propuesta por David Lewis (1973), quien intento definir la causalidad en términos de condicionales contrafácticos. Lewis, sugirió que la información “A causó B” es equivalente a la proposición “Si A no hubiera ocurrido, B no habría ocurrido”. Van Fraassen, cree que este tipo de equivalencias no pueden ser pensadas en términos de la lógica tradicional como si se anunciara que A es una condición necesaria para que B ocurriera. El “Si……..entonces” no corresponde, observa Van Fraassen, con ninguno de los tipos de implicación conocidos por la lógica tradicional, ya que estos obedecen a la ley de debilitamiento, según la cual:

Si A entonces B.

Se puede inferir,

(1) Si C y A, entonces B.

Pero, puesto que, en el lenguaje natural no rige la ley de debilitamiento, la lógica tradicional no refleja las propiedades de las condiciones que usamos en este tipo de lenguaje. Es por eso, que cualquier persona suscribiría la verdad del enunciado:

(2) Si el cerillo se frota, entonces encenderá.

Pero se negará a aceptar lo que sería su consecuencia, si se atiene a la ley de debilitamiento.

(3) Si el fósforo se moja en el café y se frota, encenderá.

Van Fraassen cree, que el hecho de que esta ley no pueda aplicarse a los condicionales del lenguaje ordinario es debido a que llevan consigo una cláusula tácita de ceteris paribus (si nada interfiere). Se le da este nombre al supuesto de que todas las circunstancias que componen el hecho mencionado en el antecedente permanecen siempre sin alterarse. Es por esto, que el efecto lógico de esta cláusula impide que la ley de debilitamiento sea aplicable al lenguaje natural. Así, por ejemplo, el enunciado (3) daría lugar, si se aplicara esta cláusula al siguiente condicional contrafáctico:

(4) Si el cerillo se hubiese frotado (y las demás circunstancias hubiesen permanecido iguales), entonces se habría encendido.

La posibilidad de afirmar que igualmente se hubiese encendido si se hubiese mojado y se le frotara, queda descartada, dado que la acción de mojarla violaría la permanencia de circunstancias que impone la cláusula ceteris paribus, colocada entre paréntesis.

A juicio de Van Fraassen, la posibilidad de que estos problemas puedan resolverse, siguiendo el camino de la lógica tradicional o el tratamiento formal de los condicionales contrafácticos, como propone Lewis (1973), son remotas. Los intentos por establecer las condiciones de verdad de los enunciados condicionales del lenguaje natural fracasan al desconocer que tales condiciones están determinadas por el contexto en que surgen.

En efecto, ya sabemos que los condicionales del lenguaje ordinario llevan implícito la cláusula ceteris paribus. Sabemos también que esta depende del contexto, es decir, de lo que el hablante decida mantener inalterable. Por tanto, es la variable contextual la que determina el contenido de la cláusula, al tiempo, que es fundamental a la hora de establecer la verdad del enunciado condicional. Suponer como pretende Lewis, que lo que queda fijo es siempre lo mismo para cada hablante es un gravísimo error.

Un condicional contrafáctico podrá ser verdadero en el contexto C1 y falso en el contexto C2, dado que su valor de verdad no esta condicionado por el enunciado en sí, sino por factores pragmáticos, que dependen a su vez del contexto. Al respecto, afirma Van Fraassen: “en algún momento se tuvo la esperanza (….), de que los condicionales contrafácticos proporcionarían un criterio objetivo de lo que es una ley de la naturaleza o, por lo menos, de lo que es un enunciado legaliforme (o nomológico). Una verdad meramente general debía ser distinguida de una ley puesto que ésta ultima, y no la primera, es la que implica los contrafácticos. Esta idea debe invertirse: si las leyes implican contrafácticos, entonces, dado que los contrafácticos son dependientes del contexto, el concepto de ley no señala ninguna distinción objetiva de la naturaleza” (Van Fraassen, 1996:149).

En base a estas observaciones, Van Fraassen llega a la conclusión de que todo intento por caracterizar el concepto de causalidad sobre la base de condiciones suficientes o necesarias, o por medio de condicionales contrafácticos, es un intento condenado al fracaso. Propone, por el contrario, una reformulación del concepto de causalidad en base a su estrecha relación con los factores pragmáticos. Trataremos ahora, de explicar los aspectos más importantes de esta concepción de la causalidad y su articulación en una teoría de la explicación.

La explicación causal y su dependencia del contexto

El modelo de la explicación científica propuesto por Van Fraaseen se apoya básicamente en dos elementos fundamentales: Las ideas de Reichenbach y Salmon sobre la causalidad y las características lógicas y pragmáticas de las preguntas. La vinculación con la causalidad es natural si se toma en cuenta que tradicionalmente “explicar” un fenómeno se ha entendido como determinar los factores (principios causales) que los ocasionaron. En lo que respecta al análisis de las preguntas, su vinculación radica en que una explicación constituye básicamente una respuesta al porqué sucede o sucedió un evento.

Sobre la base de las aportaciones hechas por varios filósofos de la ciencia (Bromberger, Achinstein, Hanson) en esta área, Van Fraassen, desarrolla su modelo reafirmando la importancia que los factores pragmáticos o contextuales poseen a la hora de fundamentar una buena explicación. Para Van Fraassen explicar causalmente un hecho es: “Contar una historia de cómo las cosas sucedieron y cómo, por así decirlo, los sucesos concuerdan entre si”.

Ahora, consciente de las insuficiencias que su concepto de relevancia explicativa poseía a la hora de explicar un hecho, Salmon reelabora su teoría de la explicación apoyándose en la teoría de la causa común de Reichenbach. Un proceso causal es entendido en su nueva teoría como una serie espacio-temporal continua de sucesos, igual al movimiento de un automóvil que se mueve a lo largo del camino y cuya sombra se mueve a la par de él. La explicación -según la nueva caracterización de Salmon- consistirá en mostrar la parte relevante de la red causal que conduce a los sucesos que han de explicarse.

Para Van Fraseen, a pesar de lo práctico que resulta la comparación de la realidad propuesta por Salmon -como una compleja red en la que se encuentran las series de eventos-, una explicación será sólo posible en la medida que se realice una previa selección de las partes de la red que se consideraran relevantes. De manera que, a la hora de explicar un evento: “la explicación solamente tiene que decir que existe una estructura de relaciones causales de cierto tipo, que podría en principio ser descrita en detalles: las características relevantes son las que escogen el cierto tipo”. Esto implica, que un mismo evento merecerá, de acuerdo a cuáles factores sean considerados relevantes, explicaciones alternativas; pudiendo incluso resultar varias de ellas adecuadas al mismo tiempo. En consecuencia, dirá Van Fraassen, que un mismo suceso podrá tener varias causas de muy diversa naturaleza.

Sin embargo, Van Fraassen cree que la elección del factor causal relevante no puede reducirse simplemente a señalar aquel que parezca más interesante. Los factores explicativos deben escogerse entre una gama de factores objetivamente relevantes para alguna teoría científica. Esto significa, que: “ningún factor es relevante explicativamente hablando, a menos que sea científicamente relevante, y entre los factores científicamente relevantes el contexto determina aquellos que son relevantes explicativamente”.

Conclusiones

La búsqueda de explicaciones adecuadas es uno de los principales motivos que impulsa la actividad científica. De allí, que la consideración en torno a la naturaleza y propósito de las explicaciones sea tema obligado en cualquier discusión sobre las funciones que debe cumplir toda ciencia.

Los defensores del modelo nomológico, por ejemplo, están convencidos que su patrón metodológico es aplicable a todas las disciplinas fácticas. Hempel encarna el ideal de muchos filósofos de la ciencia, según el cual, el conocimiento científico queda circunscrito a aquellas disciplinas que puedan confirmarse a través de la experiencia, de allí su esperanza de que todas las ciencias puedan unirse en base a un patrón metodológico de explicación único.

Sin embargo, este ideal ha sido objeto de rigurosos cuestionamientos. Los defensores de que la conducta humana individual, social o histórica, se rige por principios diferentes a los propuestos por el modelo de Hempel, insisten en la necesidad de defender el pluralismo metodológico, rechazando cualquier patrón unitario de explicación para la conducta humana.

Uno de los méritos del modelo pragmático propuesto por Van Fraassen, es que permite una mejor comprensión de los factores que condicionan la aceptación o rechazo de una explicación, resolviendo de esta manera, algunos de los malentendidos vinculados con el término. Uno de estos, es el que se refiere al hecho de que algunas explicaciones pueden resultar aceptables bajo la noción vulgar del término y, no obstante, no ajustarse a las exigencias del modelo de Hempel. El modelo pragmático de Van Fraassen, muestra en términos generales, que no existe diferencia entre las explicaciones que hacemos a diario y las explicaciones que realizan los científicos, salvo que, estas últimas se apoyan en sólidas teorías científicamente confirmadas. Esto significa, que quien construya una teoría de la explicación científica podrá apartarse de las limitaciones que impone el uso vulgar del término, siempre que el resultado sea de alguna manera provechoso. Este enfoque indica claramente que las exigencias que han de enmarcar toda explicación estarán condicionadas siempre por el contexto.

Pero si toda explicación se encuentra condicionada por los intereses y convicciones que cada actor adopta en relación a una serie de circunstancias que van más allá del tópico de la explicación, es decir, si toda explicación está condicionada por el contexto de intereses que cada actor aporta en relación al problema que intenta explicar; ¿no indica esto, que toda caracterización que se haga sobre la explicación no podrá reducirse a una única valoración crítica?

Como puede apreciarse, todo parece indicar, que la posibilidad de articular un patrón metodológico de explicación único, susceptible de ser aplicado a todas las ciencias, continúa siendo sólo un ideal.

¿Descartes?…¿Ese no era filósofo?…Claro que sí, que lo era. Pero como la mayoría de hombres de su época era muchas más cosas. Entre ellas, científico. Ahhhh, es verdad…¡el método cartesiano!

Pero no os voy a hablar del método cartesiano.  Descartes fue padre de una de las corrientes que mayor relevancia tuvo en su época y en épocas posteriores, el Mecanicismo, desarrollando la versión más coherente y amplia del mismo. No por ello menos descabellada, ¡ojo!, desde nuestra perspectiva actual del conocimiento científico. No vamos a quitarle ni mucho menos el mérito que tuvo. Pero desde luego si vamos a sorprendernos con la ciencia que hacía.

Pretendía con su modelo presentar una ciencia demostrativa capaz de abarcar todas las cualidades y propiedades de todos los objetos existentes en el universo. Einstein no fue el primero en tener ese sueño.

Seguro que a poco que conozcais la faceta filosófica de Descartes, lo de pienso luego existo es una de las frases más míticas que se piensan y existen. Para llegar a ella se basó en la duda metódica, que era la base de todo su sistema de pensamiento. Es decir, se duda de todo, absolutamente todo, y al hacerlo se descubre que el sujeto que duda tiene que existir (cogito ergo sum).

Pero ese sujeto no es un sujeto empírico o biológico, ya que podemos dudar de nuestro cuerpo, sino una sustancia pensante, inmaterial, carente de extensión espacial. Además, este sujeto de conocimiento descubre que tiene algunas ideas que lo sobrepasan, como la de Dios, cuya infinitud no puede proceder de una criatura finita y debe ser adventicia. Luego Dios existe. Con este razonamiento que consideraba impecable demuestra la existencia de Dios. Pero no se queda ahí. Por procedimientos similares, Descartes nos demuestra que además de existir, Dios no nos engaña, que causa el alma y sus ideas, de manera que nos podemos poner a trabajar tranquilos, Dios nos garantiza el éxito.

Descartes identifica la materia con la extensión espacial, pues esta es la única propiedad clara y distinta sin la cual no se pueden concebir los cuerpos. Piensa un poco en esta asociación porque es el alma máter de su sistema. Al establecer un dualismo tajante entre res extensa (los cuerpos) y res cogitans (los espíritus de Dios y el alma), reducía la naturaleza a un mecanismo inerte creado y jaleado por Dios. Ratzinger estaría encantado si todos los científicos siguieran siendo cartesianos.

La primera conclusión evidente es que la materia, o extensión, reduce los cuerpos a la pura geometría del espacio, de manera que todo cuanto existe es el movimiento relativo de las partes de esa extensión espacial. Todas las interacciones son mecánicas por choque y empuje de trozos de extensión.

La identificación de materia y extensión aseguraba el carácter geométrico de la materia. Bien. Pero llevaba necesariamente a un mundo pleno  y a la eliminación del espacio vacío como contradictorio.

Como no existe el vacío, todo es materia/extensión en movimiento, y ese movimiento  provoca el desgaste y la fragmentación de los cuerpos materiales en tres tipos de elementos. Descartes tenía una teoría acerca de los tres posibles elementos que conforman cualquier materia, es decir, que lo conforman todo, todo y todo:

  • Tierra, tercer elemento, formado por partículas gruesas e inertes, que componen los cuerpos ordinarios.
  • Éter, segundo elemento. Se obtiene cuando las aristas del tercer elemento se fragmentan y pulen formando un fluido elástico, compuesto por pequeñas esferas en contacto que llenan los espacios interplanetarios, transmitiendo las interacciones de forma instantánea.
  • Fuego, primer elemento, formado por las raspaduras de las partículas del éter. Como son tan diminutas y tremendamente rápidas, pueden llenar, con acoplamiento perfecto, cualquiera de los intersticios dejados entre las partículas mayores, impidiendo la formación de vacíos.

El programa mecánico de Descartes, por tanto, consistía en reducir todos los fenómenos a los movimientos de esta materia cualitativamente neutra, común a todo el Universo y geométrica, por lo que no aceptaba en física principios que no sean aceptados en matemáticas. Para verlo clarito, el Sol y las estrellas estarían  compuestos  del primer elemento (fuego), el aire del segundo (éter) y la Tierra y todo lo que está en ella del tercero (tierra).

Recapitulemos pues: materia y movimiento son los principios últimos de toda explicación física, habiendo sido creados por Dios en una cantidad finita e indestructible. Por lo tanto sobran principios ocultos, agentes activos, formas sustanciales y similares, en definitiva a todo lo que hoy llamamos campos o fuerzas.

La única causa generadora de movimiento fue Dios en el momento de la Creación, y lo hizo en una cantidad dada que ahora conserva en el mundo de modo que sea siempre constante. Aunque la cantidad global no varíe, su distribución local sí lo hace, para dar lugar a los constantes cambios observados. Esto, señoras y señores, era ciencia, con método y razón. Ciencia de la buena.

Imaginaros como sería cualquier movimiento, que necesariamente se produciría en un espacio lleno de materia, porque el vacío se lo había cargado de un plumazo. Cualquier interacción implica una circulación en un vórtice. Imagínate la cantidad de interacciones a computar en el más sencillo de los choques…completamente inmanejable. Aún así, se lanzó a explicar toda clase de fenómenos. Desde su cama, porque salir salía poco. Lo suyo era pura deducción metodológica, matemática teórica y abstracta.

Un ejemplo sin desperdicio lo constituye el sistema planetario. Toda la materia celeste gira en una serie de vórtices contiguos. La Tierra está en reposo respecto a las partículas del vórtice que la arrastra. Los espacios celestes están formados por vórtices de éter, uno de los cuales arrastra los planetas en torno al Sol, que está formado por fuego, porque las partículas mayores de éter poseen más tendencia inercial a perserverar en línea recta, alejándose del centro, que las de fuego, que son las más chiquitas. Los planetas, formados por el tercer elemento, son arrastrados por el vórtice a la distancia de equilibrio de su tendencia centrífuga con la del éter circundante. El éter gira con velocidad máxima en los límites del vórtice, que es por donde circulan los cuerpos celestes más rápidos, los cometas. Ahí lo llevas.

Para explicar la luz del Sol, exponía que el primer elemento (bolas menores) que gira en la estrella solar tiende a salir tangencialmente por efecto de la inercia rectilínea, como la piedra de la honda, cosa que impide el segundo elemento o éter circundante (bolas mayores). Ahora bien, éste recibe la constante presión del fuego y, dada su estructura, la transmite instantáneamente hasta la tierra. Maravilloso. De Broglie seguro que se inspiró en esto…

Descartes consideraba ingenua la idea de que el peso es una propiedad inherente de la materia, y despreciaba la posibilidad de que lo causase la mutua atracción de los cuerpos, por ser ésta una fantasía infundada…

La gravedad era ingenua. La Tierra, tan grande, no se mueve tan deprisa como la capa del segundo elemento en que está sumergida. Cuando las pequeñas esferas o glóbulos del material fluido llegan al centro de la Tierra, se desvían, y se les obliga a ir hacia afuera, tangencialmente. Se forma así un remolino secundario en torno a la Tierra… la Tierra está rodeada por un remolino secundario de materia celeste que tiene una velocidad mayor, y por lo tanto una mayor fuerza centrífuga, que la materia terrestre. Si se suelta un cuerpo, una piedra, digamos, sobre la superficie de la tierra, no podrá mantenerse arriba con la materia celeste, y será empujada hacia abajo, y habrá materia celeste que ascenderá y ocupará su lugar. De esta explicación puramente mecánica, o, más bién, centrífuga, de la gravedad, se sigue que todo cuerpo grande sufrirá un empuje hacia el centro. Maravilloso.

La cantidad de fenómenos abordados de esta manera es abrumadora, incluyendo el origen de la Tierra, de los océanos… Todo ello sin lágrimas, ni misterios, sino a base de partículas, movimientos, choques y presiones. Desde luego tuvo mérito.

Evidentemente todo era inventado y difícilmente podía funcionar, pero cautivó la imaginación de los científicos europeos y les enseñó a ingeniar mecanismos que pudiesen tratarse matemáticamente para la predicción cuantitativa de los fenómenos. Aunque hicieran falta herramientas matemáticas y tecnológicas para resolver un simple choque elástico que tardarían siglos en aparecer.

Gracias a Descartes los restos del naturalismo renacentista desaparecieron por toda Europa. Su sistema mecanicista embaucó a todos los científicos de la época. Por todas partes desarrollaban su mecanicismo y sus consecuencias…Excepto en Cambridge, donde un tal Newton tenía una visión pelín diferente del asunto…

Esta entrada también ha sido publicada en  Hablando de Ciencia

Un paté delicioso y sorprendente. Aunque el nombre de paté no sea del todo correcto, porque hígado no lleva y carne tampoco. Crema untable no suena muy glamouroso, así que nos quedamos con paté que nos vamos a entender tod@s.

Los ingredientes principales, como se intuye del título serán las setas y los pistachos. Setas las que quieras, las que más te gusten, frescas o congeladas. Incluso deshidratadas, con la precaución previa y obvia de la hidratación. Yo escogí un surtido de setas congeladas, y las descongelé a temperatura ambiente. Si las haces congeladas echan demasiada agua y para consumirla se cocinan más de la cuenta

Para darle textura vamos a utiliza un trozo de pan duro y unos pistachos, aunque también lo podrías hacer sin el pan y utilizar cualquier otro fruto seco,  incluso una mezcla de varios de ellos. Yo tenía unos pistachos por casa que ya no estaban muy finos, pero para cocinarlos estupendo, no se tira ná 🙂 .

En un cazo o sartén con el fondo de AOVE ponemos unos trozos de pan duro y unos dientes de ajo pelados y en trozos grandes. Doramos a fuego medio unos minutos y añadimos un puñado de pistachos, también pelados y con la piel quitada. Salteamos hasta que coja color y añadimos las setas y pimienta negra. Subimos el fuego fuerte para que no suelte mucha agua y lo salteamos un momentito, procurando que no haya mucho líquido.

Añadimos una pizca de sal y trituramos con la batidora. Lo ponemos en una tarrina o bol pequeño y a la nevera a que se enfríe.

Para untar en rebanaditas crujientes o para decorar y acompañar casi cualquier tipo de platos. Sencillo, rápido y muy rico. Apto para veganos, vegetarianos y omnívoros… ¡Buen provecho!

INGREDIENTES

  • Setas
  • un trozo pequeño de pan
  • 4 dientes de ajo
  • Un puñado de pistachos pelados
  • Sal, pimienta negra, AOVE

MANUFACTURA

  • Saltear los ajos pelados con el pan
  • Añadir los pistachos pelados y saltear un poco más
  • Añadir las setas, subir el fuego y salpimentar
  • Batir todo y en un bol a la nevera
  • Servir frío