Posts etiquetados ‘Ciencia’

Si estuviéramos en los 70 y tuviera una banda  yeyé le pondría este nombre, ¿no me digas que no suena cool?.  Paracelso y los Iatroquímicos…Paracelso

¿Alguna vez has oído hablar de Theophrastus Philippus Aureolus Bombastus von Hohenheim? El amigo Bombastus, además de un gran nombre se consideraba a sí mismo con un gran talento,y no se le ocurrió otro alias para ponerse que Paracelso, literalmente superior a Celso.  El tal Celso era un compilador romano del siglo I del que se conservaban sus 8 libros de medicina. El tal Paracelso andaba por la primera mitad del siglo XVI. Paracelso era un personaje tan estrambótico como su nombre. Despreciaba el saber médico tradicional hasta el punto de empezar sus clases quemando libros de Avicena y Galeno en un brasero de azufre y nitro. Muy fan. Obviamente se ganó el odio acérrimo de la mayoría de médicos de la época que eran masivamente galenistas y se pasó gran parte de su vida errando por Europa…por sus tabernas para ser más precisos.

A pesar de esta carta de presentación, el amigo Paracelso era un buen cirujano y un médico experto en remedios metálicos para enfermedades como las propias de los mineros, las heridas de las novedosas armas de fuego y la sífilis, recién estrenada en Europa y a la que combatía con mercurio. Paracelso enseñaba y dictaba sus doctrinas, pero adolecía de maneras de mago. El secretismo formaba parte intrínseca de su personalidad por lo que nunca llegó a publicar nada. No perdáis de vista que estamos en una época donde magos, médicos y químicos formaban una extraña fauna difícilmente clasificable.

Innovador e iconoclasta, gran experimentador e investigador de nuevos remedios, se guíaba por la idea de que la enfermedad estaba provocada por los residuos venenosos de las reacciones químicas gracias a las que nuestros cuerpo funciona. De esta manera, las medicinas se orientaban a neutralizar esos residuos indeseables mediante arcana inorgánicos. La fisiología química de cada sistema orgánico estaba conectada con una realidad astral del macrocosmos, y mediante un espíritu independiente o archeus, controlaba la transformación de los alimentos en la digestión. Embebido de Platón, de la Biblia y de vino, interpretaba la creación del macrocosmos en el Génesis como una gran obra alquimista; las sustancias elaboradas eran una transformación creadora más que una mera combinación de materiales que se conservan en el compuesto.

La teoría paracelsiana de la materia trata más de principios abstractos que de corpúsculos materiales concretos. Se trata de una teoría de principios comunes a todas las sustancias, como los cuatro elementos clásicos, cuya unión da lugar a cuerpos con una nueva forma sustancial. La química medieval había complicado el esquema básico aristotélico con las emanaciones seca o húmeda de los Meteoros, responsables de la formación de minerales en las entrañas de la Tierra. Los árabes habían considerado el azufre y el mercurio principios que daban lugar a los metales según su proporción y calidad, que en el caso óptimo proporcionaba oro.

Sal azufre mercurioParacelso partió de estas ideas y añadió la sal al mercurio y al azufre para formar la Tria prima, principios no sólo de los metales sino de todas las suTria primastancias. La Tria prima es el trasunto microcósmico de la trinidad macrocósmica, siendo el cuerpo la sal, el alma el azufre y el espíritu el mercurio. Estos principios son arquetipos espirituales tan diversos como las sustancias que forman, por lo que no tenían mayor utilidad analítica, ya que cada cuerpo calcinado da una sal diferente y emite un espíritu distinto.

Los médicos seguidores de Paracelso conservaron un vago neoplatonismo y un gusto por las interacciones simpáticas entre macro y microcosmos, pero eso no quería decir que aceptaran necesariamente las doctrinas concretas de Paracelso, sino que hacían más bien hincapié en los aspectos prácticos e innovadores de su mensaje iconoclasta, frente al conservadurismo de los colegios de médicos y las universidades, apoyados por la Iglesia católica y sus jesuitas, opuestos a cuanto sonase a magia y religión no controlada. Por este motivo, el paracelsismo prosperó sobre todo en las zonas protestantes de Países Bajos y Alemanía y entre los hugonotes franceses.iatroquimica

Los iatroquímicos no eran ratas de taberna como el tarambana de su padre, Paracelso, sino dignos médicos profesionales que debían satisfacer a sus clientes con medicinas eficaces. Esto llevó a mitigar un tanto el misticismo y oscuridad del maestro para centrarse en los esquemas reformistas tendentes a promover la investigación farmacéutica y a producir recetas claras y precisas. Con ello desarrollaron un cierto eclecticismo tendente a dar la bienvenida a cualquier cosa aprovechable de Paracelso o Galeno. Paulatinamente los químicos empezaron a aparecer en las instituciones científicas e incluso en algunas universidades. Pero esa es otra historia que será contada en otra ocasión, porque Paracelso y los iatroquímicos no fueron una banda yeyé, fueron los padres de la Química.

Anuncios

A pesar de la perfección matemática de los Principia, los científicos contemporáneos de Newton apostaban a que su obra no era correcta. Me refiero al Philosophiae Naturalis Principia Mathematica, publicado en 1.687. El mecanicismo era la filosofía natural ilustrada predominante en la época. Los mecanicistas, filósofos y científicos, pensaban que todo fenómeno era explicable mediante materia en movimiento. Y eso de que para explicar la gravedad no diera Newton ni una sola explicación mecanicista era una auténtica barbaridad, fallo garrafal asegurado. Las apuestas estaban casi todas en contra de Newton.

Decía alguién por ahí que una vedad primero era despreciada, luego combatida y finalmente asumida.

La explicación que daba Newton sobre la gravedad, les hacía recordar a los mecanicistas antiguas fuerzas ocultas de las que llevábamos siglos intentando huir con la razón y la ciencia.

No iban desencaminados del todo. Porque Newton era un hombre de Dios, y eso condicionó significativamente la evolución de su pensamiento científico.

El joven Newton era mecanicista

Es curioso porque el jóven Newton aceptaba el mecanicismo, aceptaba la existencia de un éter más o menos cartesiano. Pero sus estudios teológicos y alquimistas lo pusieron en presencia de poderosas fuerzas ocultas en la materia, que no eran mecánicas, sino inmateriales.

En 1675 envió a la Royal Society una “Hipótesis para explicar las propiedades de la luz de las que he hablado en mis diversos escritos” en los que recurría a un éter sutil (partículas diminutas) y raro (poquísimas partículas por volumen), cuya acción no depende de su masa inerte, pasiva y despreciable, sino  que es asiento material de fuerzas espirituales repulsivas a distancia. El éter consta de diversas partes susceptibles de dar cuenta de las diferentes interacciones eléctricas, magnéticas, luminosas, gravitatorias y demás.

Este éter circula por todo el cosmos, conectando las misteriosas y activas sustancias de las colas de los cometas con los arcanos laboratorios de las entrañas de la Tierra donde se engendran los minerales. La Tierra es un gran animal que respira éter para su renovación y fermento vital, siendo dicho éter su alma material.

Como hasta mediado de los (16)80 no concibió la grativación como una acción mutua, ésta circulación de éter podría dar cuenta de la gravedad.

Newton empieza a dejar de lado el mecanicismo

Otros modelos de éter para la refracción de la luz recurrían a un éter estático y elástico dotado de un gradiente de densidad. Este gradiente hacía que el éter fuera más denso en los grandes espacios vacíos del Universo que entre los planetas. Este era el tipo de conversaciones que Newton mantenía con Boyle en las cartas que se intercambiaban.

“Dios creó cierta naturaleza incorpórea que tiende a repeler a los cuerpos y a hacerlos menos concentrados”. Esta frase en concreto,  fue una de las primeras manifestaciones del abandono de Newton de la teoría mecanicista. Newton empezó a pensar, en lugar de materia y movimiento, en agentes inmateriales, carentes de inercia y capaces de actuar a través de los espacios vacíos.

Estas fuerzas inmateriales son ya los elementos importantes en el gobierno del Universo, según palabras de Newton, “en el mundo encontramos muy poco movimiento que no se debe a estos principios activos o al dominio de la voluntad”, y “de no ser por dichos principios, los cuerpos de la Tierra, de los planetas, de los cometas, del Sol y de todas las cosas que ellos se encuentran, se enfríarían y congelarían, tornándose en masas inactivas. Toda putrefacción, generación, vegetación y vida habrían de cesar y los planetas y cometas no permanencerían en sus órbitas”. La gravitación, por supuesto, sería uno de esos principios activos inmateriales mediante los que se ejerce el dominio de la voluntad divina sobre la naturaleza.

Sin embargo, hubo una época en la que a Newton incluso el éter raro le pareció demasiado material. El recurso a entidades distintas de la materia y más importantes que ella llevó progresivamente a minimizar la importancia y la cantidad de esta, sin espacios vacíos interpuestos. De ahí su famosa frase de que toda la materia del Universo cabría en la cáscara de una nuez.

Así se reforzaba el ataque al mecanicismo cartesiano, antesala del ateísmo por la autonomía otorgada al mundo material. Si la materia es inanimada, inerte y escasa, la actividad de la naturaleza depende de la acción de entidades espirituales a las órdenes del Gran Espíritu. Newton defiende frente a la identificación cartesiana de la materia con la extensión, que el espacio es un “efecto inmanente de Dios”; es como Dios mismo, pero sin poder motriz; el espíritu es extenso, idea por cierto retomada del neoplatonismo. Así que, aunque el espacio pueda estar vacío de cuerpos, con todo “no está vacío de Él mismo (Dios)”. Por eso, lo que para nosotros serían acciones a distancia ( si fuesen acciones de los cuerpos materiales), en realidad son acciones por contacto, pues los espíritus, como Dios, están sustancialmente presentes en el espacio y en los cuerpos. Dios aparecería así como el alma del mundo que movería directamente los cuerpos con su voluntad. “Del mismo modo que nosotros somos conscientes de poder mover el cuerpo con la voluntad, no se puede negar a Dios la capacidad de mover los cuerpos”. La imagen del Universo que tenía Newton era descarnada, era un Universo material inerte y frío que flota en Dios, siendo movido y vivificado directamente por su voluntad.

Yo no invento hipótesis

Newton le comentó a Bentley, en la primera carta que intercambiaron, que al escribir los Principia buscaba promover la fe en la divinidad, y en la última de sus cartas señalaba que la materia no puede actuar sobre la materia si no es por contacto, de modo que la interaccción entre los cuerpos espacialmente separados, como los astros, se debe a la “mediación de otra cosa que no es material“.

En 1693 Newton le escribía a  su amado Leibniz que estaría dispuesto a aceptar un éter siempre que su densidad no superase el límite de precisión de unos experimentos que había realizado con péndulos, en los que en su momento creía haber demostrado la inexistencia del éter. En cualquier caso, despues de 1706, año en el que se publica la Óptica en su edición latina, Newton empezó de nuevo a valorar la idea de explicar las diversas interacciones entre los cuerpos mediante éteres fluidos e imponderables  (sin masa ni inercia medibles), lo que dio lugar durante el siglo XVIII a una gran proliferación de hipótesis de esta índole.

En la segunda edición de los Principia, después de despacharse a gusto con sus ideas sobre la divinidad, decía que “hasta ahora he explicado los fenómenos celestes y de nuestro mar por la fuerza de la gravedad, aunque aún no le he asignado una causa…Hasta ahora no he podido descubrir la causa de las propiedades de la gravedad a partir de los fenómenos, y yo  no invento hipótesis…“; pero a pesar de todo insinuaba a continuación que “tal vez podamos añadir algo acerca de un espíritu sutílisimo que impregna y se esconde en todos los cuerpos, mediante cuya fuerza y acción se atraen mutuamente las partículas de los cuerpos…y los cuerpos eléctricos operan a grandes distancias…y la luz se emite, refleja, refracta y calienta los cuerpos, y se excitan las sensaciones…y los miembros se mueven por la voluntad“.

De manera que los que leyeron la segunda edición inglesa de la Óptica (1717) se encontraron con que los vacíos de cuerpos y llenos de Dios se habían llenado ahora de un espíritu etéreo intermediario, retornando a la vieja idea del De Gravitatione (1664-68), según la cual servirse de mediadores “lejos de disminuir el poder divino, lo realza, pues la potencia que puede producir criaturas, no sólo directamente, sino también por mediación de otras criaturas, es extraordinariamente, por no decir infinitamente mayor. Por eso algunos quizás prefieran suponer que Dios impone al alma del mundo creada por él la tarea de…antes de creer que tal tarea es ejecutada directamente por Dios“.

Jesucristo, el éter, el propio Newton eran ejemplos de dichas criaturas intermedias entre el Pantocrátor y la Creación. Con este éter intentó Newton al final de sus días la unificación de todas las interacciones, pues los experimentos de Francis Hauksbee sobre triboelectricidad le hacían percibir casi directamente los movimientos y el viento de un espíritu eléctrico. Con todo los experimentos no eran suficientes y los modelos de éter incapaces de abordar todo tipo de fenómenos sin caer en contradicciones.

Con 75 años, Newton se encontraba finalmente demasiado viejo para llevar a cabo una unificación de todas las fuerzas que aún se nos resiste después de tres siglos.

Mis ojos se apagan-confesaba a los colegas de la Royal Society-, mi espíritu está cansado de trabajar, a vosotros corresponde realizar los mayores esfuerzos para no dejar escapar un hilo que pueda guiaros

 

Este artículo también ha sido publicado en hablandodeciencia.com

Los Orígenes de la Óptica

Publicado: 25 octubre, 2012 en Ciencia
Etiquetas:, , ,

Ojos de superhéroe

En la Grecia Clásica la ciencia fue conformándose como una rama de la filosofía. Los filósofos naturales, que podrían empezar a llamarse físicos, especularon acerca de la naturaleza física de la luz y del proceso fisiológico de la visión.

Por su lado, los matemáticos, que éstos sí que estaban ya muy bien posicionados, aplicaron la geometría al estudio de los rayos para explicar deductivamente los fenómenos de la perspectiva (óptica), la reflexión (catróptica) y la refracción (dióptica).

Un punto de vista matemático exige abstraer determinados rasgos de los procesos visuales, tales como que los rayos viajan en línea recta, con olvido de otros, tales como los colores. Como consecuencia, el modelo de la visión de los matemáticos, de origen pitagórico, era bastante peculiar.

Del ojo emanan rayos visuales que permiten percibir los objetos sobre los que inciden, como si fuesen pseudópodos con los que se palpan las cosas. Las consecuencias que entrañaba esta teoría son cuanto menos estrambóticas, como el hecho de que hay que llenar regiones vastísimas con emanaciones oculares de modo instantáneo. Obviamente presentaba indudables ventajas para la matematización frente a otras teorías rivales.

Una de ellas era la teoría atomista, según la cual es el objeto el que emite simulacros o capas de átomos que viajan conservando su forma hasta el ojo. Vemos por contacto con los simulacros presentes en el espacio. Esta doctrina, clara y mecánica, sin embargo no explicaba la función de la luz en la visión, es decir, porqué no captamos los simulacros de noche.

Otras teorías prestaban atención al medio continuo interpuesto entre el ojo y los objetos. Platón suponía que el fuego emanado del sujeto y la luz interactuaban para crear el medio óptico, y Aristóteles consideraba que los cuerpos luminosos actualizaban la transparencia potencial del medio, que es en lo que consiste la luz. A su vez, los cuerpos coloreados interactúan con este medio lumínico continuo, operando en él ciertos cambios que percibimos. Este era el tipo de teoría preferida por Galeno…el médico.

Euclides y sus postulados

Aunque las teorías de la alternativa del medio o de la emanación de átomos de los objetos fuese fisiológica y físicamente más atractivas que la de la emisión de rayos del sujeto, esta se prestaba de perlas a la geometrización y demostración de las leyes de la óptica, mientras que aquellas eran incapaces de suministrar los principios capaces de derivar los fenómenos básicos de la formación del campo visual y de la perspectiva.

En realidad, y como ha sido siempre, la elección del modelo de visión dependía de los intereses profesionales. Por muy atractivas que fuesen para físicos y fisólogos, las doctrinas del medio y de la emisión del objeto no servían a los geómetras.

La teoría de la emisión ocular salvaba trivialmente los fenómenos básicos del campo visual, como se recoge en los supuestos de la Óptica de Euclides. Si el ojo emite sus rayos visuales discretos y rectilíneos formando un cono con el vértice en el ojo, la ordenación del campo visual es obvia. Los objetos alcanzados por los rayos de la derecha del cono se ven a la derecha, distinguiremos mejor los detalles cuanto más rayos alcancen al objeto.

Como era usual en la tradición geométrica, los postulados se exponen sin la menor discusión física previa, y se procede sin más a demostrar las proposiciones.

Por ejemplo, la primera establece que ningún objeto se ve completamente a la vez, porque los objetos son continuos, pero los rayos que salen de los ojos son discretos y por lo tanto hay intervalos del objeto que no están cubiertos por ningún rayo. Si nos da la impresión que vemos el objeto entero es porque lo barremos rápidamente con nuestros rayos.

La base física y fisiológica de los postulados era oscurísima, pero una vez concedida, todo se deriva con el rigor y claridad usuales en la geometría.

Ptolomeo estaba a todas…

Un siglo después, se escribió la Óptica de Ptolomeo, perdida en la noche de la historia. Esta obra tuvo gran influencia en el siglo XI sobre Ibn al-Haytham (Alhazen), que fue el primero en construir un modelo geométrico en el que la luz procede del objeto. Pero como tantas otras teorías, ésta fue bastante mal conocida entre los cristianos, que a pesar de todo, conocieron a Ptolomeo a través de Alhazen.

El enfoque de Ptolomeo fue muy importante al incluir la indagación y prueba experimental de los primeros principios de la demostración geométrica de las leyes de la óptica.

Los axiomas no eran ni autoevidentes ni postulados al modo de Euclides, sino que se justificaban mediante experimentos, sometiendo así la matematización a la indagación empírica.

Ptolomeo deriva las leyes de la catróptica de tres principios:

  1. en los espejos, los objetos se ven en la dirección del rayo visual
  2. la imagen parece estar en la prolongación de la perpendicular del objeto al espejo
  3. los ángulos incidente y reflejado forman ángulos iguales con la normal

Pero los resultados más originales de Ptlomeo fueron los de la dióptrica, es decir, las ilusiones producidas por las desviaciones de los rayos en la interfaz que separa dos medios transparentes de diferente densidad. Para Ptolomeo esta desviación no se produce en ángulos iguales, sino que los ángulos con la normal tienen cierta relación cuantitativa definida. El problema era dar con ella.

La ley básica de la refracción, según la cual la razón entre los senos de los ángulos de incidencia y refracción es constante para un par de medios dado, no se descubrió hasta comienzos del siglo XVII gracias a Snell; pero Ptolomeo experimentó sistemáticamente en busca de esa relación, introduciendo la mitad de un disco graduado en agua y en vidrio para tabular las posiciones del objeto visto por refracción en el caso de aire-agua, aire-vidrio y agua-vidrio.

Estos experimentos también mostraron que hay una menor refracción entre agua y vidrio cuyas densidades están muy próximas; que el rayo refractado se acerca a la normal en medios más densos; que la trayectoria es reversible, etc.

El estudio de la refracción tiene una aplicación importante para la astronomía, porque la interfaz entre el aire terrestre y el éter celeste refracta los rayos visuales que van a los astros, haciendo que parecan estar más altos en una cantidad que aumenta desde el zenit al horizonte.

Parece ser que fue Cleómedes en el siglo I a.C. el primero que atribuyó a la refracción el hecho de que se viesen a la vez la Luna y el Sol sobre el horizonte en el momento de un eclipse, cuando supuestamente esos cuerpos deberían estar en línea con la Tierra. La razón de ello se atribuía a que la refracción hacía aparecer a ambos cuerpos más elevados de lo que en realidad estaban.

Conocer la refracción atmosférica para corregir la posición aparente y operar con la real en los cálculos fue un serio problema de la astronomía que Ptolomeo no llegó a resolver por desconocer la extensión de la atmósfera.

La óptica geométrica, a falta de la ley de la refracción, quedaba así como un campo en el que pocas novedades cabía esperar. Los avances de los árabes y luego del siglo XVII se produjeron en el estudio físico de la luz y los colores y de la teoría de la visión.

Situémonos en la Edad Media. Esa época mal conocida como una etapa oscura de la humanidad, y sin embargo, cuajada de grandes avances científicos, porque en realidad, la oscuridad sólo estaba en Europa, auspiciada por el asfixiante ambiente religioso del momento. Y la humanidad se extendía mucho más allá de las fronteras cristianas.

Si nos desplazamos hacia el Este y nos situamos en el mundo islámico, esa cultura tan denostada en nuestros días, nos encontramos con un entorno que en la Edad Media era garante de vanguardia social y científica, plagado de grandes avances que fueron conocidos mal y tarde, debido entre otros aspectos al egocentrismo intransigente e intolerante que rodeaba a Europa.

Si has podido realizar ese salto espaciotemporal sin demasiado vértigo, y te interesa la historia de la Astronomía, te voy a contar una historia, que para algunos será tan desconocida como relevante.

Ptolomeo, Almagesto y complícate la vida

Por aquellas, astronomía y astrología se confundían en una amalgama que sólo unos siglos después comenzó a distinguirse con claridad y rigor científico. Por aquellas, los cristianos no entendían las teorías de Ptolomeo, y hasta el siglo XV no empezaron a ver la luz. Por lo tanto, por aquellas, fueron los musulmanes lo que tomaron carrerilla y se posicionaron como los sabios del universo. Claro que tenían sus motivaciones prácticas, como por ejemplo la regulación del tiempo y del calendario y la determinación de la dirección a la Meca. Pero eso no le quita nada de mérito al asunto.

A mediados del siglo II, Ptolomeo realizó un estudio exhaustivo y sistemático del cielo, cuyo fruto inicial fue el perfeccionamiento de la obra Hiparco. Como el trabajo de Hiparco se ha perdido en la noche de los tiempos, no tenemos ni idea de hasta qué punto Ptolomeo se basó en él.

Lo más relevante del sistema ptolemaico es que creó un refinado sistema para explicar los complejos movimientos de los planetas, suponiendo la Tierra como centro del universo, gracias al uso de epiciclos, ecuantes y otros artificios teóricos.

Ptolomeo creía que la Tierra estaba inmóvil y ocupaba el centro del Universo, y que el Sol, la Luna, los planetas y las estrellas giraban a su alrededor. A pesar de ello, mediante el modelo del epiciclo-deferente, cuya invención se atribuye a Apolonio, trató de resolver geométricamente los dos grandes problemas del movimiento planetario:

  • La retrogradación de los planetas y su aumento de brillo mientras retrogradan
  • La distinta duración de las revoluciones siderales

Según el modelo ptolemaico, el planeta se mueve sobre el epiciclo, que es una circunferencia pequeña de trazos, cuyo centro a su vez se mueve sobre el deferente (circunferencia grande de trazos).

  • El centro del deferente es X, pero el movimiento angular del epiciclo es aparentemente acorde sólo respecto al punto (·) que es el ecuante.
  • El deferente es el recorrido circular que describe el centro del epiciclo.
  • El ecuante es el punto en torno al cual se mueve el planeta en su trayectoria, aparentemente.

Para explicar la irregularidad del movimiento de los planetas, Ptolomeo afirmaba que si desde la Tierra la velocidad planetaria no parece ser regular, sí lo era desde el punto ecuante.

Instrumentos manuales para una nueva era

Esta visión del cosmos sería conocida durante toda la Edad Media. En Europa se conoció la obra de Ptolomeo, en gran medida, a través de traducciones medievales árabes. El trabajo de Ptolomeo sólo sería superado más de un milenio después con los trabajos teóricos y observacionales de los astrónomos de Maraga, que por cierto no se tiene muy claro donde se situaba el observatorio, más o menos entre Irán y Azerbayán. Ptolomeo explicitaba en el Almagesto cómo calcular los parámetros de su modelo a partir de observaciones, y para el siglo IX los musulmanes ya sabían como hacerlo. Los cristianos tuvieron que esperar a las traducciones y comentarios que se realizaron en el siglo XII.

Pero Ptolomeo no explicó lo más interesante, es decir, cual es el proceso de análisis de regularidades previsto según el modelo que podía dar cuenta de ellas. Ese nivel de madurez teórica fue alcanzado por los musulmanes en el siglo XIII, y por los cristianos unos tres siglos más tarde.

Las tablas en la astronomía son útiles para el cómputo del tiempo, el calendario y la astrología. Pero para recalcular los parámetros y construir tablas, se necesitan observaciones sistemáticas y precisas realizadas durante unos lustros. Ello llevó al diseño de instrumentos de observación.

El más común fue el astrolabio, que servía para diferentes propósitos de medición de ángulos. Su origen se encuentra en el siglo VI, pero a lo largo de toda la Edad Media sufrió importantes modificaciones, para determinar el tiempo y hacer mediciones tanto astronómicas como geodésicas.

Otro instrumento importante fue la esfera armilar, utilizada desde el siglo XIV. Era un instrumento manual con una serie de anillos graduados fijos o móviles para los distintos círculos celestes con la que se hacían predicciones.

En el mismo siglo se introdujo el radio astronómico, también llamado báculo de Jacob, una vara graduada con un travesaño móvil cuyos extremos se hacían coincidir con la distancia angular a medir.

Casi todo los instrumentos eran manuales y por tanto de precisión limitada, pero aún así, los mussulmanes corrigieron con buen tino los parámetros ptolemaicos.

Comenzaron en el siglo IX con los parámetros solares, descubriendo que había disminuido la oblicuidad de la eclíptica y el año trópico (el de las estaciones), mientras que había aumentado la precesión de los equinocios y la longitud de la línea de ápsides (la que pasa por el perigeo y el apogeo).

Aún así, los musulmanes seguían pensando que tenían mucho que aprender de Ptolomeo, por lo que no consideraron sus valores mejores, por lo que refinaron la matemática ptolemaica para representar un universo más acorde con las observaciones.

Los lamentos de al-Haytham

Otra novedad importante de la astronomía del islam fue el carácter físico o filosófico que le imprimieron. Los musulmanes eran tan matemáticos como físicos y desconfiaban de la realidad de las excéntricas y de los ecuantes, los cuales consideraban que tan solo maquillaban el hecho de que los movimientos supuestos no eran en realidad simples, circulares y uniformes en torno a un centro, como correspondían en esa época a la materia celeste, herencia aristotélica inamovible.

En el siglo XI, Ibn al-Haytham se lamentaba, 500 años antes de Copérnico, de la alegría con que se inventaban expedientes matemáticos que no se sometían a las restricciones físicas. Acusaba a Ptolomeo de violar sus propios principios físicos, como la uniformidad (merced a la ecuante) y la simplicidad de los movimientos de los cuerpos de éter (merced al epiciclo sobre deferente), lo que era indicio de que no habían dado con la verdadera constitución del Universo.

La reacción islámica a este reto fue doble:

  • Por un lado, en los siglos XII y XIII hubo un intento de retomar las esferas homocéntricas por parte de los aristotélicos andalusíes, Avempace, Aventofail y Alpetragio. Pero eso no significaba renunciar a los logros de la astronomía.
  • Por otro lado, en el siglo XIII, los astrónomos de Maraga consiguieron construir modelos astronómicamente precisos, inmunes a las críticas físicas de Ibn al-Haytham. Fueron los primeros modelos originales no ptolemaicos. La pieza clave de esta solución fue un teorema de al-Tusi que muestra cómo generar un movimiento rectilíneo con dos circulares, conocido como el par de al-Tusi

El par de al-Tusi

Nasir al-Din al-Tusi era persa, y aunque no os suene de nada, este ilustre personaje fue tan importante como para que el gobierno iraní le dedicara un sello y como para tener su propio cráter en la Luna, un cráter de más de 60 km de diámetro…¡sí que debió ser importante!.

Su importancia radica en que después de Ptolomeo, fue el primero en desarrollar modelos matemáticos propios y originales. Además de ser el primer matemático y astrónomo que tuvo una visión clara de la trigonometría plana y esférica.

Inventó una técnica geométrica que ayudó a la solución cinemática del movimiento linear como suma de dos movimientos circulares. Que era lo que pretendió Ptolomeo con sus epiciclos y ecuantes.

En qué consiste el par de al-Tusi, fíjate en la figura. El radio del círculo menor PDA es la mitad del radio mayor CDE, mientras que su velocidad angular es el doble y en sentido contrario que la del mayor. En esas condiciones, P oscilará por el diámetro CE. Es decir, se establece un movimiento vertical rectilíneo del punto P a lo largo del diámetro CE.

Si se monta un par de al-Tusi en lugar del deferente más ecuante de Ptolomeo, el resultado es equivalente al modelo ptolemaico, ambos generan las mismas posiciones, aunque con la ventaja de que cada movimiento es uniforme en torno a su centro, por lo que los círculos pueden aspirar a ser una representación real de las esferas físicas existentes en el cielo y no meros expedientes geométricos.

Es decir, al-Tusi advirtió que si un círculo gira dentro de una circunferencia de otro círculo dos veces mayor, entonces cualquier punto del círculo interior se movería a adelante y atrás a lo largo de una línea recta.

Variando los parámetros del modelo de Maraga aplicando el par de al-Tusi, se puede dar cuenta de los movimentos de todos los astros. Por ejemplo, si los ejes que pasan por A y B son paralelos, y CDE y DPA son ecuadores de esferas, P oscilará rectilíneamente, tal como ocurre en los modelos planetarios y lunar para la longitud. Pero si los ejes convergen según condiciones especificadas, P oscilará por un arco de círculo máximo, lo que se utiliza para la latitud.

Este teorema del Par de al-Tusi podría ser probado geométricamente, y podría ser ilustrado visualmente para crear un modelo del movimiento planetario. Los modelos que incorporaban versiones del par de al-Tusi aparecieron en los manuscritos bizantinos tardíos, y Copérnico hizo uso de sus principios cuando discuta sobre las variaciones en la precisión (el movimiento del eje de la Tierra alrededor del polo eclíptico), determinando las latitudes eclípticas de los planetas, y describiendo la órbita de Mercurio.

Sin embargo los modelos de Maraga no aportaban nada a la práctica técnica de la astronomía, por lo que no eran necesarios para la construcción de tablas y no pasaba nada si se seguían usando los modelos ptolemaicos. Eso es justo lo que hicieron los observadores de Samarcanda a finales del siglo XV, obteniendo precisiones sin precedentes. Pero estas tablas no fueron conocidas en occidente hasta el siglo XVII, cuando las observaciones considerablemente precisas de Tycho Brahe las privaron del impacto que de otro modo hubieran causado.

¿Qué pedimos para forjarnos una opinión?

Sólo pedimos un poco de orden para protegernos del caos. No hay cosa que resulte más dolorosa, más angustiante, que un pensamiento que se escapa de sí mismo, que las ideas que huyen, que desaparecen apenas esbozadas, roídas ya por el olvido o precipitadas en otras ideas que tampoco dominamos. Son variabilidades infinitas que se confunden con la inmovilidad de la nada, incolora y silenciosa que recorren, sin naturaleza ni pensamiento.

Incesantemente extraviamos nuestras ideas. Por este motivo nos empeñamos tanto en agarrarnos a opiniones establecidas. Sólo pedimos que nuestras ideas se concatenen de acuerdo con un mínino de reglas constantes, y jamás la asociación de ideas ha tenido otro sentido, facilitarnos estas reglas protectoras, similitud, contigüidad, causalidad, que nos permiten poner un poco de orden en las ideas, pasar de una a otra de acuerdo con un orden del espacio y del tiempo, que impida a nuestra fantasía (el delirio, la locura…) recorrer el universo en un instante para engendrar de él caballos alados y dragones de fuego.

Pero no existiría un poco de orden en las ideas si no hubiera también en las cosas o estado de cosas un anticaos objetivo. Cuando se produce el encuentro de las cosas y el pensamiento, es necesario que la sensación se reproduzca como la garantía o el testimonio de su acuerdo.

Todo esto es lo que pedimos para forjarnos una opinión, como una especie de paraguas que nos proteja del caos.

Pero el arte, la ciencia y la filosofía exigen algo más…

Trazan planos en el caos. La filosofía, la ciencia y el arte quieren que desgarremos el firmamento y que nos sumerjamos en el caos.

Lo que el filósofo trae del caos son unas variaciones que permanecen infinitas, pero convertidas en inseparables, en unas superficies o en unos volúmenes absolutos que trazan un plano de inmanencia secante; no se trata de asociaciones de ideas diferenciadas, sino de reconcatenaciones por zona de indistinción en un concepto.

El científico trae del caos unas variables convertidas en independientes por desacerelación, es decir, por eliminación de las demás variabilidades cualesquiera susceptibles de interferir, de tal modo que las variables conservadas entran bajo unas relaciones determinables en una función; no se trata de lazos de propiedades en las cosas, sino de coordenadas finitas en un plano secante de referencia que va de las probabilidades locales a una cosmología global.

El artista trae del caos unas variedades que ya no constituyen una reproducción de los sensible en el órgano, sino que erigen un ser de lo sensible, un ser de la sensación, en un plano de composición anorgánica capaz de volver a dar lo infinito.

En definitiva, siempre se trata de vencer al caos mediante un plano secante que lo atraviesa.

La opinión es el enemigo común

Las tres disciplinas proceden por crisis o sacudidas, de manera diferente, y la sucesión es lo que permite hablar de progresos en cada caso. Diríase que la lucha contra el caos no puede darse sin afinidad con el enemigo, porque hay otra lucha que se desarrolla y adquiere mayo importancia, contra la opinión, que pretendía no obstante protegernos del propio caos.

La lucha con el caos no es más que el instrumento de una lucha más profunda contra la opinión, pues de la opinión procede la desgracia de los hombres.

La ciencia se vuelve contra la opinión que le confiere un sabor religioso de unidad o de unificación. Pero también se revuelve en sí misma contra la opinión propiamente científica en tanto que Urdoxa que consiste ora en la previsión determinista (el Dios de Laplace), ora en la evaluación probabilística (el demonio de Maxwell): desvinculándose de las informaciones iniciales y de las informaciones a gran escala, la ciencia sustituye la comunicación por unas condiciones de creatividad definidas a través de los efectos singulares de las fluctuaciones mínimas. Lo que es creación son las variedades estéticas o las variables científicas que surgen en un plano capaz de seccionar la variabilidad caótica.

En cuanto a las pseudociencias que pretenden considerar los fenómenos de opinión, los cerebros artificiales que utlizan conservan como modelos unos procesos probabilitarios, unos atractores estables, toda una lógica de la recognición de las formas, pero tienen que alcanzar estados caoideos y atractores caóticos para comprender a la vez la lucha del pensamiento contra la opinión y la degeneración del pensamiento en la propia opinión (una de las vías de evolución de los ordenadores va en el sentido de asumir un sistema caótico o caotizante).

Esto lo confirma el tercer caso, ya no la variedad sensible ni la variable funcional, sino la variación conceptual tal y como se presenta en filosofía. La filosofía a su vez lucha con el caos como abismo indiferenciado u océano de la disimilitud. No hay que concluir por ello que la filosofía se alinea junto a la opinión, ni que ésta pueda sustituirla. Un concepto no es un conjunto de ideas asociadas con una opinión. Tampoco es un orden de razones ordenadas que podrían, llegado el caso, constituir una especie de Urdoxa racionalizada.

Las tres caoideas y la Gestalt

Lo que es suficiente para las ideas corrientes no lo es para las ideas vitales, las que hay que crear. Las ideas sólo son asociables como imágenes, y sólo son ordenables como abstracciones; para llegar al concepto, tenemos que superar ambas cosas, y que llegar lo más rápidamente posible a objetos mentales determinables como seres reales.

Un concepto es un conjunto de variaciones inseparables que se produce o se construye en un plano de inmanencia en tanto que éste secciona la variabilidad caótica y le da consistencia (realidad). Por lo tanto un concepto es un estado caoideo por excelencia; remite a un caos que se ha vuelto consistente, que se ha vuelto Pensamiento. ¿Y qué sería pensar si el pensamiento no se midiera incesantemente con el caos?

El caos tiene tres hijas en función del plano que lo secciona: son las Caoideas, el arte, la ciencia y la filosofía, como formas del pensamiento o de la creación. Se llaman caoideas las realidades producidas en unos planos que seccionan el caos.

La junción (que no la unidad) de los tres planos es el cerebro. Cuando el cerebro es considerado como una función determinada se presenta a la vez como un conjunto complejo de conexiones horizontales y de integraciones verticales que reaccionan unas con otras, como ponen de manifiesto los mapas cerebrales. Entonces la pregunta es doble: ¿las conexiones están preestablecidas o se hacen y se deshacen en campos de fuerza? ¿Y los procesos de integración son centros jerárquicos localizados o más bien formas (Gestalten) que alcanzan sus condiciones de estabilidad en un campo del que depende la posición del propio centro?

La importancia de la teoría Gestalt al respecto incide tanto en la teoría del cerebro como en la concepción de la percepción, puesto que se opone directamente al estuto del córtex tal como se presentaba desde el punto de vista de los reflejos condicionados. Pero, independientemente de las perspectivas consideradas, no resulta difícil mostrar que unos caminos, ya hechos o haciéndose,  unos centros, o mecanismos dinámicos, se topan con dificultades del mismo tipo. Esto es lo que la teoría de la Gestalt no explica.

El cerebro, tratando como objeto constituido de ciencia, sólo puede ser un órgano de formación y de comunicación de la opinión: las conexiones progresivas y las integraciones centradas siguen bajo el estrecho modelo de la recognición y la biología del cerebro se alinea en este caso siguiendo los mismos postulados que la lógica más terca.

Las opiniones son formas que se imponen habida cuenta de unos medios, de unos intereses, de unas creencias y de unos obstáculos. Parece entonces difícil tratar la filosofía, el arte e incluso la ciencia como objetos mentales, meros ensamblajes de neuronas en el cerebro objetivado, puesto que el modelo irrisorio de la recognición los acantona en la doxa. Si los objetos mentales de la filosofía, del arte y de la ciencia (es decir, las ideas vitales) tuvieran un lugar, éste estaría en lo más profundo de las hendiduras sinápticas, en los intervalos y en los entretiempos de un cerebro inobjetivable.

Es como decir que el pensamiento, hasta bajo la forma que toma activamente en la ciencia, no depende de un cerebro hecho de conexiones y de integraciones orgánicas: según la fenomenología, dependería de las relaciones del hombre con el mundo, con las que el cerebro concuerda necesariamente porque procede de ellas.

El cerebro es el que piensa y no el hombre, siendo el hombre únicamente una cristalización cerebral. El hombre ausente, pero todo él dentro del cerebro…La filosofía, el arte y la ciencia no son los objetos mentales de un cerebro objetivado, sino los tres aspectos bajo los cuales el cerebro se vuelve sujeto.

El cerebro se presenta coo la facultad de los conceptos, como la facultad de su creación, al mismo tiempo que establece el plano de inmanencia en el que los conceptos se sitúan, se desplazan, cambian de orden y de relaciones, se renuevan y se crean sin cesar. El cerebro es el espíritu mismo.

Es el cerebro quien dice Yo, pero Yo es otro. Y este Yo no sólo es el yo concibo del cerebro como filosofía, también es el yo siento del cerebro como arte. La sensación no es menos cerebro que el concepto.

Correponde a la ciencia poner de manifiesto el caos en el que el propio cerebro se sumerge como sujeto de conocimiento. El cerebro constituye sin cesar límites que determinan funciones de variables en unas áreas particulamente extensas; las relaciones entre estas variables (conexiones) presentan un carácter aún más incierto y aventurado, no sólo en las sinapsis eléctricas que evidencian un caos estadístico, sino en las sinapsis químicas que remiten a un caos determinista.

La frontera difusa de las caoideas

Los tres planos son irreductibles con sus elementos: plano de inmanencia de la filosofía, plano de composición del arte, plano de referencia o de coordinación de la ciencia; forma del concepto, fuerza de la sensación, función del conocimiento; conceptos y personajes conceptuales, sensaciones y figuras estéticas, funciones y observadores parciales.

Para cada plano se plantean problemas análogos, como si el plano es uno o múltiple, qué unidad o qué multiplicidad. Pero es más importante los problemas de interferencia entre planos que se juntan en el cerebro.

Un primer tipo de interferencia serían las extrínsecas. Surgen cuando un filósofo trata de crear el concepto de una sensación o de una función; o bien un científico, unas funciones de sensaciones e incluso unas funciones de conceptos; o bien cuando un artista crea meras sensaciones de conceptos o de funciones. La regla en todos estos casos es que la disciplina que interfiere debe proceder con sus propios medios.

Un segundo tipo de interferencia es intrínseco cuando unos conceptos y unos personajes conceptuales parecen salir de un plano de inmanencia que les correspondería, para meterse en otro plano entre las funciones y los observadores parciales, o entre las sensaciones y las figuras estéticas; y de igual modo en los demás casos.

Existe un tercer tipo de interferencias ilocalizables. Cada disciplina distinta está a su manera relacionada con un negativo; hasta la ciencia está relacionada con una nociencia que le devuelve sus efectos. No sólo se trata de decir que el arte debe formarnos, despertarnos, enseñarnos a sentir, a nosotros que no somos artistas, y la filosofía enseñarnos a concebir, y la ciencia a conocer.

Semejantes pedagogías sólo son posibles si cada una de las disciplinas por su cuenta está en una relación esencial con el No que la concierne. El plano de la filosofía es prefilosófico mientras se lo considere en sí mismo, independientemente de los conceptos que acabarán ocupándolo, pero la no filosofía se encuentra allí donde el plano afronta al caos. La filosofía necesita una no filosofía que la comprenda, necesita una comprensión no filosófica, como el arte necesita un no arte y la ciencia una no ciencia. No lo necesitan como principio, ni como fin en el que estarían destinados a desaparecer al realizarse, sino a cada instante de su devenir y de su desarrollo. Si los tres No se distinguen todavía respecto a un plano cerebral, ya no se distinguen respecto al caos en el que el cerebro se sumerge.

Ahí es donde los conceptos, las sensaciones, las funciones se vuelven indecidibles, al mismo tiempo que la filosofía, el arte y la ciencia indiscernibles, como si compartieran la misma sombra, que se extiende a través de su naturaleza diferente y les acompaña siempre.

¿Qué significa contrastar una teoría?

En la visión tradicional, las hipótesis o teorías son el centro de la adquisición de conocimiento. La investigación científica comienza con la formulación de problemas. Las hipótesis o teorías son respuestas, o intento de soluciones, a los mismos. Tales “soluciones” son conjeturas.
El objeto de la ciencia es la explicación y la predicción, para lo cual se requieren leyes universales. La estructura lógica de ambas formas argumentales es idéntica: consiste en deducir un enunciado singular observacional a partir de un conjunto de premisas que contienen al menos una ley y enunciados singulares pertinentes. A las hipótesis solo puede asignárseles un uso predictivo o explicativo si han sido convenientemente evaluadas. El primer paso de la evaluación es examinar su coherencia interna y con el cuerpo de conocimientos admitidos. El siguiente es el control empírico o contrastación. La contrastación combina el razonamiento lógico (deducción) y la observación empírica.

El método de contrastar críticamente las teorías y de escogerlas, teniendo en cuenta los resultados obtenidos en su contraste, procede siempre del siguiente modo.

  • Presentada a título provisional una idea, aun no justificada en absoluto, se extraen conclusiones de ella por medio de la deducción lógica;
  • esas conclusiones se comparan entre sí y con otros enunciados pertinentes, con objeto de hallar las relaciones lógicas (equivalencia, deductibilidad, compatibilidad, etc.) que existan entre ellas.

Procedimientos de constrastación de teorías 

Se pueden distinguir cuatro procedimientos de llevar a cabo la contrastación de una teoría:

  • Se encuentra la comparación lógica de las conclusiones unas con otras: con lo cual se somete a contraste la coherencia interna del sistema.

  • Se estudia la forma lógica de la teoría, con objeto de determinar su carácter: si es una teoría empírica –científica- o si, por ejemplo, es tautológica.

  • Comparación con otras teorías, cuya principal mira es averiguar si la teoría examinada constituiría un adelanto científico en caso de que sobreviviera a las diferentes contrastaciones a que la sometemos.

  • Analizando las aplicaciones empíricas de las conclusiones que pueda deducirse de ella.

Con el último punto se pretende descubrir hasta qué punto satisfarán las nuevas consecuencias de la teoría –sea cual fuere la novedad de sus asertos- a los requerimientos de la práctica, ya provengan éstos de experimentos puramente científicos o de aplicaciones tecnológicas prácticas. También en este caso el procedimiento resulta ser deductivo; así, con ayuda de otros enunciados anteriormente aceptados se deducen de la teoría a contrastar ciertos enunciados singulares –“predicciones”-; en especial, predicciones que sean fácilmente contrastables o aplicables. Se eligen de estos enunciados los que no sean deducibles de la teoría vigente, y, más en particular, los que se encuentren en contradicción con ella. A continuación tratamos de decidir en lo que se refiere a estos enunciados deducidos (y a otros), comparándolos con los resultados de las aplicaciones prácticas y de experimentos. Si las conclusiones singulares resultan ser aceptables, o verificadas, la teoría a que nos referimos ha pasado con éxito las contrastaciones: no hemos encontrado razones para desecharla. Pero si la decisión es negativa, o sea, si las conclusiones han sido falsadas, esta falsación revela que la teoría de la que se han deducido lógicamente es también falsa.

Conviene observar que una decisión positiva puede apoyar a la teoría examinada sólo temporalmente, pues otras decisiones negativas subsiguientes pueden siempre derrocarla. Durante el tiempo en que una teoría resiste contrastaciones exigentes y minuciosas, podemos decir que ha “demostrado su temple” o que está “corroborada” por la experiencia.

En el procedimiento que acabamos de esbozar no aparece nada que pueda asemejarse a la lógica inductiva. En ningún momento se ha asumido que podamos pasar por un razonamiento de la verdad de enunciados singulares a la verdad de teorías. Tampoco se ha supuesto que en virtud de unas condiciones “verificadas”, pueda establecerse que unas teorías sean “verdaderas”, ni siquiera meramente “probables”.

Iremos profundizando en entradas sucesivas, haciendo especial hincapié en los siguientes temas:

  • La verificación y la confirmación.
  • El falsacionismo de Popper.
  • Los experimentos cruciales y el problema de la carga teórica.
  • Convencionalismo, holismo y falsacionismo refinado.

El enfoque comunicativo de P. Achinstein

Achinstein plantea la explicación científica como un acto ilocucionario. Considera que el tema de la explicación científica es sumamente complejo ya que intervienen varios factores, desde la estructura lógica hasta los criterios de evaluación de las explicaciones.

Achinstein reinterpreta algunas de las teorías de la explicación (Hempel, Salmon y Brody) desde su propia concepción. Así su idea central es que la explicación científica constituye un acto ilocucionario, en el que pueden distinguirse el acto de explicación y el producto de dicho acto. Por tanto hay tres cuestiones que han de tenerse en cuenta en la explicación científica:

  1. ¿Qué es un acto de explicación?

  2. ¿Qué es el producto de una explicación?

  3. ¿Cómo deben evaluarse los productos de una explicación?

Los modelos de explicación propuestos hasta el momento se han centrado en los productos de la explicación: el modelo nomológico-deductivo de Hempel, el modelo de relevancia estadística de Salmon y la teoría pragmática de Van Fraassen responden a la segunda pregunta. En cambio, el criterio de poder unificador con el que hay que valorar una explicación propuesto por Kitcher respondería a la tercera. Todos estos modelos abordarían aspectos parciales de la explicación científica.

Achinstein duda de que exista un modelo de explicación si este debe ajustarse al conjunto de condiciones necesarias para determinar que el explanans explica el explanandum.

La adecuación de las teorías de Hempel ha sido discutida por otro autores en cuanto a las relaciones con las predicciones. A lo que él recurre es a la mala interpretación de las predicaciones.

Dos requisitos del modelo explicativo pueden ser:

  • Ningún conjunto de oraciones del explanans puede implicar el explananduns.

  • La única condición (empírica) del explanas es la de ser verdadera.

El resto de las condiciones son a posteriori. En el modelo N-D no funciona la condición citada, por lo que además de la verdad del explanans deben reunirse otros factores empíricos.

El modelo de Salmon exige condiciones empíricas a posteriori. El formato del modelo es el de relevancia estadística. El modelo de Salmon predice la probabilidad del explanadum.

Brody en cambio plantea un requisito en el que si el explanans corresponde a un enunciado que atribuye una propiedad esencial a una clase de objetos, el explanandum ha de estar en esa clase.

Las principales objeciones al modelo de Salmon fueron realizadas:

  • Van Fraassen: opone a Salmon que la mera relevancia estadística no es condición suficiente.

  • Cartwright y Achinstein: la relevancia estadística para ellos tampoco es condición necesaria.

Hay teorías en cualquier caso (o hechos) que no demandan explicación (o no pueden ser explicadas por lo que no pueden ser determinadas a priori.

Posibilidad de la existencia de un modelo de explicación

Un modelo de explicación sería un conjunto de condiciones bajo las cuales el explanans explicaría correcta y unívocamente el explanandum.

  • Condiciones a priori de los modelos de explicación. Según Achinstein sólo hay una condición a priori: un explanans explica potencialmente a un explanandum sólo si hay una ley universal o estadística válida que relacione al explanans con el explanandum.

  • Condiciones no a priori de los modelos de explicación. También siguiendo a Achinstein dos serían las condiciones no a priori (empíricas):

    • que el conjunto de enunciados del explanans pueda implicar el explanandum

    • la única consideración empírica del explanans es que sea verdadero

Para evitar la paradoja de la muerte en 24 horas después de ingerir arsénico quizá fuese necesario añadir que el explanandum debe ser verdadero (no tiene sentido explicar un hecho falso: quien ingirió arsénico se murió por accidente de coche al ir al hospital).

En el modelo de la propiedad esencial, Brody establece que el explanans atribuye alguna propiedad esencial a una cierta clase de objetos y que el explanandum contiene al menos uno de dicha clase de objetos.

En el modelo de la relevancia estadística, Salmon establece un modelo a partir de enunciados probabilísticos en el explanans mediante el que no se puede predecir el explanandum pero sí su probabilidad.

Van Fraassen objeta a Salmon aduciendo que la mera relevancia estadística no es suficiente. La muerte o la supervivencia de las malas hierbas después de aplicar un herbicida con el 90% de efectividad queda explicada por el mismo conjunto de enunciados del explanans (paradoja de la realización de lo improbable).

El modelo de explicación de Kitcher

Algunas de las teorías de la explicación científica parten, no del establecimiento de la estructura lógica requerida (Hempel, Salmon), sino de la introducción de algún criterio epistemológico a partir del cual se puedan evaluar las explicaciones de un fenómeno dado.

Tal es el caso de P. Kitcher, para el que el valor explicativo de una teoría reside en su poder unificador. Esta idea, según Kitcher, se encuentra en la versión no oficial de la concepción heredada sobre explicación científica frente a la oficial del modelo de ley cubriente o modelo nomológico-deductivo. Incluso podríamos encontrar este criterio, de forma implícita, en otras concepciones sobre la explicación científica, pero es Kitcher quien formaliza y define con rigor este criterio.

El análisis del poder unificador de las leyes y teorías científicas supone la introducción de una serie de conceptos previos que Kitcher define con precisión. Así, en un momento de la historia de una disciplina puede delimitarse:

  • K: el conjunto de sentencias aceptadas y supuestamente consistentes

  • Almacén explicativo: es el conjunto de argumentos disponibles para llevar a cabo los propósitos explicativos.

  • E(K): es el almacén explicativo formado a partir de K. Podemos definirlo como el conjunto de argumentos aceptables , o sea, como la base para los actos de explicación en que las creencias son exactamente miembros de K.

Una teoría unifica nuestras creencias cuando proporciona un/os patrón/es de argumentos que puedan ser utilizados en la derivación de un amplio número de sentencias que aceptamos. Por tanto, la noción de patrón argumentativo es fundamental para la unificación.

Entender el concepto de explicación es ver que si se acepta un argumento como explicativo, entonces uno se compromete a aceptar como explicativo otros argumentos que son instancias del mismo patrón argumentativo. El problema de la explicación es especificar qué conjunto de argumentos tenemos que aceptar para explicar un fenómeno, dado que sostenemos que una serie de sentencias son verdaderas.

Según Kitcher, una teoría de la explicación debe cumplir los siguientes requisitos:

  • En primer lugar, deseamos entender y evaluar el reclamo ampliamente extendido de que las ciencias naturales no nos brindan meramente un apilamiento de aspectos de conocimiento inconexos con mayor o menor significación práctica; por el contrario aumentan nuestro conocimiento del mundo. Una teoría de la explicación debe mostrarnos cómo la explicación científica incrementa nuestro conocimiento.

  • En segundo lugar, una teoría de la explicación debe permitirnos ser capaces de comprender y arbitrar en las disputas de la ciencia del pasado y del presente. A menudo se realiza una defensa de las teorías embriogénicas apelando a su poder explicatorio. Una teoría de la explicación debe ser capaz de juzgar lo adecuado de dicha defensa.

Kitcher considera que su teoría de la explicación como unificación se encuentra en inmejorables condiciones para dar respuesta a ambos requisitos. Aunque él mismo reconoce que la tarea es ardua, se limita a diseñar el marco dentro del cual emerge esta noción de unificación: una teoría puede unificar nuestras creencias cuando nos provee de uno o más patrones de argumentación, los cuales pueden ser utilizados en la derivación de un gran número de proposiciones cuya aceptación para nosotros se encuentra justificada. Pero esta propuesta se encuentra a otro tipo de problemas: ¿del hecho de que una teoría explique una diversidad de fenómenos, en el sentido de patrones de unificación, se sigue que tenemos razones para aceptarla?¿Cuál es el vínculo que se establece entre la noción de patrones de unificación y por ejemplo, el concepto de verdad o el de adecuación empírica?

Aparte de las posibles críticas que puedan hacérsele a Kitcher, el mismo reflexiona en un pie de página evitando muchas de esas posibles críticas:

“Creo que esta concepción de la explicación presentada en el presente artículo podría extenderse para cubrir respuestas explicativas a otros tipos de preguntas, tales como preguntas de cómo. Pero quiero rechazar la afirmación de que la unificación es pertinente para todo tipo de explicación”

Esto quiere decir que un caso histórico que no encaje con este criterio no constituye un contraejemplo para Kitcher.

La intuición básica que inspira el modelo de explicación como unificación es que explicar consiste en “reducir la cantidad de fenómenos independientes que tenemos que aceptar como últimos”. Aumentamos nuestra comprensión del mundo reduciendo el número de supuestos básicos que dan cuenta de los fenómenos. Las leyes de Newton explican las de Kepler porque, además de implicarlas, reducen la cantidad de regularidades que se aceptan independientemente unas de otras: antes de la explicación, las leyes de Kepler y, p.e., la de Galileo eran aceptadas independientemente unas de otras, después no; la reducción de la temperatura a la energía cinética media amplía todavía más ese proceso de unificación explicativa. Contrariamente, la mera conjunción de, p.e. las leyes de Kepler con la de Boyle no es una explicación de las primeras porque no produce ese efecto unificador, no permite simplificar la cantidad de supuestos primitivos. Esta noción de explicación está esencialmente relativizada a un cuerpo K de creencias aceptadas en un momento dado, y exige una elucidación precisa de la independiente aceptabilidad entre creencias. Quien ha desarrollado con más detalle este modelo ha sido P. Kitcher mediante sus nociones de patrón argumentativo y “almacén” explicativo (‘explanatory store’) (1981,1989, 1993), caracterizando el poder unificador en función de:

  • la cantidad de fenómenos derivados por el conjunto de patrones argumentativos,

  • el rigor de los patrones y

  • el número de patrones.

Simetría, irrelevancia y horquillas

El modelo unificacionista tiene su propio modo de dar cuenta de los casos de simetría, irrelevancia y horquillas. La estrategia es mostrar que, dadas dos inferencias alternativas, será explicativa la que pertenezca a la sistematización más unificadora, y que esta comparación arroja en los casos en consideración los resultados intuitivamente esperados.

  • Horquillas: la sistematización que deriva la bajada del barómetro y la ocurrencia de la tormenta a partir del descenso de la presión es más unificadora que la que deriva la ocurrencia de la tormenta a partir del descenso del barómetro.

  • Simetría: la altura del mástil explica la longitud de la sombra y no al revés pues dadas dos sistematizaciones, una que contenga inferencias que parten de la altura del mástil y conducen hasta la longitud de la sombra, y otra que contenga inferencias que proceden al revés, la primera es más unificadora que la segunda; si la segunda no tiene otro tipo de inferencias, pierde algunas conclusiones pues no podrá establecer, p.e. la altura de mástiles de noche, o en días nubosos, etc; para recuperar esas conclusiones debería de introducir nuevos patrones argumentativos.

  • Irrelevancia: una sistematización que contiene derivaciones del no embarazo de Juan usando como premisa que Juan toma pastillas anticonceptivas no puede ser la mejor pues, o bien no explica que otros varones que no toman pastillas tampoco se quedan embarazados, o si lo explica deberá introducir nuevos patrones que también se aplicarán a Juan, con lo que podríamos prescindir de las primeras inferencias obteniendo una sistematización con menos patrones, más unificada.

Como reconoce Kitcher, estos dos últimos casos requieren que las sistematizaciones no usen predicados no proyectables.

El modelo unificacionista no sólo aplica a hechos generales

Aunque el modelo unificacionista se aplica más naturalmente a explicaciones de hechos generales, se puede aplicar también a hechos particulares considerando estos casos derivativos de aquellos: “La pregunta ‘¿por qué este objeto particular se comporta de este particular modo?’ es transformada en la pregunta ‘¿por qué objetos ideales de este tipo general exhiben esas propiedades?’”.

Por otro lado, para este modelo no representan en principio ningún problema las explicaciones de hechos probabilistas, siempre que se puedan inferir de ciertos patrones, ni las explicaciones intuitivamente no causales, pues no se compromete con ningún tipo de mecanismo específico que expresen los patrones argumentativos. El modelo unificacionista debe afrontar, principalmente, dos retos. El primero es el de proporcionar un criterio adecuado de ponderación entre los parámetros (a)-(c) que determinan la simplicidad comparativa. El segundo es el de recoger un sentido suficientemente fuerte de la objetividad de las explicaciones.

Acabamos de ver que para descartar, por ejemplo, la explicación del no embarazo de Juan a partir de su ingestión de anticonceptivos, debemos excluir que la sistematización use predicados no proyectables. Sin embargo, la elucidación independiente de cuándo un predicado es proyectable o natural constituye un problema en sí mismo. Para unos ello nos retrotrae al problema de la causalidad, en cuyo caso estaríamos implícitamente ante análisis causalistas, que serán realistas o antirrealistas dependiendo de cómo se analice a su vez la causalidad. Para otros, tal elucidación sólo puede ser epistémica o pragmática, en este caso el análisis suele ser, aunque no siempre se reconozca, de corte antirrealista.

Compatibilidad con Van Fraassen

Vamos ahora a explorar las diversas posibilidades de compatibilidad entre ambos modelos. Para ello utilizaremos ocasionalmente el esquema que van Fraassen (1977) ofrece de los contextos explicativos, esquema que pone de manifiesto los diversos parámetros involucrados en una explicación y que cada modelo fija de un modo específico. Cada uno de tales contextos consiste al menos en una pregunta por qué, por ejemplo,“¿por qué Adán comió la manzana?”, “¿por qué el alcalde contrajo paresis?”. Esta pregunta es el tema. Con el tema sólo, sin embargo, no basta, pues no expresa el aspecto por el que se demanda explicación. En el primer caso, por ejemplo, tenemos tres alternativas: “¿por qué Adán (y no Eva, o la serpiente, o…) comió la manzana?”, “¿por qué Adán comió (y no rechazó, o …) la manzana?”, “¿por qué Adán comió la manzana (y no una pera, u otra manzana, o …)?”. Así, junto al tema debe incluirse (usualmente de modo implícito determinado por el contexto), una clase de alternativas, la clase de contraste, frente a las que se contrapone el hecho por cuya razón se inquiere: “¿por qué α , contrariamente a ß1, ß2,…?”. En opinión de Van Fraassen, el tema α y la clase de contraste X no bastan, sin embargo, para identificar completamente la demanda de explicación pues, incluso fijada X, puede haber varios tipos de respuesta adecuada dependiendo de qué relación se considere en ese contexto que es la relevante para poder considerar a una respuesta una explicación adecuada. Hasta que el contexto no determina el tipo de respuesta que se considera explicativa la demanda de explicación está indeterminada.

Junto con el tema y la clase de contraste hay que incluir entonces una relación de relevancia explicativa, R. Así, podemos representar un contexto explicativo mediante una terna Q=<α, X, R >, donde α es el tema y X y R son, respectivamente, la clase de contraste y la relación de relevancia explicativa determinadas por el contexto. En algunos contextos, como los científicos en períodos de ciencia normal, están fijados con bastante rigidez, pero en otros pueden ser muy variables.

El holismo de lo mental

Se puede hacer el símil de una gran red conformada por los estados mentales con intencionalidad, los cuales tendrían una serie de propiedades intencionales por estar integrados en esa red:

  • La intencionalidad de un estado mental es una propiedad holista: el que un estado tenga determinadas condiciones de satisfacción es inseparable de que otros muchos estados tengan las suyas.

  • La identidad de los estados mentales es igualmente holista.

Esa red se caracterizaría por tres rasgos fundamentales que constituirían su trasfondo:

  • La mayor parte de la Red nos resulta opaca: “está sumergida en el insconsciente y nosotros no sabemos del todo cómo sacarla a flote” (J. Searle). Es el Trasfondo de la intencionalidad.

  • El intento de explicitar ese trasfondo se traduce en proposiciones que resultan de alguna forma ‘triviales’ y que parecen desvirtuar su naturaleza.

  • Los estados de la red no se individualizan: no sabemos cómo identificarlos, contarlos, etc.

La intencionalidad de la mente humana se sustenta sobre un substrato de capacidades preintencionales: habilidades, formas de saber-cómo, no un saber-qué de las cosas, de entender para qué están ahí, de actuar sobre ellas, de ejercer distintas destrezas con ellas, etc.

Existen dos casos en que la Red y el Trasfondo de la intencionalidad influyen en el contenido de los estados perceptivos

  • Diferentes creencias causan experiencias perceptivas con diferente contenido, es decir, diferentes condiciones de satisfacción, aunque las causas sean las mismas.

  • Las mismas creencias coexisten con experiencias perceptivas con diferentes contenidos, es decir, condiciones de satisfacción.

La intencionalidad de Dennett

El concepto de intencionalidad fue reintroducido en el siglo XIX por el filósofo y psicólogo Franz Brentano, en su obra Psicología desde un punto de vista empírico (1874). Brentano describe la intencionalidad como una característica de todos los actos de conciencia, tanto “lo psíquico” o “fenómenos mentales”, como la “física” o “fenómenos naturales”.

Dennett ofrece una taxonomía de las teorías actuales acerca de la intencionalidad en el capítulo 10 de su libro La actitud intencional. La mayoría, si no todas las teorías actuales sobre la intencionalidad aceptan la tesis de Brentano de la irreductibilidad de la expresión intencional.

Dice Dennett (1987) que para explicar y predecir el comportamiento de un sistema pueden seguirse tres estrategias, o tomar tres «posturas»:

  • Una postura física, con la que se deduce el comportamiento a partir de la estructura y las leyes de la Física, la Química, la Biología…

  • Una postura de diseño, con la que uno abstrae los detalles (normalmente demasiado enrevesados) de la constitución física del sistema y, suponiendo que ha sido diseñado, puede predecir su comportamiento si se conocen las intenciones del diseñador. Así, podemos predecir cuándo sonará el despertador, aunque no sepamos nada de su estructura interna.

  • Una postura intencional, con la que el comportamiento se deduce a partir de los deseos y creencias que adscribimos al sistema: tratamos al sistema como un agente racional, e imaginamos qué creencias y deseos podría tener el agente, dada su situación en el mundo, y predecimos su comportamiento suponiendo que actuará para satisfacer esos deseos.

Según Dennett, un sistema intencional es aquél «cuyo comportamiento puede predecirse mediante el método de atribuirle creencias, deseos y perspicacia racional» , y puede serlo en distintos grados: uno de primer orden tiene simplemente estados intencionales (creencias, deseos, etc.) propios, uno de segundo orden tiene, además, creencias, deseos, etc. sobre los estados intencionales de otros.

En la vida cotidiana solemos adoptar informalmente esta postura intencional respecto a artefactos: «el coche no quiere arrancar» , «el corrector ortográfico se empeña en corregir esta palabra» … Pero, obviamente, lo hacemos en un sentido metafórico. ¿Está justificado hacerlo «en serio»?

Desde luego, no lo está si se adopta el punto de vista de Brentano. Es la misma objeción de los que niegan la posibilidad de la «inteligencia artificial» bajo la premisa de que la «inteligencia» es un atributo intrínsecamento humano. Naturalmente, no podemos compartir este punto de vista. Resumiendo las opiniones de autores como McCarthy (1978), Shoham (1993), Wooldridge (2002) o el propio Dennett:

  • La postura intencional está justificada cuando la complejidad del sistema impide que se pueda predecir su comportamiento mediante una postura física o de diseño.

  • Los deseos y creencias no son estados internos de la mente, sólo herramientas de abstracción útiles para predecir el comportamiento de un sistema.

Imaginemos un termostato. Podríamos describir su comportamiento diciendo que cuando cree que la temperatura es baja intenta subirla, y cuando cree que es alta intenta reducirla, porque tiene el deseo de mantener un ambiente confortable. Aquí la postura intencional nos parece extravagante, porque el sistema es suficientemente sencillo como para poder describirlo con una postura física.

Imaginémosnos ahora jugando contra un programa de ajedrez complejo. Ante un movimiento suyo podemos tomar una postura intencional: «me deja la torre como señuelo porque quiere lanzar un ataque y cree que voy a caer en la trampa» , o una postura física: «ha hecho este movimiento porque ha aplicado un algoritmo de búsqueda minimax con poda alfa-beta y la función de evaluación ha devuelto el valor 10 para el estado resultante». La segunda descripción es quizás más «realista» , pero la primera es más útil si se trata de decidir cómo responder.

En definitiva, hay una gran variedad de actitudes intencionales que pueden adscribirse a los sistemas:

  • actitudes epistémicas: conocimiento, sabiduría…

  • actitudes doxásticas: creencia, duda…

  • actitudes teleológicas: deseo, intención…

  • actitudes deónticas: obligación, compromiso…

Los argumentos de Dennett

Dennett plantea dos argumentos muy interesantes acerca de la intencionalidad:

  • La intencionalidad de los artefactos es derivada

    1. Las máquinas de Coca-Cola de USA responden cuando se introduce $0.25. Inicialmente se hallan en un estado con el siguiente contenido intencional: “Lata preparada. Inserte $0.25.”

    2. Una máquina de Coca-Cola se traslada a Panamá. Como el balboa panameño lo imprime la Fábrica de Moneda norteamericana, los balboas tienen las mismas propiedades físicas que las monedas de $0.25. Por tanto, su estado inicial tiene este contenido intencional: “Lata preparada. Inserte 1 balboa.”

    3. Luego, la intencionalidad de los estados de las máquinas de Coca- Cola es derivada: otro se la asigna.

  • Toda intencionalidad es derivada, es decir, subyace la irrealidad

    1. La intencionalidad de un artefacto es derivada.

    2. (La tesis de Richard Dawkins) Los seres humanos —y, en general, los seres vivos— son artefactos diseñados por nuestros genes para facilitar su proliferación.

    3. Luego, los seres humanos —y, en general, los seres vivos— son artefactos artefactos diseñados por la Selección Natural.

    4. Luego, la intencionalidad de los seres humanos —y, en general, la de los seres vivos— es derivada.

Analicemos los argumentos de Dennett: Empezando por la segunda premisa, la tesis de Dawkins. Tenemos las siguientes alternativas:

  • Si no aceptamos el argumento de Dennett, hay que rechazar o bien la premisa 1) o bien la premisa 2). ¿Qué elegimos?

  • Pero rechazar (2) es rechazar la tesis de Dawkins; y rechazar la tesis de Dawkins es rechazar la revolución darwiniana.

En la segunda premisa queda claro que toda intencionalidad es asignada por algo/alguien. Pero…

  1. Hay artefactos y artefactos. Aunque seamos artefactos construidos por nuestros genes, éstos no tienen ninguna intencionalidad que transmitirnos.

  2. Más bien, en el proceso de evolución natural, los genes producen artefactos que sí están dotados de propiedades intencionales (por burdas que sean inicialmente).

  3. Nuestra intencionalidad puede ser, a la vez, derivada —en el sentido de estar posibilitada por la acción de los genes— y no derivada —por resultar de los sistemas— que nos conectan con el mundo: un ser idéntico a nosotros la poseería igualmente.

Retroacción negativa

En 1943, Rosemblueth, Wiener y Bigelow escribieron un importante artículo sobre el tema de la explicación científica, titulado “Behavior, Purpose and Teleology”. Aportaban en él la noción de retroacción negativa, importante para los sistemas homeostáticos o autorregulados, tan frecuentes en los seres vivos, mas también en muchas estructuras cibernéticas.

En la teoría de sistemas y en cibernética, entre otras discipinas, la retroalimentación (feedback) es un mecanismo de control de los sistemas dinámicos por el cual una cierta proporción de la señal de salida se redirige a la entrada, y así regula su comportamiento. Existen tres tipos de realimentación

  • Positiva: cuando sale del sistema; tiende a aumentar la señal de salida, o actividad.

  • Negativa: es la que mantiene el sistema funcionando. Devuelve al emisor toda la información que necesita para corregir la pauta de entrada. Mantiene el sistema estable para que siga funcionando.

  • Bipolar; puede aumentar o disminuir la señal o actividad de salida. La realimentación bipolar está presente en muchos sistemas naturales y humanos. De hecho generalmente la realimentación es bipolar es decir, positivo y negativo según las condiciones medioambientales, que, por su diversidad, producen respuestas sinérgicas y antagónicas como respuesta adaptativa de cualquier sistema.

Braithwaite y Nagel también se ocuparon de esta cuestión: la posición general de la concepción heredada sería subsumir las explicaciones teleológicas o finalísticas, e incluso las intencionales (acciones dirigidas a un objetivo), bajo el modelo de explicación causal, e incluso hacerlas compatibles con el modelo de cobertura legal de Hempel (Covering Law Model), es decir, con la explicación nomológica-deductiva.

Teoría de los Roles

La Teoría de la Decisión Racional constituye una posible vía para desarrollar la idea de que la explicación de las acciones humanas debe basarse fundamentalmente en la comprensión de las intenciones de los agentes.

Pero no es la única vía posible: al contrario que en el caso de la economía, en las otras grandes «ciencias sociales» (la sociología y la antropología) se ha solido preferir un enfoque completamente distinto, más cualitativo y menos susceptible de desarrollo matemático. Se trata de la llamada «Teoría de los Roles».

La denominación de «Teoría» no debe hacernos pensar que se trata de una estructura formalmente especificada, como en el caso de la Teoría de la Decisión Racional; más bien es un conjunto de enfoques cualitativos, más o menos semejantes entre sí.

En la sociología, su principal impulsor fue Max Weber (principios del siglo XX), y posteriormente Talcott Parsons (mediados del siglo XX).

A la imagen del ser humano que se infiere de la Teoría de la Decisión Racional, como un ser «frío y calculador», se la ha denominado «homo oeconomicus»; la expresión la formuló John Stuart Mill a mediados del XIX como una idealización útil para la disciplina económica, pero en tiempos más recientes ha tendido a convertirse en una denominación peyorativa. Como reacción, a la imagen de la persona como movida por roles sociales se la ha denominado el «homo sociologicus».

Según la Teoría de los Roles, el orden social (no las leyes que han sido impuestas en una sociedad, sino la estructura que nos permite comprender el funcionamiento de esa sociedad) consiste básicamente en un conjunto muy amplio de posiciones sociales mutuamente relacionadas e interdependientes. Cada una de estas posiciones está asociada a un conjunto de expectativas normativas por parte de los agentes que ocupan las otras posiciones (o los otros individuos que ocupan la misma posición): los agentes esperan que quien ocupa una determinada posición actúe de una manera determinada cuando se dan tales y cuales circunstancias (esto es lo que significa el término «expectativas»), y además, están dispuestos a sancionar de algún modo a quien no se comporte de acuerdo con las expectativas asociadas a su posición (eso es lo que hace que las expectativas sean «normativas»).

Dicho de otro modo, para cada posición, los agentes que la ocupan «deben» comportarse de cierta forma. La especificación de estos deberes es lo que constituye el «rol» asociado a cada posición. Un conjunto de posiciones relacionadas de forma sistemática y que, en conjunto, desempeñan una función determinada dentro de cierta sociedad, constituyen una institución.

Y cada sociedad constituiría, de este modo, un conjunto de instituciones mutuamente interconectadas y que, en cierta medida, forman una unidad autónoma, relativamente independiente de otras sociedades; esta definición, de todas formas, hace bastante problemático determinar los límites de «las» diversas «sociedades» en un mundo en el que, como ocurre actualmente, cada «sociedad» está fuertemente conectada con muchas otras.

Hermenéutica

Conviene insistir en que los «deberes» incluidos en un rol no se corresponden necesariamente con las leyes de la sociedad a la que las posiciones pertenezcan. A menudo no hay ningún código escrito, u oficialmente sancionado de cualquier otra forma, que determine qué es lo que se espera que haga la persona que ocupe cierta posición. Es más, muchas veces lo que «se espera» que una persona haga puede ser incluso contrario a las leyes vigentes.

Por otro lado, tampoco pueden identificarse estas expectativas normativas con la idea del «deber moral»: también puede uno fácilmente sentir que lo que «se espera» de él que haga es profundamente inmoral. Así pues, las «expectativas normativas» son más bien un determinado consenso (no necesariamente entre todos los miembros de la sociedad) acerca de qué formas de conducta son reprobables (o, por el contrario, elogiables) en cada circunstancia socialmente definida.

Ahora bien, resulta conveniente recordar que en el fondo de la distinción entre estas diferentes opciones, a veces interviene una oposición más radical. En muchas ocasiones utilizamos la noción de «comprensión» como opuesta a «explicación», pero simplemente con la idea de establecer algún tipo de explicación intencional que tiene en cuenta los intereses, aspiraciones, intenciones de los agentes para obtener el fin previsto.

Pero hay otra línea que mantiene la irreductible de la comprensión porque la investigación social tendría que preocuparse por la interpretación de las prácticas humanas que están dotadas de significado. Como señala von Wright: «La explicación supone identificar causas generales de un acontecimiento, mientras que la comprensión supone descubrir el significado de un acontecimiento o práctica en un contexto social particular».

Una buena parte de la ciencia social se plantea con frecuencia como el intento de reconstruir el significado de las prácticas y estructuras sociales. Esta es la razón por la cual este tipo de orientación se encuentra en la cercanía de lo que podemos llamar «hermeneútica».

Los fenómenos sociales aparecen como «textos» que tienen que ser analizados mediante la reconstrucción atenta del significado de los diversos componentes de la acción social. Esta es una posición que puede verse defendida claramente por filósofos como Charles Taylor quien defiende que las ciencias sociales deben seguir la senda interpretativa y hermeneútica.

Como señala David Little en un buen resumen sobre el programa interpretativo para las ciencias sociales, esta orientación se caracteriza por considerar que: «Las acciones individuales y las creencias solamente se pueden comprender mediante un acto de interpretación, por el cual el investigador intenta descubrir el significado de las acciones o creencias del agente. Hay una diversidad radical entre las culturas por lo que se refiere a la manera en que se conceptualiza la vida social y estas diferencias dan lugar a diversos mundos sociales.

Las prácticas sociales (la negociación, el prometer, el trabajo, el cuidado de los hijos) se constituyen mediante los significados que les atribuyen los participantes. No hay «hechos brutos» en la ciencia social (hechos que no se remitan a significados culturales específicos».

Queda así muy claro que se trata de plantear que todas las ciencias sociales son radicalmente hermenéuticas y que si el científico social no consigue ofrecernos ese tipo de comprensión no estará (de acuerdo con esta orientación) obteniendo un resultado adecuado.

En esta misma dirección se insertan los trabajos de un antropólogo contemporáneo de primera fila, Clifford Geertz, que se puede considerar como uno de los más destacados defensores de un cierto tipo de antropología interpretativa. Precisamente ha sido estudiado en otras materias y puede ser un buen ejercicio el realizar un trabajo de análisis crítico sobre esa orientación, cómo se relaciona y cómo se distingue de las orientaciones cercanas al materialismo cultural del tipo de Marvin Harris.

La polémica está servida

Si la Teoría de la Decisión Racional ha sido habitualmente vista con buenos ojos por los filósofos de orientación «analítica», «empirista» o «positivista» (sobre todo por su aparente capacidad de transferir a las ciencias sociales la metodología matemática y experimental de las ciencias naturales), la Teoría de los Roles ha gozado de más simpatías entre otras corrientes filosóficas las que los anglosajones denominan «continentales», como

  • la hermenéutica (Dilthey, Gadamer…),
  • la fenomenología (Husserl, Merleau-Ponty),
  • el existencialismo (Heidegger, Ortega, Sartre…),
  • el estructuralismo (Levy-Strauss, Foucault…),
  • el marxismo (Bloch, Habermas) y
  • el deconstruccionismo (Derrida, Deleuze…).

Salvando todas las grandes diferencias que puede haber entre estos autores y enfoques filosóficos, un punto que, en nuestra opinión, suelen tener en común es la idea de que las realidades «humanas» son accesibles para nuestro conocimiento a través de algún método diferente a los que se utilizan en las ciencias de la naturaleza.

En éstas, el objeto del conocimiento es una realidad «externa», cuyas cualidades sólo podemos determinar «objetivamente» mediante su manipulación física (experimentos, mediciones) y mediante la construcción de modelos mentales abstractos, fruto de nuestra imaginación. En cambio, en las «ciencias humanas» tendríamos algún método de «acceso a la realidad» más directo, una especie de comprensión intuitiva de los significados.

El problema es que hay tal vez muchas opiniones contradictorias acerca de cuál puede ser este «método especial»; una de las respuestas más habituales es el que lo identifica con la hermenéutica; originalmente, este concepto designaba la técnica de interpretación de textos, en especial la de los libros sagrados, y, en general, la de textos antiguos, con cuyos autores no podemos «dialogar»;

  • Dilthey (segunda mitad del XIX) lo generalizó como un método para las «ciencias del espíritu» en general, y las «ciencias históricas» en particular, y más recientemente,
  • Gadamer y sus seguidores (años 60) lo propusieron como el método general para la mutua comprensión de los seres humanos y sus productos, considerando que los «prejuicios» de cada uno son tanto lo que permite iniciar ese proceso de comprensión como lo que determina sus límites.

En relación a esto último es importante señalar dos cosas:

  • Primera, no sólo los «científicos sociales» (o los filósofos) tienen un «acceso privilegiado» a la realidad que estudian (en relación con los científicos naturales), sino que las propias realidades sociales o culturales están constituidas gracias a la capacidad de las personas para comprender sus propias acciones y las de los otros; la realidad social y cultural, al contrario que la «naturaleza», está formada por «significados», «creencias», «valores», «subjetividad», etc., entidades que son por completo incomprensibles desde una metodología que las tome como «meros hechos objetivos», hacia los que hubiera que mantener una actitud «neutral», «libre de valores».
  • Segunda, estas corrientes de pensamiento no infieren a partir de aquí, de todas maneras, que la visión que tienen «las personas corrientes» de su situación y de la realidad social en su conjunto sea una visión necesariamente «correcta»; más bien, el papel de los filósofos, sociólogos, antropólogos, etc., sería el de descubrir la «verdadera» estructura de esas realidades, la forma como las instituciones sociales influyen sobre las percepciones y valores de unos sujetos, y viceversa…, o tal vez el objetivo sea mostrar la absoluta inexistencia de algo así como una «estructura verdadera de la realidad social», pese a las apariencias.