Archivos de la categoría ‘Ciencia’

Horror vacui

La física pneumática despegó gracias a una observación de Galileo: las bombas de succión no podían elevar el agua más de 10,5 metros, lo que él interpretó como horror vacui. La naturaleza aborrece el vacgalileoío con una fuerza (por unidad de área) igual al peso de una columna de agua de 10,5 m. Por encima, la columna se cae  porque el horror vacui no es suficiente para soportar todo su peso. Galileo dixit.

Baliani, que era algo así como su corresponsal, le sugirió sustituir el horror vacui por el peso del aire atmosférico. Es decir, la presión del peso del aire atmosférico sobre la superficie del estanque hace que el agua ascienda por el tubo de la bomba hasta que su peso ejerza sobre la superficie la misma presión que el aire, momento en que ambos fluidos están en equilbrio. Pero Galileo era aristotélico, y eso de que el aire pesase en el aire le sonaba a cuento chino. Recordamos que para Aristóteles había cuatro elementos: aire, fuego, tierra y agua. Estableció una relación de pesos entre ellos para distribuir la materia en el universo. El fuego se escapa siempre, la tierra es pesada en sentido absoluto. Pero el aire no pesa en el aire.

Unos años después, algunos discípulos de Galileo, entre ellos Maignan hicieron un vistoso experimento en Roma para probar el efecto y descubrieron por encima de la columna de agua un posible espacio macroscópico vacío. Vacío por llamarlo de alguna manera, porque el agua desprendía burbujas, lo atravesaba la luz y transmitía el sonido.

El vacío de Torricelli

Fué otro discípulo de Galileo, Magiotti, el que sugirió a Torricelli el uso de agua marina, más densa. Y Torricelli acabó consiguiendo un buen tubo de vidrio para realizar el experimento  con mercurio, de manera que la longitud pasaba de los 10,5 m originales a 75 cm. El mercurio es 14 veces más denso que el agua. Y cuando hizo sus experimentos le dió la razón a Baliani. Era el peso de la atmósfera el que mantenía la columna de agua, mercurio o cualquier otro fluido. Vivimos en el fondo de un  mar de aire que presiona hidrostáticamente en todas direcciones, y el peso de la atmósfera se traduce en la presión del aire.

torricelliEl experimento de Torricelli consiste en tomar un tubo de un metro aproximadamente abierto por un extremo. Mediante un embudo se llena de mercurio, se tapa la boca y se invierte sobre un recipiente lleno de mercurio. Al destapar el tubo bajo el mercurio de la cubeta, el mercurio del tubo desciende hasta alcanzar una altura de 75 cm. Se supone que la atmósfera pesa o presiona sobre la superficie libre del líquido con una fuerza suficiente para obtener la columna de mercurio a una altura de 0,75 m. O la del agua a una altura catorce veces mayor.

La observación de pequeñas variaciones en la altura del mercurio puso a Torricelli, que era un tipo avispado, sobre la pista de modificaciones metereológicas de la presión de la atmósfera. La idea de que la parte superior del tubo estaba realmente vacía lo llevó a ensayar con pequeños animales a ver que tal se las ingeniaban en este vacío. Pero al volcar el mercurio, los aplastaba inevitablemente. Aún así, los miembros de la Cimento, que era una academia que comenzó a funcionar a mediados del XVII y se dedicaban a realizar experimentos para comprobar lo que habían dicho otros, no tardaron en ingeniar tubos más anchos y cestitas adecuadas para iniciar la agonía colectiva de todo tipo de roedores e insectos, llegando incluso a planear la introducción de un enano en el vacío de Torricelli. Estos señores eran científicos.

Pascal, ese gran showman

El vacío de Torricelli atrajo a los Pascal, padre e hijo, y a otros científicos que hacían experimentos muy curiosos para mostrar el efecto del vacío. Los Pascal repitieron en 1646 los experimentos torricellianos  junto con Petit, y empezaron las interpretaciones y por tanto las disputas. En concreto dos:

  • Si era el peso de la atmósfera la causa real del fenómeno
  • Si estaba realmente vacío el espacio superior del tubo

pascal y descartesLas opiniones os las podeis imaginar. De todo. Los que en su corazoncito seguían siendo aristotélicos pero creían en el vacío a pesar de ello, no podrían tolerar bajo ningún concepto que el aire pesase en el aire. Porque Aristóteles inventó la ciencia…más o menos….pero también la ancló in extremis. Descartes por supuesto negaba rotundamente el vacío. Esto está petao de materia por todas partes, recordad los tres elementos con los que llenaba absolutamente todo en un acoplamiento perfecto entre ellos. Pero en cambio sí aceptaba lo del peso de la atmósfera porque cuadraba muy bien con sus teorías materialistas de vórtices increíbles.

Los que negaban el vacío desde el aristotelismo, suponían que en la parte superior del tubo quedaba una partícula de aire que se dilataba hasta el límite y entonces sostenía como una cuerda el mercurio. Quienes negaban el vacío desde el cartesianismo suponían que la materia sutil o éter penetraba por los hipotéticos poros del vidrio.

Todo ello generó una gran cantidad de experimentos. Uno de los más vistosos lo realizó Pascal en Rouen, porque allí había vidrieros que eran capaces de fabricarle tubos de 14 metros. Pascal era del bando de la interpretación atmosférica, y con sus experimentos quería demostrar que tenía razón. Pero es que había cambiado de opinión, porque Pascal, parsimonioso y riguroso, antes era fan total del horror vacui. Montó un espectáculo en el puerto sobre el Sena ante medio millar de espectadores. Sujetó sus tubos de 14 metros a los mástiles de los barcos, los llenó de agua y vino, explicó la doctrina de los vapores y preguntó a la concurrencia qué líquido quedaría más alto al invertir los tubos. La peña con algo más que un pedete lúcido apostó a que el vino quedaba abajo. Pero al realizar el experimento resultó que no fué así. Pascal explicó que no era por los vapores, sino por el peso específico del agua, que es mayor que el del vino.

Con este tipo de experimentos, Pascal tenía claro que podía interpretar el vacío, pero seguía dudando del peso de la atmósfera. Con lo que siguió apostando por Galileo, no había conseguido probar de manera fehaciente que la causa fuese la atmósfera.

Pascal tira al monte

La idea era hacer el experimento de Torricelli en el vacío. Una manera de hacer el experimento fuera de la atmósfera era introducir un tubo de Torricelli dentro de otro tubo de Torricelli e invertirlo. Si la causa de la columna de 75 cm de mercurio era la presión, en el vacío su altura en el tubo sobre la cubeta sería nula, que es lo que ocurrió. Pero para asegurarse mejor, lo suyo sería variar gradualmente la causa y observar el efecto.

pascalDescartes le sugirió a Pascal en septiembre de 1647 que tal cosa podría lograrse ascendiendo hacia la superficie de este mar de aire en cuyo fondo vivimos. Un año después Pascal convenció a su cuñado y se fueron al monte. Con un barómetro, por supuesto. Estaba todo pensado. Entre la base y la cumbre, enclaves donde posicionó sendos barómetros, había una diferencia de 85,5 mm de Hg. Más o menos de 1 milímetro cada 10 metros, pero esto lo midieron los de la Cimento 10 años después. Aquí nació la hipsometría barométrica. Este experimento covenció a Pascal de que Torricelli tenía razón y redactó un par de tratados, con los que la pneumática pasó a formar parte de las matemáticas.

Otto von Gericke, Boyle y Hooke

Otto von Gericke era un noble copernicano del XVII preocupado por la interacción magnética entre los astros a través del espacio vacío. Cuando conoce las ideas de Descartes empieza a buscarle aplicaciones útiles, como hacer implotar un barril sacando la cerveza con una bomba de succión. Pero a medida que lo vaciaba, el fluído exterior se filtraba entre las duelas. Entonces construyó una esfera de cobre que implotó debidamente. Las siguió mejorando hasta que consiguió que resistieran la presión y finalmente pudo hacer en 1657 uno de los experimentos más vistosos de esta historia, el experimento magdebúrgico.

magdeburgoSe trata de una enorme esfera compuesta de dos hemisferios con asas y espitas, que encajan perfectamente gracias a unas arandelas. Grosso modo una olla exprés pero en forma de esfera. Se extrae el aire de esta esfera y una vez hecho el vacío, las espitas se cierran. La presión de aire que hay dentro de la esfera es tal que para separarlas es preciso la fuerza bruta de dos tiros de 10 caballos cada uno. El estruendo con el que se separaban los hemisferios estremecía de pavor absoluto a los inexpertos curiosos que habían acudido a la atracción del pueblo. Gentes de Dios.

Boyle, virtuoso cristiano, se inspiró con los experimentos de von Gericke y emprendió un amplio análisis de la elasticidad del aire. Pero era un experimentador compulsivo, como la mayoría de los miembros de la Royal Society por aquellas. Panda de antidogmáticos, empiristas y antiteóricos que experimentaban con frenesí y sin necesidad de construir ninguna teoría, aunque vagamente se dejaban llevar por la idea de que las cosas ocurren mecánicamente.

Como Boyle iba un poco a su bola, sin una teoría de referencia que le guiara los experimentos, tardaba mucho más que Pascal en realizarlos. El estilo de Boyle  dio lugar a una tradición naturalista dedicada a la exploración de la naturaleza para descubrir fenómenos y efectos, sin pretensiones de sistematización deductiva con ayuda de las matemáticas o de explicación. Solís y Selles insinúan que el mejor descubrimiento de Boyle fue Hooke, un joven con una gran intuición física, habilidad mecánica y afición a la geometría. Aquí una de estas injusticias asociadas a la ciencia como institución. Hoy todos conocemos la Ley de Boyle, esa de la presión inversa al volumen, pero debería llamarse de Hooke. Porque fueron sus experimentos los que la establecieron.

Hooke desarrolló una bomba de vacío manejable, pero al final no la usaba porque siempre perdía y resultaba incontrolable. Usaba una masa fija de aire que se expandía y condensaba a voluntad con un peso de mercurio y el de la atmósfera.

De esta manera, el vacío y la máquina pneumática abrieron dos líneas de trabajo, una naturalista que llevaría a importantes trabajos en combustión, química pneumática y fisiología, y otra matemática que llevaría al desarrollo de modelos de fluidos elásticos como el aire. Hooke estableció a partir de esta segunda línea la ley que sí lleva su nombre: ut tensio sic vis, como la extensión, así la fuerza. ¡Qué gran ley!.

Anuncios

Si estuviéramos en los 70 y tuviera una banda  yeyé le pondría este nombre, ¿no me digas que no suena cool?.  Paracelso y los Iatroquímicos…Paracelso

¿Alguna vez has oído hablar de Theophrastus Philippus Aureolus Bombastus von Hohenheim? El amigo Bombastus, además de un gran nombre se consideraba a sí mismo con un gran talento,y no se le ocurrió otro alias para ponerse que Paracelso, literalmente superior a Celso.  El tal Celso era un compilador romano del siglo I del que se conservaban sus 8 libros de medicina. El tal Paracelso andaba por la primera mitad del siglo XVI. Paracelso era un personaje tan estrambótico como su nombre. Despreciaba el saber médico tradicional hasta el punto de empezar sus clases quemando libros de Avicena y Galeno en un brasero de azufre y nitro. Muy fan. Obviamente se ganó el odio acérrimo de la mayoría de médicos de la época que eran masivamente galenistas y se pasó gran parte de su vida errando por Europa…por sus tabernas para ser más precisos.

A pesar de esta carta de presentación, el amigo Paracelso era un buen cirujano y un médico experto en remedios metálicos para enfermedades como las propias de los mineros, las heridas de las novedosas armas de fuego y la sífilis, recién estrenada en Europa y a la que combatía con mercurio. Paracelso enseñaba y dictaba sus doctrinas, pero adolecía de maneras de mago. El secretismo formaba parte intrínseca de su personalidad por lo que nunca llegó a publicar nada. No perdáis de vista que estamos en una época donde magos, médicos y químicos formaban una extraña fauna difícilmente clasificable.

Innovador e iconoclasta, gran experimentador e investigador de nuevos remedios, se guíaba por la idea de que la enfermedad estaba provocada por los residuos venenosos de las reacciones químicas gracias a las que nuestros cuerpo funciona. De esta manera, las medicinas se orientaban a neutralizar esos residuos indeseables mediante arcana inorgánicos. La fisiología química de cada sistema orgánico estaba conectada con una realidad astral del macrocosmos, y mediante un espíritu independiente o archeus, controlaba la transformación de los alimentos en la digestión. Embebido de Platón, de la Biblia y de vino, interpretaba la creación del macrocosmos en el Génesis como una gran obra alquimista; las sustancias elaboradas eran una transformación creadora más que una mera combinación de materiales que se conservan en el compuesto.

La teoría paracelsiana de la materia trata más de principios abstractos que de corpúsculos materiales concretos. Se trata de una teoría de principios comunes a todas las sustancias, como los cuatro elementos clásicos, cuya unión da lugar a cuerpos con una nueva forma sustancial. La química medieval había complicado el esquema básico aristotélico con las emanaciones seca o húmeda de los Meteoros, responsables de la formación de minerales en las entrañas de la Tierra. Los árabes habían considerado el azufre y el mercurio principios que daban lugar a los metales según su proporción y calidad, que en el caso óptimo proporcionaba oro.

Sal azufre mercurioParacelso partió de estas ideas y añadió la sal al mercurio y al azufre para formar la Tria prima, principios no sólo de los metales sino de todas las suTria primastancias. La Tria prima es el trasunto microcósmico de la trinidad macrocósmica, siendo el cuerpo la sal, el alma el azufre y el espíritu el mercurio. Estos principios son arquetipos espirituales tan diversos como las sustancias que forman, por lo que no tenían mayor utilidad analítica, ya que cada cuerpo calcinado da una sal diferente y emite un espíritu distinto.

Los médicos seguidores de Paracelso conservaron un vago neoplatonismo y un gusto por las interacciones simpáticas entre macro y microcosmos, pero eso no quería decir que aceptaran necesariamente las doctrinas concretas de Paracelso, sino que hacían más bien hincapié en los aspectos prácticos e innovadores de su mensaje iconoclasta, frente al conservadurismo de los colegios de médicos y las universidades, apoyados por la Iglesia católica y sus jesuitas, opuestos a cuanto sonase a magia y religión no controlada. Por este motivo, el paracelsismo prosperó sobre todo en las zonas protestantes de Países Bajos y Alemanía y entre los hugonotes franceses.iatroquimica

Los iatroquímicos no eran ratas de taberna como el tarambana de su padre, Paracelso, sino dignos médicos profesionales que debían satisfacer a sus clientes con medicinas eficaces. Esto llevó a mitigar un tanto el misticismo y oscuridad del maestro para centrarse en los esquemas reformistas tendentes a promover la investigación farmacéutica y a producir recetas claras y precisas. Con ello desarrollaron un cierto eclecticismo tendente a dar la bienvenida a cualquier cosa aprovechable de Paracelso o Galeno. Paulatinamente los químicos empezaron a aparecer en las instituciones científicas e incluso en algunas universidades. Pero esa es otra historia que será contada en otra ocasión, porque Paracelso y los iatroquímicos no fueron una banda yeyé, fueron los padres de la Química.

A pesar de la perfección matemática de los Principia, los científicos contemporáneos de Newton apostaban a que su obra no era correcta. Me refiero al Philosophiae Naturalis Principia Mathematica, publicado en 1.687. El mecanicismo era la filosofía natural ilustrada predominante en la época. Los mecanicistas, filósofos y científicos, pensaban que todo fenómeno era explicable mediante materia en movimiento. Y eso de que para explicar la gravedad no diera Newton ni una sola explicación mecanicista era una auténtica barbaridad, fallo garrafal asegurado. Las apuestas estaban casi todas en contra de Newton.

Decía alguién por ahí que una vedad primero era despreciada, luego combatida y finalmente asumida.

La explicación que daba Newton sobre la gravedad, les hacía recordar a los mecanicistas antiguas fuerzas ocultas de las que llevábamos siglos intentando huir con la razón y la ciencia.

No iban desencaminados del todo. Porque Newton era un hombre de Dios, y eso condicionó significativamente la evolución de su pensamiento científico.

El joven Newton era mecanicista

Es curioso porque el jóven Newton aceptaba el mecanicismo, aceptaba la existencia de un éter más o menos cartesiano. Pero sus estudios teológicos y alquimistas lo pusieron en presencia de poderosas fuerzas ocultas en la materia, que no eran mecánicas, sino inmateriales.

En 1675 envió a la Royal Society una “Hipótesis para explicar las propiedades de la luz de las que he hablado en mis diversos escritos” en los que recurría a un éter sutil (partículas diminutas) y raro (poquísimas partículas por volumen), cuya acción no depende de su masa inerte, pasiva y despreciable, sino  que es asiento material de fuerzas espirituales repulsivas a distancia. El éter consta de diversas partes susceptibles de dar cuenta de las diferentes interacciones eléctricas, magnéticas, luminosas, gravitatorias y demás.

Este éter circula por todo el cosmos, conectando las misteriosas y activas sustancias de las colas de los cometas con los arcanos laboratorios de las entrañas de la Tierra donde se engendran los minerales. La Tierra es un gran animal que respira éter para su renovación y fermento vital, siendo dicho éter su alma material.

Como hasta mediado de los (16)80 no concibió la grativación como una acción mutua, ésta circulación de éter podría dar cuenta de la gravedad.

Newton empieza a dejar de lado el mecanicismo

Otros modelos de éter para la refracción de la luz recurrían a un éter estático y elástico dotado de un gradiente de densidad. Este gradiente hacía que el éter fuera más denso en los grandes espacios vacíos del Universo que entre los planetas. Este era el tipo de conversaciones que Newton mantenía con Boyle en las cartas que se intercambiaban.

“Dios creó cierta naturaleza incorpórea que tiende a repeler a los cuerpos y a hacerlos menos concentrados”. Esta frase en concreto,  fue una de las primeras manifestaciones del abandono de Newton de la teoría mecanicista. Newton empezó a pensar, en lugar de materia y movimiento, en agentes inmateriales, carentes de inercia y capaces de actuar a través de los espacios vacíos.

Estas fuerzas inmateriales son ya los elementos importantes en el gobierno del Universo, según palabras de Newton, “en el mundo encontramos muy poco movimiento que no se debe a estos principios activos o al dominio de la voluntad”, y “de no ser por dichos principios, los cuerpos de la Tierra, de los planetas, de los cometas, del Sol y de todas las cosas que ellos se encuentran, se enfríarían y congelarían, tornándose en masas inactivas. Toda putrefacción, generación, vegetación y vida habrían de cesar y los planetas y cometas no permanencerían en sus órbitas”. La gravitación, por supuesto, sería uno de esos principios activos inmateriales mediante los que se ejerce el dominio de la voluntad divina sobre la naturaleza.

Sin embargo, hubo una época en la que a Newton incluso el éter raro le pareció demasiado material. El recurso a entidades distintas de la materia y más importantes que ella llevó progresivamente a minimizar la importancia y la cantidad de esta, sin espacios vacíos interpuestos. De ahí su famosa frase de que toda la materia del Universo cabría en la cáscara de una nuez.

Así se reforzaba el ataque al mecanicismo cartesiano, antesala del ateísmo por la autonomía otorgada al mundo material. Si la materia es inanimada, inerte y escasa, la actividad de la naturaleza depende de la acción de entidades espirituales a las órdenes del Gran Espíritu. Newton defiende frente a la identificación cartesiana de la materia con la extensión, que el espacio es un “efecto inmanente de Dios”; es como Dios mismo, pero sin poder motriz; el espíritu es extenso, idea por cierto retomada del neoplatonismo. Así que, aunque el espacio pueda estar vacío de cuerpos, con todo “no está vacío de Él mismo (Dios)”. Por eso, lo que para nosotros serían acciones a distancia ( si fuesen acciones de los cuerpos materiales), en realidad son acciones por contacto, pues los espíritus, como Dios, están sustancialmente presentes en el espacio y en los cuerpos. Dios aparecería así como el alma del mundo que movería directamente los cuerpos con su voluntad. “Del mismo modo que nosotros somos conscientes de poder mover el cuerpo con la voluntad, no se puede negar a Dios la capacidad de mover los cuerpos”. La imagen del Universo que tenía Newton era descarnada, era un Universo material inerte y frío que flota en Dios, siendo movido y vivificado directamente por su voluntad.

Yo no invento hipótesis

Newton le comentó a Bentley, en la primera carta que intercambiaron, que al escribir los Principia buscaba promover la fe en la divinidad, y en la última de sus cartas señalaba que la materia no puede actuar sobre la materia si no es por contacto, de modo que la interaccción entre los cuerpos espacialmente separados, como los astros, se debe a la “mediación de otra cosa que no es material“.

En 1693 Newton le escribía a  su amado Leibniz que estaría dispuesto a aceptar un éter siempre que su densidad no superase el límite de precisión de unos experimentos que había realizado con péndulos, en los que en su momento creía haber demostrado la inexistencia del éter. En cualquier caso, despues de 1706, año en el que se publica la Óptica en su edición latina, Newton empezó de nuevo a valorar la idea de explicar las diversas interacciones entre los cuerpos mediante éteres fluidos e imponderables  (sin masa ni inercia medibles), lo que dio lugar durante el siglo XVIII a una gran proliferación de hipótesis de esta índole.

En la segunda edición de los Principia, después de despacharse a gusto con sus ideas sobre la divinidad, decía que “hasta ahora he explicado los fenómenos celestes y de nuestro mar por la fuerza de la gravedad, aunque aún no le he asignado una causa…Hasta ahora no he podido descubrir la causa de las propiedades de la gravedad a partir de los fenómenos, y yo  no invento hipótesis…“; pero a pesar de todo insinuaba a continuación que “tal vez podamos añadir algo acerca de un espíritu sutílisimo que impregna y se esconde en todos los cuerpos, mediante cuya fuerza y acción se atraen mutuamente las partículas de los cuerpos…y los cuerpos eléctricos operan a grandes distancias…y la luz se emite, refleja, refracta y calienta los cuerpos, y se excitan las sensaciones…y los miembros se mueven por la voluntad“.

De manera que los que leyeron la segunda edición inglesa de la Óptica (1717) se encontraron con que los vacíos de cuerpos y llenos de Dios se habían llenado ahora de un espíritu etéreo intermediario, retornando a la vieja idea del De Gravitatione (1664-68), según la cual servirse de mediadores “lejos de disminuir el poder divino, lo realza, pues la potencia que puede producir criaturas, no sólo directamente, sino también por mediación de otras criaturas, es extraordinariamente, por no decir infinitamente mayor. Por eso algunos quizás prefieran suponer que Dios impone al alma del mundo creada por él la tarea de…antes de creer que tal tarea es ejecutada directamente por Dios“.

Jesucristo, el éter, el propio Newton eran ejemplos de dichas criaturas intermedias entre el Pantocrátor y la Creación. Con este éter intentó Newton al final de sus días la unificación de todas las interacciones, pues los experimentos de Francis Hauksbee sobre triboelectricidad le hacían percibir casi directamente los movimientos y el viento de un espíritu eléctrico. Con todo los experimentos no eran suficientes y los modelos de éter incapaces de abordar todo tipo de fenómenos sin caer en contradicciones.

Con 75 años, Newton se encontraba finalmente demasiado viejo para llevar a cabo una unificación de todas las fuerzas que aún se nos resiste después de tres siglos.

Mis ojos se apagan-confesaba a los colegas de la Royal Society-, mi espíritu está cansado de trabajar, a vosotros corresponde realizar los mayores esfuerzos para no dejar escapar un hilo que pueda guiaros

 

Este artículo también ha sido publicado en hablandodeciencia.com

Los Orígenes de la Óptica

Publicado: 25 octubre, 2012 en Ciencia
Etiquetas:, , ,

Ojos de superhéroe

En la Grecia Clásica la ciencia fue conformándose como una rama de la filosofía. Los filósofos naturales, que podrían empezar a llamarse físicos, especularon acerca de la naturaleza física de la luz y del proceso fisiológico de la visión.

Por su lado, los matemáticos, que éstos sí que estaban ya muy bien posicionados, aplicaron la geometría al estudio de los rayos para explicar deductivamente los fenómenos de la perspectiva (óptica), la reflexión (catróptica) y la refracción (dióptica).

Un punto de vista matemático exige abstraer determinados rasgos de los procesos visuales, tales como que los rayos viajan en línea recta, con olvido de otros, tales como los colores. Como consecuencia, el modelo de la visión de los matemáticos, de origen pitagórico, era bastante peculiar.

Del ojo emanan rayos visuales que permiten percibir los objetos sobre los que inciden, como si fuesen pseudópodos con los que se palpan las cosas. Las consecuencias que entrañaba esta teoría son cuanto menos estrambóticas, como el hecho de que hay que llenar regiones vastísimas con emanaciones oculares de modo instantáneo. Obviamente presentaba indudables ventajas para la matematización frente a otras teorías rivales.

Una de ellas era la teoría atomista, según la cual es el objeto el que emite simulacros o capas de átomos que viajan conservando su forma hasta el ojo. Vemos por contacto con los simulacros presentes en el espacio. Esta doctrina, clara y mecánica, sin embargo no explicaba la función de la luz en la visión, es decir, porqué no captamos los simulacros de noche.

Otras teorías prestaban atención al medio continuo interpuesto entre el ojo y los objetos. Platón suponía que el fuego emanado del sujeto y la luz interactuaban para crear el medio óptico, y Aristóteles consideraba que los cuerpos luminosos actualizaban la transparencia potencial del medio, que es en lo que consiste la luz. A su vez, los cuerpos coloreados interactúan con este medio lumínico continuo, operando en él ciertos cambios que percibimos. Este era el tipo de teoría preferida por Galeno…el médico.

Euclides y sus postulados

Aunque las teorías de la alternativa del medio o de la emanación de átomos de los objetos fuese fisiológica y físicamente más atractivas que la de la emisión de rayos del sujeto, esta se prestaba de perlas a la geometrización y demostración de las leyes de la óptica, mientras que aquellas eran incapaces de suministrar los principios capaces de derivar los fenómenos básicos de la formación del campo visual y de la perspectiva.

En realidad, y como ha sido siempre, la elección del modelo de visión dependía de los intereses profesionales. Por muy atractivas que fuesen para físicos y fisólogos, las doctrinas del medio y de la emisión del objeto no servían a los geómetras.

La teoría de la emisión ocular salvaba trivialmente los fenómenos básicos del campo visual, como se recoge en los supuestos de la Óptica de Euclides. Si el ojo emite sus rayos visuales discretos y rectilíneos formando un cono con el vértice en el ojo, la ordenación del campo visual es obvia. Los objetos alcanzados por los rayos de la derecha del cono se ven a la derecha, distinguiremos mejor los detalles cuanto más rayos alcancen al objeto.

Como era usual en la tradición geométrica, los postulados se exponen sin la menor discusión física previa, y se procede sin más a demostrar las proposiciones.

Por ejemplo, la primera establece que ningún objeto se ve completamente a la vez, porque los objetos son continuos, pero los rayos que salen de los ojos son discretos y por lo tanto hay intervalos del objeto que no están cubiertos por ningún rayo. Si nos da la impresión que vemos el objeto entero es porque lo barremos rápidamente con nuestros rayos.

La base física y fisiológica de los postulados era oscurísima, pero una vez concedida, todo se deriva con el rigor y claridad usuales en la geometría.

Ptolomeo estaba a todas…

Un siglo después, se escribió la Óptica de Ptolomeo, perdida en la noche de la historia. Esta obra tuvo gran influencia en el siglo XI sobre Ibn al-Haytham (Alhazen), que fue el primero en construir un modelo geométrico en el que la luz procede del objeto. Pero como tantas otras teorías, ésta fue bastante mal conocida entre los cristianos, que a pesar de todo, conocieron a Ptolomeo a través de Alhazen.

El enfoque de Ptolomeo fue muy importante al incluir la indagación y prueba experimental de los primeros principios de la demostración geométrica de las leyes de la óptica.

Los axiomas no eran ni autoevidentes ni postulados al modo de Euclides, sino que se justificaban mediante experimentos, sometiendo así la matematización a la indagación empírica.

Ptolomeo deriva las leyes de la catróptica de tres principios:

  1. en los espejos, los objetos se ven en la dirección del rayo visual
  2. la imagen parece estar en la prolongación de la perpendicular del objeto al espejo
  3. los ángulos incidente y reflejado forman ángulos iguales con la normal

Pero los resultados más originales de Ptlomeo fueron los de la dióptrica, es decir, las ilusiones producidas por las desviaciones de los rayos en la interfaz que separa dos medios transparentes de diferente densidad. Para Ptolomeo esta desviación no se produce en ángulos iguales, sino que los ángulos con la normal tienen cierta relación cuantitativa definida. El problema era dar con ella.

La ley básica de la refracción, según la cual la razón entre los senos de los ángulos de incidencia y refracción es constante para un par de medios dado, no se descubrió hasta comienzos del siglo XVII gracias a Snell; pero Ptolomeo experimentó sistemáticamente en busca de esa relación, introduciendo la mitad de un disco graduado en agua y en vidrio para tabular las posiciones del objeto visto por refracción en el caso de aire-agua, aire-vidrio y agua-vidrio.

Estos experimentos también mostraron que hay una menor refracción entre agua y vidrio cuyas densidades están muy próximas; que el rayo refractado se acerca a la normal en medios más densos; que la trayectoria es reversible, etc.

El estudio de la refracción tiene una aplicación importante para la astronomía, porque la interfaz entre el aire terrestre y el éter celeste refracta los rayos visuales que van a los astros, haciendo que parecan estar más altos en una cantidad que aumenta desde el zenit al horizonte.

Parece ser que fue Cleómedes en el siglo I a.C. el primero que atribuyó a la refracción el hecho de que se viesen a la vez la Luna y el Sol sobre el horizonte en el momento de un eclipse, cuando supuestamente esos cuerpos deberían estar en línea con la Tierra. La razón de ello se atribuía a que la refracción hacía aparecer a ambos cuerpos más elevados de lo que en realidad estaban.

Conocer la refracción atmosférica para corregir la posición aparente y operar con la real en los cálculos fue un serio problema de la astronomía que Ptolomeo no llegó a resolver por desconocer la extensión de la atmósfera.

La óptica geométrica, a falta de la ley de la refracción, quedaba así como un campo en el que pocas novedades cabía esperar. Los avances de los árabes y luego del siglo XVII se produjeron en el estudio físico de la luz y los colores y de la teoría de la visión.

Me gusta el rock en todos su sabores, me gusta el jazz en todos sus colores, me gusta la música clásica y la contemporánea. No me suele gustar el pop fresquito, no me gusta el reggaeton…¿A tí sí? A mí no. Tus gustos y los mios, afortunadamente no son los mismos. A tí te gusta cierto tipo de música, puedes que seas ecléctico como yo, puedes que seas un talibán que sólo permite un tipo de sonoridad a su alrededor. Puede incluso que seas una persona a la que la música le es completamente indiferente, en cuyo caso dudo mucho que te interese el resto de la entrada…Resumiendo con esa mítica frase que tanto uso y de la que tanto abuso…cada unos con sus cadaunadas, en versión orteguiana…que viene siendo eso más popular de pa gustos colores y pa olores las flores.

En El contexto y la música que te gusta se trató de reflejar cómo los parámetros exteriores socioculturales, la personalidad y demás factores pueden conformar el universo musical del que disfrutas. En este caso, lo que se va a analizar es la música en sí, qué parámatros, qué factores caracterizan a la música y cómo eso influye en los gustos. ¿Dispuest@ a sorprenderte?

 

¿Consonacia o Disonancia?

En la música, el concepto de consonancia y disonancia ha ido variando a lo largo de los años, porque no dejan de ser conceptos subjetivos que dependen de las reglas y cánones que rigen la composición musical de cada época.

En cualquier caso, todos tenemos una idea innata de qué música nos parece consonante o disonante o en que combinación ambos parámetros se mezclan. Dejando a un lado las explicaciones matemáticas y fisiológicas, para el pueblo llano se supone que consonantes son los sonidos que se perciben distendidos, mientras los disonantes provocan cierta tensión al escucharlos.

Estadísticamente se muestra una mayor preferencia por la consonancia que por la disonancia. La percepción de la disonancia llega más tarde en la vida, y la gente difiere respecto al grado en que la puede soportar. La música electroacústica puede ser ruido infernal para algunos, y Schönberg el diablo. En cambio Mozart es apto hasta para los bebés. Lo que a unos les parece soso, a otros una auténtica maravilla del genio humano libre, curioso y valiente. 

Esto probablemente tenga una base neuronal. Los intervalos consonantes y disonantes se procesan en el córtex auditivo a través de mecanismos diferenciados. Parece ser que las neuronas del córtex auditivo primario, el primel nivel de procesamiento cortical para el sonido, sincronizan sus índices de activación durante acordes disonantes, pero no durante los consonantes. Pero no está claro porqué eso tiene que crear una preferencia por la consonancia.

Nuestros cerebros y las escalas musicales que utilizamos parecen haber coevolucionado. No es ningún accidente el que tengamos esa curiosa disposición asimétrica de notas en la escala mayor: es más fácil aprender melodías con esa ordenación, que es una consecuencia de la física de la producción del sonido a través de las series de armónicos; el conjunto de tonos que utilizamos en nuestra escala mayor está muy próximo en altura a los que forman las series de armónicos.

Periodos críticos de aprendizaje y Neuroplasticidad

Sabemos que hay períodos críticos para la adquisición de nuevas habilidades. Por ejemplo el lenguaje, si el niño a los 6 años no ha aprendido el idioma, nunca aprenderá a hablar con la facilidad que caracteriza a la mayoría de los nativos de dicho idioma.

Con la música y con las matemáticas el margen es más amplio, pero no ilimitado. Si un estudiante no ha recibido lecciones de música o matemáticas antes de los 20 años, aún puede aprender esas materias, pero con gran dificultad, y probablemente nunca llegará a hablar estos lenguajes como las personas que lo hayan aprendido antes.

Esto es debido a la trayectoria biológica del crecimiento sináptico. Las sinapsis del cerebro están programadas para crecer durante un número de años, haciendo nuevas conexiones. Después de ese período, hay un cambio hacia la poda, para librarse de conexiones innecesarias. Eso es la neuroplasticidad, la capacidad del cerebro para reorganizarse. Los niños y adolescentes tienen una capacidad neuroplástica mucho mayor.

Por supuesto hay diferencias individuales, pero la poda se inicia generalmente entre los ocho y los catorce años en los lóbulos frontales, que es la sede del pensamiento superior y el razonamiento, la planificación y el control del impulso. Durante este período aumenta la mielinación. La mielina es la substancia grasa que cubre los axones, acelerando la transmisión sináptica. La mielina de todo cerebro se completa generalmente en torno a los 20 años.

¿Simple o complejo?

El equilibrio entre simplicidad y complejidad en la música también influye en nuestras preferencias. Existe una relación metódica entre la complejidad de una obra artística y lo que nos gusta. Por supuesto que complejidad es un concepto subjetivo. Lo que a una persona le parece aburrido y de una simplicidad odiosa, a otra podría parecerle fácil de entender, debido a diferencias de formación, experiencia,  interpretación y esquemas cognitivos.

Los esquemas lo son todo, estructuran nuestra comprensión; son el sistema en el que emplazamos los elementos y las interpretaciones de un objeto estético. Los esquemas alimentan nuestras expectativas y nuestros modelos cognitivos.

Con un esquema la Quinta de Mahler es perfectamente interpretable, incluso aunque se oiga por primera vez: es una sinfonía, sigue la forma sinfónica con cuatro movimientos; contiene un tema principal y subtemas, y repeticiones del tema; los temas se manifiestan a través de instrumentos orquestales. Los que conozcan la Cuarta de Mahler se darán cuenta de que la Quinta se inicia con una variación del mismo tema e incluso en el mismo tono. Los que tengan formación musical se darán cuenta de que la mayoría de las sinfonías desde Haydn a Brahms y Bruckner empiezan y acaban característicamente con la misma nota, aunque Mahler prescindiera de esa convención en su Quinta Sinfonía.

Si no hubieses aprendido a mantener en tu mente un sentido de tonalidad mientras se desarrolla la sinfonía, o si no tuvieses un sentido de la trayectoria normal de una sinfonía, esto carecería de sentido; pero para el oyente experimentado, ese desacato a la convención aporta una sorpresa grata, una violación de expectativas, especialmente cuando esos cambios de tonalidad se hacen con la habilidad precisa para que no resulten estridentes.

La Quinta de Mahler, al carecer de un esquema sinfónico apropiado, o si el oyente posee otro esquema (por ejemplo un aficionado a ragas indias), es absurda y a la vez divagatoria, una idea musical se funde en ella con la siguiente de un modo amorfo, sin ninguna frontera, sin principios ni fines que la hagan parte de un todo coherente. El esquema enmarca nuestra percepción, nuestro procesamiento cognitivo  y en último término nuestra experiencia de la realidad.

Cuando una pieza musical es demasiado simple tiende a no gustarnos, nos parece trivial. Cuando es demasiado compleja, tiende también a no gustarnos, nos parece imprevisible: no percibimos que esté asentada en algo familiar. La música, como toda forma artística en realidad, tiene que lograr para que nos guste el equilibrio justo entre sencillez y complejidad. Ambas se relacionan con la familiaridad, que es una palabra equivalente a esquema.

Una pieza nos parece demasiado simple cuando es tan previsible que resulta trivial, parecido a algo que hemos oído antes y que no nos plantea el menor reto. Mientras la música va sonando el cerebro va pensando por delante cuáles son las diferentes posibilidades para la nota siguiente, hacia dónde va la música. El compositor tiene que conseguir emplazarnos en un estado de confianza y seguridad, tiene que darnos las suficientes recompensas (culminaciones de expectativas) para que tengamos una sensación de orden y una sensación de ubicación.

Las reacciones a lo no previsible son diferentes en cada persona, algunos pueden entrar en pánico y otro en pura exitación por la emocionante aventura que tienen delante.

Cuando la música es demasiado complicada, el individuo medio no tiene paciencia para aprenderla, demasiadas opciones para tomarlas en consideración. La música que contiene demasiados cambios de acordes, o una estructura con la que los oyentes no estén familiarizados, puede conducir directamente al botón de stop. Y esto puede suceder con estilos tan dispares como el  jazz o el math metal.

La estructura ofrece una curva de aprendizaje empinada y el neófito no tiene muy claro si el tiempo que tiene que invertir le va a merecer la pena. Nos decimos que si lo escuchamos el número suficiente de veces, podremos empezar a entenderlo y nos gustará tanto como les gusta a nuestros amigos. Pero eso no siempre sucede.

Escuchar nuevas músicas…¿pereza o desafío?

Intentar apreciar nueva música puede ser como considerar una nueva amistad, teniendo en cuenta que lleva tiempo y que a veces no hay nada que puedas hacer para acelerar el asunto. A nivel neuronal tenemos que encontrar unos cuantos hitos que nos permitan evocar un esquema cognitivo. Si oímos una pieza radicalmente nueva el suficiente número de veces, parte de esa pieza acabará codificada en el cerebro y formaremos hitos. Si no lo has hecho nunca, el trabajo puede ser titánico, si lo has ejercido a lo largo de tu vida, resultará un entretenimiento ameno, divertido y enriquecedor.

El procesamiento estructural plantea dificultades al apreciar una nueva pieza musical. No entender la forma sinfónica o la forma de sonata, o la estructura AABA (verso-verso-coro-verso) de una pauta de jazz es el equivalente en escuchar música a conducir por una autopista sin señales de tráfico; no sabes donde estás, ni cuando llegarás. De nuevo entras en pánico o la aventura te envuelve.

La relación ordenada entre complejidad y gusto se denomina la función U (o V) invertida, por la forma que tendría en un gráfico que relacionase estos dos factores. El eje X representaría lo complejo que es la música para tí y el eje Y lo que te gusta. En la parte inferior izquierda, cerca del origen de coordenadas habría un punto para la música que es muy simple y tu reacción es que no te gusta. Al aumentar la complejidad de la música aumenta también el placer que te causa, las dos variables se van siguiendo un rato hasta que cruzas un cierto umbral personal y pasas del desagrado intenso a que empiece a gustarte un poco. Pero llega un momento en que al seguir aumentando la dificultad, la música se hace demasiado compleja y empieza a gustarte menos, el gusto va disminuyendo hasta que cruzas otro umbral y esa música ya no te gusta en absoluto.

Otros parámetros que  también influyen

La hipótesis de la U invertida no significa que la única razón por la que puede o no gustarte una pieza sea por su complejidad o sencillez, lo que pretende es explicar esa variable. Los propios elementos de la música pueden suponer una barrera que impida apreciar una nueva pieza. Si la música es demasiado fuerte o suave puede resultar problemático, incluso el registro dinámico (la disparidad entre las partes del sonido más fuerte y más suave) puede hacer que algunas personas la rechacen. Esto sucede sobre todo con los que usamos la música para regular nuestro estado de ánimo de una forma específica.

El que quiera escuchar música para relajarse o para estimularse es probable que no quiera escuchar un tipo de música que recorra toda la gama de intensidades. Tanto el registro dinámico como el emocional resultan sencillamente demasiado amplios y pueden crear una barrera que bloquee el acceso. No te pones la misma música para hacer ejercicio que para leer una tarde lluviosa de otoño.

El tono puede influir también en la preferencia. Algunas personas no pueden soportar los tiempos graves y golpeteantes del moderno hip-hop, otros no soportan lo que describen como el quejido agudo de los violines. Los gritos desgañitados de muchos grupo de metal extremo generan ansiedad y profundo desagrado en cierto tipo de gente, mientras que en otras genera una fuerza interior poderosa y rabiosa que puede mover montañas…Esto puede tener una componente fisiológica; algunos oídos pueden literalmente transmitir  partes distintas del espectro de frecuencias que otros, y como resultado algunos sonidos parecen agradables y otros odiosos. Puede haber incluso asociaciones psicológicas positivas y negativas con los diversos instrumentos.

El ritmo y las pautas rítmicas influyen en nuestra capacidad para apreciar una composición o un género musical determinado. El timbre es otra barrera para muchas personas.

La música sublima lo humano

Por supuesto, nuestras preferencias musicales están condicionadas también por la experiencia y el resultado de dicha experiencia, positivo o negativo. Los tipos de sonidos, ritmos y texturas musicales que nos resultan agradables son en general ampliaciones de experiencias positivas previas que hemos tenido con la música a lo largo de la vida. La experiencia sensorial nos causa placer y su familiaridad y la seguridad que esa familiaridad nos aporta nos resultan gratas.

La seguridad juega en muchos casos un papel en la elección de la música. Nos entregamos en cierta medida a la música cuando la escuchamos: y nos permitimos confiar a los compositores y a los músicos una parte de nuestros corazones y de nuestro espíritu; dejamos que la música nos lleva a algún lugar situado fuera de nosotros mismos. Muchos sentimos que la buena música nos conecta con algo mayor que nuestra propia existencia, o con otras personas. Incluso cuando la buena música no nos transporta a un lugar emocional trascendente, puede cambiar nuestro estado de ánimo. Es comprensible pues, que podamos mostrarnos reacios a bajar la guardia, a prescindir de nuestras defensas emotivas, con cualquiera. Lo haremos si los músicos y el compositor nos hace sentirnos seguros.

El poder del arte consiste en que puede conectarnos entre nosotros, y con verdades más amplias sobre lo que significa estar vivo y lo que significa ser humano. Las conexiones con el artista o con lo que el artista representa pueden formar parte de nuestras preferencias musicales.

La música para mí es la mejor de las drogas. Es la que mejor y más lejos te lleva, es la que me hace sentir más intenso, más profundo, más fuerte. Te montas en ella y te sientes libre de todo tipo de ataduras físicas porque la ensoñación que produce lo ocupa todo. Por unos minutos te olvidas de todo y de todos, mientras que al mismo tiempo formas parte de todo y de todos. Por eso me gusta. No concibo un día de mi vida sin música.

Antecedentes preverbales

Existe una idea predominante de  que no podemos tener ningún recuerdo verídico antes de los cinco años, más o  menos. Pero esto no está científicamente demostrado, incluso puede que seas una de esas personas que sí tiene recuerdos anteriores.

En la Universidad de Keele, en el Reino Unido, Alexandra Lamont realizó un experimento. Sometió a un grupo de mujeres embarazadas a la escucha de cierto tipo de música, enfocada hacia sus bebés. Descubrió que los niños, un año después del nacimiento, reconocían y preferían la música a la que habían sido expuestos en el vientre materno.

¿Pero cómo se puede saber de preferencias en un entorno preverbal? Muy sencillo. Los niños elegían el altavoz por donde salía la música que más les agradaba, que en el caso de los niños que formaron parte del experimento siempre fue la música a la que fueron expuestos. En el caso de otros niños, no presentaron ninguna preferencia. Es decir, no había nada en la música en sí que marcara la preferencia.

Lamont descubrió también que si no intervienen otros factores, el niño prefiere la música rápida y alegre a la lenta.

Otro estudio, menos ortodoxo, aseguraba que escuchar diez minutos al día a Mozart te hacía más listo. En realidad era el hecho de escuchar música lo que podría mejorar el rendimiento en tareas de razonamiento espacial efectuadas inmediatamente después de la sesión auditiva.

La mayoría de los científicos se hallaban en una posición incómoda. Aunque creemos intuitivamente que la música puede estimular otras habilidades cognitivas, el estudio concreto que afirmaba esto contenía muchos fallos científicos, afirmando cosas ciertas pero por motivos inadecuados.

Los músicos tienen más cuerpo calloso

Escuchar música estimula ciertos circuitos neuronales, incluyendo la densidad de conexiones dendríticas en el córtex auditivo primario. Schlaug, neurocientífico de Harvard, ha demostrado que la porción frontal del cuerpo calloso, es decir, la masa de fibras que conectan los dos hemisferios cerebrales, es significativamente mayor en los músicos, especialmente entre los que empiezan muy pronto su formación. Esto refuerza la idea de que las operaciones musicales pasan a ser bilaterales al aumentar la instrucción, pues los músicos coordinan y reclutan estructuras neuronales tanto en el hemisferio izquierdo como en el derecho.

Schlaug también descubrió que los músicos tendían a tener cerebelos más grandes y una mayor concentración de materia gris, es decir, la parte del cerebro que contiene los cuerpos celulares, axones y dendritas, y responsable del procesamiento de la información, mientras que la materia blanca es la responsable de la transmisión de la información.

Y mientras, vamos creciendo…

El entorno, incluso mediando el líquido amniótico y el vientre materno, puede afectar al desarrollo y a las preferencias del niño. Así que las semillas de la preferencia musical se siembran en el vientre materno, pero tiene que haber algo más que eso, porque si no todos escucharíamos la misma música que nuestros padres. Lo que oímos en el vientre materno influye en nuestras preferencias musicales, pero no las determina.

La música que nos rodea mientras crecemos y nos desarrollamos cumple otro papel determinante. Los niños pequeños empiezan a mostrar una preferencia por la música de su cultura a los dos años de edad, aproximadamente en la época en que empiezan a desarrollar un procesamiento verbal especializado. Al principio les gusta canciones simples; música simple quiere decir temas claramente definidos y progresiones de acordes que se resuelven de formas directas y fácilmente previsibles. Cuando maduran, empiezan a cansarse de la música fácilmente predecible y a buscar música que plantee algún reto.

Esto es una generalización, no a todos los niños les gusta la música y algunos desarrollan un gusto propio por pura serendipia.

Parece ser que el momento decisivo para las preferencias musicales está en torno a los 10 años. A partir de este momento es cuando los niños se toman un interés real por la música.

La música hacia la que tenderemos a sentir nostalgia en la edad adulta, la que sentimos como nuestra música, se corresponde con la que oímos durante esos años. La adolescencia es un período de autodescubrimiento cargado emotivamente, y la amígdala y los neurotransmisores actúan de forma conjunta para etiquetar los recuerdos emotivos como algo importante. Hacia los 14 años es cuando el cableado de nuestros cerebros musicales se aproxima a los niveles adultos de culminación.

No parece haber un punto de ruptura a partir del cual no puedan adquirirse ya nuevos gustos en música, pero la mayoría de las personas tienen formados sus gustos entre los dieciocho y los veinte años. No está claro porqué sucede esto, pero parece ser que es así. Será que conforme nos hacemos mayores nos abrimos menos a nuevas experiencias.

En la adolescencia tenemos todo un mundo por descubrir, y en nuestra sociedad occidental la elección musical tiene consecuencias sociales importantes. Escuchamos la música que escuchan nuestros amigos. Cuando estamos buscando nuestra identidad creamos vínculos y grupos sociales con gente a la que queremos parecernos o con las que creemos que tenemos algo en común. Para exteriorizar ese vínculo, vestimos de manera parecida, compartimos actividades y escuchamos la misma música. Los gustos musicales se convierten en una señal de distinción e identidad personal de grupo.

Podríamos decir que la personalidad está asociada en cierta medida con el tipo de música que nos gusta, o al menos predice dicha personalidad. Pero viene determinada en mayor medida por factores causales: dónde estudiaste, con quién salías, qué música daba la casualidad que escuchabas.

Durante la adolescencia el cerebro desarrolla y forma nuevas conexiones a una velocidad explosiva, pero este ritmo frenético se reduce sustancialmente pasado este periodo.

Seguro que si eres melómano, la pasión que tenías en tu adolescencia por descubrir cosas nuevas y la intensidad de las emociones que te provocaba la música han ido decreciendo con el paso del tiempo.

En mi propia experiencia, sigo siendo una melómana activa, voy a conciertos, busco música nueva dentro de los estilos que me gustan, incluso estoy dispuesta a escuchar nuevos tipos de música. Pero no es lo normal.

La mayoría de la gente que me rodea se quedó estancada en la música de su vida, es decir, la que escuchaba en su adolescencia y juventud. Pero sigo teniendo un grupo de amigos y conocidos que siguen teniendo una actitud similar a la mía. Al igual que hay gente a la que la música nunca le interesó, hay gente que sólo le interesa durante una etapa de su vida y a otros nos interesará siempre. Interés en sentido proactivo y evolutivo.

Lo que sí he notado con el paso de los años, es que cada vez le dedico menos tiempo a escuchar música. Me explico, mientras trabajo escucho música, mientras cocino escuho música, mientras leo escucho música…prácticamente todas las actividades que realizo en mi día a día van a compañadas de un fondo musical. Pero ya rara vez me pongo a escuchar música, y sólo eso. No como complemento o como la banda sonora de tu vida, sino como una actividad completa en sí misma.

Quizás sea por lo que comenta Levitin, a partir de cierta edad tu cerebro ya está prácticamente configurado para la música. Quizás sea porque cuando te conviertes en adulto se incrementan las actividades y responsabilidades con lo que es fundamental si quieres seguir disponiendo de tu propio tiempo, el saber gestionarlo con gran precisión.

En cualquier caso, no me imagino un mundo sin música, no me imagino un día sin música. Aunque sea como la banda sonoro de mi vida, la música seguirá formando una parte fundamental de mi universo.

Situémonos en la Edad Media. Esa época mal conocida como una etapa oscura de la humanidad, y sin embargo, cuajada de grandes avances científicos, porque en realidad, la oscuridad sólo estaba en Europa, auspiciada por el asfixiante ambiente religioso del momento. Y la humanidad se extendía mucho más allá de las fronteras cristianas.

Si nos desplazamos hacia el Este y nos situamos en el mundo islámico, esa cultura tan denostada en nuestros días, nos encontramos con un entorno que en la Edad Media era garante de vanguardia social y científica, plagado de grandes avances que fueron conocidos mal y tarde, debido entre otros aspectos al egocentrismo intransigente e intolerante que rodeaba a Europa.

Si has podido realizar ese salto espaciotemporal sin demasiado vértigo, y te interesa la historia de la Astronomía, te voy a contar una historia, que para algunos será tan desconocida como relevante.

Ptolomeo, Almagesto y complícate la vida

Por aquellas, astronomía y astrología se confundían en una amalgama que sólo unos siglos después comenzó a distinguirse con claridad y rigor científico. Por aquellas, los cristianos no entendían las teorías de Ptolomeo, y hasta el siglo XV no empezaron a ver la luz. Por lo tanto, por aquellas, fueron los musulmanes lo que tomaron carrerilla y se posicionaron como los sabios del universo. Claro que tenían sus motivaciones prácticas, como por ejemplo la regulación del tiempo y del calendario y la determinación de la dirección a la Meca. Pero eso no le quita nada de mérito al asunto.

A mediados del siglo II, Ptolomeo realizó un estudio exhaustivo y sistemático del cielo, cuyo fruto inicial fue el perfeccionamiento de la obra Hiparco. Como el trabajo de Hiparco se ha perdido en la noche de los tiempos, no tenemos ni idea de hasta qué punto Ptolomeo se basó en él.

Lo más relevante del sistema ptolemaico es que creó un refinado sistema para explicar los complejos movimientos de los planetas, suponiendo la Tierra como centro del universo, gracias al uso de epiciclos, ecuantes y otros artificios teóricos.

Ptolomeo creía que la Tierra estaba inmóvil y ocupaba el centro del Universo, y que el Sol, la Luna, los planetas y las estrellas giraban a su alrededor. A pesar de ello, mediante el modelo del epiciclo-deferente, cuya invención se atribuye a Apolonio, trató de resolver geométricamente los dos grandes problemas del movimiento planetario:

  • La retrogradación de los planetas y su aumento de brillo mientras retrogradan
  • La distinta duración de las revoluciones siderales

Según el modelo ptolemaico, el planeta se mueve sobre el epiciclo, que es una circunferencia pequeña de trazos, cuyo centro a su vez se mueve sobre el deferente (circunferencia grande de trazos).

  • El centro del deferente es X, pero el movimiento angular del epiciclo es aparentemente acorde sólo respecto al punto (·) que es el ecuante.
  • El deferente es el recorrido circular que describe el centro del epiciclo.
  • El ecuante es el punto en torno al cual se mueve el planeta en su trayectoria, aparentemente.

Para explicar la irregularidad del movimiento de los planetas, Ptolomeo afirmaba que si desde la Tierra la velocidad planetaria no parece ser regular, sí lo era desde el punto ecuante.

Instrumentos manuales para una nueva era

Esta visión del cosmos sería conocida durante toda la Edad Media. En Europa se conoció la obra de Ptolomeo, en gran medida, a través de traducciones medievales árabes. El trabajo de Ptolomeo sólo sería superado más de un milenio después con los trabajos teóricos y observacionales de los astrónomos de Maraga, que por cierto no se tiene muy claro donde se situaba el observatorio, más o menos entre Irán y Azerbayán. Ptolomeo explicitaba en el Almagesto cómo calcular los parámetros de su modelo a partir de observaciones, y para el siglo IX los musulmanes ya sabían como hacerlo. Los cristianos tuvieron que esperar a las traducciones y comentarios que se realizaron en el siglo XII.

Pero Ptolomeo no explicó lo más interesante, es decir, cual es el proceso de análisis de regularidades previsto según el modelo que podía dar cuenta de ellas. Ese nivel de madurez teórica fue alcanzado por los musulmanes en el siglo XIII, y por los cristianos unos tres siglos más tarde.

Las tablas en la astronomía son útiles para el cómputo del tiempo, el calendario y la astrología. Pero para recalcular los parámetros y construir tablas, se necesitan observaciones sistemáticas y precisas realizadas durante unos lustros. Ello llevó al diseño de instrumentos de observación.

El más común fue el astrolabio, que servía para diferentes propósitos de medición de ángulos. Su origen se encuentra en el siglo VI, pero a lo largo de toda la Edad Media sufrió importantes modificaciones, para determinar el tiempo y hacer mediciones tanto astronómicas como geodésicas.

Otro instrumento importante fue la esfera armilar, utilizada desde el siglo XIV. Era un instrumento manual con una serie de anillos graduados fijos o móviles para los distintos círculos celestes con la que se hacían predicciones.

En el mismo siglo se introdujo el radio astronómico, también llamado báculo de Jacob, una vara graduada con un travesaño móvil cuyos extremos se hacían coincidir con la distancia angular a medir.

Casi todo los instrumentos eran manuales y por tanto de precisión limitada, pero aún así, los mussulmanes corrigieron con buen tino los parámetros ptolemaicos.

Comenzaron en el siglo IX con los parámetros solares, descubriendo que había disminuido la oblicuidad de la eclíptica y el año trópico (el de las estaciones), mientras que había aumentado la precesión de los equinocios y la longitud de la línea de ápsides (la que pasa por el perigeo y el apogeo).

Aún así, los musulmanes seguían pensando que tenían mucho que aprender de Ptolomeo, por lo que no consideraron sus valores mejores, por lo que refinaron la matemática ptolemaica para representar un universo más acorde con las observaciones.

Los lamentos de al-Haytham

Otra novedad importante de la astronomía del islam fue el carácter físico o filosófico que le imprimieron. Los musulmanes eran tan matemáticos como físicos y desconfiaban de la realidad de las excéntricas y de los ecuantes, los cuales consideraban que tan solo maquillaban el hecho de que los movimientos supuestos no eran en realidad simples, circulares y uniformes en torno a un centro, como correspondían en esa época a la materia celeste, herencia aristotélica inamovible.

En el siglo XI, Ibn al-Haytham se lamentaba, 500 años antes de Copérnico, de la alegría con que se inventaban expedientes matemáticos que no se sometían a las restricciones físicas. Acusaba a Ptolomeo de violar sus propios principios físicos, como la uniformidad (merced a la ecuante) y la simplicidad de los movimientos de los cuerpos de éter (merced al epiciclo sobre deferente), lo que era indicio de que no habían dado con la verdadera constitución del Universo.

La reacción islámica a este reto fue doble:

  • Por un lado, en los siglos XII y XIII hubo un intento de retomar las esferas homocéntricas por parte de los aristotélicos andalusíes, Avempace, Aventofail y Alpetragio. Pero eso no significaba renunciar a los logros de la astronomía.
  • Por otro lado, en el siglo XIII, los astrónomos de Maraga consiguieron construir modelos astronómicamente precisos, inmunes a las críticas físicas de Ibn al-Haytham. Fueron los primeros modelos originales no ptolemaicos. La pieza clave de esta solución fue un teorema de al-Tusi que muestra cómo generar un movimiento rectilíneo con dos circulares, conocido como el par de al-Tusi

El par de al-Tusi

Nasir al-Din al-Tusi era persa, y aunque no os suene de nada, este ilustre personaje fue tan importante como para que el gobierno iraní le dedicara un sello y como para tener su propio cráter en la Luna, un cráter de más de 60 km de diámetro…¡sí que debió ser importante!.

Su importancia radica en que después de Ptolomeo, fue el primero en desarrollar modelos matemáticos propios y originales. Además de ser el primer matemático y astrónomo que tuvo una visión clara de la trigonometría plana y esférica.

Inventó una técnica geométrica que ayudó a la solución cinemática del movimiento linear como suma de dos movimientos circulares. Que era lo que pretendió Ptolomeo con sus epiciclos y ecuantes.

En qué consiste el par de al-Tusi, fíjate en la figura. El radio del círculo menor PDA es la mitad del radio mayor CDE, mientras que su velocidad angular es el doble y en sentido contrario que la del mayor. En esas condiciones, P oscilará por el diámetro CE. Es decir, se establece un movimiento vertical rectilíneo del punto P a lo largo del diámetro CE.

Si se monta un par de al-Tusi en lugar del deferente más ecuante de Ptolomeo, el resultado es equivalente al modelo ptolemaico, ambos generan las mismas posiciones, aunque con la ventaja de que cada movimiento es uniforme en torno a su centro, por lo que los círculos pueden aspirar a ser una representación real de las esferas físicas existentes en el cielo y no meros expedientes geométricos.

Es decir, al-Tusi advirtió que si un círculo gira dentro de una circunferencia de otro círculo dos veces mayor, entonces cualquier punto del círculo interior se movería a adelante y atrás a lo largo de una línea recta.

Variando los parámetros del modelo de Maraga aplicando el par de al-Tusi, se puede dar cuenta de los movimentos de todos los astros. Por ejemplo, si los ejes que pasan por A y B son paralelos, y CDE y DPA son ecuadores de esferas, P oscilará rectilíneamente, tal como ocurre en los modelos planetarios y lunar para la longitud. Pero si los ejes convergen según condiciones especificadas, P oscilará por un arco de círculo máximo, lo que se utiliza para la latitud.

Este teorema del Par de al-Tusi podría ser probado geométricamente, y podría ser ilustrado visualmente para crear un modelo del movimiento planetario. Los modelos que incorporaban versiones del par de al-Tusi aparecieron en los manuscritos bizantinos tardíos, y Copérnico hizo uso de sus principios cuando discuta sobre las variaciones en la precisión (el movimiento del eje de la Tierra alrededor del polo eclíptico), determinando las latitudes eclípticas de los planetas, y describiendo la órbita de Mercurio.

Sin embargo los modelos de Maraga no aportaban nada a la práctica técnica de la astronomía, por lo que no eran necesarios para la construcción de tablas y no pasaba nada si se seguían usando los modelos ptolemaicos. Eso es justo lo que hicieron los observadores de Samarcanda a finales del siglo XV, obteniendo precisiones sin precedentes. Pero estas tablas no fueron conocidas en occidente hasta el siglo XVII, cuando las observaciones considerablemente precisas de Tycho Brahe las privaron del impacto que de otro modo hubieran causado.

¿Qué significa contrastar una teoría?

En la visión tradicional, las hipótesis o teorías son el centro de la adquisición de conocimiento. La investigación científica comienza con la formulación de problemas. Las hipótesis o teorías son respuestas, o intento de soluciones, a los mismos. Tales “soluciones” son conjeturas.
El objeto de la ciencia es la explicación y la predicción, para lo cual se requieren leyes universales. La estructura lógica de ambas formas argumentales es idéntica: consiste en deducir un enunciado singular observacional a partir de un conjunto de premisas que contienen al menos una ley y enunciados singulares pertinentes. A las hipótesis solo puede asignárseles un uso predictivo o explicativo si han sido convenientemente evaluadas. El primer paso de la evaluación es examinar su coherencia interna y con el cuerpo de conocimientos admitidos. El siguiente es el control empírico o contrastación. La contrastación combina el razonamiento lógico (deducción) y la observación empírica.

El método de contrastar críticamente las teorías y de escogerlas, teniendo en cuenta los resultados obtenidos en su contraste, procede siempre del siguiente modo.

  • Presentada a título provisional una idea, aun no justificada en absoluto, se extraen conclusiones de ella por medio de la deducción lógica;
  • esas conclusiones se comparan entre sí y con otros enunciados pertinentes, con objeto de hallar las relaciones lógicas (equivalencia, deductibilidad, compatibilidad, etc.) que existan entre ellas.

Procedimientos de constrastación de teorías 

Se pueden distinguir cuatro procedimientos de llevar a cabo la contrastación de una teoría:

  • Se encuentra la comparación lógica de las conclusiones unas con otras: con lo cual se somete a contraste la coherencia interna del sistema.

  • Se estudia la forma lógica de la teoría, con objeto de determinar su carácter: si es una teoría empírica –científica- o si, por ejemplo, es tautológica.

  • Comparación con otras teorías, cuya principal mira es averiguar si la teoría examinada constituiría un adelanto científico en caso de que sobreviviera a las diferentes contrastaciones a que la sometemos.

  • Analizando las aplicaciones empíricas de las conclusiones que pueda deducirse de ella.

Con el último punto se pretende descubrir hasta qué punto satisfarán las nuevas consecuencias de la teoría –sea cual fuere la novedad de sus asertos- a los requerimientos de la práctica, ya provengan éstos de experimentos puramente científicos o de aplicaciones tecnológicas prácticas. También en este caso el procedimiento resulta ser deductivo; así, con ayuda de otros enunciados anteriormente aceptados se deducen de la teoría a contrastar ciertos enunciados singulares –“predicciones”-; en especial, predicciones que sean fácilmente contrastables o aplicables. Se eligen de estos enunciados los que no sean deducibles de la teoría vigente, y, más en particular, los que se encuentren en contradicción con ella. A continuación tratamos de decidir en lo que se refiere a estos enunciados deducidos (y a otros), comparándolos con los resultados de las aplicaciones prácticas y de experimentos. Si las conclusiones singulares resultan ser aceptables, o verificadas, la teoría a que nos referimos ha pasado con éxito las contrastaciones: no hemos encontrado razones para desecharla. Pero si la decisión es negativa, o sea, si las conclusiones han sido falsadas, esta falsación revela que la teoría de la que se han deducido lógicamente es también falsa.

Conviene observar que una decisión positiva puede apoyar a la teoría examinada sólo temporalmente, pues otras decisiones negativas subsiguientes pueden siempre derrocarla. Durante el tiempo en que una teoría resiste contrastaciones exigentes y minuciosas, podemos decir que ha “demostrado su temple” o que está “corroborada” por la experiencia.

En el procedimiento que acabamos de esbozar no aparece nada que pueda asemejarse a la lógica inductiva. En ningún momento se ha asumido que podamos pasar por un razonamiento de la verdad de enunciados singulares a la verdad de teorías. Tampoco se ha supuesto que en virtud de unas condiciones “verificadas”, pueda establecerse que unas teorías sean “verdaderas”, ni siquiera meramente “probables”.

Iremos profundizando en entradas sucesivas, haciendo especial hincapié en los siguientes temas:

  • La verificación y la confirmación.
  • El falsacionismo de Popper.
  • Los experimentos cruciales y el problema de la carga teórica.
  • Convencionalismo, holismo y falsacionismo refinado.

El enfoque comunicativo de P. Achinstein

Achinstein plantea la explicación científica como un acto ilocucionario. Considera que el tema de la explicación científica es sumamente complejo ya que intervienen varios factores, desde la estructura lógica hasta los criterios de evaluación de las explicaciones.

Achinstein reinterpreta algunas de las teorías de la explicación (Hempel, Salmon y Brody) desde su propia concepción. Así su idea central es que la explicación científica constituye un acto ilocucionario, en el que pueden distinguirse el acto de explicación y el producto de dicho acto. Por tanto hay tres cuestiones que han de tenerse en cuenta en la explicación científica:

  1. ¿Qué es un acto de explicación?

  2. ¿Qué es el producto de una explicación?

  3. ¿Cómo deben evaluarse los productos de una explicación?

Los modelos de explicación propuestos hasta el momento se han centrado en los productos de la explicación: el modelo nomológico-deductivo de Hempel, el modelo de relevancia estadística de Salmon y la teoría pragmática de Van Fraassen responden a la segunda pregunta. En cambio, el criterio de poder unificador con el que hay que valorar una explicación propuesto por Kitcher respondería a la tercera. Todos estos modelos abordarían aspectos parciales de la explicación científica.

Achinstein duda de que exista un modelo de explicación si este debe ajustarse al conjunto de condiciones necesarias para determinar que el explanans explica el explanandum.

La adecuación de las teorías de Hempel ha sido discutida por otro autores en cuanto a las relaciones con las predicciones. A lo que él recurre es a la mala interpretación de las predicaciones.

Dos requisitos del modelo explicativo pueden ser:

  • Ningún conjunto de oraciones del explanans puede implicar el explananduns.

  • La única condición (empírica) del explanas es la de ser verdadera.

El resto de las condiciones son a posteriori. En el modelo N-D no funciona la condición citada, por lo que además de la verdad del explanans deben reunirse otros factores empíricos.

El modelo de Salmon exige condiciones empíricas a posteriori. El formato del modelo es el de relevancia estadística. El modelo de Salmon predice la probabilidad del explanadum.

Brody en cambio plantea un requisito en el que si el explanans corresponde a un enunciado que atribuye una propiedad esencial a una clase de objetos, el explanandum ha de estar en esa clase.

Las principales objeciones al modelo de Salmon fueron realizadas:

  • Van Fraassen: opone a Salmon que la mera relevancia estadística no es condición suficiente.

  • Cartwright y Achinstein: la relevancia estadística para ellos tampoco es condición necesaria.

Hay teorías en cualquier caso (o hechos) que no demandan explicación (o no pueden ser explicadas por lo que no pueden ser determinadas a priori.

Posibilidad de la existencia de un modelo de explicación

Un modelo de explicación sería un conjunto de condiciones bajo las cuales el explanans explicaría correcta y unívocamente el explanandum.

  • Condiciones a priori de los modelos de explicación. Según Achinstein sólo hay una condición a priori: un explanans explica potencialmente a un explanandum sólo si hay una ley universal o estadística válida que relacione al explanans con el explanandum.

  • Condiciones no a priori de los modelos de explicación. También siguiendo a Achinstein dos serían las condiciones no a priori (empíricas):

    • que el conjunto de enunciados del explanans pueda implicar el explanandum

    • la única consideración empírica del explanans es que sea verdadero

Para evitar la paradoja de la muerte en 24 horas después de ingerir arsénico quizá fuese necesario añadir que el explanandum debe ser verdadero (no tiene sentido explicar un hecho falso: quien ingirió arsénico se murió por accidente de coche al ir al hospital).

En el modelo de la propiedad esencial, Brody establece que el explanans atribuye alguna propiedad esencial a una cierta clase de objetos y que el explanandum contiene al menos uno de dicha clase de objetos.

En el modelo de la relevancia estadística, Salmon establece un modelo a partir de enunciados probabilísticos en el explanans mediante el que no se puede predecir el explanandum pero sí su probabilidad.

Van Fraassen objeta a Salmon aduciendo que la mera relevancia estadística no es suficiente. La muerte o la supervivencia de las malas hierbas después de aplicar un herbicida con el 90% de efectividad queda explicada por el mismo conjunto de enunciados del explanans (paradoja de la realización de lo improbable).

El modelo de explicación de Kitcher

Algunas de las teorías de la explicación científica parten, no del establecimiento de la estructura lógica requerida (Hempel, Salmon), sino de la introducción de algún criterio epistemológico a partir del cual se puedan evaluar las explicaciones de un fenómeno dado.

Tal es el caso de P. Kitcher, para el que el valor explicativo de una teoría reside en su poder unificador. Esta idea, según Kitcher, se encuentra en la versión no oficial de la concepción heredada sobre explicación científica frente a la oficial del modelo de ley cubriente o modelo nomológico-deductivo. Incluso podríamos encontrar este criterio, de forma implícita, en otras concepciones sobre la explicación científica, pero es Kitcher quien formaliza y define con rigor este criterio.

El análisis del poder unificador de las leyes y teorías científicas supone la introducción de una serie de conceptos previos que Kitcher define con precisión. Así, en un momento de la historia de una disciplina puede delimitarse:

  • K: el conjunto de sentencias aceptadas y supuestamente consistentes

  • Almacén explicativo: es el conjunto de argumentos disponibles para llevar a cabo los propósitos explicativos.

  • E(K): es el almacén explicativo formado a partir de K. Podemos definirlo como el conjunto de argumentos aceptables , o sea, como la base para los actos de explicación en que las creencias son exactamente miembros de K.

Una teoría unifica nuestras creencias cuando proporciona un/os patrón/es de argumentos que puedan ser utilizados en la derivación de un amplio número de sentencias que aceptamos. Por tanto, la noción de patrón argumentativo es fundamental para la unificación.

Entender el concepto de explicación es ver que si se acepta un argumento como explicativo, entonces uno se compromete a aceptar como explicativo otros argumentos que son instancias del mismo patrón argumentativo. El problema de la explicación es especificar qué conjunto de argumentos tenemos que aceptar para explicar un fenómeno, dado que sostenemos que una serie de sentencias son verdaderas.

Según Kitcher, una teoría de la explicación debe cumplir los siguientes requisitos:

  • En primer lugar, deseamos entender y evaluar el reclamo ampliamente extendido de que las ciencias naturales no nos brindan meramente un apilamiento de aspectos de conocimiento inconexos con mayor o menor significación práctica; por el contrario aumentan nuestro conocimiento del mundo. Una teoría de la explicación debe mostrarnos cómo la explicación científica incrementa nuestro conocimiento.

  • En segundo lugar, una teoría de la explicación debe permitirnos ser capaces de comprender y arbitrar en las disputas de la ciencia del pasado y del presente. A menudo se realiza una defensa de las teorías embriogénicas apelando a su poder explicatorio. Una teoría de la explicación debe ser capaz de juzgar lo adecuado de dicha defensa.

Kitcher considera que su teoría de la explicación como unificación se encuentra en inmejorables condiciones para dar respuesta a ambos requisitos. Aunque él mismo reconoce que la tarea es ardua, se limita a diseñar el marco dentro del cual emerge esta noción de unificación: una teoría puede unificar nuestras creencias cuando nos provee de uno o más patrones de argumentación, los cuales pueden ser utilizados en la derivación de un gran número de proposiciones cuya aceptación para nosotros se encuentra justificada. Pero esta propuesta se encuentra a otro tipo de problemas: ¿del hecho de que una teoría explique una diversidad de fenómenos, en el sentido de patrones de unificación, se sigue que tenemos razones para aceptarla?¿Cuál es el vínculo que se establece entre la noción de patrones de unificación y por ejemplo, el concepto de verdad o el de adecuación empírica?

Aparte de las posibles críticas que puedan hacérsele a Kitcher, el mismo reflexiona en un pie de página evitando muchas de esas posibles críticas:

“Creo que esta concepción de la explicación presentada en el presente artículo podría extenderse para cubrir respuestas explicativas a otros tipos de preguntas, tales como preguntas de cómo. Pero quiero rechazar la afirmación de que la unificación es pertinente para todo tipo de explicación”

Esto quiere decir que un caso histórico que no encaje con este criterio no constituye un contraejemplo para Kitcher.

La intuición básica que inspira el modelo de explicación como unificación es que explicar consiste en “reducir la cantidad de fenómenos independientes que tenemos que aceptar como últimos”. Aumentamos nuestra comprensión del mundo reduciendo el número de supuestos básicos que dan cuenta de los fenómenos. Las leyes de Newton explican las de Kepler porque, además de implicarlas, reducen la cantidad de regularidades que se aceptan independientemente unas de otras: antes de la explicación, las leyes de Kepler y, p.e., la de Galileo eran aceptadas independientemente unas de otras, después no; la reducción de la temperatura a la energía cinética media amplía todavía más ese proceso de unificación explicativa. Contrariamente, la mera conjunción de, p.e. las leyes de Kepler con la de Boyle no es una explicación de las primeras porque no produce ese efecto unificador, no permite simplificar la cantidad de supuestos primitivos. Esta noción de explicación está esencialmente relativizada a un cuerpo K de creencias aceptadas en un momento dado, y exige una elucidación precisa de la independiente aceptabilidad entre creencias. Quien ha desarrollado con más detalle este modelo ha sido P. Kitcher mediante sus nociones de patrón argumentativo y “almacén” explicativo (‘explanatory store’) (1981,1989, 1993), caracterizando el poder unificador en función de:

  • la cantidad de fenómenos derivados por el conjunto de patrones argumentativos,

  • el rigor de los patrones y

  • el número de patrones.

Simetría, irrelevancia y horquillas

El modelo unificacionista tiene su propio modo de dar cuenta de los casos de simetría, irrelevancia y horquillas. La estrategia es mostrar que, dadas dos inferencias alternativas, será explicativa la que pertenezca a la sistematización más unificadora, y que esta comparación arroja en los casos en consideración los resultados intuitivamente esperados.

  • Horquillas: la sistematización que deriva la bajada del barómetro y la ocurrencia de la tormenta a partir del descenso de la presión es más unificadora que la que deriva la ocurrencia de la tormenta a partir del descenso del barómetro.

  • Simetría: la altura del mástil explica la longitud de la sombra y no al revés pues dadas dos sistematizaciones, una que contenga inferencias que parten de la altura del mástil y conducen hasta la longitud de la sombra, y otra que contenga inferencias que proceden al revés, la primera es más unificadora que la segunda; si la segunda no tiene otro tipo de inferencias, pierde algunas conclusiones pues no podrá establecer, p.e. la altura de mástiles de noche, o en días nubosos, etc; para recuperar esas conclusiones debería de introducir nuevos patrones argumentativos.

  • Irrelevancia: una sistematización que contiene derivaciones del no embarazo de Juan usando como premisa que Juan toma pastillas anticonceptivas no puede ser la mejor pues, o bien no explica que otros varones que no toman pastillas tampoco se quedan embarazados, o si lo explica deberá introducir nuevos patrones que también se aplicarán a Juan, con lo que podríamos prescindir de las primeras inferencias obteniendo una sistematización con menos patrones, más unificada.

Como reconoce Kitcher, estos dos últimos casos requieren que las sistematizaciones no usen predicados no proyectables.

El modelo unificacionista no sólo aplica a hechos generales

Aunque el modelo unificacionista se aplica más naturalmente a explicaciones de hechos generales, se puede aplicar también a hechos particulares considerando estos casos derivativos de aquellos: “La pregunta ‘¿por qué este objeto particular se comporta de este particular modo?’ es transformada en la pregunta ‘¿por qué objetos ideales de este tipo general exhiben esas propiedades?’”.

Por otro lado, para este modelo no representan en principio ningún problema las explicaciones de hechos probabilistas, siempre que se puedan inferir de ciertos patrones, ni las explicaciones intuitivamente no causales, pues no se compromete con ningún tipo de mecanismo específico que expresen los patrones argumentativos. El modelo unificacionista debe afrontar, principalmente, dos retos. El primero es el de proporcionar un criterio adecuado de ponderación entre los parámetros (a)-(c) que determinan la simplicidad comparativa. El segundo es el de recoger un sentido suficientemente fuerte de la objetividad de las explicaciones.

Acabamos de ver que para descartar, por ejemplo, la explicación del no embarazo de Juan a partir de su ingestión de anticonceptivos, debemos excluir que la sistematización use predicados no proyectables. Sin embargo, la elucidación independiente de cuándo un predicado es proyectable o natural constituye un problema en sí mismo. Para unos ello nos retrotrae al problema de la causalidad, en cuyo caso estaríamos implícitamente ante análisis causalistas, que serán realistas o antirrealistas dependiendo de cómo se analice a su vez la causalidad. Para otros, tal elucidación sólo puede ser epistémica o pragmática, en este caso el análisis suele ser, aunque no siempre se reconozca, de corte antirrealista.

Compatibilidad con Van Fraassen

Vamos ahora a explorar las diversas posibilidades de compatibilidad entre ambos modelos. Para ello utilizaremos ocasionalmente el esquema que van Fraassen (1977) ofrece de los contextos explicativos, esquema que pone de manifiesto los diversos parámetros involucrados en una explicación y que cada modelo fija de un modo específico. Cada uno de tales contextos consiste al menos en una pregunta por qué, por ejemplo,“¿por qué Adán comió la manzana?”, “¿por qué el alcalde contrajo paresis?”. Esta pregunta es el tema. Con el tema sólo, sin embargo, no basta, pues no expresa el aspecto por el que se demanda explicación. En el primer caso, por ejemplo, tenemos tres alternativas: “¿por qué Adán (y no Eva, o la serpiente, o…) comió la manzana?”, “¿por qué Adán comió (y no rechazó, o …) la manzana?”, “¿por qué Adán comió la manzana (y no una pera, u otra manzana, o …)?”. Así, junto al tema debe incluirse (usualmente de modo implícito determinado por el contexto), una clase de alternativas, la clase de contraste, frente a las que se contrapone el hecho por cuya razón se inquiere: “¿por qué α , contrariamente a ß1, ß2,…?”. En opinión de Van Fraassen, el tema α y la clase de contraste X no bastan, sin embargo, para identificar completamente la demanda de explicación pues, incluso fijada X, puede haber varios tipos de respuesta adecuada dependiendo de qué relación se considere en ese contexto que es la relevante para poder considerar a una respuesta una explicación adecuada. Hasta que el contexto no determina el tipo de respuesta que se considera explicativa la demanda de explicación está indeterminada.

Junto con el tema y la clase de contraste hay que incluir entonces una relación de relevancia explicativa, R. Así, podemos representar un contexto explicativo mediante una terna Q=<α, X, R >, donde α es el tema y X y R son, respectivamente, la clase de contraste y la relación de relevancia explicativa determinadas por el contexto. En algunos contextos, como los científicos en períodos de ciencia normal, están fijados con bastante rigidez, pero en otros pueden ser muy variables.