Posts etiquetados ‘Teorías’

Hay que considerar las teorías como totalidades estructurales

Las concepciones inductivistas y falsacionistas de la ciencia son muy poco sistemáticas. Al concentrarse en las relaciones entre teorías y enunciados observacionales individuales o conjuntos de éstos, no tienen en cuenta la complejidad de las principales teorías científicas. Para dar una idea más adecuada hay que considerar las teorías como totalidades estructuradas de algún tipo.

El estudio histórico revela que la evolución y el progreso de las principales ciencias muestran una estructura que no captan ni la concepción inductivista ni la falsacionista. El argumento histórico no es la única base para afirmar que las teorías son totalidades estructurales de algún tipo. Hay otro argumento filosófico más general íntimamente vinculado al hecho de que la observación depende de la teoría. En La Observación depende de la Teoría se subrayó que los enunciados observacionales se deben formular en el lenguaje de alguna teoría, y serán tan precisos e informativos como precisa e informativa sea la teoría en cuyo lenguaje se construyen.

Si la estrecha conexión que se establece entre la precisión del significado de un término o enunciado y el papel desempeñado por ese término es válida, se desprende directamente la necesidad de teorías coherentemente estructuradas.

Puede resultar más plausible observando las limitaciones de alternativas en las que un concepto adquiere significado. Una de las alternativas es  La definición. Los conceptos sólo se pueden definir en función de otros conceptos cuyos significados están ya dados. Si los significados de estos últimos conceptos son también establecidos por definición, es evidente que se producirá una regresión infinita a menos que se conozcan por otros medios los significados de algunos términos.

Una segunda alternativa sería a través de la observación, mediante definiciones ostensibles. No se llegará al concepto de “masa” a través de la sola observación, por mucho que se escudriñen bolas de billar que colisionan, pesos en resortes, planetas que giran, etc., ni será posible enseñar a los demás el signficado de “masa” señalando simplemente estos acontecimientos.

Por lo tanto, dos son las razones por las cuales hay que considerar a las teorías como estructuras organizadas de algún tipo:

  • el hecho de que el estudio histórico muestra que las teorías poseen esa característica y
  • el hecho de que los conceptos solamente adquieren un significado preciso mediante una teoría coehrentemente estructurada.
  • Una tercera razón surge de la necesidad de desarrollo por parte de la ciencia. Es evidente que la ciencia avanzará de modo más eficaz si las teorías están estructuradas de manera que contengan en ellas prescripciones e indicaciones muy claras con respecto a cómo se deben dearrollar y ampliar.

Los programas de investigación de Lakatos

Un notable intento de analizar las teorías como estructuras organizadas es el de Imre Lakatos con su “Methodology of scientific research programmes“.

Un programa de investigación lakatosiano es una estructura que sirve de guía a la futura investigación tanto de modo positivo como de modo negativo. La heurística negativa de un programa conlleva la estipulación de que no se pueden rechazar ni modificar los supuestos básicos subyacentes al programa, su núcleo central. Está protegido de la falsación mediante un cinturón protector de hipótesis auxiliares, condiciones iniciales, etc. La heurística positiva está compuesta por líneas maestras que indican cómo se puede desarrollar el programa de investigación, lo que conllevará completar el núcleo central con supuestos adicionales en un intento de explicar fenómenos previamente conocidos y de predecir fenómenos nuevos. Los programas de investigación serán progresistas o degeneradores según consigan o no conducir al descubrimiento de fenómenos nuevos. Espera un momento, que lo detallamos.

La característica definitoria de un programa es su núcleo central. Son hipótesis teóricas muy generales que constituyen la base a partir de la cual se desarrolla el programa. El núcleo central de la física newtoniana está compuesto por las leyes del movimiento de Newton más su ley de atracción gravitatoria.

Cualquier insuficiencia en la confrontación entre un programa de investigación articulado y los datos observacionales no se ha de atribuir a los supuestos que constituyen el núcleo central, sino a alguna otra parte de la estructura teórica. Es a lo que Lakatos se refiere como cinturón protector. No sólo hipótesis auxiliares explícitas que completan el núcleo central, sino además supuestos subyacentes a la descripción de las condiciones iniciales y enunciados observacionales.

Cualquier científico que modifique el núcleo central se apartará de ese determinado programa de investigación. Tycho Brahe se apartó del programa de investigación copernicano.

El hincapié de Lakatos en la necesidad que tienen los científicos de decidir aceptar su núcleo central, tiene mucho en común con la postura de Popper acerca de los enunciados observacionales que se analizó en  Las limitaciones del falsacionismo. En Popper las decisiones sólo conciernen a la aceptación de los enunciados singulares, en Lakatos el mecanismo se extiende hasta ser aplicable a los enunciados universales que constituyen el núcleo.

Tenemos por tanto dos maneras de valorar el mérito de un programa de investigación.

  • En primer lugar, un programa debe poseer un grado de coherencia que conlleve la elaboración de un programa definido para la investigación futura.
  • En segundo término, debe conducir al descubrimiento de nuevos fenómenos al menos de vez en cuando.

Un programa de investigación debe satisfacer ambas condiciones si pretende calificarse de científico.

La metodología dentro de un programa de investigación

Dentro del marco conceptual de Lakatos, hay que tratar la metodología desde dos puntos de vista: uno se refiere al trabajo realizado dentro de un solo programa de investigación, y el otro a la comparación de los méritos de programas de investigación rivales.

Dentro supone la expansión y modificación de su cinturón protector, añadiendo y articulando diversas hipótesis. Se puede permitir cualquier maniobra mientras no sea ad hoc en el sentido que explicamos en El falsacionismo sofisticado, las nuevas predicciones y el desarrollo de la ciencia, deben ser comprobadas de forma independiente.

Hay dos tipos de maniobras que excluye la metodología de Lakatos: las hipótesis ad hoc, que no son comprobables de manera independiente, y las que van contra el núcleo central.

El orden se mantiene gracias a la inviolabilidad del núcleo central de un programa y a la heurística positiva que lo acompaña. Las conjeturas ingeniosas dentro de ese marco le llevará a progresar siempre que alguna de las predicciones resultantes tengan éxito de vez en cuando. Los resultados de las comprobaciones experimentales son los que determinan de modo muy sencillo las decisiones de mantener o rechazar una hipótesis.

La comparación de los programas de investigación

La comparación de programas de investigación rivales es más problemática. Los méritos relativos se tienen que juzgar por la medida en que dichos programas progresan o degeneran.

Una dificultad importante de ese criterio de aceptación y rechazo de los programas de investigación va unida al factor tiempo. ¿Cuánto tiempo debe pasar hasta que se pueda decidir que un programa de investigación ha degenerado gravemente, que es incapaz de llevar al descubrimiento de nuevos fenómenos?

Dentro de la explicación de Lakatos, no se puede decir nunca de modo absoluto que un programa de investigación es mejor que otro rival. Sólo se pueden decidir los méritos relativos de dos programas retrospectivamente.

Lakatos no consiguió ofrecer un criterio claro para rechazar un programa de investigación coherente o para elegir entre programas de investigación rivales.

Algo que para nosotros es tan evidente, como leer y escribir, implican procesos profundamente sociales y psicológicos que conectan los pensamientos, las percepciones, las experiencias y los proyectos de la gente con colectividades más amplias de acción y creencias organizadas. En concreto, la escritura es un medio de comunicación entre las personas, que trasciende el tiempo y el espacio.

Jack Goody, antropólogo inglés del siglo pasado, realizó un trabajo pionero acerca de las consecuencias de la lectura y la escritura en la conformación del pensamiento. Goody tenía claro que las prácticas culturales afectan, no solo el desarrollo de los individuos y a sus modos de pensar, sino también la vida comunitaria. Por esta razón, estaba dispuesto a contribuir a la discusión de las consecuencias cognitivas del uso del lenguaje escrito, sin por ello olvidar las importantes consecuencias sociales y culturales de estas prácticas. Su descripción de cómo la alfabetización ha influenciado la organización de la sociedad provee el punto de partida para la comprensión tanto de la complejidad de la vida social moderna, como de la manera en que ésta se mantiene y evoluciona a través de las prácticas escriturales. Las palabras escritas mueven las mentes, las mentes mueven a las personas y las personas mueven el mundo, social y material.

Entrando en harina

La conciencia depende del conocimiento externo. El conocimiento externo depende de las acciones que el sujeto realiza y ensaya sobre su entorno. Piaget dixit. Ese conocimiento es mediado y organizado en parte por el lenguaje, conforme éste es adquirido, y por cualesquiera recursos que se empleen para la comunicación y la representación. Entre estos recursos destaca con autoridad la escritura. La posesión o no de la escritura es un factor determinante de las formas del pensamiento.

Goody rechaza que las construcciones intelectuales de las culturas llamadas “primitivas” tengan como único objeto orientar a los seres humanos en la satisfacción de sus necesidades materiales o pragmáticas. Dice que la distinción entre necesidades pragmáticas y espirituales es una distinción occidental y que en realidad curar un dolor de muelas es una tarea intelectual que en muchas culturas requiere ajustar tanto las relaciones del hombre con su entorno como con el universo moral y sobrenatural. Curioso.

Para Goody, no sólo hay que considerar los modos de comunicación, sino la manera como esos medios son explotados y dominados socialmente. Marx andaba por ahí cerca cual musa juguetona inspirándole, ya que el paralelismo con los medios de producción es evidente. Esto qué significa, un ejemplo muy claro, ¿has leido alguna vez un documento jurídico? L@s juristas no cuentan para responder a esta pregunta. Habrás comprobado que el lenguaje, escrito, utilizado es realmente farragoso y críptico. Con el uso de este tipo de lenguaje se establece una barrera para separar diferentes grupos sociales. Las condiciones sociales del uso de la escritura son muy variadas, y la diversidad de sistemas de escritura permitirían diferentes procesos cognitivos.

Goody trata de explicar diferentes características atribuidas al pensamiento concreto o prelógico recurriendo a diferencias en el modo de comunicación. Hablamos de características como la inferencia lógica, el razonamiento aritmético  y en cierto sentido, la clasificación.

Para Goody más que tradicional y moderno, los términos que deberían oponerse son oral y escrito. Recordad que cuando hablábamos de Horton, decía que el pensamiento tradicional carecía de alternativas intelectuales. Pero es un hecho evidente que la conciencia de las alternativas es más verosimil en culturas con escritura, donde se puede proporcionar un acceso individual al conocimiento, no sólo de tu cultura, sino de otras culturas y otras épocas. Esto es lo que hace a uno verdaderamente consciente de las diferencias y de las alternativas.

Bondades del lenguaje escrito

Cuando una expresión se pone por escrito, puede ser inspeccionada con mucho mayor detalle, tanto en sus partes como en conjunto, tanto fuera de su contexto como en su lugar. El lenguaje escrito puede ser escrutado y criticado de manera bastante diferente a cómo puede serlo el lenguaje verbal. La escritura hace al habla objetiva, al convertirla en un trozo de inspección tanto visual como auditiva.

Es aquí donde se encuentra, al menos de manera parcial, el origen de la lógica y de la filosofía. La lógica está estrechamente unida a la escritura en su sentido formal, ya que la formalización de proposiciones, abstraída desde el flujo del habla y dada en letras o números, nos conduce al silogismo. La lógica simbólica y el álgebra, dejando a parte el cálculo, son inconcebibles sin la existencia previa de la escritura. Las sociedades tradicionales no están marcadas tanto por la ausencia de pensamiento reflexivo como por la ausencia de herramientas propias de la meditación constructiva.

Las operaciones aritméticas se realizan de manera diferente en las culturas que poseen un sistema para la representación gráfica de las operaciones que en aquellas que carecen de él, y en particular la división es prácticamente imposible en culturas ágrafas. Las operaciones aritméticas en las culturas orales están especialmente ligadas a la naturaleza de los objetos sobre los que se busca el resultado aritmético. No se cuentan o suman igual conchas de cauri que vacas. De este modo se puede decir que la aritmética de estas culturas consta de ejercicios de pensamiento concreto.

Según Goody, la actitud mágica hacia las palabras es más fácil de encontrar en las culturas orales porque el lenguaje está más próximo a las ocasiones materiales de uso, mientras que en un texto escrito, en el cual la palabra está divorciada de la ocasión, es más fácil apreciar que carece de poder sobre la materia. Aunque en algunos “sistemas”  la palabra escrita tiene mayor poder sobre la materia que la palabra hablada. Volvemos al ámbito jurídico. Las multas, decretos, etc. parecen tener un gran poder sobre la materia y no tiene nada de particular que a partir de esto haya quien forme la creencia de que se puede extender ese poder a voluntad de ciertas personas, como así ocurre de hecho, aunque no de la manera como imaginan los clientes o usuarios del mago.

Lenguaje escrito y ciencia

El uso reflexivo de los conceptos que facilita la escritura, tiene un gran papel en la ciencia. Kuhn dice, entre otras cosas, que el lenguaje de la ciencia sí está conectado a las ocasiones de uso, y que éstas no se pueden descomponer, sino que poseen la estructura que alguna teoría permite describir, de manera que un vocabulario altamente teórico puede estar ligado a ocasiones y ejemplos muy concretos.

La importancia de la situación concreta en el uso de las palabras está ilustrada por la importancia que tienen los instrumentos y las representaciones gráficas en la ciencia. Cuando existe una teoría explicativa de un instrumento o de una situación experimental, ésta se puede representar mediante diagramas muy idealizados y simplificados. A este tipo de ocasiones se refiere Kuhn cuando habla de cómo se adquiere el compromiso con un paradigma durante la educación del científico. Pero cuando la situación experimental o el instrumento no están explicados por una teoría compartida, el realismo de las representaciones se acentúa, y la materialidad de los objetos cobra mayor importancia en quienes se comprometen con ellos, por ejemplo en su uso como instrumentos científicos.

Episodios de este tipo han ocurrido en la historia de la ciencia. Durante algún tiempo la óptica de Newton dependía según sus detractores de los prismas particulares que Newton usaba. No se podía pedir a un óptico que se comprometiera con una representación esquemática de un prisma óptico.

Por otro lado, en las culturas “frías”, como las llama Lévi-Strauss, no parece existir una especulación sobre las entidades que componen el mundo sobrenatural. Se trata de aquellas sociedades que organizan sistemas de clasificación y de concepción con los cuales se resisten al paso del tiempo, tratan de contener, de exorcizar el transcurrir del tiempo a partir de determinados conceptos y determinados rituales que están destinados a preservar la estructura y el orden que la comunidad se ha dado más allá de los cambios que el tiempo impone.

Goody no discute las relaciones de la teorización científica con la tecnología ni con el mundo empírico como un rasgo especial de la ciencia moderna, y por lo tanto tampoco se siente obligado a decir nada sobre las relaciones entre las entidades sobrenaturales y el mundo en el que viven quienes las invocan con ocasión de enfermedades o parentesco o lo que sea. Goody declara que no es relativista radical, pero relativista o no, no basta con decir que las entidades sobrenaturales simplemente forman parte de ese mundo, es necesario mostrar qué papel desempeñan en la curación de enfermedades, en el inicio de las guerras, en el castigo del crimen, en los ritos de paso, etc.

Aunque Goody reconoce que la escritura no es el único factor a tener en cuenta en el origen de la ciencia, ni las diferencias entre culturas con y sin escritura explican todas las diferencias, en la medida en que pretende excluir otras explicaciones dadas por antropólogos anteriores, a su trabajo le falta para ser convincente explorar el papel del mundo de lo invisible en las culturas orales.

Con Goody terminamos la primera parte de este recorrido a través de la Filosofía de la Ciencia. Si quieres ver el contenido completo de lo que se irá publicando, lo encontrarás en Epistemología

A finales de Octubre comenzaremos el segundo bloque, que tratará sobre la historia del pensamiento sobre el método. La inducción y deducción aristotélica, la deducción euclidiana, el método cartesiano, el inductivismo de Mill y el positivismo lógico.

Mientras tanto, puedes encontrar todas las entradas recopiladas en Internauta Sin Pauta

Saludos Prelógicos

Filotecnóloga

El pensamiento clásico estaba presidido por la idea de necesidad: el destino y la justicia controlaban con férrea mano todo lo que sucedía en la naturaleza y entre los hombres, incluso los mismos dioses estaban sometidos a dicha necesidad. Con el pensamiento cristiano se introdujo la noción de un Dios voluntarista que rige el devenir del universo. Y en la Edad Media se enfrentan dos concepciones sobre la relación de la voluntad de Dios con las leyes naturales y morales: por un lado el intelectualismo, que tendía a conceder una validez absoluta a las leyes que dependían necesariamente del propio Dios y el voluntarismo que ponía el acento en la voluntad soberana de Dios que podía cambiar en cualquier momento dichas leyes. Una se basaba en la necesidad y la otra en su contingencia. Curioso que tanto Ockham como Descartes, creyesen en un Dios voluntarista.
La ciencia moderna de la naturaleza surge con una concepción determinista rigurosa de las leyes naturales. Laplace comentaba que todos los acontecimientos son una secuencia tan necesaria como las revoluciones del sol. Al ignorar los lazos que los unen al sistema total del universo, se los ha hecho depender de causas finales o del azar, según que ocurriese o se sucedieran con regularidad o sin orden aparente, pero estas causas imaginarias han ido siendo descartadas a medida que se han ido ampliando las fronteras de nuestro conocimiento y desaparecen por completo ante la seria filosofía que no ve en ellos más que la expresión de nuestra ignorancia de las verdaderas causas.
Esta concepción rigurosamente determinista ha sido cuestionada, debido especialmente a los descubrimientos de la mecánica cuántica y al papel que el azar desempeña en la termodinámica de los sistemas complejos. Todo esto nos lleva a la concepción de un mundo abierto en el que no todo está previsto y en el que azar y necesidad se combinan de forma creadora. La actitud determinista de la ciencia se encuentra una y otra vez ante la necesidad de admitir el indeterminismo efectivo de la realidad.
Y ahí apareció Prigogine, oponiendo un universo cuyas leyes básicas serían la inestabilidad, el azar y la irreversibilidad, un universo evolutivo cuya realidad no puede ser devuelta a la identidad. Prigogine, padre de la teoría del caos, decía, imitando a Sócrates desde la más absoluta convicción, que sabía muy poco. Comentaba que nos encontrábamos al final de la era de la ciencia inaugurada por Copérnico y Galileo, período tan glorioso como simplista, ya que la ciencia clásica se centraba en el equilibrio, el orden y la estabilidad. Hoy vemos fluctuaciones e inestabilidad por todas partes. Estamos empezando a ser conscientes de la complejidad inherente del universo. Estaba seguro de que la toma de esta conciencia era el primer paso hacia una nueva racionalidad.
Pero Prigogine no predicó sólo en el desierto. Von Neumann, sí, el de la máquina de Von Neumann que seguro te suena si eres un freak de los ordenadores, desarrolló una metodología de tratamiento abstracto que le permitió confrontar el problema extremadamente profundo y fundamental del determinismo vs. el no-determinismo y demostró un teorema de acuerdo con el cual es imposible que la mecánica cuántica sea derivada por aproximación estadística de una teoría determinista del mismo tipo de la utilizada en mecánica clásica. Aunque se equivocó, ayudó a demostrar posteriormente que la física cuántica requiere una noción de la realidad substancialmente diferente de la manejada en física clásica y que la mecánica cuántica también requiere una lógica substancialmente diferente de la lógica clásica.
Tampoco podemos desdeñar el aporte de Von Foerster, con su descubrimiento del principio del orden por el ruido, creación de un orden a partir del desorden. O de Atlan, que concibe la teoría del azar organizador. Se encuentra una dialógica orden/desorden/organización en el nacimiento del universo a partir de una agitación calórica (desorden) donde, bajo ciertas condiciones (encuentros de azar), ciertos principios de orden van a permitir la constitución de núcleos, de átomos, de galaxias y de estrellas. Más todavía, encontramos esta dialógica en el momento de la emergencia de la vida por encuentros entre macromoléculas en el seno de una especie de bucle autoproductor que terminará por convenirse en autoorganización viva. Bajo las formas más diversas, la dialógica entre el orden, el desorden y la organización, a través de innumerables interretroacciones, está constantemente en acción en los mundos físico, biológico y humano.
Pero no todos los científicos se adhieren a esta concepción indeterminista y azarosa del mundo: Einstein y Thom, en polémica con Prigogine, afirman el determinismo frente al indeterminismo cuántico y el ligado a los sistemas complejos. Thom recupera la noción de causalidad, no se puede prescindir de ella porque impregna nuestro lenguaje y nuestra visión del mundo, defiende por tanto una visión local del determinismo. Su causalidad busca más el rigor cualitativo en su modelización de la realidad que la precisión cuantitativa de las medidas. Piensa que hasta el indeterminismo de la mecánica cuántica se podría eliminar mediante la introducción de parámetros ocultos en número finito. El problema es que, hoy por hoy, no disponemos de una teoría local que elimine el determinismo y por ello es más realista aceptarlo.
En mi opinión, si hasta hace pocos años las ciencias tenían por modo de conocimiento la especialización y la abstracción, es decir, la reducción del conocimiento de un todo al conocimiento de las partes que lo componen, ahora las propiedades emergentes toman el relevo. Si el concepto clave era el determinismo, es decir, la ocultación del azar, de la novedad, y la aplicación de la lógica mecánica de la máquina artificial a los problemas de lo vivo y de lo social, ahora es la complejidad. Si antes todo estaba definido por la cadena infinita de causalidad, ahora es el caos y la incertidumbre los que deben pasar al estrado. ¿Cómo?
Con la teoría de la información disponemos de una herramienta que permite tratar la incertidumbre, la sorpresa, lo inesperado. Este concepto de información permite entrar en un universo donde hay, al mismo tiempo, orden (la redundancia) y desorden (el ruido) y extraer de ahí algo nuevo.
Con la cibernética estudiamos la estructura de los sistemas reguladores, de las máquinas autónomas. Fue con Wiener y Ashby, sus fundadores, cuando la complejidad entró de lleno en la ciencia. Y cuando la Cibernética reconoció la complejidad fue para rodearla, para ponerla entre paréntesis, pero sin negarla, para hacer epojé con ella al más puro estilo husserliano. La idea de retroacción, que introduce Norbert Wiener, rompe con el principio de causalidad lineal al introducir el principio de “bucle” causal. Literalmente manda a hacer gárgaras el determinismo. La causa actúa sobre el efecto,se retroalimenta. Y es justo este mecanismo de regulación el que permite la autonomía de un sistema. La homeostasis.
Y por supuesto, con la teoría de los sistemas, que sienta las bases de un pensamiento de la organización. El alma mater del enfoque sistémico es que “el todo es más que la suma de las partes”. Esto significa que existen cualidades emergentes, es decir; que nacen de la organización de un todo y que pueden retroactuar sobre las partes. Por otra parte, el todo es igualmente menos que la suma de las partes, puesto que las partes pueden tener cualidades que son inhibidas por la organización del conjunto.
El pensamiento complejo es, en esencia, el pensamiento que integra la incertidumbre y que es capaz de concebir la organización. Que es capaz de religar, de contextualizar, de globalizar, pero, al mismo tiempo, de reconocer lo singular y lo concreto.
La idea de complejidad estaba mucho más diseminada en el vocabulario común que en el científico. Llevaba siempre una connotación de advertencia al entendimiento, una puesta en guardia contra la clarificación, la simplificación, la reducción demasiado rápida. De hecho, la complejidad tenía también delimitado su terreno, pero sin la palabra misma, en la Filosofía: en un sentido, la dialéctica, y en el terreno lógico, la dialéctica hegeliana, eran su dominio, porque esa dialéctica introducía la contradicción y la transformación en el corazón de la identidad.
Aunque sea difícil incluso tendiendo asintóticamente a imposible, el conocimiento absoluto debe intentarse. El conocimiento del mundo en tanto que mundo deviene una necesidad intelectual y vital al mismo tiempo. Es un problema que se nos plantea a todos, todos los dias: cómo adquirir el acceso a las informaciones sobre el mundo y cómo adquirir la posibilidad de articularlas y de organizarlas. Los científicos tienen que cambiar la metodología de sus paradigmas. Los neófitos curiosos tenemos Internet. En ambos casos, sin una reforma del pensamiento corremos el riesgo de caer en la imbecilidad cognitiva. Independientemente de que el azar sea constituyente ontológico de la realidad o una consecuencia de la pobreza de nuestros medios de predicción, parece que en los sistemas complejos no es fácil librarse de él, así que mejor que lo integremos en nuestra visión del mundo como parte integrante e intrínsica. El caos y el azar son elementos esenciales del universo, exploremos pues sus potencialidades.

Lo que más quería en el mundo Einstein, además de a su segunda esposa que no le hacía preguntas sobre el trabajo, era conseguir una única teoría unificada para explicar todo el universo, desde lo macro más macro a lo micro más micro. Con su Relatividad General no lo consiguió, le faltó su poquito de cuántica y su poquito de incertidumbre.  Podríamos decir que la trimurti de la física actual la conforman Einstein, Planck y Heisenberg. También Euler tendría mucho que decir al respecto, ya que se le podría denominar el padre de la Teoría de Cuerdas, que a día de hoy es la respuesta al sueño de Einstein mas plausible. Si no ella, sus amigas más íntimas..las cinco Teoría de las Super Cuerdas o mejor aún, la Teoría M.

Como ya comenté en la entrada de Los ladrillos del universo, la Teoría de Cuerdas basa sus postulados en la existencia de unos hilos vibrantes de energía que compondrían todas las partículas de la materia. Cuando se empezó a trabajar con los hadrones allá por los 60, la teoría cuántica no podía con ellos. La interacción de partículas puntuales no correspondía a la interacción que manifestaban. Más bien se debería tratar de objetos extendidos en una dimensión, es decir, en vez de puntos, cuerdas.  Estas teorías entusiasmaron a los  físicos, sobre todo cuando se mostró que a bajas energías, donde las cuerdas se pueden considerar puntuales, la teoría reproducía la Relatividad General. Todo encajaba en un puzle sideral. Los modos de vibración que corresponderían a los gravitones, que son las partículas de la gravedad, a baja energía interactúan de acuerdo a las leyes de la Relatividad General. Y además no es posible que lo hagan de otro modo sin violar algún postulado básico de la teoría. De la misma manera en que la Relatividad General se reduce a la teoría de Newton para campos débiles, la teoría de cuerdas se reduce a la Relatividad General para bajas energías.

Hay numerosas teorías de partículas puntuales, pero sólo hay cinco tipos de teorías de cuerdas que pasan el test de consistencia matemática. Las cuerdas deben estar sujetas a las leyes de la relatividad y hay que desarrollar una mecánica cuántica de cuerdas. Sólo unos pocos modelos cumplen estos requisitos.

Pero al intentar aplicar a la teoría los postulados de la Mecánica Cuántica, se descubrió que el número de dimensiones del espacio tiempo debía ser 26, 25 dimensiones espaciales y el tiempo. Por primera vez una teoría predice el número de dimensiones del espacio-tiempo, pero bote pronto parece un poco absurda esta predicción. A esto habría que añadirle que entre todos los modos de vibración que aparecen hay uno que corresponde a una partícula cuya masa al cuadrado es negativa. Es decir, la masa no es un número real sino imaginario. Estas partículas se llaman taquiones y básicamente constituyen el eje del mal de las teorías cuánticas porque conducen a resultados ilógicos e inexplicables. Además, estas cuerdas que viven en 26 dimensiones sólo tienen grados de libertad bosónicos, no incluyen fermiones, y entonces no pueden explicar la materia que conocemos. Es decir, valía para poco.
Todos estos problemas se solucionaron agregando supersimetría a la teoría, es decir incorporando compañeros fermiónicos para cada bosón. Así se encontraron otras formulaciones que no contienen taquiones y no requieren tantas dimensiones para el espacio−tiempo. Estas son las cinco teorías de supercuerdas, que viven en 10 dimensiones espacio−temporales. Con todo esto, la teoría no podía responder una pregunta esencial. ¿Por qué nuestro universo es sólo una de las muchas soluciones de la teoría de cuerdas?

Partiendo de estas cinco Teorías de Cuerdas , Edward Witten llegó a una revolucionaria teoría de unificación llamada Teoría M. Definió elementos que no sólo podían ser cuerdas vibrantes (abiertas o cerradas) sino objetos de una dimensionalidad mayor a los que se les dió el nombre de membranas o p-branas. Al parecer nuestro universo podía ser una de esas membranas que flotan en un espacio de mayor dimensionalidad junto a otras membranas, que vendrían a representar a otros universos. Lo que distingue a las cuerdas de las p-branas es que la teoría cuántica de campos que describen objetos de una dimensión son renormalizables, mientras que para p>1, estas teorías son no renormalizables. La Teoría M añadió una dimensión más, quedando en 11 las dimensiones espcio temporales.

La teoría conceptualmente no es nueva. Salvando las distancias, esto ya lo decía Giordano Bruno hace la friolera de algo más de 400 años. Bruno hablaba de los multiversos y fué acusado por ello de hereje y quemado en la hoguera, curiosamente por la misma alma cándida que poco despues acusó a Galileo. ¡Angelico el Belarmino!

Cotilleos varios aparte, estas membranas podrían estar chocando indefinidamente entre sí, generando no sólo el Big-Bang que creó nuestro universo, sino muchos otros Big-Bangs con una frecuencia impredecible. Lo que viene siendo una orgía cósmica en todo su esplendor.

Una diferencia fundamental que distingue a la teoría M de cualquier teoría previa es que los principios no se ponen a dedo; son consecuencia matemática del modo particular de satisfacer las reglas de la mecánica cuántica. No hay ningún parámetro libre en la teoría M; no hay nada que se pueda ajustar. Todos los elementos de la teoría quedan determinados por la consistencia matemática. M predice que el espacio−tiempo tiene 11 dimensiones y es supersimétrico. Como el gravitón parece ser una característica inevitable de M, se puede decir que esta teoría explica por qué existe la gravedad.

Para ser verdaderamente exitosa la teoría debería tener una única solución a partir de la cual podamos saber qué tipos de partículas existen a bajas energías, sus masas, las intensidades de sus interacciones y probabilidades de todo tipo de procesos. Sólo realizando estos cálculos y comparándolos con el experimento podremos saber si M es correcta. Todavía no hay un test decisivo de la teoría, no  hay predicciones cuantitativas. Pero es la única candidata para ser la teoría madre. Se puede pensar en M como el embrión de la primera teoría matemáticamente satisfactoria de la gravedad cuántica unificada con las otras fuerzas fundamentales de la naturaleza.

La Teoría M es una muy buena candidata para cumplir el sueño del Einstein y convertirse en una Teoría del todo. Pero como no ha hecho ninguna predicción clara que pueda constrastarse empíricamente, el escepticismo que la rodea es espeso. Feynman llegó a decir que es un disparate. Pero ni Feynman es Belarmino, ni Witten  es Bruno, afortunadamente para los dos.