Posts etiquetados ‘Hempel’

El modelo de explicación funcional

El análisis de la forma de explicación funcional tiene una larga historia en la filosofía de la ciencia. No es fácil hacerle justicia a este tema en los límites que parecen adecuados para una introducción general. Sin duda hay aspectos del funcionalismo, lo mismo que de la teoría de sistemas o del organicismo, a los que se les puede encontrar claros antecedentes en el pensamiento de la antigüedad clásica, pero el funcionalismo como tal es un término que entra con fuerza en el discurso filosófico en el último cuarto delsiglo XIX y que, desde entonces, ha tenido una presencia creciente.

Lo primero que debemos tener en cuenta es que en el análisis funcional se suele adoptar el patrón de explicación funcional aunque el desarrollo de críticas formales muy precisas a ese tipo de explicación hayan llevado a cambios muy profundos en la teorización estructural-funcional. Es importante observar que muchos teóricos han señalado la enorme diversidad de contenidos a los que se aplica el término «función» y que muy poco o nada tienen que ver con la noción matemática de función. Por el contrario, normalmente con función hacemos referencia más bien al papel que tienen los elementos de un sistema para contribuir al sostenimiento de un estado persistente de dicho sistema.

Un momento fundamental en el análisis de este patrón de explicación por las consecuencias, y que se sitúa en torno a la segunda mitad del siglo pasado. En ese período apareció el artículo de E. Nagel «Una formalización del funcionalismo», recogido en su libro Lógica sin metafísica, y en el que se intentaban sistematizar las once tesis de Merton de 1949 sobre el análisis funcional. Nagel en esa formalización hace una referencia especial a las ciencias sociales.

Los resultados de ese trabajo fueron incorporados por Carl Hempel en 1959 en su artículo «Lógica del análisis funcional», que suele admitirse como el tratamiento estándar, desde la filosofía de la ciencia, de tal patrón de explicación. Según Hempel, el modelo de explicación funcional al pretender explicar la persistencia de un determinado rasgo resulta inadecuado porque supone el uso de la falacia de afirmación del consecuente, es decir, aceptar que al afirmar conjuntamente un enunciado condicional (A→B; p. ej., «si llueve, el suelo se mojará») y su consecuente (B; «el suelo se ha mojado») podemos concluir el antecedente (A; «ha llovido»); naturalmente, esta forma de razonar es una falacia porque puede suceder B sin que suceda A (p. ej., el suelo puede mojarse porque lo rieguen). Precisamente por incurrir en tal falacia no puede pretender tener carácter predictivo y, a lo sumo, puede ser una pauta con cierta utilidad heurística pero no explicativa.

Otra manera de resumir esta potente crítica de Hempel a la explicación funcional es decir que la presencia de un rasgo específico en un organismo, presencia que se pretende explicar por su función, no es en general una condición necesaria (o no se sabe que lo sea) para la realización de tal función. Una de las soluciones ofrecidas por Hempel, para mantener la adecuación formal de la explicación funcional, consistía en proponer la explicación de una clase funcional de rasgos —no de un único rasgo— que conduzcan a un mismo resultado. No se podría pretender la explicación de un ítem determinado sino de una familia de rasgos funcionales (cuyo conjunto si resultase necesario), aunque así el interés para la explicación en ciencia social aparecería muy disminuido, pues resulta mucho más complicado el análisis de un conjunto de rasgos, con muchas relaciones posibles entre sí y con otros factores externos.

El debate sobre las explicaciones teleológicas

En las explicaciones funcionales o teleológicas (aunque no son exactamente lo mismo) explicamos los acontecimientos a través de hechos que no están en el pasado sino en el futuro, es decir, la causa del hecho a explicar estaría en el futuro. También podría decirse que, en las circunstancias apropiadas, es recibir una explicación en términos del fin particular al cual se dirige un medio determinado.

Las explicaciones teleológicas, según afirma Nagel, centralizan la atención en las culminaciones y los productos de procesos específicos, y en particular en las contribuciones de varias partes de un sistema para mantener sus propiedades globales o modos de comportamiento.

En las explicaciones funcionales las consecuencias de algún comportamiento o de algún ordenamiento social son elementos esenciales de las causas de ese comportamiento. Un tipo común de este tipo de explicaciones en la vida cotidiana es el de la motivación.

Las teorías funcionales explican los fenómenos por sus consecuencias y pueden ser útiles para explicar los fenómenos sociales, porque hay muchas cadenas de causación inversa que seleccionan pautas de comportamiento por sus consecuencias, como ocurre con los procesos de evolución biológica y social, y con fenómenos de planeamiento individual y colectivo.

Las explicaciones funcionales son formas complejas de teorías causales e involucran conexiones entre variables con una prioridad causal especial de las consecuencias de la actividad a nivel de la explicación total. Pero no toda explicación funcional adopta el compromiso del holismo metodológico.

Desde el individualismo metodológico se ha mantenido que la base de las ciencias sociales son los actos de los sujetos, de tal manera que ya que los únicos que actúan y tienen intenciones son los sujetos, debe evitarse la pretensión de analizar las entidades supraindividuales como agentes sociales. La causalidad procede de lo individual a lo social; se ejerce a partir de los agentes humanos que tienen, por tanto, un papel explicativo fundamental. En cualquier caso son las unidades elementales, los actos de los individuos, los que permiten definir el origen de los hechos sociales entendidos como resultados de la acción de dichos agentes.

La utilización de un lenguaje teleológico normalmente ha tratado de reflejar la diferencia entre los seres vivos y la naturaleza inanimada. Como hace Nagel, es importante distinguir analíticamente entre adscripción de fines y adscripción de funciones. Para precisar que nos encontramos ante algún objetivo hacia el cual se orientan ciertas actividades de un organismo, resulta conveniente distinguir entre objetivos y funciones. Poco a poco los procesos dirigidos a fines han encontrado una forma de análisis; distinguir adecuadamente sus diversos tipos es muy conveniente para no caer en errores lógicos elementales. Ernest Nagel distingue tres tipos principales de procesos teleológicos.

  • El primero se refiere a la conducta propositiva de los humanos. El objetivo G(«goal») de una acción o proceso se dice que es algún estado de hechos pretendido por un agente humano. La intención en sí misma es un estado mental interno que, acoplado con el estado interno de querer G, junto con creer que una determinada acción A contribuye a la realización de G, se dice que es un determinante causal de realizar la acción A. La conducta dirigida a objetivo es la acción A realizada por el agente para lograr el objetivo. No es el objetivo lo que produce la acción, sino más bien las aspiraciones del agente, conjuntamente con su creencia de que la acción contribuirá a la realización de su objetivo. Pero utilizar este tipo de lenguaje resulta totalmente inadecuado cuando estamos tratando con organismos que son incapaces de tener intenciones y creencias. Por ello no nos puede extrañar que quienes adoptan esa forma teleológica de hablar tratan de adscribir intenciones a totalidades (holistas) como el sistema social, el capital o la burguesía.

  • Una segunda forma de proceso teleológico sería el que se ha llamado teleonómico, en el cual la «conducta o proceso debe su direccionalidad a la operación de un programa». Nagel lo llama perspectiva teleológica del programa o código. Estos casos son los que supuestamente vienen reflejados por el código genético y es en esta línea en la que se colocan algunas interpretaciones sociobiológicas. Pero un proceso que no tiene un fin programado no puede ser caracterizado adecuadamente como teleonómico, ya que, aunque esté controlado por un programa, ello no lo hace necesariamente dirigido a objetivo.

  • Se puede, sin embargo, hablar de otra tercera forma de analizar los procesos dirigidos a objetivos. Se trata de una perspectiva que procede de la teoría de sistemas o visión sistémica. Aquí consideramos que se encuentra la manera más interesante actualmente de abordar este tipo de procesos y es un espacio en el que el trabajo interdisciplinar entre diversas ciencias sociales y ciencias de la computación están produciendo resultados de mucho interés. Simplemente señalemos que hay tres propiedades centrales que deben tener los sistemas para que podamos caracterizarlos adecuadamente como dirigidos a objetivos

    • En primer lugar su plasticidad (la existencia de caminos alternativos para llegar al mismo resultado previsto

    • En segundo lugar la persistencia, es decir, que el sistema es capaz de mantener su conducta propositiva como resultado de cambios que ocurren en el sistema y que compensan cualquier desviación (interna o externa) que se haya producido dentro de ciertos límite

    • Y, en tercer lugar, la independencia (u ortogonalidad) de las variables, que quiere decir que dentro de ciertos límites los valores de cada variable en un momento dado deben resultar compatibles con cualesquiera valores de las otras variables en el mismo momento. Esta línea de pensamiento no dice simplemente que «todo esté relacionado con todo» (que es, como ha dicho Elster, el primer principio de la pseu-dociencia) sino que precisamente trata de aislar las variables que cumplan determinadas condiciones y que muestren ser las relevantes para conseguir mantener ese proceso orientado a fines

Las explicaciones teleológicas establecen una relación explicativa intenciones-fines y sostiene tres afirmaciones:

  • La explicación teleológica consiste en explicar un hecho presente por lo que ocurrirá en el futuro.
  • Es legítimo entender el fin en el sentido aristotélico de “causa final” con lo que la relación medios-fin se vuelve relación causal.
  • La explicación teleológica puede, de esa manera, reducirse a una explicación legaliforme.

Pero ninguna de estas tres afirmaciones describe adecuadamente la índole de la explicación teleológica.

  • En primer lugar en ella no se explica un hecho presente por lo que ocurriría en el futuro, se explica un hecho presente por algo que ocurre en el futuro, por la implementación de los medios a partir de las intenciones.
  • En segundo lugar la relación medios-fines no es asimilable a la relación causa-efecto

Si lo describimos en la forma de silogismo práctico:

  • a) la premisa mayor menciona una meta,
  • b) la premisa menor un acto conducente al logro de la meta, un medio dirigido al fin,
  • c) la conclusión consiste en el uso de ese medio para alcanzar el fin.

Obtenemos así el esquema de explicación teleológica:

  • A se propone dar lugar a p.
  • A considera que no puede dar lugar a p a menos que haga a.
  • Por consiguiente, A se dispone a hacer a.

No puede evaluarse en términos de validez lógica porque la verdad de las premisas no garantiza la verdad de la conclusión, puedo arrepentirme o cambiar de idea y no iniciar la acción.

Reconstrucciones formales de la explicación funcional

Elster ha sido el principal oponente de G. Cohen en la discusión interna al marxismo analítico, sobre la adecuación formal y material del funcionalismo. Elster mismo ha sintetizado el estado de la cuestión señalando cuatro versiones principales del funcionalismo. Para verlas en su complejidad resulta muy útil la reconstrucción siguiente.

Decimos que un fenómeno X se explica por su función Y para el grupo Z si y solamente si se cumplen todas estas condiciones:

  1. Y es un efecto de X

  2. Y es beneficiosa para Z

  3. Y no es pretendido por los actores al realizar X

  4. Y no es reconocido por los actores en Z

  5. Y mantiene X por la retroalimentación causal que pasa a través de Z

No todas las explicaciones funcionales satisfacen estos cinco enunciados; de hecho con frecuencia se cumple 1, 2, 3 y 5 pero no el criterio 4 (en ese caso se podría hablar de una especie de «selección artificial»): el fenómeno se mantiene porque el grupo lo considera beneficioso. En otros casos se cumple 1, 2, 3, y 4 pero no 5; en este caso, la falacia que se produce en el razonamiento funcionalista consiste en inferir la existencia del mecanismo de retroalimentación causal a partir de satisfacer los cuatro primeros criterios(del 1 al 4). Por ejemplo, se podría demostrar que la neutralidad aparente del Estado en las sociedades capitalistas contemporáneas satisface mejor los propósitos de los empresarios que un gobierno que tenga un sesgo social; a partir de esto, ciertos marxistas funcionalistas concluyen que este efecto beneficioso explica la neutralidad del Estado. Ahora bien, a menos que uno impute el mecanismo causal de retroalimentación a ciertas agencias de algún comité ejecutivo oculto de la burguesía, parece difícil ver cómo opera este mecanismo. En las ciencias sociales, la retroalimentación causal debe demostrarse más que postularse, a diferencia de lo que ocurre en biología donde la existencia de un efecto beneficioso parece que da una razón inmediata para pensar que es el producto de la selección natural, pues ésta proporciona un mecanismo general para una retroacción causal en la evolución de los seres vivos. De esta manera se pueden distinguir varias formas de funcionalismo:

  • a) En primer lugar tendríamos una variante ingenua del funcionalismo, que asume tácitamente que señalar las consecuencias beneficiosas de determinado efecto, resulta suficiente para establecer la explicación. Evidentemente esta variedad no sólo rechaza que las consecuencias puedan ser accidentales, sino que no cae en la cuenta de que aún cuando la conexión no fuese accidental podría no ser explicativa pues puede ser el caso de que tanto el explanans como el explanandum sean efectos conjuntos de una tercera variable.

  • b) Hay otros proponentes de la explicación funcional que defienden que puede ser el caso que tengamos un conocimiento general del mecanismo que está operando, aún cuando no seamos capaces de suministrar los detalles. Se trata de una extensión por analogía del papel jugado por la teoría de la selección natural en las explicaciones funcionales en biología. El tipo de crítica que se puede hacer a esta posición, que se ha defendido para analizar el cambio técnico mediante procesos de selección entre empresas, se relaciona con el papel del tiempo, pues no tienen en cuenta que la adaptación se refiere a un objetivo en movimiento (que se desplaza) y que los cambios en el entorno social y el ritmo de esos cambios puede producir que se provoque una respuesta inadecuada para la nueva situación. Si el proceso no es intencional no puede plantearse una orientación hacia las que puedan ser las condiciones del futuro, sino que se dirigirá siempre hacia la actual situación del objetivo. Algunas de las críticas a la economía del bienestar y sus dificultades para establecer el descuento del tiempo y tener en cuenta a las generaciones futuras ha sido unade las críticas desde cierto ecologismo a la teoría económica académica (posición de Martínez Alier).

  • c) Una tercera posición es la que defiende que la única explicación funcional completa, adecuada formal y materialmente, es aquella queofrezca los detalles completos del bucle de retroacción que fundamenta la explicación. Sin duda esta es una posición muy exigente y que, diciéndolo con términos de Nagel, reduce la explicación funcional a un tipo de explicación teleológica, dirigida hacia un objetivo y que, en aquellos casos en los que se puede sostener, no es más que un caso de explicación causal. En todo caso es preferible esta tercera posición que la primera ingenua, ya que puede sugerir vías de investigación que no caigan exclusivamente en la búsqueda de una explicación causal sino que puede tener que ver con el lugar de la explicación intencional en ciencias sociales.

  • d)La cuarta posición, entre las que ha sistematizado Jon Elster, sería precisamente la que se apoya en la ley de consecuencia en el sentido de Cohen, y aunque ni Elster ni Cohen han observado tal similitud, se corresponde en gran medida con la posición formulada precisamente por Nagel en 1977. En este caso las dificultades no se referirían a la estructura formal de la explicación, sino que las críticas tendrán que centrarse en los usos concretos y son en buena medida de carácter pragmático:

    • 1) no es frecuente disponer de casos que apoyen una cierta generalización inductiva, que nos hiciera plausible la adopción de la ley de consecuencia. Por ejemplo, el caso estudiado por Cohen sobre la explicación de las relaciones de producción en términos de su impacto beneficioso sobre las fuerzas productivas, que se intenta presentar como una explicación funcional, sería precisamente el único caso de la ley de consecuencia que explica ese mismo hecho. Esta objeción está siendo apoyada por algunas investigaciones sobre la transición del feudalismo al capitalismo, lo que se ha llamado la cuestión de R. Brenner, pues parece que el estudio apoyado en las transformaciones de las relaciones de propiedad suministra mayor clarificación y en un mayor número de casos que la supuesta explicación funcional del materialismo histórico a la Cohen.

    • 2) Por tanto aparece una segunda objeción pragmática, en el sentido de que es mejor estrategia heurística estudiar el mecanismo concreto que la búsqueda de otras instancias confirmadoras de la ley.

    • 3) Además una tercera posición crítica viene a decir que si el término «beneficioso» utilizado por las variedades ingenuas del funcionalismo resultaba vago, la noción que se utiliza a veces proponiendo que se trata de un estudio de óptimos resulta, por el contrario, excesivamente exigente. Adoptar una determinada pauta conductual como óptima puede ser algo muy complejo de establecer.

Funcionalismo y Estructuralismo

Una de las líneas de investigación social que ha tenido cierto predicamento es la conocida como estructuralismo. De hecho ha tenido cierta importancia en la historia de la antropología. El estructuralismo francés de mediados del siglo XX (con antropólogos como Levi-Strauss) supuso un fuerte impacto en ciertos campos de la ciencia social. Una buena manera de entender esa línea de investigación, que en la práctica niega la realidad de la elección intencional entre alternativas, es vincularla a la forma de explicación funcional.

Como ha indicado Jon Elster, podríamos pensar que cualquier acción realizada puede considerarse como el fruto de dos procesos sucesivos de filtraje.

En primer lugar nos encontramos con las restricciones objetivas que reducen el campo abstracto de todo nuestro conjunto de posibilidades, situándonos ante el conjunto de acciones realizables.

Además podemos suponer un segundo mecanismo que explique porque se realiza una acción en vez de otra de entre las que están en nuestro conjunto de acciones realizables. Una manera de negar la realidad de la elección racional consiste en decir que el conjunto de constricciones define efectivamente un conjunto de acciones realizables que se reduce al conjunto unitario, o que de hecho es un conjunto tan pequeño que no se pueden distinguir sus diversos componentes. Esta es la forma en que Elster interpretaba al estructuralismo francés. Resulta interesante analizar lo que se puede llamar «la falacia estructuralista en ciencias sociales». Siguiendo a Jon Elster, se trata de la inferencia siguiente:

  • Todos los miembros de A hicieron x.

  • Cuando todos los miembros de A hacen x, esto tiene el efecto z, conocido y deseado por los miembros de A.

  • Por lo tanto, los miembros de A hicieron x para conseguir z.

Un ejemplo de esta falacia la analiza el historiador Eric Hobsbawn, al precavernos de cierta explicación falaz de los orígenes del capitalismo que coloca elementos económicos externos como motivaciones de los inversores individuales: «El mismo proceso que reorganiza la división social del trabajo, incrementa la proporción de trabajadores no agrícolas, diferencia al peasantry y crea las clases de trabajadores asalariados, también crea hombres que dependen para sus necesidades de las compras en efectivo-clientes para los bienes. Pero este es la mirada del analista sobre el asunto, no la del empresario que es quien decide si invierte o no para revolucionar su producción».

El modelo de explicación funcional en sociología o antropología supone una forma de razonamiento muy cercano a la falacia estructuralista. El rasgo común es que las consecuencias objetivas favorables de algún conjunto de acciones se consideran que explican las acciones. En la falacia estructuralista estas consecuencias se convierten en motivos individuales para la acción mientras que las explicaciones funcionalistas postulan algún mecanismo de retroalimentación causal del efecto a la causa.

La solución darwinista

En el espacio de la filosofía de la biología se ha producido buena parte de la discusión sobre la adecuación de la explicación funcional. Posiblemente esto es así porque tanto en la vida cotidiana como en biología con frecuencia consideramos que explicamos la conducta de un ser o la misma existencia de algo indicando la función que realiza.

Desde luego este tipo de explicaciones finalistas (teleológicas) resultan problemáticas porque hacen referencia a intenciones (en el mejor de los casos) o nos remite a algún agente inteligente que tuvo el propósito de diseñar un componente (el corazón) para que cumpla una determinada función. Ahora bien, como ha indicado A. Rosenberg:

«El problema filosófico no consiste en decidir si estas explicaciones son legítimas en biología, sino en ofrecer un análisis del método y la teoría biológica que explique por qué resultan indispensables este tipo de explicaciones».

Lo que ocurre en biología es que se dispone de una fundamentación para este tipo de explicaciones en términos de la teoría de la selección natural. Nos ofrece el mecanismo subyacente a esta aparente situación en la que los efectos explican las causas. Un efecto posterior no puede explicar una causa anterior. Las funciones parecen ser posteriores, por lo tanto no pueden explicar causas anteriores. Así pues, en el caso de los latidos del corazón se puede considerar que la frase «la función de los latidos es conseguir que circule la sangre» viene a significar implícitamente que, a lo largo de la evolución, se seleccionaron aquellas variaciones aleatorias (mutaciones) en la configuración del corazón que facilitaban la circulación, debido a que esto contribuía a una mejor eficacia adaptativa (fitness) de los animales que las poseían. Por lo tanto, un corazón que facilita la circulación es una adaptación. En consecuencia, la correspondiente afirmación funcional sólo hace referencia de manera aparente a los efectos inmediatos, de hecho hace referencia a causas anteriores a lo largo del pasado evolutivo. Este es el gran «pecado» o «la idea peligrosa» de Darwin: la explicación naturalista de que no hace falta un diseñador o arquitecto intencional para dar cuenta de la estructura y las funciones de los sistemas complejos. Sin entrar en detalles que harían excesivamente compleja la explicación, señalemos lo esencial de la explicación funcional en biología. Según Elster:

«Un rasgo estructural o conductual de un organismo queda explicado funcionalmente si se puede demostrar que es parte de un máximo individual local en relación con la capacidad reproductiva, en un entorno de otros organismos que han alcanzado también sus máximos locales. Si podemos demostrar que un pequeño cambio en el rasgo en cuestión conduce a reducir la capacidad reproductiva del organismo, entonces comprendemos porqué el organismo tiene este rasgo».

Vale la pena observar que este mismo rasgo es el que plantea serias dificultades a la exportación del auténtico modelo explicativo de la biología (la explicación funcional) al ámbito de las ciencias sociales. Es la gran diferencia que existe entre una explicación intencional y una explicación funcional. La selección natural parece que en alguna medida simula la intencionalidad, pero hay muy serias diferencias si observamos la manera en que se produce la adaptación general de los animales y la de los seres humanos. Precisamente la idea de maximizar globalmente los resultados (lo que lleva a establecer compromisos previos en la conducta, a esperar en un momento para actuar posteriormente con mejores condiciones), señala a la posibilidad de adoptar un comportamiento estratégico por parte de los humanos (y posiblemente por parte de algunos animales entre los que se da algo parecido a lo que podríamos calificar de elaboración de herramientas, instrumentos para intervenir en el entorno, así como «vida social»). No se trata de que no se puedan (más bien se debe) realizar trabajo interdisciplinar entre biología y antropología, más bien queremos señalar que la gran falacia se produce si tratamos de transportar globalmente el modelo explicativo de las ciencias biológicas al espacio de las ciencias sociales. Por lo frecuente que resulta el establecimiento de analogías entre el mundo social y el biológico, no está de más indicar algunas precisiones sobre cómo opera la selección natural para no confundirla con ningún tipo de diseño intencional ni como un proceso dirigido a fines. Para ello puede resultar muy adecuadas las siguientes consideradas realizadas por Nagel en «Teleology revisited»:

«¿Ocurre realmente que la selección natural opera de manera que se generen consecuencias conductuales, es decir, produciendo órganos de un tipo particular, precisamente porque la presencia de tales órganos en el organismo del que son componentes da lugar a ciertos efectos? Tal como lo veo, suponer que esto es así sería violentar la teoría neodarwinista de la evolución tal como es comúnmente aceptada (…) De acuerdo con esa teoría, cuáles sean los rasgos heredables, que poseen los organismos que se reproducen sexualmente, depende de los genes que portan los organismos, genes que o son heredados de los organismos progenitores o que son formas mutantes de genes heredados. Cuáles de sus genes transmite un organismo a su progenie, es algo que viene determinado por procesos aleatorios que tienen lugar durante la meiosis y la fertilización de las células sexuales. No viene determinado por los efectos que los genes producen, ni en los organismos paternos ni en los descendientes. Es más, las mutaciones de los genes —la fuente última de la novedad evolutiva— también ocurre aleatoriamente. Los genes no mutan en respuesta a las necesidades que un organismo pueda tener a causa de cambios en su entorno; y qué gen muta es independiente de los efectos que una mutación genética pueda producir en la siguiente generación de organismos. Incluso más, la selección natural«opera» sobre organismos individuales no sobre los genes que portan, y que un organismo sobreviva para reproducirse no depende de si tiene rasgos que podrían resultarle ventajosos en algún entorno futuro.

La selección natural no es literalmente un «agente» que haga algo. Es un proceso complicado, en el cuál los organismos que poseen un tipo de material genético pueden contribuir más, en su entorno actual, al pool genético de su especie que lo que pueden contribuir otros miembros de la especie con diferente genotipo.»

En resumen, la selección natural es «selección» en un sentido muy peculiar de la palabra (Pickwickiano): No hay nada análogo a la foresight (previ-sión) en su operación: no da cuenta de la presencia de organismos que tengan un nuevo genotipo, no controla los cambios del entorno que puedan afectar a las oportunidades que el organismo tenga para reproducirse su propia clase, y no preserva los organismos que tengan rasgos que no son ventajosos para los organismos en su entorno actual, pero que puedan ser ventajosos para ellos en entornos diferentes. El término «selección natural» no es por lo tanto un nombre para algún objeto individual. Es un rótulo para una continua sucesión de cambios medioambientales y genéticos en los que, parcialmente debido a los rasgos genéticamente determinados que poseen los organismos, un grupo de organismos tiene más éxito en un entorno dado que otro grupo de organismos de la misma especie a la hora de reproducir su tipo y en contribuir al pool genético de la especie. La selección natural no tiene ojos para el futuro, si algunos zigotos resultan eliminados por selección natural es porque no se adaptan a su entorno presente.

Hempel. Enfoque en la concepción heredada

El Individualismo Metodológico es la posición del marxismo analítico más reciente, pero tiene precedentes claros. En el conjunto de la filosofía de la ciencia son los positivistas los que han defendido dichas posiciones, aunque tal vez, en el siglo XX, esa adscripción genérica sea parcialmente injusta, ya que otras corrientes teóricas también se pueden identificar como defensores del individualismo metodológico. Pero los fundamentos teóricos del individualismo metodológico, en el siglo XX, indiscutiblemente se relacionan con los esfuerzos del positivismo lógico por fundamentar las explicaciones científicas en unidades elementales que pudieran ser analizadas plenamente. Sin necesidad de entrar en matices que tendrían difícil cabida en un trabajo de esta naturaleza, es posible resumir la cuestión afirmando que la herencia positivista en la tradición de las ciencias sociales se afianza sobre tres principios básicos, conforme a la concepción preconizada por quienes la han consolidado:

  • a) Existe un componente ontológico según el cual es preciso admitir que la realidad existe de forma independiente y está regida por leyes inmutables; en consecuencia, el conocimiento debe predecir y explicar los fenómenos mediante el conocimiento de esas leyes.

  • b) Hemos de partir de un componente epistemológico, según el cual el investigador debe adoptar una postura de distancia, no interactiva, procurando que los valores y juicios propios no interfieran en la obtención de resultados.

  • c) Finalmente, el componente metodológico exige que las hipótesis sean sometidas a pruebas empíricas bajo condiciones contrastadas por medio de la experimentación empírica manipulativa. (Guba 1990)

En el positivismo dominante hasta bien entrados los años setenta del siglo XX, se daban estos tres componentes claramente entrelazados, aunque las reformas radicales de Popper produjeron un importante cambio, manteniendo una concepción en la que el componente epistemológico estaba claramente relacionado con el metodológico. En el individualismo metodológico, especialmente, en el marxismo analítico, tampoco se daba esa relación entre los tres componentes, ya que, siguiendo a Popper, pretendían que sólo se mantuviese una relación sistemática entre la dimensión epistemológica y la metodológica. Se trataría de una reflexión sobre la manera de explicar los hechos sociales y no sobre la composición ontológica del universo social, o sobre la búsqueda de una legitimación o justificación de las instituciones sociales a partir de una concepción individualista.

La postura general de la concepción heredada fue subsumir todas las explicaciones teleológicas y finales bajo el modelo de la explicación causal y compatibilizarlas con el modelo de cobertura legal de Hempel.

Hempel la estudia como la lógica del análisis funcional. La explicación teleológica, al recurrir a entelequias, no cumple los mínimos requisitos empíricos: no permite predicciones ni retrodicciones. Sin embargo, el análisis funcional (expresado a menudo en términos teleológicos) tiene un núcleo empírico y no acude a dichas entidades.

En este caso el explanandum es una pauta de conducta recurrente. Su forma es la siguiente:

  • Un sistema (S) funciona adecuadamente bajo unas condiciones internas y externas (Ci + Ce = C).

  • S funciona adecuadamente si se da cierta condición necesaria (N).

  • Si un rasgo (I) está presente entonces se cumple la N.

  • Luego I está presente en S.

Aparte del problema de significado de la expresión “funcionar adecuadamente”, el razonamiento involucra la falacia de afirmar el antecedente. Habría que ser más restrictivo con el rasgo I: N sólo es posible si se da I. Podríamos interpretar I como una clase de rasgos pero entonces sólo podríamos inferir la presencia de alguno de los rasgos de la clase I.

El problema en esta clase de explicaciones es el uso de hipótesis de autoregulación no empíricas. Involucran el problema del tiempo, el significado de necesidad o de funcionamiento correcto, etc. Asociación peligrosa de los conceptos de función y propósito. Es importante reseñar el papel heurístico del análisis funcional: búsqueda de los aspectos autoreguladores de un sistema (social, biológico, psíquico, etc.).

Anuncios

Introducción: el supermodelo de cobertura legal

Este modelo es un intento de capturar los rasgos característicos de las explicación científica, de una manera muy próxima a la idea pre-teórica que muchas personas no expertas pueden tener sobre la explicación científica.

Hace unos meses vimos que fue Aristóteles el que inventó la ciencia, más o menos. Nos tenemos que remontar hasta él para encontrar el origen del enfoque deductivo de la explicación científica.

Popper escribió en 1934 La lógica de la investigación científica, y en esta obra esbozaba las ideas básicas del modelo de cobertura legal. Pero fue unos años después, en un artículo  de 1948 titulado Studies in the logic of explanation escrito por Carl Hempel y Paul Oppenheim, donde podemos encontrar la primera formulación precisa de este modelo.
Hempel y Oppenheim sostuvieron que una explicación científica es un argumento en el cual las premisas (leyes y datos) explican un hecho (o una regularidad) descrito por la conclusión de ese argumento.

El modelo ofrecido por Hempel y Oppenheim pronto se transformó en todo un supermodelo. En sucesivas publicaciones Hempel fue profundizando su análisis hasta acabar en tres modelos de explicación, todos ellos aplicables tanto a explicaciones de hechos como a explicaciones de leyes científicas, que podían ser

  1. Nomológico-deductivas (N-D), que es el que veremos con más detalle. Nomos significa ley, y por lo tanto se trata de un modelo para deducir leyes universales
  2. Estadístico-deductivas (E-D), similar al esquema anterior pero con la diferencia de que lo que deducimos es una ley estadística, no universal
  3. Estadístico-inductivas (E-I), en este caso lo que hace el modelo es inducir leyes estadísticas.

La diferencia entre una ley universal y una ley estadística, es que en el caso de las segundas, las premisas apoyan a la conclusión con una probabilidad P (numero comprendido entre 0 y 1). En el caso de una ley universal, P siempre sería 1.

Lo que estos tres modelos tienen en común es que presentan las explicaciones científicas como argumentos en los que el enunciado que describe aquello que se desea explicar resulta de un razonamiento cuyas premisas están compuestas por leyes y datos.
El ahora célebre artículo de Hempel y Oppenheim, junto con sus numerosas secuelas debidas principalmente a Hempel, suscitó una cascada de críticas y tentativas de enmienda que se transformó rápidamente en la columna vertebral del debate sobre la explicación científica en el siglo XX y en la base de la noción de explicación científica propia del empirismo lógico en filosofía de la ciencia.

Aspectos coincidentes en los tres submodelos

De acuerdo a este supermodelo, toda explicación que pretenda ser sólida, debe presentar dos componentes teóricos fundamentales.

  • El explanandum, que Hempel lo define, como: “la oración que describe el fenómeno a explicar y no el fenómeno mismo”.
  • El explanans, por el cual entiende las clases de oraciones que se aducen para dilucidar el fenómeno. El explanans, a su vez, puede presentarse bajo dos formas:
    • como oraciones que formulan condiciones antecedentes específicas que se dan previas al fenómeno a explicar o,
    • como oraciones que expresan “leyes generales”.

Partiendo de estas definiciones, en los tres submodelos de cobertura legal se deben cumplir los siguientes requisitos:

  •  Adecuación lógica
    • El explanandum debe ser una consecuencia lógica del explanans. Ésta es la manera de satisfacer el requisito de pertinencia explicativa del explanans respecto del explanandum. En el caso de los submodelos estadísticos la conclusión no se deduce de las premisas: el explanans no implica lógicamente al explanandum, sólo le otorga una cierta probabilidad. Es decir, mientras la explicación nomológico-deductiva representa implicación lógica, la explicación estadística-inductiva significa una relación de sustento inductivo tal que el valor numérico particular de la variable P constituye la “fuerza” de ese apoyo.
    • El explanans debe contener leyes generales (universales o probabilísticas según el caso) que resulten necesarias para la derivación del explanandum.
    • El explanans debe poseer contenido empírico, es decir, debe ser posible someterlo a prueba empírica.
  •  Adecuación empírica
    •  Los enunciados del explanans deben ser verdaderos o, al menos, buenas aproximaciones a la verdad.

El modelo tradicional de explicación: Modelo Nomológico-Deductivo de Hempel

El esquema de explicación “deductivo-nomológico” (nomos = ley), ha sido uno de los modelos que más influencia ha tenido en las distintas disciplinas científicas.

Para Hempel, uno de los objetivos fundamentales de toda empresa científica es la de explicar los fenómenos del mundo físico, pero no con el objetivo de descubrir ningún hecho concreto, sino para alcanzar una comprensión explicativa. Además, toda explicación que pretenda ser considerada científica debe proporcionar siempre una sólida comprensión del mundo, que mantenga una relación lógica con nuestra experiencia y que, al mismo tiempo, sea susceptible de contrastación empírica.

En su obra, “Filosofía de la ciencia natural” (1977), menciona dos requisitos epistémicos que, a su modo de ver, son fundamentales en todas aquellas explicaciones científicamente adecuadas.

  • Requisito de relevancia explicativa, en el que toda la información que se proporciona es para tener una buena base para poder creer que el fenómeno que se trata de explicar tuvo o tiene lugar.
  • Requisito de contrastabilidad, donde los enunciados que constituyen una explicación científica deben ser susceptibles de contrastación empírica.

Si bien Hempel reconoce que ambos requisitos están íntimamente relacionados, sólo considera como necesario para toda explicación científica el primero.

Hempel, resume las características de su modelo de explicación en el siguiente esquema:

El fenómeno explicado puede describir un evento que ocurre en un lugar o en un tiempo determinado. O, puede reflejar alguna regularidad general expresada en una ley empírica que suscita la pregunta ¿por qué ocurre tal evento? A la pregunta, por ejemplo, ¿por qué los cuerpos en caída libre se mueven de acuerdo con la ley de Galileo? o ¿por qué el movimiento de los planetas presenta las uniformidades mencionadas por la ley de Kepler?, se responderá en base a principios teóricos que se refieren a estructuras y procesos que subyacen a las uniformidades en cuestión. Así, la respuesta asume la forma de un razonamiento deductivo, que subsume la regularidad a explicar bajo leyes más inclusivas o principios teóricos.

De esta manera, el esquema nomológico-deductivo satisface el requisito de relevancia explicativa, en cuanto que la información explicativa que proporciona, implica deductivamente el enunciado explanans, ofreciendo así una base lógica concluyente para esperar que se produzca el fenómeno explanandum. Pero, al mismo tiempo, cumple con el requisito de contrastabilidad, ya que el explanans implica que, dadas las condiciones específicas, se producirá el fenómeno explanandum.

Descomponiendo la explicación nomológica-deductiva:

La explicación de un enunciado (E) está integrada por dos tipos de enunciados:

  1. las condiciones antecedentes (C) que describen las circunstancias iniciales en las que se produce el enunciado
  2. las leyes generales (L) que explican el enunciado.

Los antecedentes y las leyes funcionan como premisas de una inferencia deductiva cuya conclusión es el enunciado. El esquema de explicación deductiva sería por tanto:

  • L1,L2,…Ln: Explanans (lo que explica), conjunto de enunciados, integrado por una o más leyes científicas y por las condiciones iniciales. Las leyes que lo componen se llaman enunciados legales.
  • C1,C2,…Cn y E: Explanandum (lo explicado), puede describir un acontecimiento que ocurre en un lugar y un tiempo determinados o puede expresar una regularidad general que suscita la pregunta de por qué ocurre.Describe el fenómeno a explicar

En la explicación nomológica-deductiva, la ocurrencia del fenómeno que se pretende explicar puede afirmarse con certeza a partir del conocimiento de las leyes universales y demás condiciones relevantes. Se deduce el explanandum del explanans. Pretende demostrar que el hecho obedece a determinadas leyes. Puede aplicarse tanto a hechos como a leyes:

  • Explicación de hechos o sucesos singulares:
    • Explanandum: enunciado que describe el hecho a explicar.
    • Explanans: Condiciones iniciales (singulares) y leyes.
  • Explicación de leyes o regularidades generales:
    • Explanandum: Ley a ser explicada
    • Explanans: Sólo leyes

Las condiciones de adecuación que deben cumplirse serían:

  1. El explanandum debe ser consecuencia lógica del explanans.
  2. El explanans debe contener las leyes generales.
  3. El explanans debe tener contenido empírico.
  4. Los enunciados que componen el explanans deben ser verdaderos.

Las 3 primeras son de carácter lógico, mientras que la 4 es de carácter empírico

Hempel considera que el tipo de explicación nomológica-deductiva es la fundamental, las otras formas de explicación serán pertinentes en la medida en que se aproximen a ella.

El concepto de explicación deductivo-nomológica

El modelo deductivo nomológico tiene como requisito fundamental la existencia de una ley natural verdadera. Sin esta ley el sistema cae directo al suelo, ya que es imposible derivar conjetura o predicción alguna. La generación de hipótesis universales hay que entenderla como una conjetura, un salto al vacío que podrá desconfirmarse o no, pero que no proviene enteramente de la experiencia, sino más bien del sujeto.

Lo único de lo cual puedes estar seguro es que las leyes universales tienen características bien definidas: universales y con un alto grado de confirmación. El modelo nomológico deductivo asegura solamente que “si tus premisas son verdaderas -la ley, las condiciones iniciales-, la conclusión también lo será-la explicación-“

En la meta-observación de cómo se explica un fenómeno realizada desde el enfoque del Empirismo Lógico, se pasa totalmente por alto el análisis de las condiciones que posibilitan la constitución de la experiencia.

Este problema esencial ya fue planteado por Kant, pero recurriendo a elementos aprióricos, es decir, las “categorías”, independientes de la misma experiencia y que se hallan en la misma capacidad cognoscitiva del observador.

Al dejar de lado la observación de las condiciones (en la estructura misma cognoscitiva del observador) que posibilitan en el observador científico llegar a explicar ciertos fenómenos, el problema se desplaza al examen del mismo proceso sobre enunciados y formulaciones: las de la ley natural que se considera da razón de los fenómenos, y las del mismo proceso de inferencia desde dicha ley a los fenómenos que habrá que comprender como casos de aplicación de la ley.

Es decir, el problema de la explicación científica se plantea al nivel de observación del lenguaje y lógica dominante en los enunciados científicos: el que una presunta ley natural sea considerada como la razón de que se den ciertos fenómenos. Esto requiere que la cuestión de la validez de la explicación científica sea contestada desde el punto de vista o marco de referencia orientada al lenguaje (científico), las condiciones para que aceptar que una ley natural sea o no aceptable como razón de la existencia de ciertos fenómenos. O lo que es lo mismo: el razonamiento metateórico realiza un examen de las condiciones, en los mismos enunciados de leyes, o en las inferencias desde esos enunciados universales a los particulares (el caso en que se aplica la ley) para que una explicación (como conjunto de enunciados en relaciones internas que permiten pasar de unos a otros) sea o no aceptable.

Esta esquematización de lo que es el explicar científicamente es estructurada en forma de una inferencia o conclusión lógica (a partir de unas premisas, siguiendo unas reglas lógicas, se llega a una conclusión).

Las premisas constan de enunciados singulares, los llamados datos antecedentes (que indican las circunstancias que se dan) y de enunciados universales (hipótesis sobre leyes naturales). La conclusión inferida describe el fenómeno o evento que se deseaba explicar como causado por esas leyes. La explicación hallada se denomina explicación causal porque las premisas a partir de las que se realiza la inferencia están constituídas por las llamadas leyes causales.

Los datos antecedentes son también causa del hecho a explicar. Aquí debe notarse que en este modo de explicación el campo de fenómenos observados se reduce al de la experiencia científica, es decir, la experiencia realizada primariamente en el mundo físico. Si se realiza una experiencia sobre fenómenos, por ejemplo, sociales o psicológicos, se presupone deberán poder ser observados con la misma óptica o métodos empleados en el análisis de fenomenos materiales.

En el caso más normal, donde serán posibles varias leyes que explicarán la aparición de un evento, el esquema sería así:

A1, A2, ……. Ak (condiciones antecedentes)

G1, G2, ……… Gn (leyes naturales)

____________ inferencia lógica

E Explanandum

El explanans está constituido por el conjunto de las condiciones iniciales y por las leyes. El explanandum se deduce, según las reglas de la lógica, a partir del explanans.

Para poder distinguir una explicación auténtica de una sólo aparente, Hempel y Oppenheim imponen ciertas exigencias a las condiciones de adecuación: junto a la exigencia de una corrección formal en la operación de inferir la conclusión, se pide:

  • que el argumento que lleva del explanans al explanandum se estructure con correccion lógica;
  • que el explanans debe contener, por lo menos, una ley válida generalmente (o debe contener un enunciado del que se siga lógicamente una ley universal) y que tal ley sea utilizable en la deducción de la conclusión o explanandum;
  • que las leyes del explanans tengan un contenido empírico (o lo que es lo mismo, que sean sometibles a prueba mediante experimento u observación);
  • que todas las afirmaciones del explanans sean verdaderas o estén verificadas.

Si se cumplen estas condiciones, Hempel y Oppenheim dicen que se evitarán consecuencias como las de que afirmar ciertas explicaciones en un estadio del desarrollo científico que en otro posterior deberán ser negadas. Es decir, se evitará afirmar sucesivamente la corrección o falsedad de una misma hipótesis.

Funcionalismo y filosofía de la mente

En la anterior entrada relacionada con el funcionalismo, tratamos de dejar constancia de que el funcionalismo no sólo es antropología. También la Filosofía de la Mente utiliza los conceptos y herramientas asociadas a esta forma de pensamiento.

En la filosofía de la mente, el Funcionalismo es una doctrina metodológica que propone que los estados mentales sean definidos por el papel que desempeñan en la generación de la conducta dado el entorno en que se encuentra el organismo. También se dice en el Funcionalismo que los estados mentales son descripciones funcionales de los estados del cerebro, pero que esas descripciones son satisfechas no sólo por cerebros, sino que se pueden concebir otros sistemas materiales de los cuales sean verdaderas.

Se dice también que la solución del viejo problema metafísico de la relación entre mente y cuerpo es que la mente es el cerebro bajo cierta descripción funcional, aunque algunos funcionalistas no se comprometen en absoluto con qué sea lo que instancia o satisface una descripción funcional de estados mentales que sea capaz de explicar la conducta.

En la metodología de esta clase de funcionalismo tenemos algo manifiesto y corriente, que es la conducta y el problema es cómo explicarla. Se sabe que los factores clave de la explicación son el sistema nervioso y el entorno, incluyendo en el entorno elementos del propio organismo. De manera que el camino evidente es determinar cuáles son las funciones nerviosas relevantes, en el sentido biológico de cuáles son los procesos que tienen lugar sobre todo en el cerebro y que desempeñan un papel en la producción de la conducta.

El problema es que la conducta de muchos organismos, en especial los humanos, es muy variada y no se sabe bastante del cerebro como para explicarla. El método que propone el funcionalismo consiste en identificar los estados internos por la conducta que es generada dado cierto estímulo y cierto entorno. Muchos términos de uso legítimo en ciencia son definidos de esta manera.

 El Conductismo Lógico ha sugerido que los términos mentales del lenguaje ordinario se entiendan como términos que designan disposiciones a conducirse de ciertas maneras dados ciertos estímulos. Dejando aparte de momento el problema del lenguaje ordinario, la metodología de individualizar estados internos como disposiciones de producir conductas no destaca algo sobre lo que muchos funcionalistas han llamado la atención: que parece necesario involucrar en esas definiciones a otros estados internos.

Si no se hace esto, por un lado pasamos del viejo recurso que algunos conductistas emplearon cuando vieron que era en exceso complicado encontrar correlaciones entre estímulos y conductas y propusieron recurrir a lo que llamaban “variables intervinientes”. Introducir en las leyes que explican la conducta variables intervinientes implica introducir términos que no se referían ni a la conducta ni a los estímulos. Algunos conductistas proponían que esas variables fueran definidas en términos de los estímulos y las conductas, que son los aspectos observables del problema de la conducta, dejando aparte las funciones cerebrales.

Cuando Hempel se ocupa del problema de los términos teóricos parece que está guiado en especial por el problema de las variables intervinientes, y decide que son necesarias, que son ineliminables a favor de términos que designen conductas y estímulos, y que una cuestión aparte es si designan algo o son meros constructos teóricos.

Esta última postura es la del Instrumentalismo, que es la posición para la cual se plantea el problema de la eliminabilidad de los términos teóricos, puesto que para el realista la cuestión es saber qué designan esos términos y sustituirlos por términos que designen en caso de que los propuestos sean vacuos.

La principal objeción al Conductismo en Psicología partió de que se hizo necesario suponer que los estados internos del organismo interaccionan entre sí, no solo median entre la conducta y los estímulos. Pero esa interacción no se podía representar como causal por desconocimiento de los estados del sistema nervioso, que efectivamente intervienen en la generación de la conducta.

Así, pues, el Funcionalismo se encontró con la necesidad de postular estados internos, de tener que definirlos por su papel en la generación de la conducta y de describir las interacciones entre los estados. Desde luego los estados mentales parecen tener un papel en la generación de la conducta e interaccionan entre sí, el problema es que los estados mentales que se invocan como causas de una conducta se encontraban desde antiguo sometidos a una grave objeción, que es la circularidad en la que se incurre cuando se explica una conducta aludiendo a un estado que se define o se identifica por su capacidad para producir una conducta cuando ambas conductas son la misma.

Conductistas y Máquinas de Turing

Los conductistas habían objetado a la Psicología mentalista que explicaran una conducta, como, por ejemplo, ir al cine, por el deseo de ir al cine, cuando la única manera que tenemos de atestiguar ese deseo es precisamente por la conducta. Un método que satisfacía todas estas necesidades y además encajaba muy bien con las modas, pero también con las esperanzas puestas en los recursos tecnológicos del momento fue proponer que los estados internos son estados de Máquinas de Turing.

Las máquinas de Turing son instanciables, pero es de suponer que las propuestas no sean instanciables por cualquier cosa. Sus estados internos interaccionan entre sí, no solo con sus entradas y salidas. El modo de la interacción no tiene por qué ser causal.

Sea lo que fuere de esta clase de mecanicismo, se puede decir que los estados cerebrales que son identificados como estados de Máquinas de Turing son identificados funcionalmente, puesto que se les identifica por el papel que desempeñan en un sistema dado ciertas entradas en la producción de ciertas salidas. Aunque aquí no hay ninguna alusión interesante al papel que desempeñan en el mantenimiento del sistema, sino que ellos mismos son parte del sistema por definición.

Se pueden considerar, de todas formas, equivalentes Máquinas de Turing que computen las mismas funciones aunque esas máquinas no posean los mismos estados y se pueda decir, por lo tanto, que cierto estado desempeña un papel en la constitución de una máquina.

Inteligencia Artificial y Psicología Cognitiva

El Funcionalismo Mecanicista estaba especialmente habilitado para advertir un problema que tiene una enorme generalidad y un enorme rendimiento en la Filosofía de la Ciencia. Podemos idear una Máquina de Turing cuyas entradas y salidas sean instanciadas por la conducta de un individuo en sus comportamientos por así decir acertados o competentes.

Por ejemplo, la Inteligencia Artificial y la Psicología Cognitiva durante un tiempo marcharon juntas en la tarea de diseñar máquinas reconocedoras de formas, en particular de caracteres escritos. Pero uno de los puntos en que se produce la divergencia entre la Inteligencia Artificial y la Psicología es el tratamiento del error. En la Inteligencia Artificial el problema que hay que resolver es crear un reconocedor de formas eficaz, sea como sea. En la Psicología hay que crear un reconocedor de formas que emule el reconocimiento de formas que tenemos los seres humanos.

El primer indicio de que los humanos no reconocen formas como las máquinas que eventualmente han llegado a ser usadas en la industria, incluida la militar, son las pautas de error. Una máquina confunde caracteres de maneras distintas a como los confunde un ser humano, y un ser humano confunde caracteres de diferente manera en la lectura que en la dactilografía. La Psicología Cognitiva y la Inteligencia Artificial tomaron caminos divergentes, incluso dentro de las teorías cognitivas también ha habido caminos divergentes.

Uno de los caminos conduce a distinguir entre competencia y actuación. Hay una descripción simple formal de la mayor parte del comportamiento verbal de una persona e incluso del comportamiento verbal de la mayor parte de las personas que hablan una lengua y la teoría formal que es instanciada en gran parte por la mayoría de los hablantes se denomina “teoría de la competencia”.

Los lingüistas generativistas han discutido sobre el tipo de sistema que describe la competencia, y algunos han tratado de mostrar que las propiedades de ese sistema son tales que no las puede satisfacer una teoría conductista del comportamiento lingüístico.

Por ello han escrito artículos que trataban de excluir los autómatas que con mayor facilidad podían ser descritos en términos de entradas, salidas y algún mecanismo muy simple, semejante a la asociación o a la iteración que hubiera sido señalado por conductistas o empiristas. En general además han propuesto que la teoría de la competencia era asunto de la Lingüística, y la teoría del comportamiento verbal, que no se ajusta a la competencia, era asunto de la Psicología.

 

Si te ha interesado el tema…se continúa en homúnculos y cerebros en bañeras, disponible en el tiempo que tarda un homúnculo en sacar al cerebro de la bañera y engrasar todas sus sinapsis 😉

La Antropología da explicaciones funcionales

Durante el siglo pasado, en especial hasta los años sesenta, estuvo muy extendido el rechazo del concepto de causa en las ciencias sociales y de la exigencia de que las explicaciones propias de ellas fueran causales. Uno de los argumentos contra la idea de causa procedía de un clima de general de descrédito que esta noción tenía en la Ciencia, especialmente en la Física donde, según se decía, la indeterminación de algunas parejas de propiedades contradecía la posibilidad de encontrar explicaciones causales de la evolución de los sistemas físicos.

En las Ciencias Sociales se rechazaba también el tipo de explicaciones históricas de los rasgos de los sistemas sociales que ofrecían el difusionismo y el evolucionismo, complementadas las explicaciones evolucionistas por algunas leyes o patrones generales del cambio de las sociedades humanas. Las teorías llamadas “evolucionistas”, tales como la de Tylor, Frazer o Comte, no tienen mucho que ver con la teoría biológica que comúnmente llamamos “teoría de la evolución”, salvo una remota analogía. Las objeciones al evolucionismo y al difusionismo convenían con una doctrina de la explicación y también de la constitución de los grupos sociales que fue el Funcionalismo.

 Radcliffe Brown y Malinowski fueron los más afortunados practicantes y defensores del Funcionalismo. Sostenían que todo rasgo de un sistema social desempeña un papel en el mantenimiento del sistema, y que la explicación de su presencia consiste en mostrar cuál es ese papel. Esta posición, como era necesario, se ocupó de rechazar la idea de que en los sistemas sociales existen vestigios (o “survivals”, como los llamaban), bien de épocas pretéritas en la evolución de un sistema, bien de importaciones culturales.

 Pero a Hempel no le parecen las más acertadas

Hempel, filósofo de la ciencia que recogió el legado del positivismo lógico, y que desarrolló un modelo completo sobre la explicación que veremos en otra entrada, abordó una gran variedad de problemas acuciantes en la metodología de las ciencias sociales y trató de resolverlos analizando la estructura lógica de esos problemas y de la parte de las teorías y de los conceptos involucrados que consideró suficiente para aclararlos.

En el caso de la explicación evitó situar como central el problema de la causalidad y ofreció un modelo principal de explicación, el nomológico deductivo, por relación al cual se analizaban las peculiaridades de casi todos los tipos de explicación presentes en la ciencia. En este modelo un hecho queda explicado cuando puede derivarse de la aplicación de una ley.

Sobre las explicaciones funcionales llegó a la conclusión de que éstas son más débiles que las explicaciones nomológico-deductivas, porque explican la presencia de un rasgo en un sistema haciendo ver que ese rasgo es una condición suficiente de una condición necesaria para el mantenimiento del sistema en un contexto dado, en el caso de los sistemas sociales su entorno natural y los demás grupos sociales con los que interactúa.

Hempel consiguó de esta manera una reconstrucción bastante adecuada de la estructura de las explicaciones del Funcionalismo en Antropología.

Problemas del Funcionalismo

Aparte de la relativa debilidad de la explicación funcional, el Funcionalismo se enfrentó a varios problemas:

  • identificar cuáles son esas condiciones necesarias para el mantenimiento de un sistema social,
  • si esas condiciones se pueden especificar con independencia de las creencias de los propios miembros del sistema social,
  • si todos los rasgos de un sistema contribuyen a su mantenimiento, puesto que los sistemas sociales cambian y desaparecen.

El Estructuralismo en las Ciencias Sociales insistió en que la presencia de un rasgo en un sistema depende de la presencia de los demás rasgos, pero que esa dependencia no es causal ni funcional, sino lógica o formal, y que el catálogo de esos rasgos está limitado por motivos lógicos y mentales comunes a la especie humana.

Posteriormente, un movimiento llamado “Materialista” llamó la atención sobre el papel que desempeña el entorno en la limitación de las posibles características de un sistema social, y se mostró más decidido al especificar al menos una parte del repertorio de funciones que un sistema social tiene que llenar. Marvin Harris, creador del Materialismo Cultural, que explica las diferencias y similitudes socioculturales dando prioridad a las condiciones materiales de la existencia humana, declaró que el tipo de explicaciones que él ofrecía era causal, pero desde luego no lo eran. Los cambios en el entorno y los recursos tecnológicos limitan las maneras de llenar las condiciones necesarias para el mantenimiento del sistema, y limitan las modificaciones posibles de éste, pero eso no afecta al hecho de que hay diferentes maneras de llenar esas condiciones y Harris no consiguió que sus explicaciones dejaran de ser funcionales.

El modelo de explicación de Hempel nos sirve para ver que las explicaciones de Harris no son causales y aclara algunas dificultades del funcionalismo. Pero no nos ayuda de manera evidente con dos problemas ulteriores.

  • Por una parte, hay explicaciones que son funcionales porque emplean conceptos definidos funcionalmente.
  • Por otra parte, se atribuyen con frecuencia funciones a entidades tales como procesos u órganos y también se dice de ciertos procesos que son funciones.

¿Qué papel tienen esas atribuciones en la explicación y en la investigación de esas entidades?, ¿qué es una definición funcional de un concepto?, ¿para qué una atribución de funciones?, ¿qué quiere decir que un proceso es una función? En el caso de las explicaciones funcionales de la Antropología hay que explicar un rasgo o un conjunto de ellos cuya observación y descripción no son lo más problemático. Por ejemplo por qué en la India no se comen las vacas, o en una cultura dada por qué ciertos tipos de matrimonio no están permitidos.

Ciertamente hay diferentes escuelas de Antropología y es raro que haya habido pleno acuerdo sobre la suficiencia de cualquier explicación ofrecida, de manera que han hecho notar que una cosa son las prohibiciones y otra cumplirlas y han elaborado sistemáticamente la distinción entre los valores proclamados y las conductas efectivas; también se ha discutido la manera de individualizar instituciones en las descripciones de la conducta, y lo que parece al principio evidente y fácil de describir, como un culto religioso, acaso sea imbuido de conceptos peculiares de la cultura de quien hace la descripción. Estos son problemas importantes de la Antropología que involucran cuestiones metodológicas, pero sobre todo cuestiones conceptuales y empíricas propias.

El Funcionalismo en la Biología

En la Biología también se da este tipo de explicaciones funcionales. Los médicos se han preocupado desde la antigüedad de explicar por qué ocurren ciertos procesos biológicos. La respiración es un fenómeno cuyas propiedades más evidentes trataron de explicar los médicos desde hace unos cuantos siglos. Una de estas explicaciones consistió en que la inhalación de aire ayuda a refrigerar el organismo, que es calentado por los procesos de cocción de la digestión. Esa explicación es funcional porque indica una necesidad, la refrigeración de un sistema, un organismo que, supuesto que realiza otros procesos que amenazan su integridad, debe ser satisfecha de alguna manera.

En la actualidad se atribuye a la sudoración este papel y el proceso de la digestión no se considera una cocción, pero cierto nivel de explicación de por qué algunos animales sudan es funcional en el sentido de Hempel.

Un proceso que tiene una función es llamado también él “una función”. Aludir a algún proceso como una función es señalar que ese proceso ocupa un lugar, que quizá podría ser ocupado por otro proceso en la constitución de algo que es considerado como alguna clase de sistema que se puede individualizar y que tiene alguna permanencia. Esto es muy vago y no pretende dar doctrina ontológica sobre qué son sistemas o qué son organismos.

La necesidad que llena la función, esto es, el proceso descrito como una función, puede ser una necesidad definicional del tipo de entidad en la cual ocurre el proceso. En los textos elementales de biología se enumeran las funciones vitales. Un género de entidades que no pueda alimentarse ni reproducirse no es un género de entidades vivas, por definición. Este repertorio de funciones vitales elimina la necesidad de referir las explicaciones y caracterizaciones funcionales del resto de la biología a la genérica “condición necesaria para el mantenimiento del sistema” a la que alude Hempel.

En realidad muchos de los procesos que son llamados funciones pueden ser descritos sin aludir al papel que desempeñan para realizar las funciones vitales del organismo en el que tienen lugar. La fotosíntesis se puede describir en términos exclusivamente bioquímicos sin referirse a qué papel desempeña en las plantas. Pero se sigue llamando “función” a la fotosíntesis, y el estudio de las funciones biológicas es en su mayor parte bioquímica. Igual que otros procesos que no se suelen llamar funciones, como muchas enfermedades. Llamar “función” a algunos procesos recuerda que desempeñan un papel los organismos de cierto género.

El marco teórico e histórico general que ayuda a determinar qué procesos se pueden considerar funciones en biología es la teoría de la evolución, que atribuye a la mayoría de los procesos y órganos de los seres vivos un papel en el manteniento del individuo o de los genes o de las poblaciones.

El Círculo de Viena

En los locos años 20, no todo el mundo se dedicaba a bailar charleston y especular en bolsa. En la Universidad de Viena se juntaron unos cuantos supercerebritos, la mayoría de ellos matemáticos y físicos, algún que otro filósofo y científicos sociales. Todos compartían un interés común: La Filosofía de la Ciencia, y un odio común: La Metafísica Académica, que procedente de Alemania, asfixiaba al empirismo. Por allí andaban entre otros muchos Carnap, Kaufmann, Godel, Hempel, Ayer…

Estos pensadores seguían la tradición positivista de Hume y como pretendían incluir a esta perspectiva los descubrimientos de la lógica moderna, denominaron a la corriente de pensamiento que generaron como Positivismo Lógico.

Centremos pues el tiro, en qué consiste exactamente el Positivismo Lógico. Se trata de una corriente de pensamiento caracterizada por los siguientes aspectos:

  • Un empirismo total. El cual se apoyaba en los recursos de la lógica moderna y en los logros de la física moderna. Desde el punto de vista metodológico las ciencias empíricas están basadas en la inducción
  • Un empleo de la lógica-simbólica. Usada como un instrumento para deslindar entre distintos lenguajes y sus relaciones tanto en sus aspectos formales (sintaxis-lógica) como en su contenido o referencias a lo real (semántica).
  • Un rechazo a la metafísica y a la teología. En línea con el pensamiento de la Ilustración, los pensadores del Círculo de Viena (ya formados en el escepticismo) fomentaron un repudio hacia la metafísica por estar fuera de lo que era concebido como lo “sensible” y empírico. La acusación básica contra la metafísica estaba centrada en que sus proposiciones carecían de significado. Es decir, las proposiciones de la metafísica carecen de sentido en virtud de que no tienen relación con los hechos; ya que éstas no están construidas en base de proposiciones elementales.
  • Una restricción del dominio de la filosofía. El espacio de acción de la filosofía fue casi literalmente reducida a la tarea de eliminar sus propios problemas.
  • Un fisicalismo: Todos los enunciados empíricos pueden ser expresados en el lenguaje de la física. Este fue el fundamento teórico a favor de la unidad de la ciencia. Esta propuesta inicial de un lenguaje fisicalista estuvo ligada a los cambios dramáticos de la física en las tres primeras décadas del siglo XX originados principalmente en la teorías de la relatividad de Einstein y en la Mecánica Cuántica.

Orígenes e Inspiración

Las raíces del Positivismo Lógico las podemos encontrar en dos sitios fundamentalmente:

  • La concepción de la verdad de Aristóteles, el cual establecía una correspondencia entre el decir y el ser: decir las cosas como son era sinónimo de discurso verdadero. El Círculo de Viena reformuló esta concepción, y estableció ahora que la concepción de la verdad era una correspondencia entre proposiciones y hechos. Es decir, los enunciados científicos pueden ser verificados en la medida que se correspondan con los hechos o que las observaciones empíricas han de concordar con las predicciones de la ciencia.
  • El positivismo o empirismo clásico de Hume y Comte. La tesis fundamental de todo empirismo es que la única fuente de conocimiento es la experiencia sensible.

Además, podría decirse, que El Círculo de Viena tuvo cuatro influencias evidentes. Desde el punto de vista filosófico, el neopositivismo de Ernst Mach, quién negaba todo tipo de elementos a priori en las ciencias empíricas, y como no, el Tractatus Logicus Philosophicus de Wittgenstein, donde se vincula la tradición empirista con la nueva lógica-matemática.

Pero también hubo una influencia de carácter histórico. Las contribuciones de Einstein para la compresión de la estructura del espacio-tiempo y de la gravitación, y la de la Mecánica Cuántica para la comprensión de la estructura atómica y nuclear. La revolución de la Física Cuántica fue interpretada como demostración del carácter analítico de la ciencia y de la fuerza del pensamiento riguroso orientado hacia los hechos observables y hacia los mecanismos de comprobación.

Por último, una influencia de tipo instrumental vino determinada por las herramientas de la lógica matemática, consolidada unos veinte años antes en los “Principia Mathematica” de Russell y Whitehead y profundizada por los lógicos polacos y los trabajos de Hilbert, ofrecieron al Círculo de Viena un importante aparato para traducir datos de conocimiento empírico a un lenguaje preciso, riguroso e inequívoco que concibieron como modelo del lenguaje científico

Las Tesis del Círculo de Viena

El Círculo de Viena desplazó el foco de observación desde la conciencia individual (la orientación seguida desde Descartes, en Kant y en el idealismo alemán) al lenguaje. Y partir de allí, junto con otros elementos ya mencionados, el empirismo o positivismo lógico construyó una doctrina sobre la estructura lógica del conocimiento científico. De esta manera, el Círculo de Viena distinguió, o al menos propuso distinguir, la ciencia de la metafísica (y de cualquier otro conocimiento) basándose en un criterio epistemológico de significatividad cognoscitiva. Esto le permitió “al positivismo lógico aplicar radicalmente la navaja de Ockham, descartando del pensamiento científico numerosos conceptos y trabajos llevados a cabo por la filosofía especulativa.

El Círculo de Viena produjo cuatro tesis bien definidas que interpretan el conocimiento científico, a saber:

  • El criterio de demarcación (Principio de Verificación)
    • Lo que esencialmente distingue al conocimiento científico frente a otros tipos de conocimiento es su verificabilidad con respecto a los hechos constatables.
    • Un enunciado científico aceptable será sólo aquél que resulte verdadero al ser comparado con los hechos objetivos. Así, la verificación empírica constituye el criterio específico de demarcación entre ciencia y no-ciencia.
    • Para concretar esta norma es necesario un método, un criterio de significatividad, que permita establecer si determinada proposición es o no verdadera. Se buscaba desesperadamente discriminar con certeza absoluta la ciencia de la pseudo-ciencia.
    • Pero este principio funciona solamente en la medida en que se conceda una autoridad particular a una clase específica de proposiciones empíricas cuya certeza no puede ser cuestionada: debe establecerse una fuente segura que nos proporcione conocimiento real, como fundamento epistemológico sobre el cual construir el edificio de la ciencia.
  • El lenguaje lógico
    • Los enunciados serán científicos sólo si pueden ser expresados a través de símbolos y si pueden ser relacionados entre sí mediante operaciones sintácticas de un lenguaje formalizado (independiente de su contenido significativo).
    • Los enunciados científicos estarán dotados de una expresión sintáctica, formal o simbólica, por una parte, y de una correspondencia semántica, significativa o empírica, por otra parte.
    • La base de esta correspondencia estará, por supuesto, en los enunciados observacionales más concretos dados por la experiencia. Esto es lo que se conoce como lenguaje “fisicalista”
  • La unificación de la ciencia
    • Todo conocimiento científico, cualquiera sea el sector de la experiencia sobre el cual se proyecte, estará identificado (construído, expresado, verificado…) mediante un mismo y único patrón.
    • En un sentido epistemológico y metodológico, no se diferenciarán entre sí los conocimientos científicos adscritos a distintas áreas de la realidad. Ya que la realidad constituye globalmente una sola estructura compacta y coherente (ordenada), también el conocimiento científico de la misma debe resultar, en definitiva, una misma construcción igualmente integrada.
    • En virtud de ello, existe una única Filosofía de la Ciencia, es decir, un único programa de desarrollo científico para toda la humanidad. La Lógica y la Matemática serán el esquema básico para toda expresión comunicacional ‘verificable’ de la ‘ciencia’.
  • La inducción probabilista.
    • La producción de conocimiento científico comienza por los hechos evidentes susceptibles de observación, clasificación, medición y ordenamiento. Sigue con la detección de regularidades y relaciones constantes y termina con las generalizaciones universales formuladas mediante leyes y teorías.
    • Sin embargo, dado que el conjunto de todos los datos de una misma clase suele escapar a las circunstancias de tiempo/espacio del investigador entonces el proceso de generalización de observaciones particulares tiene que apoyarse en modelos de probabilidad, base de los tratamientos estadísticos utilizados actualmente en todas las áreas de investigación.
    • De acuerdo al concepto de probabilidad, es posible inferir leyes generales a partir de un subconjunto o muestra representativa de la totalidad de los casos estudiados. Esto implica que el conocimiento científico debe tomar en cuenta ciertos índices de error y ciertos márgenes de confiabilidad previamente establecidos.

Cerrando el Círculo

A pesar de su impacto inicial y de su enorme influencia, las tesis del Círculo de Viena se vieron sometidas a crítica por otros filósofos de la ciencia que, aunque coincidían en los aspectos básicos ya planteados, disentían en otros más específicos (Quine, Putnam, Toulmin, Hanson, Nagel, etc.).

Los mismos integrantes del Círculo fueron haciendo revisiones y rectificaciones propias (Carnap, especialmente, Hempel y otros). En los últimos desarrollos del Círculo de Viena se acaba apelando a una lógica inductiva, que a su vez Carnap intentó axiomatizar en forma de cálculo lógico. El empirismo lógico acabó confluyendo en una afirmación de la inducción como el método principal de las ciencias empíricas. La lógica inductiva permitiría fundamentar el criterio de significación empírica, inicialmente basado en la verificabilidad observacional, y finalmente en el grado probabilístico de confirmación de una determinada hipótesis.

Entretanto, y desde otras posturas, se hacían críticas de principio a las tesis del Círculo de Viena y de sus epígonos. Así sucedió, en particular, con Popper, quien va a orientar la metodología científica en un sentido muy distinto.

De estas críticas y revisiones nació una ulterior interpretación del conocimiento científico que respetaba las bases del Círculo, pero que imponía modificaciones y correcciones de interés. En esencia, se abandonó el “empirismo ingenuo” implícito en las tesis iniciales; se reajustó el concepto de “reglas de correspondencia” entre los planos teórico y observacional. Se hizo más flexible el concepto de “reducción” de unas teorías a otras y se amplió el modelo de las teorías científicas para dar cabida a otras opciones válidas. Todas estas revisiones y ajustes conformaron una diferente interpretación que se divulgó bajo el término “Received View” o “Concepción Heredada” que, en pocas palabras, consistió en una versión menos radical y más reflexiva de las tesis del Círculo de Viena.

Con esta entrada se acaba el capítulo relacionado con la Historia del Pensamiento sobre el Método. En Filosofía de la Ciencia tienes disponible todas las entradas publicadas hasta el momento.