miércoles, 10 de septiembre de 2008

INFORME DE LECTURA: POR: Diego Andrés Suárez Arenas “La Falsación y la metodología en los programas de investigación científica” Imre Lakatos

El texto comienza con su INTRODUCCIÓN: Ciencia y Pseudociencia. En esta Lakatos comienza a exponer el funcionamiento de la metodología de sus programas de investigación teniendo en cuenta los fallos de las teorías “probabilística”, la de las ”revoluciones científicas” de Kuhn ,la cual lo remite a la historiografía, y el “falsacionismo” de Popper, el cual es tenido en cuenta por Lakatos como “versión ingenua” por no acomodarse a los procedimientos científicos reales.
Lakatos propone una comprensión de la ciencia que puede solucionar el problema del criterio de la demarcación teniendo en cuenta aspectos que pasaron por alto Thomas Kuhn y Karl Popper.
Según Lakatos el problema de la demarcación, es decir, la distinción entre lo que es ciencia y lo que no lo es, es de vital importancia tanto social como políticamente, no sólo se trata de encontrar conocimiento genuino ó “respetable”. Los acontecimientos históricos nos ofrecen un panorama de las consecuencias que puede tener el convencimiento o el adoctrinamiento de una teoría científica en el ámbito político, social y religioso. Que una cantidad suficiente de personas estén convencidas de la veracidad de una teoría no constituye un criterio de demarcación; grandes masas de personas han estado convencidas de teorías absurdas. Un alto grado de convencimiento como “criterio de demarcación” tampoco le conviene a un científico, “ningún grado de convencimiento” como afirma Lakatos. Un verdadero hombre de ciencia no debe profesar fe ciega a una teoría, esto no es característico de su labor. Resulta que una teoría científica puede tener gran valor científico aunque nadie la comprenda o la “crea”; el valor cognoscitivo de una teoría científica no depende de estados de la mente humana como son las creencias, la convicción y las comprensiones; este solo es equiparable al valor objetivo que le prestan los hechos.
Lakatos pretende redefinir en este artículo el término “razonamiento experimental”, afirma que la confrontación de una teoría con los hechos es condición fundamental como apoyo para la ciencia, pero que no es la única.
En 1973 ya era posible demostrar que una “ley de la naturaleza” no se podía demostrar a partir de un número finito de hechos.
El criterio de honestidad científica ha variado con el pasar del tiempo desde la aparición de la ciencia en el siglo XVII, cuando los científicos presentaban los hechos a la sociedad cómo criterio de comprobación de una conjetura científica, o teológica en el caso de la ciencia primitiva. Esto tal vez explica por qué todavía hay científicos que proceden sólo bajo tal medida, probando todo hasta más allá de cualquier duda, aunque la ilustración haya entendido que no existe una teología científica ni conocimiento teológico.
Con el correr del siglo XX ya se habría hundido la respetada teoría Newtoniana, lo cual hizo que muchos científicos se dieran cuenta que sus criterios de honestidad eran utópicos, ya que las leyes de Newton no era las leyes últimas de Dios como afirmaban algunos.
¿Qué distingue entonces a la ciencia de la Pseudociencia si todas las teorías científicas son igualmente incapaces de ser probadas?
Los “lógicos inductivos” propusieron el probabilismo matemático, según el cual una teoría puede ser aceptada por su mayor probabilidad matemática frente a las otras según la evidencia total obtenida; esto ofrece una perspectiva respetable pero que no establece una demarcación definida si no escalada. Karl Popper en 1934 demostró que la probabilidad matemática de cualquier teoría basada en la evidencia era cero, propone un nuevo criterio de demarcación independiente de los hechos; según él “una teoría es científica si podemos especificar por adelantado un experimento crucial (o una observación) que pueda falsarla, y es pseudocientífica si nos negamos a especificar tal <>”. Lakatos afirma que es realmente difícil que un científico abandone el convencimiento sobre su propia teoría por simples “anomalías experimentales” y es mucho más difícil que encuentre una refutación a su propia conjetura, por tanto no considera este sea todavía un buen criterio de demarcación.
Según el filósofo americano Thomas Kuhn una revolución científica tiene lugar cuando se propicia un cambio de convicciones científicas, algo que Lakatos califica como “irracional” y lo compara con una conversión religiosa. Kuhn no tiene en cuenta el hecho de que sin distinguir “ciencia” y “Pseudociencia” no se puede establecer un criterio de demarcación como base para medir el avance o retroceso científico.
Imre Lakatos ha defendido su “metodología de los programas de investigación científica” que según él soluciona algunos de los problemas que no tuvieron en cuenta Popper y Kuhn. Considera que la unidad descriptiva de una teoría exitosa es un “programa de investigación”. Dichos programas deben contener una heurística o “maquinaria poderosa” para resolver problemas y asimilar las anomalías. Para Lakatos todos los programas por buenos que sean contienen problemas no solucionados y anomalías no asimiladas, por ello todas las teorías nacen refutadas y mueren refutadas. Cómo distinguir entonces una buena teoría de una que no lo es, es decir, un programa científico progresivo. “todos los programas de investigación que admiro tienen una característica común. Todos ellos predicen hechos nuevos”. Según Lakatos los programas progresivos son los que nos conducen a hechos nuevos hasta ahora desconocidos. Los programas regresivos acomodan sus teorías a los hechos ya conocidos. Las falsaciones (en el sentido de Popper) y las verificaciones triviales no son las que definen el éxito de una teoría, lo que importa son las predicciones “dramáticas, inesperadas, grandiosas”, una o pocas de estas bastan para decidir un desenlace. Un programa de investigación regresivo o pobre es el que se retrasa con relación a los hechos, como el marxismo, que tan solo brinda “explicaciones” de los hechos a posteriori.
Lakatos deduce en esta introducción que las teorías de Popper y Kuhn son mitos. El refutacionismo de Popper es interpretado por Lakatos desde el punto de vista de la “crítica constructiva” para el beneficio de un programa de investigación. Argumenta que un programa puede tardare décadas en despegar del suelo. También dice que “no hay refutaciones sin una teoría mejor”. Dice que “Kuhn se equivoca al pensar que las revoluciones científicas son un cambio repentino e irracional de punto de vista”… “Lo que sucede normalmente es que los programas de investigación progresivos sustituyen a los regresivos”. Lakatos explica así las “revoluciones científicas” de Kuhn: “si tenemos dos programas de investigación rivales y uno de ellos progresa, mientras que el otro degenera, los científicos tienden a alinearse con el programa progresivo”. También considera que un programa regresivo se podría convertir en progresivo, por medio del deduccionísmo.














Lakatos procede a estructurar su postulado sobre “LA FALSACIÓN Y LA METODOLOGÍA DE LOS PROGRAMAS DE INVESTIGACIÓN CIENTÍFICA” en el siguiente orden de ideas:
1. La ciencia: razón o religión
2. Falibilísmo versus falsacionismo

a) El falsacionismo dogmático (o naturalista). La base empírica
b) El falsacionismo metodológico. La <>
c) Falsacionismo metodológico ingenuo versus sofisticado. Cambios progresivos y regresivos de las problemáticas

3. Una metodología de los programas de investigación científica

a) La heurística negativa: el <> del programa
b) La heurística positiva: la construcción del <> y la autono,ía relativa de la ciencia teórica
A continuación intentaré hacer un breve informe sobre el desarrollo que hace Lakatos de dichos temas:

1. La ciencia: Razón o religión

Para el ser humano la palabra “conocimiento” se refiere a los acaecimientos que pueden ser probados. Hace más de dos mil años que fue puesto en duda el poder probatorio del intelecto y los sentidos. Con la teoría física de Newton y los hallazgos de Einstein aumentó la confusión. Actualmente muy pocos filósofos o científicos consideran la ciencia como conocimiento probado. Con esto se derrumba la estructura clásica de valores intelectuales, la cual ha de ser reemplazada.
Según Lakatos lo más importante que hizo Popper fue comprende las implicaciones del colapso de la teoría de Newton, además de proponer audacia en las conjeturas y austeridad en las refutaciones, y una honestidad intelectual que no se centra en probar las proposiciones propias a como dé lugar, sino, especificando en qué condiciones abandonar tal posición. Pero Lakatos decide ser implacable al eliminar los errores y no simplemente evitarlos.
Kuhn piensa que la ciencia no crece en virtud de las “verdades” eternas acumuladas, inspirado también en la destrucción de la mecánica newtoniana realizada por Einstein. Habla de “revoluciones científicas”. Para Popper la ciencia es “revolución permanente”. Para Kuhn las revoluciones son excepciones extracientíficas, el “progreso” y la “ciencia normal” comienzan en la transición de la crítica al compromiso. El interés de Lakatos se centra en el retroceder al irracionalismo que según él propone Kuhn, al reconocer el fracaso del justificacionísmo y del falsacionísmo, queriendo explicar el progreso científico.
Para Popper el cambio científico es reconstruible racionalmente bajo el dominio de la “lógica de la investigación”. En cambio para Kuhn el cambio científico de un paradigma es una conversión mística en el terreno de la “psicología (social) de la investigación”, una especie de cambio religioso.
Las implicaciones del conflicto Popper Kuhn son serias, afectan tanto a las ciencias sociales como en los valores intelectuales fundamentales, la filosofía moral y la política. No se trata solo de un conflicto de orden teórico. Lakatos critica a Kuhn por buscar una verdad social basada en el poder que se le brinda a una teoría (tal como sucede en el ámbito político).
Lakatos pretende demostrar algo en este artículo:
Que hay dos puntos de vista que confluyen en la lógica de la investigación de Popper, uno es el falsacionismo metodológico ingenuo (así lo denomina Lakatos), criticado correctamente por Kuhn, lo cual pretende reforzar; además pretende dar a conocer una versión sofisticada del falsacionismo Popperiano que Kuhn no ha comprendido, y por medio de esta sustentar también las revoluciones científicas como verdadero progreso científico.

2. Falibilísmo versus falsacionísmo
En su texto el autor presenta cuatro teorías que están en conflicto, a saber: 1)el justificacionismo (Intelectualistas clásicos ‘racionalistas’ y empiristas), 2)el convencionalismo Duhemiano (simplicistas), 3)el falsacionísmo metodológico Popperiano y 3) El falsacionísmo sofisticado (su propia versión). Para resolver este conflicto lo primero que hace es describir la situación de la filosofía de la ciencia tras el hundimiento del <>, que entendía por conocimiento científico a las “proposiciones probadas”, pero no que se pusieron de acuerdo con los axiomas cuya verdad se puede probar por medios extralógicos:
Deducciones estrictamente lógicas sirven para inferir verdad, es decir transmitir una verdad, mas no para probarla, o sea establecerla. Los intelectualistas clásicos comprobaban cualquier proposición científica por medios extralógicos como intuición intelectual, revelación, experiencia. Los empiristas clásicos aceptaron como axiomas un conjunto reducido de “proposiciones fácticas” para expresar “hechos sólidos”; tal experiencia constituía la base empírica de la ciencia. La “lógica inductiva” más poderosa que la “deductiva” de los intelectualistas clásicos sirvió para probar las teorías científicas mediante una reducida base empírica. Lakatos dice que “Todos los justificacionistas, fueran intelectualistas o empiristas, estaban de acuerdo en que un enunciado singular que exprese ‘un hecho sólido’ puede refutar una teoría universal, pero pocos de ellos entendían que una conjunción finita de proposiciones fácticas puede ser suficiente para probar ‘inductivamente’ una teoría universal”.El esceptisísmo afirmaba que no podía haber conocimiento probado ni de ninguna clase. Así se abre la puerta al irracionalismo, el misticismo y la superstición. Pero para los justificacionistas la honestidad científica exigía que no se afirmara nada carente de pruebas. Fueron derrotados y se llegó a que “ninguna teoría es susceptible de ser probada”. El probabilismo fue importante por no necesitar pruebas concretas para obtener conocimiento científico, ellos entendieron que todas las teorías son imposibles de probar, establecieron un “rango de probabilidad” según la evidencia empírica y usando el cálculo de probabilidades. La honestidad científica consistiría entonces en expresar teorías muy probables y especificar para cada una la evidencia y la probabilidad de esta a la luz de la experiencia.
Fue Popper quien mejor contribuyó a demostrar que no se puede sustituir demostración por probabilidad, argumentando que en condiciones muy generales la probabilidad de cualquier teoría era cero. Las teorías son igualmente improbables que indemostrables.
Muchos filósofos consideran que así se arroja por la borda todo lo que era considerado conocimiento científico y hasta el conocimiento común. Así describe Lakatos el contexto en el que se debían evaluar las teorías luego del falsacionismo popperiano, algunos lo consideraban como una “retirada del pensamiento racional”, pero afirma que a su vez esto constituye un avance, procede a dar luces sobre el asunto de la siguiente manera.
a) El falsacionísmo dogmático (o naturalista). La base empírica.
Se trata según Lakatos de la variedad más débil del falsacionismo; este admite la falibilidad de todas las teorías científicas pero retiene una clase de base empírica infalible. “Es estrictamente empirista sin ser inductivista; niega que la cereza de la base empírica pueda ser transmitida a las teorías”. También dice que la contraevidencia empírica es el único punto de referencia para una teoría científica. Para el falsacionismo dogmático la ciencia no puede probar, pero sí puede refutar por medio de una base empírica de hechos. Así funciona su criterio de honestidad intelectual, considerando que una posición es científica si posee un “falsador potencial”. En el falasacionismo dogmático el teórico es quien propone y el experimentador, con arreglo a los hechos que le ofrece la naturaleza, es quien dispone, del modo que estos sean interpretables para el hombre. Según Lakatos fue Brathwaite quien sucitó el problema de la objetividad de la ciencia: “¿En qué medida, por tanto, debe considerarse a un sistema científico deductivo como una creación libre de la mente humana y en qué medida como una exposición objetiva de los hechos naturales?”. Él mismo responde que: El hombre se inventa un sistema científico y la naturaleza le dirá si es verdadero o falso, es un artificio humano que según los hechos observables es refutable o no.
En esto consiste el crecimiento de la ciencia según el falsacionismo dogmático, en la reiterada y sucesiva eliminación de teorías. Lakatos hace una lista de descubrimientos científicos importantes relacionándolos con el falsacionismo y su noción de “progreso científico” especulativa, deduce que el modo del falsacionismo dogmático es insostenible por descansar sobre dos supuestos falsos y posee un criterio de demarcación restringido entre ciencia y no-ciencia. El primer supuesto falso es que “existe una frontera natural, psicológica, entre las proposiciones teóricas y especulativas… y las proposiciones fácticas u observables”. Al segundo supuesto falso Lakatos lo denomina “doctrina de la prueba observacional o experimental”, esta dice que si “una proposición satisface el criterio psicológico de ser fáctico u observacional, entonces es cierta; se puede decir que ha sido probada por los hechos”. El criterio de demarcación del falsacionismo dogmático es que “una teoría es científica si se tiene una base empírica”. Lakatos discute sobre estos supuestos cotejándolos con la psicología, que testimonia contra el primer supuesto; la lógica, que lo hace contra el segundo supuesto, y la opinión metodológica, que está en contra de tal criterio de demarcación.
Para el primer supuesto dice que “todas las variedades de las teorías del conocimiento justificacionistas que reconocen a los sentidos como (la)fuente del conocimiento se ven obligadas a incorporar una ”, también dice que estas especifican un estado de la mente ”recta, normal, sana, meticulosa, sin prejuicios, científica” .Según Lakatos “no hay ni puede haber sensaciones no impregnadas de expectativas y por ello no hay demarcación natural (psicológica) entre las proposiciones observacionales y teóricas”. Para el segundo supuesto Lakatos insiste en que por medio de la lógica no podemos probar ni refutar las teorías, “ninguna proposición fáctica puede ser probada mediante experimentos”, de ello no depende su valor de verdad, “Las proposiciones solo pueden ser derivadas de otras proposiciones”. En cuanto al criterio de demarcación Lakatos dice que “el falsacionismo dogmático sería incapaz de las que suelen considerarse como teorías científicas”, ya que estas no prohíben ningún acontecimiento posible. Después de enumerar ejemplos y casos reales concluye de la siguiente manera: “No solo son las teorías científicas igualmente incapaces de ser probadas e igualmente improbables, sino que también son igualmente irrefutables”. Si se reconoce que todas las proposiciones de la ciencia son falibles, colapsan todas las formas de justificacionismo dogmático como razonables científicamente.

*INCONCLUSO

Informe de lectura Sobre: “El camino desde la estructura” Thomas Kuhn Por: Diego Andrés Suárez Arenas

A continuación hago una paráfrasis de los textos de Thomas Kuhn que hemos estudiado en el curse de Filosofía de la ciencia para dar informe de lectura de los mismos.

¿Qué son las revoluciones científicas?

El autor comienza por distinguir dos tipos de desarrollo científico basándose en su trabajo cómo filósofo de la ciencia, a saber, el normal y el revolucionario. Comúnmente es el primero el que produce resultados “exitosos”, gracias a que su naturaleza es bien descrita por una imagen muy común; dicho conocimiento es de carácter acumulativo y facilita la elaboración de una metodología gracias a que, como lo describe Kuhn está soportado por un edificio de conocimientos establecidos a los que se añaden nuevas deducciones a partir de lo que se ha dado por sentado ya, a la ciencia normal. Luego comienza a hablar del cambio científico revolucionario, el cual, primero que todo no es acumulativo, posee claves únicas en sus episodios y en el aspecto central del conocimiento científico. En el texto Kuhn intentará aislar varias de estas claves de la siguiente manera; describirá tres ejemplos de cambio revolucionario, luego discutirá tres características que tienen en común con las que dice proporcionar una buena base para el análisis teórico, de lo que se ocupará un poco al final del capítulo.

Kuhn primero describe lo que en su vocabulario define como “ejemplo”, habla de la definición de “cambio revolucionario” como aquel que se diferencia del “cambio normal-acumulativo”, característica fundamental para serlo. Esboza lo que pasa en el caso de “acumulación científica” describiendo ciertas características que se dan al momento de determinar una ley, basada en el conocimiento científico normal.

Kuhn hace un primer ejemplo corto de cambio revolucionario antes de pasar a los 3 que le ocuparan en el grueso del capitulo. Dice que estos cambios “ponen en juego descubrimientos que no pueden acomodarse dentro de los conceptos que eran habituales antes de que se hicieran dichos descubrimientos”. Estos descubrimientos o “invenciones” implican alteración en el modo de pensar y describir los fenómenos naturales. Para esbozar un ejemplo de cambio revolucionario se remite a Newton, cuya ley del movimiento se basa en conceptos que difieren de los que se conocían habitualmente. Otro ejemplo que esboza es el del pasote la astronomía ptolemaica a la copernicana, de la una a la otra hay cambios que no permiten ciertos usos en la terminología, el concepto de planeta no es el mismo para las dos, existe un cambio de referente que acompaña el cambio de ley o de teoría, por lo tanto no permite que el conocimiento sea acumulativo, no se puede pasar de lo nuevo a lo viejo mediante una simple suma a lo que ya era conocido. En el ejemplo, planeta para la teoría ptolemaica no es lo mismo que en la copernicana, el vocabulario cambia la esencia del objeto sin modificar la lógica.

Estos son ejemplos esquemáticos que nos dan un indicio de la diferencia entre revolucionario y normal. Ahora Kuhn pasa al primer ejemplo concreto de cambio revolucionario, de este y de otros dos más elaborará su discernimiento, pero para la brevedad y un buen entendimiento de la presente paráfrasis yo sólo redacto las ideas bien detalladas del primero, ya que el segundo y tercero se detienen en consideraciones que requieren de un mayor contacto con las áreas del conocimiento científico de que tratan, o por lo menos así lo considero. Creo que el primer ejemplo es suficiente para mi propósito.

EJ: “Sobre la transición de la física Aristotélica a la Newtoniana

Ha de considerarse tanto en el articulo original como en la presente paráfrasis tan solo una pequeña parte de esta transición, centrada en problemas de movimiento y mecánica, de una manera esquemática, en un orden histórico inverso, yendo de lo Newtoniano a lo Aristotélico.

Kuhn narra la experiencia que tuvo en el momento en que esperaba responder ¿Cuánta mecánica había sabido Aristóteles, y cuanto le había dejado a sus sucesores?

Descubrió en principio que al parecer Aristóteles no sabía casi nada de mecánica, lo cual le pareció una conclusión muy corriente y precipitada, además Aristóteles no parecía hasta el momento un buen físico según la evidencia, en sus escritos llenos de errores tanto de lógica como de observación. Conclusiones inverosímiles, tratándose de Aristóteles; sus estudios de física fueron tomados en serio durante muchos siglos. “Quizá sus palabras no siempre habían significado exactamente lo mismo para él y sus contemporáneos que para mí y los míos”, afirma Kuhn.

Estas sospechas resultaron estar bien fundadas. Dice el autor que ordenó “súbitamente todo cuanto tenía en mente cuando estudiaba dicha cuestión, de una manera que antes no creía posible. Ahora comprendía con qué autoridad hablaba Aristóteles para decir lo que dijo”. La primera característica general del cambio revolucionario, a partir de los ejemplos, consiste en un ordenamiento súbito de las piezas por sí mismas, apareciendo juntas de un nuevo modo. Las revoluciones científicas dejan campo para muchas correcciones y posterior “limpieza” que se hace poco a poco, ahora, el cambio fundamental no se experimenta de ese modo, este implica una transformación relativamente súbita y sin estructura, la experiencia se ordena por sí sola de una manera diferente, manifestando pautas que no eran visibles anteriormente.

Para concretar el ejemplo, Kuhn hace claridad acerca de la terminología usada por Aristóteles a diferencia de la Newtoniana. Para Aristóteles el término “movimiento” en física se refiere al “cambio en general”, el cambio de posición que es el objeto exclusivo de la mecánica para Galileo y Newton, es para Aristóteles solo una de las varias subcategorías del movimiento, como otras pueden ser, crecimiento, alteración de la intensidad y cambios mas cualitativos y generales.

Aristóteles dice que las distintas subcategorías difieren en varios aspectos, que no son del todo iguales, dice que solo lo son en sus características básicas relevantes para reconocerse o aplicarse como un tipo de cambio. Considera que todas las variedades de cambio constituyen una familia natural única.

Otro aspecto que se puede analizar desde lo puramente lógico y que difiere entre Aristóteles y Newton es acerca del papel fundamental de las “cualidades” en su estructura conceptual. En la física Aristotélica está invertida la jerarquía ontológica de materia y cualidad de la física del siglo XVII en adelante. Para Newton un cuerpo está constituido por partículas de materia, sus cualidades son consecuencia de la disposición de dichas partículas y de su movimiento e interacción. Para Aristóteles en cambio, la materia es casi prescindible, es un sustrato neutral presente en todas partes donde un cuerpo pueda estar, donde haya espacio o lugar; un cuerpo o sustancia existe en dicho sustrato neutral cuando está impregnado de cualidades y por ende puede tener identidad. La transformación de estas cualidades da lugar al movimiento, no la transformación de la materia, como en Newton.

La física de Aristóteles manifiesta muchos más aspectos, pero Kuhn se centrará en los dos anteriores para avanzar en su exposición. Teniendo en cuenta lo dicho hasta ahora sobre Aristóteles se irán atando cabos, los conceptos comienzan a prestarse apoyo mutuamente para adquirir un sentido colectivo y emerger realmente a la vez.

Se acaba de esbozar una noción de una física cualitativa. Dicha noción proporciona un elemento más para lograr la cohesión característica de las partes que se ha mencionado. Para Aristóteles el cambio de posición de la materia, o cambio de lugar, es una cualidad del objeto, como lo es el cambio de temperatura del mismo. Newton el cambio de posición lo expresa como cambio tout cort. En Aristóteles lugar es una de las cualidades de la omnipresente materia neutra. Entonces, movimiento local se entiende como cambio de cualidad, y se asimila como cualquier otro tipo de cambio. “La concepción del movimiento-como-cambio y la concepción de una física cualitativa resultan ser nociones profundamente interdependientes, casi equivalentes, y este es el primer ejemplo de ajuste o cohesión entre las partes”.

Comienza a cobrar sentido otro aspecto de la física de Aristóteles. El desarrollo de un cambio de cualidades es natural y en general se caracteriza por llegar a un “punto final del cambio” como un conjunto de cualidades que representa el estado natural del cuerpo en el cual ha de permanecer. Este movimiento se caracteriza por ser asimétrico al igual que el movimiento local. Para la doctrina Aristotélica los cuerpos realizan sus propiedades naturales. Ya encajadas varias partes de la doctrina de Aristóteles sobre física, Kuhn concluye su ejemplo hablando de la noción Aristotélica del vacuum o vacío, para dar apoyo a las anteriores tesis aisladas que parecen arbitrarias. Aristóteles afirma que el vacío es imposible; si la posición es una cualidad, y como tal no puede existir separada de la materia, entonces hay materia donde quiera que haya posición, donde un cuerpo pueda estar. Un vacío sería un espacio sin materia, un imposible.

Todos estos elementos de la doctrina Aristotélica van encontrando cohesión. Si un vacío pudiera existir, entonces el cosmos o universo Aristotélico no podría ser finito, el espacio termina donde termina la materia, mas allá no hay nada en absoluto, ni espacio ni matera. Una esfera estelar infinita causaría problemas al pensamiento geocéntrico antiguo, (en el universo infinito no hay centro, problema para cualquier cuerpo que busque su posición natural y sus cualidades) En un vacío un cuerpo no podría saber la localización de su lugar natural, por estar en contacto con todas las posiciones en el universo. La presencia de la materia es la que proporciona estructura al espacio. “Así pues, tanto la teoría de Aristóteles del movimiento local natural como la atronomía geocéntrica antigua se van amenazadas por un ataque a la doctrina de Aristóteles del vacío. No hay ningún modo de “corregir” las ideas de Aristóteles sobre el vacío sin reconstruir la mayor parte del resto de su física.

Luego de estas observaciones someras sobre el mundo fenoménico que describe la física de Aristóteles, Kuhn asume haber indicado cómo las piezas de dicha descripción encajan para formar un todo integral que con el tiempo se rompió y formó el camino hacia la mecánica Newtoniana.

Los siguientes dos ejemplos que Kuhn expone hablan de otros ejemplos de cambio revolucionario, especialmente de cambios de terminología entre dos teorías de épocas distantes. Trataré de utilizar solo este primer ejemplo de la transición de la física Aristotélica a la Newtoniana por ser seguramente más prístino en su terminología que los dos que le suceden, espero sirva para ilustrar bien las características que compartirían los tres en el documento original, las cuales paso a describir ahora

Luego de concluir su tercer ejemplo que habla específicamente de un cambio de vocabulario en teorías sucesivas, Kuhn termina su discusión exponiendo las características del cambio revolucionario que estos ponen de manifiesto (trataré de especificarlas usando solo el primer ejemplo). El las divide en tres apartados:

1. Los cambios revolucionarios son necesariamente holistas, a diferencia del cambio normal que es acumulativo.

Incluyo a continuación algunos apartes del texto en los que se mencionan características de los tres ejemplos propuestos por Kuhn para explicar este apartado:

“En el cambio normal, simplemente se revisa o añade una única generalización, permaneciendo idénticas todas las demás. En el cambio revolucionario, o bien se vive con la incoherencia o bien se revisan a un tiempo varias generalizaciones interrelacionada”

“En el caso de la física de Aristóteles no puede simplemente descubrirse que un vacío es posible o que el movimiento es un estado, no un cambio-de-estado. Una imagen integrada de varios aspectos de la naturaleza tiene que cambiarse a la vez”.

2. La segunda característica que expone Kuhn está muy relacionada con la anterior y él mismo la había tratado antes como un “cambio de significado”, en este caso se refiere a ella como un “cambio en la determinación de los referentes”, “cambio en el modo en que las palabras y frases se conectan con la naturaleza”. También la ciencia normal altera la conexión de los términos con la naturaleza, pero, “lo que caracteriza a las revoluciones no es simplemente el cambio en el modo en que se determinan los referentes, si no una clase de cambio aun mas restringida”. De esta clase restringida de cambio se ocupaba el autor en los días en que escribió el articulo, pero luego nos dice hablando en términos generales qué: “El carácter distintivo del cambio revolucionario en el lenguaje es que alteras no solo los criterios con los que los términos se conectan con la naturaleza; altera además, considerablemente, el conjunto de objetos y situaciones con los que se conectan esos términos”. “Ejemplos de movimiento que habían sido paradigmáticos para Aristóteles –de bellota a roble, y de la enfermedad a la salud- no eran movimientos en absoluto para Newton”. Esto describe un cambio en las categorías taxonómicas, que en el cambio revolucionario es necesariamente holista. Las categorías taxonómicas son el requisito previo para las descripciones y generalizaciones científicas. No solo se da un cambio en los criterios relevantes para la categorización, hay un cambio también del modo en que los objetos y situaciones dadas son distribuidos entre las categorías preexistentes.

El holismo al que se refiere Kuhn “está enraizado en la naturaleza del lenguaje, pues los criterios relevantes para la categorización son ipso facto criterios que conectan los nombres de esas categorías con el mundo. El lenguaje es una moneda de dos caras: una mira hacia fuera, al mundo, la otra hacia adentro, al reflejo del mundo en la estructura referencial del lenguaje.

3. Las yuxtaposiciones metafóricas son necesarias en una revolución científica para un lenguaje. Los tres ejemplos que expuso Kuhn implican un cambio esencial de modelo, metáfora o analogía, un cambio en la noción de la semejanza y la diferencia entre las cosas. En el ejemplo que yo he tomado como referente dicha semejanza es interior al tema, “para los aristotélicos el movimiento era un caso especial de cambio, de modo que la piedra que cae era como el roble que crece, o como la persona recobrándose de una enfermedad. Ésa es la pauta de semejanzas que hace de estos fenómenos una familia natural, que los sitúa en la misma categoría taxonómica, y que tuvo que ser sustituida en el desarrollo de la física Newtoniana”.

Los tres ejemplos que se exponen en el artículo ponen de manifiesto características interrelacionadas que son familiares a los estudios de la metáfora. Presenta yuxtaposición de objetos y situaciones y se consideran sus semejanzas, igualdades y diferencias, esto con el fin de trasmitir y mantener una taxonomía. Así se pretende crear un “espacio de características” en el que los elementos previamente yuxtapuestos están permanentemente agrupados como ejemplos de la misma cosa, simultáneamente también están separados de objetos y situaciones con los que en otras circunstancias podrían confundirse.

En el momento de una revolución científica debe contener yuxtaposiciones metafóricas que cambian, las cuales son esenciales para el aprendizaje del lenguaje científico u otro tipo de lenguaje. Cuando la presentación de ejemplos forma parte del proceso de aprendizaje de términos como “movimiento”-en este caso- lo que se adquiere es conocimiento del lenguaje y del mundo a la vez. Kuhn se refiere de la siguiente manera: “Por una parte, el estudiante aprende qué significan esos términos, qué características son relevantes para conectarlos con la naturaleza, qué cosas no pueden decirse de ellos so pena de caer en una contradicción, etc. Además el estudiante aprende qué categorías de cosas pueblan el mundo, cuales son sus características más sobresalientes, y algo acerca de la conducta que les es permitida y aquella que se les prohibe.

Kuhn retoma el ejemplo de las dos caras de la moneda, dice que el conocimiento de las palabras y el conocimiento de la naturaleza se adquieren a la vez, o al menos en la mayoría de los procesos de aprendizaje del lenguaje, no lo determina como dos clases de conocimiento, para él son “dos caras de una sola moneda que el lenguaje proporciona”.

Al final del artículo y después de hablas de este carácter bifronte del lenguaje el autor afirma: “Si tengo razón, la característica esencial de las revoluciones científicas es su alteración del conocimiento de la naturaleza intrínseco al lenguaje mismo, y por todo lo anterior a todo lo que pueda ser completamente descriptible como una descripción o una generalización, científica o de la vida diaria”. Sobre el ejemplo de Kuhn que informé del cambio en la mecánica dice: “para introducir en la ciencia el vacío o el movimiento lineal infinito se requerían informes observacionales que sólo podían formularse alterando el lenguaje con el que se describía la naturaleza. Hasta que ocurrieron esos cambios, el mismo lenguaje resistía la invención o introducción de las codiciadas teorías nuevas”. Y concluye: “La violación o distorsión de un lenguaje científico que previamente no era problemático es la piedra de toque de un cambio revolucionario”.


Conmensurabilidad, comparabilidad y comunicabilidad.

Thomas Kuhn y Paul Feyerabend habrían empleado por primera vez en “letras de molde” un término que tomaron de las matemáticas para aplicarlo entre los textos de dos teorías científicas sucesivas, a saber “Inconmensurabilidad”. Inducidos por los problemas que ambos tuvieron en la interpretación de dichos textos científicos. Kuhn afirma al comienzo de su artículo “Cada uno de nosotros estaba fundamentalmente preocupado por mostrar que los significados de los términos y conceptos científicos –por ejemplo y - cambiaban frecuentemente con la teoría en la que aparecían. Y ambos afirmábamos que cuando ocurría esta tipo de cambio era imposible definir todos los términos de una teoría en el vocabulario de otra. Cada uno de nosotros materializaba esta última afirmación en comentarios acerca de la inconmensurabilidad de las teorías científicas”. Esto fue en 1962.

Afirma Kuhn que desde entonces los problemas sobre la variación del significado se han discutido ampliamente pero nadie lo ha hecho desde la perspectiva que lo hacen él y Feyerabend. Ese descuido se debe en parte al papel desempeñado por la metáfora y la intuición en sus formulaciones iniciales. No se ha hecho hasta ahora una discusión seria sobre inconmensurabilidad. Este concepto como lo había elabrado hasta ahora Kuhn fue constantemente criticado y rechazado por Hilary Putman, quien reelabora muy bien dos líneas de crítica ya existentes en la literatura filosófica para la inconmensurabilidad. El artículo comienza con una breve formulación de estas. Las transcribo literalmente: Primera: “Si dos teorías son inconmensurables deben ser formuladas en lenguajes mutuamente intraducibles”... siendo así …“Si no hay modo en que las dos puedan formularse en un único lenguaje, entonces no pueden compararse, y ningún argumento basado en la evidencia puede ser relevante para elegir entre ellas”. Esto presupone una comparación en puntos compartidos que los defensores de la inconmensurabilidad parecen negar… “Por consiguiente su discurso es necesariamente incoherente”.

Segunda: Gente como Kuhn nos dice que es imposible traducir teorías antiguas a un lenguaje moderno. Pero luego ellos hacen precisamente eso, reconstruir las teorías de Aristóteles, Newton, o Lavoisier, o de Maxwell sin separarse del lenguaje que ellos y nosotros hablamos todos los días. En estas circunstancias, ¿qué pueden querer decir cuando hablan de inconmensurabilidad?

En el artículo Kuhn se ocupará específicamente de esta segunda línea de crítica, hablando necesariamente también de la primera, pues no son independientes. Eliminará el malentendido pero quedará un “residuo” del que se ocupará al final del artículo.

A continuación expongo el trabajo de elaboración conceptual de Kuhn en mis palabras y tratando de guardar fidelidad con el original.

Inconmensurabilidad local

Kuhn comienza por describir el origen del término “inconmensurabilidad” y su significado, expone dos ejemplos matemáticos con uso en la geometría y concluye: Inconmensurabilidad = No hay medida común. Esto no quiere decir que una comparación sea imposible. Dos magnitudes inconmensurables pueden llegar a ser aproximadas en el grado que sea requerido, en la antigüedad las técnicas geométricas se aplicaban sin cambios a los dos elementos entre los que se buscaba una comparación. La inconmensurabilidad en la ciencia funciona de una manera metafórica, no se habla de una “medida común” sino de un “lenguaje común”, “Afirmar que dos teorías son inconmensurables significa afirmar que no hay ningún lenguaje, neutral o de cualquier otro tipo, al que ambas teorías, concebidas como conjuntos de enunciados, puedan traducirse sin resto de pérdida”. Metafórica o literalmente “inconmensurabilidad” no significa “incomparabilidad”. La mayoría de los términos de una teoría a otra se conservan, los problemas surgen de un subgrupo de términos y enunciados que los contienen y a su vez los interdefinen. En realidad es u problema realmente modesto el de la inconmensurabilidad.

Esta versión modesta Kuhn la define originalmente como “Inconmensurabilidad local”, la inconmensurabilidad aplicada al lenguaje. Si esta versión npuede sostenerse entonces la primera línea de crítica de Putman debe fracasar. Los términos que se preservan le proporcionan a Kuhn una base suficiente para hacer comparaciones y explorar significados.

La siguiente consideración expresa que todavía no está claro que la inconmensurabilidad pueda ser local, pues es difícil de explicar que haya unos términos que cambian de significado y otros que no. Entonces nos dice que los significados son productos históricos que cambian según las demandas, lo cual hasta ahora es poco plausible. Este problema decide dejarlo para más adelante, la “invariancia del significado” la considera una dificultad real inquiriendo que no suministra una solución al problema de la inconmensurabilidad. “Resultará que no es el mejor encabezamiento para una discusión sobre inconmensurabilidad.

Ahora retorna a su versión “local” para resolver específicamente la segunda línea de crítica.

Traducción frente a interpretación

Comienza haciendo una pregunta sobre los términos de una teoría antigua que resultan ser vacuos en una más reciente ¿Cómo pueden los investigadores y demás analistas tener tanto éxito al reconstruir o interpretar esa teoría más antigua, incluyendo el uso y función de aquellos mismos términos? Historiadores y antropólogos dicen que es posible, premisa que adopta Kuhn como justificada por su satisfacción ilimitada. Correctos o no, Kuhn piensa que son supuestos fundamentales en las críticas a la inconmensurabilidad. Sus tres críticos –Davidson, Kitcher y Putman- describen dichos resultados como “traducción” o “esquemas de traducción” y tal efecto lo dan como incompatible con la inconmensurabilidad local. Afirma Kuhn: Al intentar ahora mostrar donde estriba la dificultad de sus argumentos, paso ahora a lo que son las preocupaciones fundamentales de esta artículo”.

El argumento que acaba de platear Kuhn depende esencialmente de una ecuación entre y , cuya pista sigue sólo hasta la obra de Quine Palabra y Objeto, la cual piensa que está equivocada, pues en la filosofía reciente se sabe que estos son dos conceptos diferentes. La traducción contiene un componente interpretativo, una traducción real encierra dos procesos distinguibles de los que la filosofía analítica actual solo se ha ocupado de uno y lo confunde con el otro. Kuhn evita esta acostumbrada confusión distinguiendo dos procesos en el siguiente orden, primero “traducción”, y segundo “interpretación”. En fin, reconoce dos procesos, tal argumento no depende de la preservación del término “traducción” para el primer proceso. Para nuestros propósitos se puede afirmar que, una traducción la hace alguien que sabe dos idiomas, este produce un texto equivalente sustituyendo palabras y secuencias de palabras con el propósito de contar más o menos la misma historia, con las mismas ideas y situaciones. Kuhn deja “texto equivalente” por especificar, al igual que “igualdad de significado” e “igualdad de referente”

>: Primero distingue dos características de su noción de “traducción”: a)Hay una lengua más antigua, que ya existía y de la que no se ha hecho traducción, la cual no ha de cambiar en sus significados, sólo aumenta el número de referentes para algunos términos sin cambiar el modo en que esos referentes se determinan en su historia. B) Una traducción consiste en reemplazar palabras y frases originales por otras palabras y frases, las glosas y prefacios no forman parte de una traducción perfecta, si se requiere de estas hay que preguntarse por qué. Estas dos son características idealistas que son tomadas del manual de traducción Quineano, su naturaleza y función.

: Empresa requerida por la historia, la antropología y otras disciplinas. Es posible que quien “interpreta” sólo domine una lengua, así se encuentra frente a sonidos y gráficos ininteligibles. De este modo para Kuhn el “traductor radical” de Quine lo que realiza es una interpretación. <> caracteriza un ejemplo de un término ininteligible. “Observando la conducta y las circunstancias que rodean la producción del texto, y suponiendo durante todo el proceso que se puede extraer un sentido de la conducta aparentemente lingüística, la persona que interpreta busca ese sentido, se esfuerza por inventar hipótesis que hagan inteligible la preferencia o inscripción, como por ejemplo que <> significa <>”. Con éxito la persona habrá aprendido una nueva lengua o una más antigua, con el término <>. Aprender una nueva lengua no es lo mismo que hacer una traducción a la propia, el éxito de lo primero no implica el de lo segundo.

Quine confunde “interpretación” con “traducción”, lo cual según lo anterior caracteriza un error. Para interpretar la preferencia <> el antropólogo Quineano no necesita provenir de una comunidad familiarizada con conejos. Puede aprender la palabra desde el referente=criatura, como aprendió su propia lengua. En lugar de traducir, aprende a reconocer un animal empleando el término indígena.

Esta alternativa no ha excluido la traducción. El intérprete no puede introducir el término a su propia lengua pues la estaría alterando, esto no es traducir. Puede intentar describir en su propia lengua los referentes del término (características de la criatura). Una traducción exitosa ha de adecuar el término con estas criaturas, y sólo con estas, que provocan su preferencia. La descripción de sus características en la segunda lengua son su traducción, <> es la forma de abreviarla. De este modo no se presentan problemas de inconmensurabilidad.

En otras circunstancias en que no exista una descripción en la segunda lengua para el referente, al aprender a reconocer <> el intérprete puede haber aprendido las características distinguibles pero desconocidas para las personas de su lengua, la cual no les proporciona una terminología descriptiva adecuada; los indígenas pueden estructurar de otro modo el mundo animal, usando discriminaciones distintas como referente. De este modo<> sería un término irreducible a la segunda lengua, y para quienes la hablan al mencionar <> lo hacen por que aprendieron a usar la palabra y en ese momento están hablando la lengua indígena. Kuhn afirma: “Estas son las circunstancias para las que yo reservaría el término Inconmensurabilidad”.

Determinación de la referencia frente a traducción

Según la tesis de Kuhn los historiadores de la ciencia encuentran este tipo de circunstancias a menudo pero no siempre las reconocen. Philip Kitcher critica la teoría de la inconmensurabilidad con un punto considerable para Kuhn; es acerca de los referentes y la forma en que estos se usan para interpretar, de una teoría antigua, los términos que pueden resultar inconmensurables, según la teoría de Kuhn, en un lenguaje moderno.

Para Kuhn, Kitcher tiene razón en lo que dice acerca de los referentes que proporciona una teoría antigua. Estos se pueden identificar haciendo uso del lenguaje científico moderno, en la medida de que los términos ó expresiones antiguas posean un referente. A continuación transcribo el ejemplo que usa el autor en su artículo para explicar el punto: “Cuando se lee un texto de Priestley y se piensa desde un punto de vista moderno los experimentos que describe, se ve que se refiere algunas veces al mismo oxígeno y otras a un atmósfera enriquecida con oxígeno. es normalmente aire del que se ha eliminado el oxígeno. La expresión < a es más rico en flogisto que b> tiene el mismo referente que < a tiene mayor afinidad con el oxígeno que b>. En algunos contextos, por ejemplo en la expresión el término no tiene referente en absoluto, pero hay otros contextos en los que se refiere al hidrógeno”. Los historiadores sin duda usan el lenguaje moderno para identificar referentes en los textos científicos antiguos, como en el ejemplo de <>, en el que hay una determinación de la referencia para entender las expresiones problemáticas un supuesto texto. La terminología moderna permite explicar las áreas en las que fueron exitosas las viejas teorías y por qué lo fueron. La equivocación de Kitcher, según Kuhn, es que él describe el proceso de determinación de la referencia como una traducción, dándole punto final a la discusión sobre inconmensurabilidad.

El autor propone pensar como ejemplo en una traducción usando las técnicas de Kitcher; entonces, los términos que tienen que ver con en este caso quedarían en blanco por no tener referente, posibilidad que se puede pensar como un fracaso de traducción. Si sólo se pueden traducir los términos con referente, una obra de ficción, por ejemplo, no se podría traducir, lo mismo pasaría con la obra científica antigua. Estos son textos que nos informan acerca de lo que creían los científicos antiguos, sin importar su valor de verdad, locuaz debe quedar claro en una buena traducción. Kitcher puede seguir su estrategia basado en el contexto que desarrolle con los términos que tienen referente, lo cual se presta para confusiones, tanto con los términos que tienen referente como los que no. La utilización de un término sin referente y sus derivados es propia del texto original. La sustitución de términos y expresiones relacionados, por otras/os que no lo están, o no muy bien, generan incoherencias que no contiene el original. Es decir, “al examinar una traducción examinada siguiendo el método propuesto por Kitcher con frecuencia sería imposible entender por qué esos enunciados figuraban yuxtapuestos en un solo texto”.

Para dejar clara la cuestión, Kuhn elabora un epítome sobre la teoría del flogisto tratando de conservar una terminología de la química del siglo XVIII, lo transcribo:

“Todos los cuerpos químicos están compuestos de elementos y principios químicos. Los principios dotan a los elementos de propiedades especiales. Entre los elementos están las tierras y los aires, y entre los principios el flogisto. Un conjunto de tierras, por ejemplo carbono y azufre, son especialmente ricas en flogisto en su estado normal y dejan un residuo ácido cuando se les priva de él. Otro conjunto, los residuos de la calcinación o minerales, son normalmente pobres en flogisto, pero cuando se impregnan de él se convierten en brillantes, dúctiles y buenos conductores de calor –o sea metálicos-. Durante la combustión y otros procesos relacionados, la calcinación y la respiración, tiene lugar una transferencia de flogisto al aire. El aire cuyo contenido flogístico (aire flogistizado) se ha incrementado de esta manera tiene reducida su elasticidad y su capacidad para mantener la vida. El aire del que se ha eliminado parte de su contenido flogístico (aire desflogistizado) mantiene la vida de forma espacialmente vigorosa”.

El ejemplo contiene enunciados de la “química del flogisto”, enunciados y palabras de textos del siglo XVIII y XX funcionando igual. Otros como los derivados de se pueden reemplazar por frases en que la única palabra extraña a la química moderna sería . Muchos de estos términos, incluido , han desaparecido; otros como han perdido su significación química; otros como permanecen casi iguales en la química del siglo XX. El término antes se aprendía a la par con los otros, al igual que los referentes de los otros términos y los criterios para identificarlos, estos se han visto alterados drástica y sistemáticamente; por ejemplo para el siglo XVIII funcionaba igual que los dos términos actuales y .

Tengan referente o no estos términos no se pueden eliminar de una traducción de la química del siglo XVIII. “Deben servir, por lo menos, como variables para los conjuntos interrelacionados de propiedades que permiten la identificación de los referentes comúnmente aceptados de estos términos. Para que un texto que expone la teoría del flogisto sea coherente, debe considerar la sustancia liberada en la combustión como un principio químico, el mismo que hace que el aire sea irrespirable y que además deje un residuo ácido cuando se lo elimina de un material apropiado”. Estos términos fuera de no ser eliminables, parece que tampoco se pueden reemplazar por conjuntos de frases modernas. Este es el siguiente caso a tratar en el artículo. El epítome elaborado por Kuhn conteniendo tales términos no puede entonces considerarse una traducción en el sentido de la filosofía reciente.

El historiador como intérprete y maestro del lenguaje

¿Se puede o es correcto afirmar que >flogisto> (S XVIII) no es un término traducible? Ya se han descrito varias formas en lenguaje moderno para darle a este un referente, “por ejemplo, el flogisto se libera en la combustión, reduce la elasticidad del aire y sus propiedades para mantener la vida, etc.” Podrían construirse frases así para hacer una traducción de , pero Kuhn no lo considera así. Las frases que describen contendrían términos intraducibles como y . Estos y constituyen un conjunto interrelacionado que debe aprenderse a la vez como un todo para poder describir fenómenos naturales. “Sólo después de que estos términos se hayan aprendido de esta manera se puede reconocer la química del siglo XVIII por lo que fue: una disciplina que no solo difería de su sucesora del siglo XX en lo que tenía que decir sobre sustancias y procesos individuales, sino también en la forma en que estructuraba y parcelaba gran parte del mundo químico”.

Otro pequeño ejemplo que se expone en el texto tiene que ver con la mecánica Newtoniana. Al aprender sobre esta, los términos y deben aprenderse a la vez y la debe tener un papel en este aprendizaje. No se puede aprender y y luego descubrir empíricamente que = x (a=aceleración). Tampoco en otro orden. Los tres deben aprenderse a la vez como una forma global de hacer mecánica. Este punto suele ser ocultado por las formulaciones. “Al formalizar la mecánica se puede seleccionar el término o como primitivo y luego introducir el otro como definido”. La formalización no nos indica con precisión sobre la conexión de términos primitivos y definidos con la naturaleza y la física real. Por ejemplo, los términos y no se pueden implementar si no dentro de la segunda ley, por ello no son traducibles en el lenguaje de Aristóteles ni en el de Einstein. Cada una de estas tres formas de hacer mecánica contiene un lenguaje único, interrelacionado localmente, deben aprenderse simultáneamente y aplicarse a la naturaleza como un todo. No se pueden transmitir conceptos individuales de estas mediante una traducción.

¿Cómo comunica un historiador sus resultados o enseñanzas acerca de la teoría del flogisto?, ¿qué ocurre con sus enunciados? La respuesta de Kuhn es, según el tipo de auditorio. El más relevante para él sería un auditorio que no supiera nada del . En este caso, el historiador describe el mundo del siglo XVIII y simultáneamente enseña el lenguaje de la química de este siglo. La mayoría de las palabras empleadas conservan su uso. Para los términos intraducibles que el historiador debe enseñar debe inventar o descubrir significados que los hagan inteligibles en los textos. La interpretación sirve para descubrir el uso de estos últimos, esto ha sido discutido ampliamente bajo el título de “Hermenéutica”. “Una vez el proceso ha terminado y las palabras se han aprendido, el historiador las usa en su trabajo y las enseña a otras personas. La cuestión de la traducción simplemente no se plantea.

Así sugiere Kuhn que se procede frente a un auditorio no iniciado en una teoría. El auditorio interpreta la forma en que se les enseña y en que se lee los textos. Las personas que ya conocen las teorías no encuentran en los textos más que meras traducciones, olvidan como sabían algo de las mencionadas teorías. El lenguaje aprendido se solapa con el materno.

INFORME DE LECTURA Por: Diego Andrés Suárez Arenas “La unidad de la imagen científica del mundo” (Los nuevos fundamentos de la ciencia.) Werner

El texto hace parte de una conferencia dictada por el autor en noviembre de 1941 en la Universidad de Leipzig.

Comienza con un comentario sobre una modificación de la imagen del mundo que se está viviendo para la época, y la lucha que se ha entablado para darle una nueva forma. Las reflexiones del ámbito espiritual sobre el cambio, como las que hace la ciencia, se retraen a un segundo plano por sí mismas. Dentro de la conformación externa del mundo, las modificaciones que se dan en la mente del hombre y sus ambiciones, no son menos importantes que los acontecimientos aislados, que se consideran de gran magnitud. Está claro que las modificaciones que experimenta el espíritu de manera profunda y duradera son también de gran importancia para la estructura del futuro.

En su texto el autor pretende concebir su época desde un punto de vista insólito, e importante para la esfera científica y las distintas ciencias naturales que al parecer se van fusionando y tomando unidad entre ellas. Dice: “Hablemos pues de la imagen científica del mundo, y ya el hecho de plantear la cuestión es una confesión de que en épocas pasadas no siempre ha estado muy bien servidas”.

I

Comenzamos por considerar los comienzos de la ciencia al inicio de la Edad Moderna. Una época con una imagen del mundo unitaria y sencilla, cuando Kepler estudiaba el movimiento de los planetas y Galileo había descubierto las leyes de la caída de los cuerpos; no se consideraba la existencia de una imagen científica del mundo. La imagen estaba determinada por la fe en las sagradas escrituras y los estudiosos buscaban ensalzar a Dios reconociendo su obra en la naturaleza y las leyes de su armonía. Copérnico y Galileo no pensaron en que sus descubrimientos estuvieran en contradicción con los preceptos de la imagen religiosa del mundo en dicha época; tampoco pensaron en qué puntos su doctrina iba en contra del pensamiento tradicional y las doctrinas eclesiásticas. Para Kepler sus estudios sobre la armonía de las esferas no era otra cosa que seguir la vía de la creación divina. En el final de su libro sobe la armonía cósmica se lee: “Al disponerme, pues, a procurar al entendimiento humano, con ayuda del cálculo geométrico, una visión de Su obra creadora que el creador de los cielos, el padre de toda criatura racional, al que todos los sentidos morales deben su existencia, Él, que es inmortal… ojala me favorezca con su clemencia y me libre de decir sobre Su obra algo que no pueda subsistir ante Su magnificencia y que haga extraviarse a nuestro intelecto; ojala haga que emulemos la perfección de Su obra santificando nuestra vida”. Esto refleja una actitud fundamental de una ciencia insipiente. Sólo la iglesia advirtió en las nuevas doctrinas científicas un peligro para su imagen religiosa del mundo.

Pocas décadas después ya el hombre de ciencia se imponía y su cometido se había transformado junto con su imagen del mundo. Con los primeros intentos de dar un orden y explicar la naturaleza por medio de las matemáticas se agudizó rápidamente la conciencia de la dificultad y de lo interminable de esta tarea. Los hombres de ciencia de principios del siglo XVIII ya no estaban al servicio de un “plan de creación divino” y sus desvelamientos, sino frente a u universo nuevo de extensión inmensa y sin confines. En las palabras de Newton: “Yo no sé que piensa de mí el mundo; pero a mi me parece que soy como un niño que juega a la orilla del mar y que se alegra de encontrar de vez en cuando un canto rodado más liso que los demás o una concha marina más hermosa de lo corriente, mientras el gran océano de la verdad permanece ante él inexplorado”.

En dicha época ya se había abierto el paso a la noción de “método” en las ciencias de la naturaleza, se exploraban los fenómenos en un territorio infinito; El método puede aplicarse a muchos problemas que la naturaleza nos plantea, a las relaciones singulares, y no a la comprensión de un nexo único. La mecánica Newtoniana abarcaba un sector del mundo asequible al campo de la experimentación; además estaba la óptica, esta por ejemplo no cabía tratar con los problemas de la mecánica directamente; en ninguna investigación de estas se hablaba de naturaleza animada. La mecánica constituía un modelo al que se ceñían para ordenar todas las otras ramas de las ciencias naturales; a su vez esta ordenación constituía una tarea inmensa.

Para los siglos siguientes se emprendió dicha tarea. En el siglo XVIII se lograron progresos decisivos para la comprensión de los fenómenos eléctricos, se sentaron las bases para la química moderna y varios descubrimientos astronómicos. Se captaron y ordenaron sistemas de experiencia sobre la naturaleza viviente. En el siglo XIX se llevó a la altura de la mecánica de Newton la teoría de los fenómenos magnéticos, eléctricos y del calor. En muchos otros campos de la ciencia, la investigación se hizo con una profundidad y amplitud superior a la del tiempo remoto.

La ciencia se disgregó en un gran número de campos parciales, cada uno con multitudes de problemas difíciles de dominar por un solo hombre. Esta es una nueva valoración de los conocimientos científicos, el especialismo, deplorado con frecuencia. “Mientras la fuerza impulsora de la investigación había sido antes la ambición de conocer el nexo causal que rige el universo con su totalidad, de llegar a penetrar el plan mismo de la creación, el orgullo del investigador auténtico se cifra luego en dedicarse amorosamente al detalle, en conocer y ordenar sistemáticamente los rasgos más finos de la naturaleza en un campo reducido”. También se evolucionó a una mayor valoración en la pericia del especialista, frente a la capacidad de penetrar en los grandes nexos. No existía una imagen científica de fondo unitaria del mundo, estaba seccionada en pequeños campos de especialidad.

La ciencia de la naturaleza había encontrado una meta común por medio del método científico, por lo menos todas las ciencias exactas se basaban en el modelo de la mecánica Newtoniana. Intentaban calcular el curso del mundo desde algunos datos determinados, en principio pocos científicos confiaban que este problema se aplicara a todos los campos. Este entendimiento de las ciencias se expone en la ficción de Laplace de “un demonio capaz de conocer todo el estado actual del mundo en todos sus elementos determinantes y que luego, mediante este conocimiento, de calcular todo el curso futuro del universo.

Había una meta en común de encontrar todas las leyes naturales que hicieran posibles los cálculos. La cuestión de si todos los fenómenos naturales podrían reducirse a las leyes de la mecánica seguía en pie, no se encontraban otros sistemas conceptuales independientes.

Las ciencias “exactas” se unificaron inspiradas en el modelo de la mecánica de Newton. Otros investigadores seguían atenidos a conceptos de diferente índole. En la mitad del siglo XVIII se difundió el vitalismo que hablaba de la independencia de las leyes de la vida de las de la física y la química. La “fuerza vital” se puso alguna vez en relación con los procesos eléctricos, igual se suponía a priori que todos los procesos biológicos partían de la materia animada, de una manera distinta al campo de la física. En la química los investigadores hablaban de las sustancias formadas en los organismos como algo fundamentalmente distinto de lo procedente de la naturaleza inanimada. En la filosofía natural del romanticismo se generaliza la idea de estas leyes de distinta especie, importantes investigadores intentaron en vano introducir en la naturaleza inanimada las leyes de los procesos vitales. Se resistían a explicarlo todo con “choques” y “golpes”. Pero estas ideas románticas no resistieron la seguridad y claridad de las ciencias “exactas”.

Se puede hablar de una unidad de las ciencias naturales como método en la mitad del siglo XIX. Wöler logró la síntesis de sustancias orgánicas a partir de materia inorgánica, convenciendo a los científicos de que en los procesos químicos del organismo se puede operar con las mismas leyes que rigen la naturaleza inanimada. Los éxitos de la hipótesis atómica fueron suficientes para que la química siguiera el modelo del método de la mecánica de Newton, se difundió la doctrina basada en el comportamiento de la materia basada en la mecánica de sus átomos. En el campo de la biología la teoría evolutiva de Darwin desplazó al vitalismo, basándose en los conceptos de causa y efecto y su análisis.

La imagen más o menos unitaria del mundo para aquella época estaba constituida por cosas en el espacio que se modificaban regularmente en el tiempo por acciones y reacciones. Las modificaciones operaban mediante movimientos en el espacio y se entendía también el movimiento interno de las partes y la modificación de las cualidades se debía a la retrotracción y el movimiento de los átomos. Una imagen del mundo que idealiza la realidad. En los esquemas ordenadores de tiempo y espacio se proyectaban los procesos y su desarrollo objetivo. En esta idealización se basa la mecánica de Newton, modelo metodológico de toda ciencia natural. Mediante esta imagen del mundo se fomentó el desarrollo de las ciencias naturales, pero en poco tiempo se advirtió que no se podían unificar las diferentes ramas; esta imagen idealista solo encajaba en algunas partes de las estructuras conceptuales y los problemas de las ciencias. El sistema conceptual de la química ya no se basaba mucho en la explicación mecánica, se basaba en la observación de las cualidades materiales. La biología se basaba en conceptos de otra índole como crecimiento, metabolismo y herencia. Los procesos psíquicos son los que abarcan el gran ámbito de la realidad, con estos no se podía hallar ninguna relación con esta imagen del mundo, es posible que por ello se halla empezado a hablar de la edición de loa vida espiritual en el campo de la ciencia, el arte y la religión. Una imagen del mundo que por ello era poco convincente como esta no logró impedir que la ciencia se dividiera en disciplinas con desarrollo autónomo, pero favoreció la evolución que permitió aplicar el pensamiento científico a fines prácticos. No se puede decir que esta evolución haya llegado a su fin, se abre el paso ya una unión de las ciencias según nuevos puntos de vista que se revela en el pensamiento de finales del siglo XIX con una imagen científica del mundo unilateral.

II

Del conocimiento de las distintas ramas de la ciencia que usaban el método nació el nuevo proceso de unificación de las ciencias naturales. Se logró fundir en unidad distintos campos de la física. Se comprobó que el calentamiento de un cuerpo se podía expresar con el movimiento de sus partículas más pequeñas y quedó claro que dos fenómenos físicos como el del calor y la mecánica estaban íntimamente relacionados, dos formas distintas de la misma realidad física. La teoría de Maxwell de los fenómenos eléctricos redujo la teoría de la luz a la de los fenómenos electromagnéticos. La luz resultó ser un proceso ondulatorio electromagnético, ya la óptica no era una rama independiente de la física, pasó a ser parte de la electrología y después un campo de la técnica. Dos disciplinas separadas habían pasado por donde seguramente habrían de pasar los campos parciales de las ciencias naturales: “durante largo tiempo es cometido de la investigación poner en claro las relaciones fundamentales que se dan en el campo especializado mediante experimentos y mediante su análisis teórico; en la medida ñeque se llega a la comprensión –aunque sea incompleta- de tales leyes puede ya la técnica tomar posesión del nuevo campo, y la investigación se dedica en buena parte a las aplicaciones prácticas”. Al hallar el texto completo de las leyes que afectan al campo en cuestión la labor del científico investigador es aplicar dichas leyes a problemas prácticos. La óptica referida a la teoría de Maxwell brinda resolución a las cuestiones fundamentales, el interés científico en este campo se concentró en la técnica, como la fabricación de instrumentos ópticos.

La física atómica pasó a ser un foco de interés científico desde comienzos del siglo XX. Desde sus orígenes en la antigüedad clásica esta disciplina se propone derivar de una raíz única todas las disciplinas físicas y químicas partiendo de las partes más pequeñas de la materia. La física atómica plantea sus problemas desde la siguiente consideración: “Las propiedades visibles de la materia, como la de ocupar espacio, la solidez, el color, el comportamiento químico etc., pertenecen por su naturaleza a lo macroscópico, pero no corresponden de igual manera a las más pequeñas partes componentes indivisibles de la materia, pues en caso contrario sería inconcebible que una misma materia pudiera existir en diferentes formas. Por tanto las partículas más pequeñas han de generar primero con su movimiento y con las fuerzas que ejercen unas sobre otras aquellas propiedades de la materia en lo macroscópico”.

El desarrollo de la química del siglo XIX proporcionó una base sólida a la hipótesis atómica. En un compuesto químico los átomos de diferentes elementos se coordinan en un grupo atómico representable geométricamente: La molécula es la parte constitutiva más pequeña del compuesto químico.

El problema de la física atómica desde otro punto de vista debía de parecer insoluble en principio. La química trata de propiedades que presentan particular estabilidad frente a todas las perturbaciones posibles. La estabilidad del comportamiento externo es extraña a los sistemas mecánicos. Para explicar la estabilidad desde la mecánica habría que idear hipótesis muy “peregrinas” sobre la estabilidad de los átomos.

Este resultó ser el problema cardinal de la física atómica y fue resuelto con la hipótesis de los cuantos de Max Planck en 1900. Cuando estudiaba la radiación de cuerpos calientes, Planck descubrió una extraña inestabilidad en el contenido de energía de los átomos. “Parecía que un pequeño sistema radiante sólo fuera capaz de valores energéticos discretos completamente determinados. Luego Rutherford basado en sus experimentos desarrolló la idea de que el átomo funcionaba parecido a un pequeñísimo sistema planetario donde el centro lo ocupa el núcleo de carga positiva y que constituye casi toda la masa del átomo, en torno al cual giran los electrones negativos. Bohr logré hacer comprensible la estabilidad de este sistema años después, sirviéndose de la hipótesis cuántica de Planck y se halló la forma matemática exacta de las leyes naturales que rigen la estructura del átomo.

Hoy en día la teoría cuantiíta de la constitución del átomo cumple con el cometido de los estudiosos de la física atómica. La teoría fundamentalmente permite calcular y explicar las propiedades de la materia en gran escala. Se ha conseguido calcular con mucha exactitud las propiedades físicas de muchas sustancias. De otras muchas sustancias, la teoría de los cuantos da una explicación, al menos cualitativamente, de su comportamiento. Se puede decir entonces que se ha llegado a una ciencia que corresponde con la mecánica celeste de Newton; Se pueden calcular cuantitativamente las propiedades de la materia siempre que la complicación matemática no impida la resolución práctica del problema.

Se ha renunciado a la idea de la realidad en que se basa la mecánica de Newton, la imagen del mundo del siglo XIX.

La teoría de los cuantos nos dice que un átomo no es algo formalmente asequible a nuestra incapacidad intuitiva como sí lo es un objeto de la experiencia cotidiana. Según esta teoría al electrón, componente más pequeño de la física atómica actual, no le corresponde en sí las propiedades geométricas y mecánicas mas sencillas, solamente en la medida en que por intervención externa se haga posible su observación. Diversas propiedades observables del átomo muestran su carácter complementario teniendo en cuenta que el conocimiento de una propiedad puede imposibilitar el conocimiento simultaneo de otra.

Esto tiene importantes consecuencias. En muchos ensayos se puede describir el comportamiento del átomo con los conceptos de la mecánica, las leyes de la mecánica clásica siempre dan una representación fiel de los procesos. Estas leyes son válidas en los procesos atómicos cuando cabe verificarlas directamente. En otros casos hacen falta conceptos distintos no mecánicos como el del comportamiento químico del átomo, no se plantean en absoluto las leyes de la mecánica. Mediante esta exclusión reciproca de las propiedades químicas y mecánicas, claramente expresadas en la formulación matemática y las leyes cuánticas, se da paso a la estabilidad mecánica de los sistemas atómicos, que desde su peculiaridad brinda una base para comprender el comportamiento de la materia macroscópica.

Advertimos entonces la seguridad y conclusividad de las teorías clásicas y su validez dentro de su sistema conceptual, de otro lado el modo en que la naturaleza da cabida a relaciones de distinta especie, impidiendo la perturbación que va unida a la observación mediante el experimento, formándonos una imagen intuitiva completa del átomo. Este ya no puede objetivarse como algo en el espacio que se modifica en el tiempo y susceptible de indicación. Solo cabe objetivar los resultados de las distintas observaciones, los cuales nunca dan una imagen intuitiva completa. La idea de la realidad en que se basaba la mecánica de Newton era demasiado angosta y fue sustituida por algo mas basto.

Nuestros procesos de observación se han desarrollado, antes la física consideraba derivados los procesos accesibles a nuestros sentidos y lo explicaba por los procesos en lo pequeño; ahora sabemos que los procesos accesibles a nuestros sentidos son objetivables, desde que los hechos atómicos no siempre se representan en espacio y tiempo. Esta subversión del orden de la realidad posibilita ensamblar el sistema conceptual químico con el de la mecánica sin contradicciones. Mediante la teoría atómica la física y la química han quedado unificadas en una gran ciencia, esto tiene sus repercusiones prácticas en las diferentes ramas de la ciencia y ha influido en la imagen científica del mundo.

Se puede pensar a partir de este cambio que la química halla tenido mucho auge por la resolución práctica que le brinda la física atómica y sus repercusiones. Pero la química ya había entrado en la fase de las representaciones prácticas y había desprendido de la indagación de las leyes generales. La cuestión de la naturaleza de las fuerzas químicas que fuera problema central de la química había pasado a un segundo plano. La teoría atómica hubiera tropezado en muchos casos con dificultades matemáticas insuperable. La teoría física atómica moderna sólo ha influido en campos especiales de la química y va resultando clara la utilidad de las nuevas ideas en cuestiones de carácter general. La física atómica a dado resultados mas exitosos en la astrofísica, muchas cuestiones de esta solo han sido posible abordarlas mediante la física atómica, por ejemplo la producción de energía al interior de las estrellas.

Terminamos por preguntarnos acerca de las repercusiones de la física atómica en los problemas fundamentales de la imagen física del mundo, el concepto de realidad por el que se llego a la unidad de las ciencias naturales no ha sido reconocido en todas partes sin discusión. En muchos casos las ciencias particulares se resisten por no sacrificar las concepciones de la realidad heredadas y acreditadas, en pos de una unidad superior, “Oponiéndose también por algunos sistemas gnoseológicos en los cuales no había lugar a priori para la nueva situación gnoseológica en que nos pone la naturaleza en los procesos atómicos”.

No hay que temer por la suerte de la unidad recién conquistada a causa de estas resistencias que no se dirigen contra los resultados sino contra sus interpretaciones. En la Historia universal nos dice que este tipo de luchas acaban por último en la unificación. A los hombres nos importa tanto el pasado que nos interesa conservar en lo posible los valores que nos son familiares. La unificación de la física y la química en un único sistema científico no era esperada en las ciencias naturales y sus fundamentos sin la intervención de nuevos e inusitados conceptos.

Es acertado adaptarse a las nuevas formas de pensamiento, a sus dificultades y preguntarnos que otros campos podemos abarcar todavía con ellas.

III

Hemos de tratar ahora de la biología, campo supraordinado a la física y la química. En esta se han dado hace largo tiempo dos doctrinas contrapuestas, la vitalista y la mecanicista. El vitalismo parte de la afirmación de que la relación de los procesos vitales se distingue fundamentalmente de las leyes fisicoquímicas por su naturaleza. Se basa en conceptos que no dan en la física ni en la química para el comportamiento de un organismo, como crecimiento, metabolismo, reproducción, adaptación etc. Se puede concebir que un comportamiento que da lugar a estos conceptos siguiera las leyes fisicoquímicas, pero el conocimiento de estas leyes no apoya esta hipótesis, desde el punto de vista de las leyes fisicoquímicas los organismos son formaciones improbables, “como lo sería un cristal desde el punto de vista de la física clásica aplicada a electrones y átomos”.

Los defensores de la concepción mecanicista se oponen a la autonomía de la vida, advierten que los procesos orgánicos se desarrollan siempre con arreglos a sus leyes, y que aparte de estas leyes no queda lugar para nexos de otra naturaleza siempre que la fisicoquímica determine por completo el comportamiento de la materia. En el siglo XX se ha obtenido extraordinarios progresos en la explicación fisicoquímica de los procesos orgánicos. Algunos son, el recambio calórico en el organismo, los procesos eléctricos en el sistema nervioso, la química de las sustancias activas etc. A favor de las leyes fisicoquímicas están las experiencias que se han recogido al aplicarlas en la sustancia viva. Estas leyes no dejan espacio para otras de otra clase, y no supone diferencia alguna a la teoría de los cuantos en la que desempeñan un gran papel las leyes estadísticas. Aparentemente subsiste una contradicción entre los procesos singulares orgánicos que explican por completo la física y la química, y los rasgos característicos de los procesos vitales en conjunto.

El problema planteado se puede ver de otra manera si se parte del pensamiento de la teoría de los cuantos, y se toma como modelo la situación gnoseológica de la física atómica, como lo hizo Bohr. La teoría de los cuantos en sus inicios contiene una aparente contradicción entre la física clásica y los procesos químicos, la física clásica determina completamente el comportamiento de un sistema partiendo de sus condiciones iniciales, lo cual se puede verificar; los procesos químicos llevaron a formar conceptos que no tenían que ver directamente con la física clásica. La contradicción se resolvió al comprobar que el conocimiento exacto de una situación descriptible mediante conceptos químicos deja a un lado el conocimiento exacto de los datos mecánicos. Por ende, esta exclusión se realiza automáticamente y según las leyes naturales con la perturbación inevitable propia de la observación. De una manera análoga, en la biología se puede pensar en la posibilidad de excluir el conocimiento exacto de todos los datos físicos relativos a enunciados como “Una célula vive”. El modelo metodológico de la teoría cuántica manifiesta la imposibilidad de una contradicción lógica entre la tesis fundamental de la concepción mecanicista, pues según esta “En la naturaleza animada son válidas sin reservas las leyes fisicoquímicas”, en cambio el vitalismo afirma la autonomía de la vida.

Pero entonces, hasta donde los procesos vitales se pueden explicar por la fisicoquímica y en que medida se pueden formular regularidades de otra especie, este es un problema sin resolver; la investigación se ha orientado hace décadas a buscar la solución en un territorio fronterizo. El comportamiento microscópico del organismo no se presta al estudio de este problema, toda ves que o las condiciones fisicoquímicas presentan una gran complicación o, cuando se puede abarcarlas, el comportamiento observado es obviamente fisicoquímico. Para el organismo en lo macroscópico. El problema adopta siempre la forma: “¿Por qué se ha originado precisamente esta complicada estructura?”Esta cuestión desemboca en la frontera entre la biología y la química de las macromoléculas, desde el problema del crecimiento, la división celular, el desdoblamiento de los cromosomas y de los genes.

De esta manera se aprovechan los conocimientos de la física atómica moderna con su contenido, y adquieren importancia las especiales características epistemológicas de la física cuántica. Hay casos en que las regularidades estadísticas de la teoría cuántica adquieren importancia práctica para el comportamiento de los seres vivos, como es el caso de las investigaciones genéticas sobre la frecuencia de las mutaciones.

En la frontera entre la química de la albúmina y la biología de los átomos. Primero se debe explorar profundamente el sistema conceptual fisicoquímico a fin de comprobar como se puede describir con el los procesos vitales. El “Respeto a la vida” es parte de la actitud de investigador concienzudo al encontrar una barrera puesta por las leyes de la naturaleza, la ciencia no hecha al olvido las otras facetas del proceso biológico de las que parte el vitalismo. Las otras ramas de las ciencias biológicas que se ocupan de aspectos característicos del proceso vital se aproximan mas a la comprensión de las ciencias naturales exactas, gracias al cambio en el orden de la realidad que se ha operado en la teoría de los cuántos. Así se trazan vínculos conceptuales en la frontera entre campos científicos que hasta ahora son completamente distantes.

Gracias a la evolución de las últimas décadas, la biología, la física y la química resultan mas estrechamente coordinadas entre si. No podrá efectuarse una verdadera síntesis entre estas ramas del saber si no se precede de una aplicación realmente fundamental de nuestros conocimientos sobre los procesos vitales. Actualmente parece abrirse camino una unidad de método que no pretende explicar todos los hechos con el modelo de la mecánica newtoniana. Con el desarrollo de la física atómica las nuevas formas de pensamiento tienen la suficiente amplitud para dar cabida a las diferentes facetas del problema de la vida y las direcciones de investigación unidas a estas.

Con esta unidad en punto a método es suficiente para justificar la expresión “Unidad de la imagen científica del mundo”. Esta en principio debe abarcar todos los ámbitos de la realidad y asignar un lugar determinado a cada uno. Por no haber cumplido este postulado se habían manifestado deficiencias de la imagen del mundo inspirada en la física clásica, pues en esta las esferas espirituales aparecían como el polo opuesto de la realidad material. Una armazón conceptual muy rígida cerrada a experiencias nuevas y de índole distinta.

El orden de la realidad de la física atómica, por el contrario, objetivaza los fenómenos sin exigir una “Cosa en sí” detrás de ellos descriptible en términos corrientes, esto brinda la posibilidad de hacer valer sistemas conceptuales distintos.

Al comprender la situación gnoseológica de la teoría de los cuántos nos hemos encontrado en otra posición respecto al problema del lugar que puedan ocupar en nuestra imagen científica del mundo los ámbitos de la “Conciencia” y el “Espíritu”. La imagen del mundo de la física clásica basaba todos sus conocimientos de la realidad objetiva de los procesos en tiempo y espacio con un desarrollo independiente de los hechos psíquicos obedeciendo las leyes naturales que se refieren a procesos “Objetivos”. Los procesos psíquicos parecían un reflejo de la realidad objetiva en una esfera completamente distinta, separada por un abismo insalvable del mundo de los procesos espacio-temporales. Con la mayor riqueza de saber positivo y el refinamiento de la técnica de observación, la ciencia moderna se ve obligada a revisar sus bases gnoseológicas y se ha convencido de que no puede existir una base tan sólida de todo conocimiento. Con el deseo de objetivar en la mayor medida posible la idea del mundo en tiempo y espacio se incurrió en una idealización de la realidad. La teoría cuántica se sirve de otra idealización menos obvia que no responde igual a nuestro deseo de objetivación, pero brinda la posibilidad de aprender en totalidad las leyes con arreglo a las que se desenvuelven los procesos químicos. En la representación de la realidad de la física clásica los procesos no podía retrotraerse a procesos físicos operados en las partículas mas pequeñas “Hoy nos aprestamos a volver a encontrar en otros cuadrantes aquella peculiar relación complementaria entre los distintos campos de la realidad”.

No se puede suponer el establecimiento de proporciones tan sencillas como, la biología es a la química como la química a la física. Al pasar de un campo de la realidad ya comprendido a otro no explorado hay que dar siempre un paso completamente nuevo, que no es mas fácil que el que llevo de la física clásica a la teoría atómica.

Ahora, teniendo esto presente se nos hace más comprensible que el hecho de que con los procesos vitales también haya nuevos ámbitos de la realidad: La esfera de la conciencia y la de los procesos psíquicos. “No esperamos que haya una ruta intelectiva que conduzca directamente del movimiento de los cuerpos en el espacio y en el tiempo a los procesos anímicos, por que también en las ciencias de la naturaleza hemos aprendido que la realidad se descompone primero para nuestro pensamiento en estratos separados, que, por así decir, están vinculados entre sí en un espacio abstracto situado a espaldas de los fenómenos”. Sabemos mejor que los científicos de tiempos pasados que no existe un punto de partida seguro para todos los campos de lo cognoscible, sabemos que de algún modo, todo conocimiento se cerne sobre un abismo sin fondo; “que siempre hemos de empezar por el medio a hablar de la realidad sirviéndonos de conceptos que sólo con el uso cobran paulatinamente un sentido más neto, y que hasta los sistemas conceptuales más rigurosos que cumplen todos los requisitos de precisión lógica y matemática sólo son ensayos de orientarnos a tientas por campos linitados de la realidad”.

Ya no estamos en la situación de Kepler quien sabía que la ley que rige el universo se daba por la voluntad de su Creador, él con el conocimiento de la armonía de las esferas creía estar cerca de comprender Su plan creador. Pero, al atisbar que tenemos una gran ley en la que podemos ir cada vez más profundamente con nuestro pensamiento es la fuerza que da impulso a la investigación científica.