El Paradigma Emergente
El Paradigma Emergente
El Paradigma Emergente
emergente
Editorial
Trillas
Mexico, Argentina, España,
Colombia, Puerto Rico, Venezuela
Índice de contenido
Presentación, 5
Prefacio a la segunda edición, 7
Prólogo, 9
Lord Byron
Bertrand Russell
Kart Popper
Ludwig Wittegenstein
Sherlock Holmes
Los caminos, en otros tiempos seguros, se han borrado, la autoridad de los maestros ha
sido socavada, el sentido de las realidades se ha diluido y los mismos conceptos de
ciencia y de verdad son cuestionados. La duda, la perplejidad, la inseguridad y una
incertidumbre general se han instaurado en toda mente profundamente reflexiva.
No solamente estamos ante una crisis de los fundamentos del conocimiento científico,
sino también del filosófico y, en general, ante una crisis de los fundamentos del
pensamiento. Esta situación nos impone a todos un deber histórico ineludible,
especialmente si hemos abrazado la noble profesión y misión de enseñar.
En los últimos tiempos —desde 1790, cuando comenzó la edad de la razón—, la ciencia
adquirió un cierto predominio, dado su nivel de adecuación con ci mundo concreto,
tangible y manipulable que ha constituido el mayor centro de interés del hombre en los
siglos XIX y XX. Sin embargo, la ciencia no puede —debido a las limitaciones que le
impone su propia naturaleza— estudiar y resolver muchos problemas de gran
importancia para la vida humana, como tampoco puede verificar o justificar
“científicamente” las bases o los supuestos en que se apoya: tina teoría científica no
dispone de la capacidad reflexiva para auto criticarse en su naturaleza y fundamentos.
De esta forma, la ciencia no puede responder por la solidez de sus propios fundamentos
y, en consecuencia, tampoco puede garantizar la validez última de sus conclusiones y
hallazgos, sir recurrir a la meta- ciencia o filosofía de la ciencia para justificar sus bases
y aclarar el significado de las mismas, ya que lo más oscuro de toda ciencia es siempre
su base. De hecho, la ciencia tiene tina imposibilidad lógica para establecer y asentarse
en una base netamente empírica. De ello se sigue que la ciencia debe complementarse
con la clase de entendimiento que tratan de adquirir las ciencias humanas. Querámoslo o
no, si deseamos ir al fondo de las cosas, tenemos que hacer filosofía; y, aunque no
queramos hacerla, la vamos a hacer igualmente, pero entonces la haremos mal.
Por otro lado, muchos otros autores, aun aceptando la lógica del objetivismo, expresan
la convicción de que, cuando examinamos los conceptos fundamentales corno
racionalidad, verdad, realidad, bondad, ética, rectitud, estética, etc., somos forzados a
reconocer que, en último análisis, todos estos conceptos deben ser entendidos como
relativos a un esquema conceptual específico, a un mareo teórico, a un paradigma,
a una forma de vida, a una sociedad, a una cultura.
Desde Platón, los objetivistas han señalado que el relativismo, cuando se formula en
forma clara y explícita, es inconsistente y paradójico. En efecto, el relativista, implícita
o explícitamente, proclama que su posición es verdadera y cierta en forma absoluta, es
decir, que no es relativa. No se puede sostener lógicamente el relativismo sin minarlo.
El espíritu de nuestro tiempo está ya impulsándonos a ir más allá del simple objetivismo
y relativismo. Una nueva sensibilidad y universalidad del discurso, una nueva
racionalidad, está emergiendo y tiende a integrar dialécticamente las dimensiones
empíricas, interpretativas y criticas de una orientación teorética que se dirige hacia la
actividad práctica, una orientación que tiende a integrar el “pensamiento calculante” y el
“pensamiento reflexivo” de que habla heidegger, un proceso dia-lógico en el sentido de
que seria el fruto de la simbiosis de dos lógicas, una “digital” y la otra “analógica”
(Morin, 1984).
Pero el mundo en que hoy vivimos se caracteriza por sus interconexiones a un nivel
global en el que los fenómenos físicos, biológicos, psicológicos, sociales y ambientales,
son todos recíprocamente interdependientes. Para describir este mundo de manera
adecuada necesitamos una perspectiva más amplia, holista y ecológica que no nos
pueden ofrecer las concepciones reduccionistas del mundo ni las diferentes disciplinas
aisladamente; necesitamos una nueva visión de la realidad, un nuevo paradigma, es
decir, una transformación fundamental de nuestros modos de pensar, percibir y valorar.
Un nuevo paradigma instituye las relaciones primordiales que constituyen los supuestos
básicos, determinan los conceptos fundamentales, rigen los discursos y las teorías. De
aquí nace la intraducibilidad y la incomunicabilidad de los diferentes paradigmas y las
dificultades de comprensión entre dos personas ubicadas en paradigmas alternos.
Por otro lado, es evidente que el saber básico adquirido por el hombre, es decir, el
cuerpo de conocimientos humanos que se apoyan en una base sólida, por ser las
conclusiones de una observación sistemática y seguir un razonamiento consistente —
cualesquiera que sean las vías por las cuales se lograron—, debieran poderse integrar en
un todo coherente y lógico y en un paradigma universal o teoría global de la
racionalidad. “La aspiración propia de un metafísico —dice Popper— es reunir todos
los aspectos verdaderos del mundo (y no solamente los científicos) en una imagen
unificadora que le ilumine a él y a los demás y que pueda un día convertirse en parte de
una imagen aún mis amplia, una imagen mejor, más verdadera” (1985, p. 222).
En fin de cuentas, eso es lo que somos también cada uno de nosotros mismos: un ‘todo
físico-químico-biológico-psicológico-social-cultural” que funciona maravillosamente y
que constituye nuestra vida y nuestro ser. Por esto, el ser humano es la estructura
dinámica o sistema integrado más complejo de todo cuanto existe en el universo. Y, en
general, los científicos profundamente reflexivos, ya sean biólogos, neurólogos,
antropólogos o sociólogos, como también los físicos y matemáticos, todos, tratan de
superar, implícita o explícitamente, la visión reduccionista y mecanicista del viejo
paradigma newtoniano-cartesiano y de desarrollar este nuevo paradigma, que emerge,
así, en sus diferentes disciplinas con una exigencia integradora y con un enfoque
netamente interdisciplinario. Como dice Beynam (1978), “actualmente vivimos un
cambio de paradigma en la ciencia, tal vez el cambio más grande que se ha efectuado
hasta la fecha... y que tiene la ventaja adicional de derivarse de la vanguardia de la fisiea
contemporánea”. Está emergiendo un nuevo paradigma que afecta a todas las áreas del
conocimiento. La nueva ciencia no rechaza las aportaciones de Galileo, Descartes o
Newton, sino que las integra en un contexto mucho más amplio y con mayor sentido.
Como cada nivel superior está constituido por características, propiedades y atributos
definidores, propios de cada uno, nunca se podrá explicar en términos del nivel inferior:
las fuerzas físicas, por ejemplo, no serán suficientes para explicar la fuerza que mueve
la economía o los impulsos sexuales o la que mueve a la gente a suicidarse; los
componentes químicos de la pintura nunca explicarán la expresión de la
izo Liso, ni los componentes físicos de la obra el significado de Hamlet. Conm decía
Whitehead, si se quieren conocer los principios básicos de la existencia, hay que utilizar
lo superior para iluminar lo inferior, y no al revés, corno hace la reflexión reduccionista
corriente.
Por esto, Bertrand Russell dice que “la ciencia, como persecución de la verdad, será
igual, pero no superior al arte” (1975, p. 8). Asimismo, Goethe dice que “el arte es la
manifestación de las leyes secretas de la naturaleza”. Y para eminentes físicos, como el
Premio Nobel Paul Dirac, la belleza de una teoría determinaba si ésta sería aceptada o
no, aun contra todas las pruebas experimentales existentes hasta el momento; es más,
Dirae “sostenía que cualquiera que tuviera algún juicio debería rechazar los
experimentos y considerarlos incorrectos si iban contra la belleza de una teoría
fundamental como la teoría especial de la relatividad. Y, en efecto, así quedó probado
después de haberse afinado los experimentos” (Salam, 1991, pp. 94-95). Estas
posiciones llevan a Po. lanyi a afirmar que en la física “está llegando a ser casi un lugar
común, que la belleza de una teoría física es frecuentemente una pista más importante
hacia su verdad que su correspondencia con los hechos, los cuales pueden constituir una
difictiltad temporal” (Martínez, 1982, p. 96). Esto es debido a que con el arte no sólo
expresamos las formas de las realidades que pueblan nuestro mundo, sino que también
las simbolizamos con altos grados de abstracción: el arte trata de conocer y expresar lo
universal. Por ello, es muy probable que la nueva síntesis del conocimiento que
buscamos sea una integración potencial de ciencia, filosofía y arte, como áreas
complementarias, al estilo de lo que ocurrió durante el Renacimiento italiano.
Es de esperar que el nuevo paradigma emergente sea el que nos permita superar el
realismo ingenuo, salir de la asfixia reduccionista y entrar en la lógica de una
coherencia integral, sistémica y ecológica; es decir, entrar en una ciencia más universal
e integradora, en una ciencia verdaderamente interdisciplinaria.
El modelo de ciencia que se originó después del Renacimiento sirvió de base para el
avance científico y tecnológico de los siglos posteriores. Sin embargo, la explosión de
los conocimientos, de las disciplinas, de las especialidades y de los enfoques que se ha
dado en el siglo XX y la reflexión epistemológica encuentran ese modelo tradicional de
ciencia no sólo insuficiente, sino, sobre todo, inhibidor de lo que podría ser un
verdadero progreso, tanto particular corno integrado, de las diferentes áreas del saber.
Por tanto, cada disciplina deberá hacer una revisión, una reformulación o una
redefinición de sus propias estructuras lógicas individuales que fueron establecidas
aislada e independientemente del sistema total con que interactúan, ya que sus
conclusiones, en la medida en que hayan cortado los lazos de interconexión con el
sistema global de que forman parte, serán parcial o totalmente inconsistentes.
Las diferentes disciplinas deberán buscar y seguir los principios de inteligibilidad que se
derivan de una racionalidad más respetuosa de los diversos aspectos del pensamiento,
una racionalidad múltiple que, a su vez, es engendrada por un paradigma de la
complejidad.
Francois Bacòn
Jean Piaget
INTRODUCCIÓN
La finalidad de este capítulo es ilustrar, aunque sólo sea parcialmente, la gran capacidad
e ilimitada potencialidad que tiene el cerebro humano para conocer y desentrañar la
naturaleza de las realidades que le rodean. Más concretamente, una visión clara de la
riqueza y el dinamismo de la mente humana, de la interacción entre la parte consciente
y la inconsciente, entre el área racional y la afectiva, nos ayudará a vislumbrar la
necesidad de una teoría de la racionalidad diferente y a adoptar una nueva postura
epistemológica. En efecto —como señala el filósofo de la ciencia Karl Popper—, “la
epistemología encaja bastante bien con nuestro conocimiento actual de la fisiología del
cerebro, de modo que ambos se apoyan mutuamente” (1980, p. 486).
Somos numerosos los profesores que sostenemos que nuestro objetivo principal es el de
enseñar a los estudiantes a pensar. Sin embargo, la psicología del pensamiento no nos
da sino ideas vagas sobre su naturaleza. Debido a esto, sabemos muy poco sobre las
etapas precisas que hay que recorrer para enseñar a los estudiantes a pensar, y la
mayoría de los profesores que se vanaglorian de enseñar a sus alumnos a pensar,
proponen después temas de examen que se refieren casi exclusivamente al conocimiento
de hechos y a la aplicación de técnicas.
Por otro lado, el gran físico Erwin Schródingcr, descubridor de la ecuación fundamental
de la mecánica cuántica (base de la física moderna), considera que la ciencia actual nos
ha conducido por un callejón sin salida y que la “actitud científica ha de ser
reconstruida, que la ciencia ha de rehacerse de nuevo” (1967).
Ante estas situaciones, Popper nos invita (1980) a enriquecer nuestra epistemología —
corno lo hizo él en los últimos años— inspirándonos en el conocimiento actual acerca
de la neurofisiología y las estructuras neurosíquicas del cerebro. Ciertamente, las
investigaciones sobre estos campos, realizadas en los últimos tiempos, aportan
indiscutibles contribuciones para una mejor comprensión de los procesos del
pensamiento y del aprendizaje y para el desarrollo de la creatividad, es más, la
adecuación de estas actividades a la naturaleza peculiar del cerebro se puede considerar
como condición indispensable para su verdadero progreso.
Hace unos años, el Congreso norteamericano emitió una resolución 4, por medio de la
cual designó a los años de los noventa como “década del cerebro”, destinó más de 500
millones de dólares para el estudio de la neurociencia durante ese año. Actualmente, se
realizan más de medio millón de investigaciones anuales sobre el cerebro.
Las expectativas que se han formado acerca de los estudios de la maquinaria neuronal
son ilimitadas. Como en otro tiempo se estudiaron las aves para fabricar máquinas
volantes y los peces para hacer submarinos, ahora se trata de arrancarle los secretos a la
dinámica cerebral para sustituir al hombre por máquinas pensantes que lo imiten y, si es
posible, lo superen en el nivel de eficacia de las decisiones por tomar.
No podemos formarnos una idea exacta del futuro promisor que pueden tener los
estudios de la neurociencia. Quizá, no mucho más precisa de la que podrían haberse
formado los cavernícolas sobre nuestra civilización actual.
En este capítulo nos preguntamos hasta qué punto los estudios actuales sobre
neurociencia iluminan el proceso del pensamiento, especialmente cuando es creador. Es
decir, qué aportes nos ofrecen la neurofisiología, la neuroquímica, la neurocirugía, la
neurofarmacología y la neuropsicología en la comprensión del origen, la dinámica y el
éxito del pensamiento. especialmente cuando es divergente, innovador y enriquecedor.
En una palabra, nos preguntamos qué relación directa existe entre la experiencia interna
subjetiva, que es nuestra realidad primaria, y el cerebro como sede de la misma.
Las neurociencias señaladas abundan en datos semiempíricos que corren el riesgo de ser
poco explotados si no son ubicados en sus con- textos específicos, si no se relaciona y
armoniza la estructura de estos hallazgos con la estructura y el funcionamiento del
cerebro y si no se le hace avanzar de su estado actual de datos primarios con una
organización estructural y sistémica, es decir, a través de un proceso de teorización que
los integre y le dé pleno sentido. A fin de cuentas, como solía decir Einstein, “la ciencia
consiste en crear teorías”.
Por otra parte, el principio rector que nos guiará en el ordenamiento y en la expresión de
estas ideas será el principio de economía de estructuras, principio de una validez que
parece incuestionable en la naturaleza humana, y que pudiéramos concretar más
precisamente de la manera siguiente: a cada estructura específica del cerebro
corresponde una función, y esta función será tanto más acabada y perfecta cuanto más
siga y respete la estructura en que se apoya.
Los datos que especifican la naturaleza constitutiva del cerebro humano son todos muy
sorprendentes, aparentemente increíbles y casi imposibles de imaginar. Veamos sólo
algunos de ellos:
• El cerebro tiene sólo ci 2 % del peso del cuerpo, pero consume el 20 % de su energía.
• Está compuesto por unos 10 a 15 mil millones de neuronas, cada una (le la cuales se
intereoneeta con otras por un número de sinapsis que va de varios centenares a más de
20 000, formando una red estructural que es unas 100 veces más compleja que la red
telefónica mundial.
• Sin embargo, el tiempo (le activación entre dos sinapsis es inferior a un milisegundo
(Eceles, 1973).
• Una estimación modesta de la frecuencia de impulsos entre los dos hemisferios supera
los 4000 millones por segundo, 4000 mega- hertz (Mhz) (Eceles, 1980, p. 366), cuando
las computadoras más sofisticadas de circulación comercial se acercan ahora (año 2003)
a los 1500 o 2000 MHz.
• Parece ser que el cerebro, al igual que algunos sentidos como la vista y el oído,
utilizan los principios holográficos (ver cap. 8) para almacenar información, de modo
que, registrando únicamente la pauta de difracción de un evento (no la imagen, sino el
cómputo capaz de reproducirla), conserva la información de la totalidad y así el todo
está en cada parte y éstas en el todo y el aprendizaje se reduce a la organización
jerárquica de estructuras de estructuras. Esto indicaría que el cerebro sigue el sabio
consejo de no poner en la cabeza nada que pueda ubicarse en una
estantería.
• Igualmente, la vastedad los recursos de la mente son tan grandes que el hombre puede
elegir; en un instante dado, cada una de las
10 sentencias diferentes de que dispone una lengua culta (Po Ianyi 1969, p. 151).
Estos y otros datos similares nos llevan a concluir que el cerebro humano es la realidad
más compleja del universo que habitamos.
De acuerdo con el principio de economía antes citado, nos podemos preguntar qué
sentido o significado tiene, o qué función desempeña, esta asombrosa capacidad del
cerebro humano que reside en su ilimitada posibilidad de memoria y en su inimaginable
velocidad de procesar información. Nuestra respuesta parece no poder ser otra que la
que afirma que esa dotación gigantesca está ahí, esperando que se den las condiciones
apropiadas para entrar en acción.
Entre las muchas realidades importantes en el funcionamiento del cerebro, hay un hecho
sumamente relevante que conviene subrayar: las vias de los órganos receptores que van
al cerebro nunca son directas, sino que siempre hay conexiones sinápticas de una
neurona a otra en las estaciones de relé. Una neurona sólo lleva el “mensaje” de un
extremo al otro de su axón. Por tanto, cada uno de estos estadios da cierta oportunidad
de modificar la codificación del “mensaje” procedente de los receptores sensoriales.
Esta situación llevó a Mountcastle (1975) a afirmar:
Todos creemos vivir directamente inmersos en el mundo que nos rodea, sentir sus
objetos y acontecimientos con precisión y vivir en el mundo real y ordinario. Afirmo
que todo eso no es más que una ilusión perceptiva, dado que todos nosotros nos
enfrentamos al mundo desde un cerebro que se halla conectado con lo que está “ahí
fuera” a través de unos cuantos millones de frágiles fibras nerviosas sensoriales. Esos
son nuestros únicos canales de información, nuestras líneas vitales con la realidad. Estas
libras nerviosas sensoriales no son registradores de alta fidelidad, dado que acentúan
ciertas características del estimulo, mientras que desprecian otras. La neurona central es
un contador de historias, por lo que respecta a las fibras nerviosas aferentes, y nunca
resulta completamente fiable, permitiendo distorsiones de cualidad y de medida en una
relación espacial forzada aunque isomórfica entre “fuera” y “dentro”. La sensación es
una abstracción, no una réplica, del inundo real.
El hemisferio izquierdo, que es consciente, realiza todas las funciones que requieren un
pensamiento analítico, elementalista y atomista; su modo de operar es digital, lineal,
sucesivo y secuencial en el tiempo, en el sentido de que va paso a paso; recibe la
información dato a dato, la procesa en forma lógica, discursiva, causal y sistemática, y
razona verbal y matemáticamente, al estilo de una computadora donde toda “decisión”
depende de la anterior; su modo de pensar le permite conocer una parte a la vez, no
todas ni el todo; es predominantemente simbólico, abstracto y proposicional en su
función, poseyendo una especialización y un control casi completo de la expresión del
habla, la escritura, la aritmética y el cálculo, con las capacidades verbales e ideativas,
semánticas, sintácticas, lógicas y numéricas (Martínez, 1987).
John Ecelcs (1980), que recibió el Premio Nobel por sus descubrimientos sobre
trasmisión neurológica, estima que el cuerpo calloso está compuesto por unos 200
millones de fibras nerviosas que cruzan por él de un hemisferio a otro, conectando casi
todas las áreas corticales de un hemisferio con las áreas simétricas del otro, y que,
teniendo una frecuencia de unos 20 ciclos cada una, transportan una cantidad tan
fantástica de tráfico de impulsos en ambas direcciones que supera los 4000 millones por
segundo, 4000 Mhz. Este tráfico inmenso, que conserva los dos hemisferios trabajando
juntos, sugiere por sí mismo que su integración es una función compleja y de gran
trascendencia en el desempeño del cerebro. La sutileza y la inmensa complejidad de los
engramas espaciotemporales que así se forman, constituyen lo que el eminente
neurofisiólogo Sherringtori llamaba “la trama encantada” y—según Eccles (1975)— se
hallan muy por encima de los niveles de investigación logrados por la física y la
fisiología de nuestros días.
Aunque la actividad del hemisferio derecho es sobre todo inconsciente debido a su alta
velocidad, tiene, no obstante, una especie de reverberación en el izquierdo. De este
modo, la mente consciente, que actúa sólo sobre este hemisferio, puede, sin embargo,
tener un acceso indirecto prácticamente a toda la información que le interesa, en un
momento dado, del hemisferio derecho. Por esta razón, ambos hemisferios tienen una
estructura y desarrollan actividades especializadas, pero que se complementan; en
efecto, muchas funciones de codificación, almacenamiento y recuperación de
información dependen de la integración de estas funciones en ambos hemisferios. Aún
más, la complementariedad se encuentra tan radicada en su naturaleza que en los casos
de atrofia congénita de un hemisferio, el otro trata de realizar el trabajo de los dos, y —
según Sperry— al cortar el cuerpo calloso (impidiendo, con ello, el paso de información
de uno a otro), cada hemisferio opera de manera independiente como si fuera un cerebro
completo, pero, evidentemente, en forma menos eficaz aun en la realización de sus
propias funciones específicas. Como señala el eminente neurólogo y Premio Nobel,
Ramón y Cajal, “es imposible entender el plan arquitectónico del cerebro si uno no
admite, como principio guía de este plan, la unidad de percepción” (Ornstein, 1973, pp.
117-118).
Este hecho tiene, como veremos más adelante, incalculables implicaciones para el
fomento y la programación de actividades creadoras, así como para la promoción del
autoaprendizaje.
Motivación inicial. En primer lugar, debe existir una motivación o interés específico
centrado en un área determinada, que tiene un gran significado intelectual o emocional
para nosotros. Sólo así, la mente inicia la tarea de buscar y recuperar recuerdos,
palabras, expresiones, ideas, sucesos, imágenes, melodías, etc., sondeando y
escudriñando activamente los dispositivos modulares abiertos o semiabiertos para
integrar su contenido en un recuerdo reconocible, rico en significación personal.
Exploración dci contenido de los módulos abiertos. En esta actividad, la mente actúa
remota y lentamente, sin potencia coercitiva, sobre una amplia extensión de módulos de
la corteza cerebral, en los cuales está codificada la información: aunque la trasmisión de
una neurona a otra necesita aproximadamente sólo un milisegundo, la mente
autoeonsciente emplea, sin embargo, unos 800 milisegundos para ejecutar una orden.
Este tiempo, relativamente largo, de incubación lo emplea en sondear la disposición y el
contenido de los módulos abiertos o que tengan cierto grado de apertura, es decir, que
sintonizan con sus intereses actuales; pero, a través de su acción sobre los módulos
abiertos, puede influir sobre los cerrados que tengan cierta semejanza de contenido, y al
actuar sobre todos estos módulos del hemisferio izquierdo, consciente, puede sondear
también el contenido de los módulos del derecho, inconsciente, e incorporar e integrar
su riqueza y significación propia. Le es posible realizar esta acción a través de las fibras
del cuerpo calloso que conectan las áreas simétricas de ambos hemisferios, y por el
efecto de reverberación que existe entre los módulos de ambos hemisferios que tienen
contenidos relacionados. Así, la mente autoeonseiente, en fracciones de segundo, puede
sondear cientos de miles de unidades independientes y sintetizar su gran diversidad
haciendo de ella una unidad de experiencia consciente.
Papel activo de la mente autoconsciente. En nuestro cerebro existe una especie de
división en jerarquías de controles: los resultados de primer orden o nivel son revisados
críticamente por la mente autoconsciente, es decir, la mente consciente de sí,
autorreflexiva, y, así, se forma un segundo orden, como sucede cuando el yo observa las
ilusiones ópticas y se hace críticamente consciente de que “tiene” tina ilusión y de que
debe superarla, o cuando reconoce que un nombre o un número no es correcto y ordena
un nuevo proceso de recuerdo, etc. De esta manera, en un sistema abierto de sistemas
abiertos, como es el cerebro humano, el yo se va ubicando y conserva siempre la mayor
altura en esta jerarquía de control, es decir, la mente autoconsciente tiene una función
maestra, superior, interpretativa y controladora, en su relación cori el cerebro, ya que
acepta o rechaza, usa o modifica, valora y evalúa los contenidos que le ofrece el cerebro
de relación. Popper dice que “el yo, en cierto sentido, toca el cerebro del mismo modo
que un pianista toca el piano o que un conductor acciona los mandos de su coche”
(1980, p. 557).
Teniendo presente cuál es nuestra atención, elección e interés, y usando estos tópicos
como claves en su operación, la mente puede hacer una selección de lo que le ofrece el
cerebro de relación (módulos explorados) y mezclar los resultados de muchas áreas
diferentes formando una unidad integrada de experiencia consciente; es decir, la mente
autoconsciente desempeña el papel principal de acción en la búsqueda, selección,
descubrimiento, organización e integración de contenidos. No hay un proceso mecánico
simple de la mente autoconsciente; no se accionan sencillamente algunas claves y se
obtiene un mensaje, se oprime una tecla y se obtiene una respuesta inmediata y última,
tal como ocurriría con la memoria o el casillero de una computa- • dora; “las cosas son
infinitamente más complicadas”, dice Eccles. En la generación de oraciones, por
ejemplo, se produce un continuo modelado y modificación oscilando hacia adelante y
hacia atrás y aproximándose, en un juego continuo de interacción, desarrollado entre la
mente autoconscientc, por un lado, y los centros cerebrales superiores, por el otro. El
trabajo, por ejemplo, de una neurona inhibitoria, en este contexto, es similar al de un
escultor que corta y descarta partes de la piedra a fin de formar una estatua. Esta
dinámica y actividad de la mente auto- consciente supera ampliamente las explicaciones
y teorías que asignan a la mente un carácter de “espectador pasivo” ante las reacciones
del cerebro (Eecles, 1980).
Nauta (1971), un gran estudioso de la relación entre los sistemas prefrontal y límbico,
señala que el estado interno del organismo (hambre, sed, miedo, rabia, placer, sexo,
cte.) se indica a los lóbulos prefrontales desde el hipotálamo, los núcleos septales, el
hipocampo, la amígdala y demás componentes del sistema limbico, a través de una gran
red de vías y circuitos que llevan intenso tráfico de información; el eórtex prefrontal
sintetiza toda esta información emotiva, sentimental y apetitiva y traza, luego, una guía
adecuada de conducta. De esta manera, los estados afectivos adquieren una importancia
extraordinaria, ya que pueden inhibir distorsionar excitar o regular los procesos
cognoscitivos; conclusión que deberá cambiar muchas prácticas antieducativas, que no
se preocupan por crear el clima o atmósfera afectivos necesarios para facilitar los
procesos de aprendizaje y el fomento y desarrollo de la creatividad.
Influencia dci pasado y vivencia del eureka. Nuestra mente auto- consciente puede
buscar en la memoria los datos y las ideas apropiados para la solución de un problema y
luego relacionarlos, pero esto casi siempre lo hace comparando el planteamiento del
problema con nuestra estructura cognoscitiva previa, la cual activa las ideas
antecedentes pertinentes y las soluciones dadas a problemas anteriores parecidos que, a
su vez, on reorganizadas y transformadas en forma de proposiciones de solución al
nuevo problema que se plantea. Ahora bien, cuando la solución del problema exige
relaciones o estructuras novedosas u originales, la mente consciente fácilmente fuerza
las cosas en la dirección errónea, en la dirección de lo conocido, de lo viejo, de lo
trillado, de lo ya sabido, es decir, nos lleva por un camino estéril. Sin embargo, este
esfuerzo no es inútil, al contrario, puede ser muy provechoso, pues seleeciona muchas
ideas pertinentes que, de alguna manera, pueden tener conexión con el problema. Estas
ideas, cuando la mente consciente deja de forzarlas en una determinada dirección, se
unen entre sí y con otras pertinentes y adecuadas, que ellas movilizan por un proceso
inconsciente y de acuerdo con su propia naturaleza; no es que se nlaeen al azar, pues el
azar no es creativo. La unión de estas ideas por sus características y naturaleza y a un
nivel preconsciente o subliminal, da como resultado el hallazgo, la invención o el
descubrimiento creativos. Pudiéramos decir que un conocimiento que ya existe, pero en
forma inconsciente, se hace consciente a través de la “intuición”. No se podrían explicar
de otra manera los hechos que hacen ver que esos resultados aparecen durante
momentos de reposo, pero, ordinariamente, después de un trabajo mental duro y
laborioso sobre los mismos y tras repetidos rechazos insatisfactorios.
Ya Helmholtz, a fines del siglo XIX, identificó tres etapas en su trabajo creativo: 1. una
investigación inicial llevada adelante hasta que le 4 era imposible seguir; 2. un periodo
de reposo y recuperación, y 3. la ocurrencia de una solución repentina e inesperada
(Arieti, 1976, p. 268).
Hace mucho tiempo Pascal dijo una frase que se ha hecho famosa:
- ‘el corazón tiene razones que la razón no conoce”. No es al corazón físico a lo que se
refiere Pascal, y ni siquiera a los sentimientos, sino a la función cognoscitiva de la
intuición, que es capaz de sintetizar y aprehender la totalidad de una realidad o situación
dada. Desde luego, la intuición no es infalible. Ningún conocimiento humano lo es. Pero
el proceso intuitiyo, que se desarrolla más allá del umbral de la conciencia, puede seguir
una lógica implícita, imposible de captar a nivel consciente, debido a la complejidad y
rapidez de las relaciones que están en juego. Esta posición sobre la lógica implícita es
sostenida por autores como Polanyi (1969), Kuhn (1978), Weimer (1979) y, sobre todo,
Henri Poinearé en quien, después de sus descubrimientos matemáticos y astronómicos,
as refiriéndose al proceso inconsciente de las intuiciones que le llevaron a ad esos
hallazgos, afirma:
El mismo Popper señala (1973) que “el acto por el que se inventa o concibe una teoría
no requiere análisis lógico” (p. 31).
Armonía entre las diferentes partes del cerebro. Quizá, la falla mayor de nuestra
educación haya consistido en cultivar, básicamente, un solo hemisferio, el izquierdo, y
sus funciones racionales conscientes, descuidando la intuición y las funciones holistas y
gestálticas del derecho e, igualmente, marginando la componente emotiva y afectiva y
su importancia en el contexto general. Así, mientras en un nivel llevamos una existencia
que parece racional y cuerda, en otro nivel estamos viviendo una existencia rabiosa,
competitiva, miedosa y destructiva. La armonía entre las tres partes del cerebro, entre
las tres estructuras fundamentales —hemisferio izquierdo, hemisferio derecho y sistema
límbico—, su equilibrio y sabia orquestación deberá ser un objetivo funda. mental de
nuestra educación moderna.
Una posición, más o menos similar, había sostenido también Sperry (1969b):
En este esquema se considera que los fenómenos conscientes interaetúan con los
aspectos fisicoquímicos y fisiológicos del cerebro, gobernándolos en gran medida.
Obviamente, también se produce la relación inversa, por lo que se concibe una
interacción mutua entre las propiedades fisiológicas y mentales. Aun así, la
interpretación presente tendería a restaurar a la mente en su vieja posición prestigiosa
sobre la materia, en el sentido de que los fenómenos mentales trascienden claramente
los fenómenos de la fisiología y de la bioquímica.
CONCLUSIONES
1. Los sabios y adivinos de la antigüedad solían dar a sus consultantes una respuesta o
profecía ambigua, que producía el efecto de obligarle a mirar hacia sus adentros, a
consultar sus propias intuiciones y sabiduría, a replantearse la situación, a volver a
considerar sus planes y a pensar nuevas posibilidades. En todo esto había una creencia:
que la información para la respuesta y solución adecuada de nuestros problemas está,
por lo menos en gran parte, dentro de nosotros mismos y que alli hay que buscarla.
2. Se ha demostrado en forma cada vez más clara que cuanto más creemos en las
habilidades de nuestra mente, cuanto más la utilizamos y tenemos fe en ella, mejor
trabaja. En efecto, parece que el mayor obstáculo que se opone a la expansión y uso de
la mente intuitivo-creativa, lo que más inhibe su capacidad y dinamismo, es la falta de
fc en nosotros mismos, ya que una gran confianza en uno mismo y en la propia
capacidad elimina ciertos constreñimientos mentales que imposibilitan, a nivel
neurofisiológico cerebral de los engramas, el flujo de ideas y sus relaciones.
3. Son muchos los autores e investigadores que han demostrado que la falta de
desarrollo estructural lleva a una incapacidad funcional. Sperry lo especifica en los
siguientes términos: “muchos elementos internos de nuestro cerebro se activan
solamente con operaciones muy específicas y, si estas actividades no se realizan —de
una manera particular durante las etapas del desarrollo cuando las neuronas y sus
sinapsis dependen mucho del uso— las neuronas involucradas pueden sufrir un proceso
regresivo, dejando profundas deficiencias funcionales en su maquinaria integradora”
(Bogen, 976). Esto explicaría tantos hechos y constataciones de “desventajas
culturales”, es decir, de personas cuyas potencialidades han quedado sin desarrollar por
falta de una “escolaridad apropiada”.
Por esto, no resulta nada fácil forjarse una opinión propia. Ello exige osadía intelectual,
esfuerzo y valentía, y una personalidad muy segura, independiente y auténticamente
madura. Todos los innovadores, por muy beneméritos que los consideren después las
generaciones posteriores, han tenido que pagar por ello. Así le ocurrió a Copérnico, a
Galileo, a Newton, a Darwin, a Freud, a Einstein, a Max Planck y a muchos otros, tanto
en el campo de las ciencias como en el de las humanidades y las artes.
3 Dinámica de la inercia mental
Lo que está dado a los ojos es la intención del alma.
Aristoteles
Werner Heisemberg
Inmanuel Kant
Albert Einsten
Este capítulo tiene por finalidad describir cómo la ilimitada potencialidad de la mente
humana, analizada en el capítulo anterior, queda frustrada en la práctica, en la mayoría
de los seres humanos, debido a los hábitos y las rutinas mentales a que restringe su
actividad; igualmente, se sugieren varias ideas para superar esta inercia mental.
El filósofo griego Jenófanes, jefe de la escuela eleática, expuso una idea de acuerdo con
la cual si una especie animal pudiera representarse a una divinidad, ciertamente lo haría
con su propia imagen. Y Aristóteles dijo que “lo que está dado a los ojos (es decir, lo
que se percibe por la vista) es la intención del alma”. Esto quiere decir que la intención,
el interés o el deseo con que miramos las cosas tiene tanto poder sobre nuestros sentidos
que acomoda, desvirtúa o transforma esos objetos adaptándolos perceptivamente a su
perspectiva. La intención con que examinarnos, por ejemplo, una casa (si deseamos
adquirirla para vivir en ella, comprarla para revenderla, pasar en ella un fin de semana o
verla para pintar un cuadro artístico), nos lleva a ver algo muy diferente, y aun las
mismas cosas tienen un significado especial en cada caso.
Kant señala que en la génesis del conocimiento el factor activo no es el objeto sino el
sujeto. La mente no es la hoja en blanco de los empiristas, ni tampoco el “intelecto
pasivo” de los escolásticos al que un “intelecto agente”, más bien servil, entrega la
“ciencia” de los entes. No son las cosas sino la mente la que lleva por dentro toda
ciencia potencial y actual.
Para Kant, la mente humana es un participante activo o formativo de lo que ella conoce.
La mente eonsiruye su objeto informando la materia amorfa por medio de formas
subjetivas o categorías y como si le inyectara sus propias leyes. El entendimiento es,
entonces, de por sí, un constitutivo o constructor de su mundo.
Paul Cézaime solía decir: ‘qué difícil es acercarse a la naturaleza con ingenuidad”. En
efecto, toda persona, al nacer, se inserta en una historia que no es personal, que no es
suya, se inserta en una corriente de pensamiento, en una tradición, en un idioma. Por
esto, le resulta casi imposible pensar sin esa tradición y sin ese lenguaje.
Igualmente, y a diferencia del animal, el hombre ya no pertenece de manera inmediata a
la realidad, sino que vive inmerso en un universo simbólico: nada puede experimentar o
discernir que no sea por intermedio de formas lingüísticas, símbolos cientificos, obras
de arte, símbolos míticos, ritos religiosos, etcétera.
A los que no aceptaban esta realidad, en su tiempo, Nietzsche les decía irónicamente
que era porque “creían en el dogma de la inmaculada percepción”. En efecto, él
afirmaba que “no existían hechos, sólo interpretaciones”.
Habermas ha dedicado toda una obra (Conocimiento e interés, 1982) a exponer esta idea
central. Según este autor, la razón humana está imbricada inextricablemente con el
interés. No hay conocimiento sin interés. Habermas, siguiendo a Horkheimer,
distinguirá entre el interés instrumental que dirige el conocimiento de la naturaleza
(ciencias naturales), que está orientado fundamentalmente al control y dominio de la
misma, del interés práctico de las ciencias que tratan de ue se establezca una buena
comunicación entre los dialogantes (cien. cias histórico-hermenéuticas), e interés
emancipativo, que orienta las ciencias sistemáticas de la acción o ciencias sociales.
Cada uno de estos intereses especifica unas reglas lógico —metodológicas.
Pensar con nuevas categorías constituye algo en verdad desafiante para la mente
humana, ya que tiene que inventar dichas categorías. Por esto, los estados mentales
oponen gran resistencia al cambio, buscan su autopreservación, son muy duraderos a
través del tiempo y cambian muy lentamente. En tina palabra: constituyen auténticas
“disposiciones cognoscitivas”. Esto se comprueba a lo largo de la historia de la ciencia,
la cual está llena de inventos y descubrimientos “tontos”, que a nadie se le habían
ocurrido antes, porque en sus mentes no había nada con qué relacionarlos. Como, por
otra parte, es llamativo el hecho de que cuando Cristóbal Colón puso su primer pie en el
Nuevo Continente, no hubiera en todo él una sola rueda; que los incas, aztecas y mayas,
tan avanzados en otros campos, no hubieran descubierto un medio tan ina1 mensamente
útil y aparentemente, tan simple.
De una manera particular, las rutinas mentales que automatizan la vida y anulan el
pensamiento, están en abierta contradicción con los estudios avanzados. La
epistemología actual nos hace ver que persisten en la ciencia tradicional muchas
actitudes y procedimientos que, rigurosamente hablando, sólo podemos ubicar en el
terreno de los hábitos mentales. Así se deben calificar, en las ciencias humanas, las
explicaciones causales lineales cuando se les otorga un valor absoluto (ya
que carecen de evidencia), las leyes de probabilidad (que son leyes a
medias), la plena objetividad (que no existe), la inferencia inductiva (que es
injustificable), la verificación empírica (que es imposible) y otros aspectos centrales de
la ciencia clásica cuando se cree ciegamente en ellos (Martínez M., 1989b). En las
ciencias humanas, los conceptos centrales de “ley”, “experimento”, “medida”,
“variable”, “control”, “teoría”, cte., no significan lo mismo que en las ciencias naturales.
Por tanto, el término “ciencia” no se puede aplicar con el mismo sentido a la
percepción, cognición, motivación, aprendizaje, psicopatología, psicoterapia,
personología, jurisprudencia, estudios de la creatividad, psicología social o a cualquier
estudio empírico de fenómenos relevantes en los dominios de las humanidades. hacerlo
equivale a usar una metáfora, con todas las consecuencias epistemológicas que ello trae.
En verdad, una buena metodología puede ser muy útil y facilitar el proceso de
búsqueda. Sin embargo, la mayoría de los procedimientos y técnicas metodológicos
están enfocados más hacia atrás que hacia adelante, pues han sido modelados con el
presupuesto de que lo desconocido será, más o menos, igual a lo conocido. Debido a
ello, muchas veces se reduce, como dice Maslo a una técnica por medio de la cual la
persona no creativa pueda crear. Lo negativo está en que los seres humanos
verdaderamente creativos y originales se sientan dentro de una camisa de fuerza y se
vean mutilados en su pensamiento creador al tener que seguir un dogmatismo
metodológico. Más criticable y nega. tivo es todavía el hecho de que esta “tiranía
metodológica” (von llayek) convierte al método —que es fruto de la fragilidad y
falibilidad humana— en criterio único de verdad. En la medida en que los
procedimientos metodológieos promuevan las lineas de partido, la norma de fe y e
dogmatismo, constituyen la negación de la esencia de la universidad. En la medida en
que el método científico evada la autojustificación, impida la autocrítica y elimine toda
posibilidad de refutación, se convertirá en meras técnicas entontecedoras y hasta
cretínizantes. En efecto, la educación con espíritu dogmático y acrítico hace asimilar la
técnica dominante sin preguntar por sus causas. Así, aquellos a quienes ni siquiera se les
ocurre que es posible estar equivocados no pueden aprender otra cosa que habilidades
prácticas.
Este hecho —expresado a veces en formas veladas y sutiles, pero decididas— de forzar
hacía un conformismo, de mutilar el pensamiento divergente, de sancionar la
discrepancia aunque sea razonada, de no aceptar la oposición aunque sea lógica, de no
tolerar la eritica aunque sea fundada, está también en directa contradicción —como
señalamos en el capítulo anterior— con las investigaciones neuropsíquieas sobre la
interacción entre ambos hemisferios cerebrales y sobre la creatividad (I3ogen:
969, 976), las cuales nos alertan seriamente de la instalación de una actividad
inhibidora (transcallosa): cierta clase de actividad excesivamente analítica y racionalista
del hemisferio izquierdo (actividad consciente) puede suprimir directamente, a través
del cuerpo calloso, la acción intuitivo-creativa del hemisferio derecho o impedir que el
producto de éste sea accesible a aquél, es decir, que llegue a ser consciente. Las aminó,
consecuencias de esta inhibición son prácticamente inimaginables, ya
O V, en que implica sentar la base para el fracaso de nuevas intuiciones. Bogen
Ortón. dice que “hay un antagonismo intrínseco entre el análisis y la intuición” y
que se necesita una mediación sutil para armonizarlos (ibídem).
En cierta ocasión Einstein dijo que los científicos son como los detectives que se afanan
por seguir la pista de un misterio; pero que los científicos creativos deben cometer su
propio “delito” y también llevar a cabo la investigación. Einstein, como otros científicos
eminentes, sabía esto por propia experiencia. Primero habían cometido el “delito” de
pensar y creer en algo que iba en contra del pensamiento “normal” y corriente de los
intelectuales y de lo aceptado por la comunidad científica, algo que desafiaba las
normas de un proceder “racional” e incluso la misma lógica consagrada por el uso de
siglos, algo que solamente se apoyaba en su intuición. Este “delito” sería perdonado o
redimido únicamente haciendo ver a los propios colegas cine el fruto de esa intuición
(de esa visión intelectual) fue correcto. Pero esto exige dos cosas igualmente difíciles
ante las cuales han fracasado muchos genios creadores: primero, descomponer el
contenido de la intuición en partes o pasos más simples comprensibles y segundo,
traducirlo a un lenguaje más clásico y que diga “algo” a quienes permanecen todavía en
“otro mundo”.
Einstein pensaba que la ciencia no busca tanto el orden y la igualdad entre las cosas,
cuanto unos aspectos todavía más generales, tales como la simetría, la armonía, la
belleza y la elegancia, aun a expensas de su adecuación empírica. Y Russell (1975)
observa que para que una civilización científica sea considerada buena, no sólo es
preciso aumentar el “Es conocimiento, sino también, con él, la sabiduría, la cual debe
proporcionar una concepción justa de los fines de la vida y, por tanto, del uso e las
adecuado de la ciencia misma. Este razonamiento ubica, como es lógico, el criterio de
evaluación de la ciencia fuera de la ciencia misma. La ciencia no está aislada, sino que
depende de otros conocimientos y valores humanos para su justa conceptualización.
En segundo lugar, es necesario facilitar una “inmersión”, lo más iva- completo posible,
en el campo fenoménico concreto que se va a esturo, diar: acceso a los mejores y más
avanzados conocimientos existentes en les- el área, a través de bibliotecas y
hemerotecas actualizadas.
Einstein, por ejemplo, tenía una gran fe en su intuición y decía que “lo
te verdaderamente valioso era la intuición”. Al tratar de explicar cómo se le fue
acercando hacia la formulación de la teoría de la relatividad, sin ningún conocimiento
claro de su meta, expresa que confiaba en la reacción de su organismo total:
La conclusión de todo lo señalado hasta aquí es una solario podemos caminar mirando
hacia atrás, imaginando que el futuro será, más o menos, igual al pasado. Y esto es
válido cuando se trata de métodos y técnicas de investigación como también cuando
elaboramos construcciones teoréticas interpretativas del fenómeno estudiado. La posible
novedad del futuro nos exige una apertura mental sin límites, pero al mismo tiempo nos
pide una crítica y sistematicidad altamente rigurosas. En esa dialéctica de una
imaginación desbordada, por un lado, y un rigor crítico sistemático, por otro, podremos
encontrar un futuro promisorio para nuestros ambientes universitarios.
4 Naturaleza y dinámica de los paradigmas
científicos
Inmanuel Kant
Una actividad recurrente del investigador prudente debe ser el revisar y analizar la
firmeza del terreno que pisa y la fuerza y dirección de las corrientes de las aguas en que
se mueve; es decir, la solidez de los supuestos que acepta y el nivel de credibilidad de
sus postulados y axiomas básicos. Sólo así podrá evitar el fatal peligro de galopar feliz e
ingenuamente sobre la superficie helada y cubierta de nieve del lago que cree una
llanura inmensa y segura.
Todas las variantes del naturalismo y empirismo lógico se limitan a presuponer esta
realidad. La intersubjetividad, la interacción, la intercomunicación y el lenguaje son
simplemente presupuestos como base no explicada de sus teorías, las cuales
presuponen, por así decirlo, que el investigador ya tenga resuelto su problema
fundamental antes de que comience la indagación científica.
Este capítulo y los dos siguientes tratan de describir la naturaleza, dinámica y evolución
del paradigma clásico en la ciencia occidental, así como sus limitaciones e
insuficiencias, y la necesidad de llegar a la estructuración completa del paradigma
emergente y universal que superará las principales antinomias que presenta el proceso
cognoscitivo humano y que, a su vez, permitirá integrar, en un todo coherente y lógico,
los múltiples conocimientos existentes que provienen de las más diferentes disciplinas
académicas. Aunque ésta sea una empresa titánica, no es, de por sí, imposible y podría
lograrse por etapas en el futuro. El trayecto podrá ser largo, pero lo más importante es
el saber que vamos en la dirección correcta.
No nos interesa, para los fines que persigue esta obra, ni nos ayudarla mucho en su
alcance, el introducirnos en todas las ramificaciones de la problemática sobre los
paradigmas. Pero sí consideramos indispensable ubicar y distinguir las principales
posturas al respecto.
Thomas Kulin
Como al término paradigma muchos autores le vieron más significados de los que Kuhn
quiso darle, éste propuso, después, sustituirlo por matriz disciplinar.
En cierto modo, se podría resumir la teoría de Kuhn diciendo que “nuestras verdades de
hoy serán los errores del mañana”.
Karl Popper
De esta manera, Popper resume toda su posición afirmando que el criterio para
establecer el estatus científico de una teoría es su refutabilidad, lo cual equivale a decir
que toda teoría debe ofrecer la posibilidad de someter a prueba o contrastar el contenido
de la misma y utilizan para ello, todos los procedimientos asequibles a su enfoque
crítico. El psicoanálisis y el marxismo, por ejemplo, no serían científicos en ese sentido,
porque nunca fueron capaces de señalar un hecho, supuesto o posible que, de darse, los
refutara.
Para Popper, una teoría o hipótesis jamás podrá ser “verificada” stricto sensu, pues
siempre será posible su futura refutación con base en más ciatos, observaciones y
experimentos; sólo podrá ser “corroborada” o “confirmada”, “si las pruebas son
positivas”, por las mismas. Sin embargo, una hipótesis o teoría si puede ser refutada
definitivamente con base en las deducciones insostenibles que se puedan derivar
lógicamente de ella. De este modo, sabemos que las teorías refutadas son falsas,
mientras que las no refutadas pueden ser verdaderas.
Popper explica las razones que le llevaron a asumir esta posición, de la siuientc manera:
Las últimas obras de Popper contienen, a nuestro juicio, dos cambios notables: un
énfasis en el carácter interpretativo de la interacción de la mente con los datos
sensoriales y en la capacidad crítica y creativa de la mente autoconsciente (1980) y la
creencia de que el fruto de esta mente forma un conjunto de verdades científicas
objetivas (1985; ver también Musgrave, 1974). Como dice Lakatos (1983):
Paul Feyerabend
Fcyerabend, quien probablemente contribuyó más que nadie a la difusión de las ideas de
Popper, se convirtió en un disidente de su escuela clásica, a través de sus estudios y
publicaciones.
...no existe método especial que garantice el éxito o lo haga probable. Los científicos no
resuelven los problemas porque poseen una varita mágica
—una metodología o una teoría de la racionalidad—, sino porque han estudiado un
prob1em, durante largo tiempo, porque conocen la situación muy bien, porque no son
demasiado estúpidos (aunque esto es dudoso hoy día cuando casi todo el mundo puede
llegar a ser científico) (sic) y porque los excesos de una escuela científica son casi
siempre balanceados por los excesos de alguna otra. Sin embargo, los científicos sólo
raramente resuelven sus problemas, cometen cantidad de errores y mii- chas de sus
soluciones son completamente inútiles (1975, p. 302).
Los prejuicios se descubren por contraste, no por análisis. ¿Cómo podernos examinar —
se pregunta Feyerabend— algo que estamos usando continuamente? ¿Cómo podemos
analizar los términos en que habitualmente expresamos nuestras más simples y sinceras
observaciones y revelar sus presupuestos? La respuesta es clara: no podemos hacerlo
desde dentro. Necesitamos asumir una posición externa, un nuevo y alterno grupo de
supuestos, un mundo enteramente diferente.
Necesitamos un mundo imaginario para descubrir las características del inundo real en
que creemos vivir (que puede ser justamente otro mundo imaginario).. Mi intención fo
es sustituir un grupo de reglas generales por otro; mi intención es, más bien, convencer
al lector de que todas las metodologías, aun las más obvias, tienen sus limites (ibídem.
p. 32).
La condición de que las nuevas hipótesis vayan de acuerdo y no se opongan a las teorías
aceptadas no es razonable, porque favorece y preserva la teoría más vieja familiar y no
la mejor. Las hipótesis que contradicen teorías ya confirmadas nos pueden ofrecer
evidencia que no podría ser alcanzada por ningún otro camino. Por consiguiente, la
proliferación de teorías es beneficioso para el progreso de la ciencia, mientras que la
uniformidad le resta su poder crítico. Por otro lado, la uniformidad también perjudica el
libre desarrollo de cada individuo.
Cuando se sigue el criterio de cine las hipótesis tienen que ser consistentes con las
teorías aceptadas, se van logrando “éxitos”, no porque concuerden con los hechos, sino
porque se eliminan los hechos que pueden contradecir a las teorías. Estos “éxitos” son
completamente artificiales y ficticios y el circulo ideológico se cierra cada vez más: la
“evidencia” empírica puede ser creada por un procedimiento que se justifica en la
misma realidad que ha producido.
Imre Lakatos
Puesto que había sido criticado por Kuhn y Feyerabend por no especificar los criterios
que deben utilizarse en un momento dado para distinguir entre un programa de
investigación progresivo y otro regresivo, Lakatos añade que
Lakatos (1983) piensa que “la historia de la ciencia no confirma nuestra teoría cte la
racionalidad científica” (p. 45); en contra cte Popper, sostiene que la metodología de los
programas cte investigación científica no ofrece una racionalidad instantánea. Ha que
tratar con benevolencia a los programas en desarrollo; pueden transcurrir décadas antes
de que los programas despeguen del suelo y se hagan empíricamente progresivos. La
crítica no es un arma popperiana que mate con rapidez mediante la refutación. Aunque
las críticas importantes son siempre constructivas, existe una guerra oculta de desgaste
entre dos programas de investigación. Igualmente, Kuhn se equivoca al pensar que las
revoluciones científicas son un cambio repentino e irracional de punto de vista.
La historia de la ciencia refuta tanto a Popper como a Kuhn; cuando son examinados de
cerca, resulta que tanto los experimentos cruciales popperianos como las revoluciones
de Kuhn son mitos; lo que sucede normalmente es que los programas de investigación
progresivos sustituyen a los regresivos (p. 16).
Lakatos trata de ilustrar estas ideas con el ejemplo de los programas de investigación de
Isaac Newton y Niels Bohr, los cuales hacen ver la lentitud y tenacidad que necesitaron
para su implantación definitiva:
En principio Newton elaboró su programa para un sistema planetario con un punto fijo
que representaba al Sol y un único punto que representaba a un planeta. A partir de ese
modelo derivó su ley del inverso del cuadrado para la elipse de Kepler. Pero este
modelo contradecía a la tercera ley de la dinámica de Newton y por ello tuvo que ser
sustituido por otro... Posteriormente, elaboró el programa para un número mayor de
planetas y como si sólo existieran fuerzas heliocéntricas y no interplanetarias. Después,
trabajó en el supuesto de que los planetas y el Sol cran bolas de masa y no puntos. De
nuevo, este cambio no se debió a la observación de una anomalía..., implicó dificultades
matemáticas importantes, absorbió el trabajo de Newton y retrasó la publicación de los
Principia durante más de una década. Tras haber solucionado este problema, comenzó a
trabajar en las “bolas giratorias” y sus oscilaciones. Después, admitió las fuerzas
interplanetarias y comenzó a trabajar sobre las perturbaciones. Llegado a este punto,
empezó a interesarse cori más intensidad por los hechos. Muchos de ellos quedaban
perfectamente explicados (cualitativamente) por el modelo, pero sucedía lo contrario
con muchos otros. Fue entonces cuando comenzó a trabajar sobre planetas combados y
no redondos, etcétera...
El plan de Bohr fue elaborar primero la teoría del átomo de hidrógeno. Su primer
modelo había de basarse en un protón fijo como núcleo, con un electrón en una órbita
circular; en su segundo modelo quiso calcular una órbita elíptica en un plano fijo;
después, trató de eliminar las restricciones claramente artificiales del núcleo fijo y del
plano fijo; posteriormente, pensó en tener en cuenta la posible rotación del electrón y
más tarde, confió en extender su programa a la estructura de átomos y moléculas
complicadas y al efecto de los campos electromagnéticos sobre ellos, etcétera. (1983,
pp. 69 y 82)
En síntesis, Lakatos sostiene que la honestidad del falsacionismo sofisticado (su teoría)
pide que se intente considerar las cosas desde diferentes puntos de vista, que se
propongan otras teorías que anticipe11 hechos nuevos y que se rechacen las teorías que
han sido superadas Por otras poderosas. Piensa que este falsacionismo metodológico
sofisticado combina varias tradiciones diferentes: que hereda de los empiristas la
determinación de aprender, fundamentalmente, de la experiencia y de los kantianos el
enfoque activista de la teoría del conocimiento. En todo caso, Lakatos tiende a explicar
las posiciones, no en términos psicológicos y sociológicos, sino que considera que están
determinados por principios de racionalidad.
Finalmente, Lakatos enfatiza cómo el problema de demarcación entre ciencia y
pseudociencia presenta serias dificultades para una institucionalización deseable de la
crítica. Así, la teoría de Copérnico fue condenada por la Iglesia Católica en 1616 porque
supuestamente era seudocientífica, y fue retirada del Índice en 1820 porque para
entonces la Iglesia entendió que los hechos la habían probado y por ello se había
convertido en científica. Igualmente, el Comité Central del Partido Comunista Soviético
en 1949 declaró seudocientífica a la genética mendeliana e hizo que sus defensores,
como el académico Vavilov, murieran en campos de concentración; tras la muerte de
Vavilov la genética mendeliana fue rehabilitada, pero persistió el derecho del Partido a
decidir lo que es científico o publicable y lo que es seudocientífico y castigable.
Más recientemente, Laudan (1977, 1981, 1984) ha tratado de remplazar los programas
de investigación” de Lakatos con una entidad superteorética llamada tradición de
investigación, la cual estaría compuesta por una familia de teorías que comparten una
ontología y una metodología comunes que evolucionarían paralelamente con los
cambios de la tradición de investigación.
Como muy bien señala Morin (1984), los diversos trabajos de Kuhn, Popper,
Feyerabend y Lakatos tienen como rasgo común mostrar que las teorías científicas,
como los icebergs, tienen una enorme parte sumergida que no es científica, y que
constituye la zona ciega de la ciencia, pero que es indispensable para el desarrollo de la
ciencia (p. 92).
La mente humana tiene una propensión natural innata a buscar el sentido o significado
de las cosas, de las acciones y de los eventos. Cuando le encuentra un sentido
“satisfactorio intelectualmente” (Braithwaite, 1956), decimos que conoce algo. Conocer
es aprehender un dato en una cierta función, bajo una cierta relación, en tanto significa
algo, dentro de una determinada estructura.
El significado que percibe la mente está determinado por la interacción de dos factores o
componentes fundamentales: uno, externo, que se revela en la tendencia que tiene toda
realidad exterior a imponernos su forma (simetría, continuidad, proximidad, semejanza,
cierre, regularidad, dependencia, etc), y se expresa en la “ley de la buena forma” o del
equilibrio, establecida por la psicología de la Gestalt; el otro, interno, se manifiesta en el
hecho de que nuestra mente no es virgen como la de un niño, sino que está ya
estructurada con una serie de presupuestos aceptados tácitamente, convive con una
filosofia implicita, posee un mareo de referencia y una estructura teórica para muchas
cosas, alberga una gran variedad de necesidades, intereses, valores, miedos, deseos,
fines y propósitos. Todo esto hace —como ya señalamos en el capítulo anterior— que
un “dato” o señal que venga de la apariencia de un objeto o interlocutor (o de nuestra
memoria) active un “bloque de conocimientos”, y éste, al integrarlo cii su contexto o
estructura, le confiera un significado determinado.
De esta manera, cuando hablamos de objetividad” de los datos, podemos dar a entender
solamente su reproductibilidad dentro de una comunidad científica que comparte una
serie común de hipótesis y conceptos. Esto proporciona la base para la comunicación y
el acuerdo, pero ello no implica que los datos sean independientes de las operaciones
del observador o de sus categorías interpretativas; es decir, no son algo absoluto, sino
relativo y provisional, pero útil. Por tanto, hablar de plena “objetividad”, sería tan
imposible y absurdo como aplaudir con una sola mano.
Sin embargo, una idea central debe quedar muy clara: el hecho que la teoría previa
influya en la observación y la experiencia, que la teoría parezca “construir” los hechos,
que no haya observador completamente vacio de hipótesis, que los preconceptos del
investigador condicionen lo investigado, que no haya discurso ideológicamente neutro y
que los instrumentos de interpretación de una cultura procedan de la cultura misma en
que está inmerso el intérprete, todo esto, no descniboca necesariamente en un
relativismo cognoscitivo radical, como parecen insinuar, contradictoria y paradójica
mente, algunos autores que añoran “un mundo encantado” o propician una “mística
inefable” o un “retorno al origen”. Si estos autores escriben una obra de 300 ó 500
páginas, es porque tienen una determinada visión de la realidad y, si la publican, es
porque creen que su visió11 puede ser comunicada y comprendida por otras personas,
es decir, q presuponen una cierta pretensión de validez del contenido —cualquiera que
éste sea— de sus obras.
Los abundantes frutos que ofrece la aplicación de ese paradigma, lleva a los usuarios del
mismo a aceptarlo sin restricción alguna e, incluso, a imponerlo como un enfoque
obligatorio para sus problemas científicos. La aceptación irrestricta del paradigma
fácilmente lleva a confundirlo con una “descripción exacta de la realidad”, en lugar de
aceptarlo como un mapa útil, como una aproximación adecuada y como un modelo para
la organización de la información conocida. Esta confusión del mapa con el territorio
que representa es típica de la historia de la ciencia.
En esta vida dinámica del paradigma, los investigadores normales se ven obligados a
solucionar exclusivamente los problemas susceptibles de ser resueltos con los medios
conceptuales e instrumentales existentes. Es, por ello, muy lógico que la emergencia de
lo nuevo o los conocimientos fundamentalmente nuevos sean no sólo escasos o poco
comunes, sino, en principio, improbables. Y cuando una investigación llega a resultados
inesperados, es “natural” que sca calificada como “mala investigación”, ya que la gama
de resultados posibles está claramente definida por el paradigma. A fin de cuentas,
cuando se ha llegado a este extremo, la investigación se orienta hacia la confirmación de
lo que ya sabemos, o de lo que imaginamos (hipótesis probables), y no hacia lo
desconocido. Está, pues, de cara al pasado y de espaldas hacia el futuro, es decir, que
esta investigación es, más bien, una seudo investigación.
El punto central de este discurso está en el cambio que se hace del criterio de verdad. El
criterio del conocimiento —si algo es verdadero o falso— ya no va a estar en el sentido
de las cosas, o en la sabiduría y experiencia personales, como sería lógico, sino en la
aplicación correcta de un método y de sus técnicas. La aplicación correcta de estas
reglas pregarantiza el éxito y hace fidedignos, creíbles y verdaderos los resultados
algunos vistos o examinados con otros criterios, pero si son la conclusión que arroja la
aplicación correcta de “la metodología”, deber ser aceptados como conocimiento, como
verdad: si la hipó-tesis (tesis subyacente) resulta estadísticamente significativa al nivel
del 0,01, será incuestionable y se convertirá en tesis (verdad demostrada).
Quizá, nadie ha expresado esta posición tan clara y enfáticamente como Moritz Schliek,
líder del Círculo de Viena, en la presentación del primer número de la revista
internacional ERKENNTNIS (1930. 1931), revista que orientaba la filosofía de la ciencia
en la década de los treinta:
Yo estoy convencido de que estamos en unavuelta fina ide lafilosofia Nuestro tiempo,
así lo reclamo yo, posee ya los métodos con los cuales todo conflicto de sistemas se
vuelve superfluo; lo que importa es sio aplicar estos métodos resueltamente (Koch,
1981, p. 263; cursivas nuestras).
Schlick afirmaba, incluso, que “el significado de una proposición era su método de
verificación”. En efecto, la idea básica del programa del empirismo lógico era el
concepto de “verificabilidad”, es decir, la contrastación empírica.
El “criterio de sentido” empirista sostiene que una proposición tiene sentido si, y sólo si,
es susceptible de comprobación empírica, de verificación o refutación, es decir, si, y
sólo si, hay un método empírico para decidir si es verdadera o falsa; si no existe dicho
método, es una seudoproposición carente de significado. La evidencia de este principio
es sólo aparente, pues la posibilidad de “comprobar” y el alcance de lo “comprobable”,
en ese sentido, se dan por supuestos como algo obvio. Para negar esta afirmación hasta
responder con su misma doctrina (argumento ad hiominem) y señalar que ella no es
verificable, es deeii que “el principio de verificación es inverificable” y que, por lo
tanto, de acuerdo con su mismo criterio, “no tiene sentido”. Es más, como la
metodología empirista se apoya en ese mismo criterio, podríamos añadir que todas las
directrices, reglas y prescripciones de su metodología científica y de su racionalidad
carecen igualmente de sentido por esa misma razón. Ya Einstein había señalado que es
realmente peligroso decir que uno debería hablar sólo sobre cantidades observables,
como habia hecho el mismo Mach, que no creía en la realidad de los átomos y los
consideró sólo un punto de apoyo conveniente del pensamiento, de la economía del
pensar, porque no eran observables.
Una vez erigido el método en criterio único de verdad, no es difícil imaginar las
derivaciones que de ahí pueden emanar. Entre ellas quizá la peor de todas es considerar
esta visión como la “percepción exacta de la realidad” y toda desviación seria que se
aparte de ella como disonancia percepttlal y cognoscitiva con esa visión del mundo,
signo de una falta de salud mental o psicopatología grave. Sabemos, por ejemplo, que a
Freud se le ha objetado frecuentemente la tendencia a ver a sus disidentes Y críticos en
términos de síntomas patológicos y a resolver estos desacuerdos por medio de
“excomuniones” de su escuela. Igual proceder tuvieron los líderes del Partido
Comunista clásico con los “revisionistas”, sometiéndolos a un lavado de cerebro. Es
lógico que si una discrepancia ideológica se considera como un “estado alterado de
conciencia”, como una distorsión o versión tergiversada de la percepción correcta de la
“realidad objetiva”, habrá que ayudar a estos “visionarios” con una terapia psiquiátrica
para que vuelvan a la correcta y sana percepción de la realidad.
¿Por qué, entonces —se pregunta Koch (1980)—, es Kuhn y no Polanyi un ídolo
familiar, por ejemplo, para los psicólogos, un profeta que los ha guiado desde el
positivismo lógico hacia tina era presuntamente nueva? Y responde: porque el amplio
radio de intereses cultivados por Polanyi y su rica y elocuente prosa exigen del lector un
gran esfuerzo intelectual y una capacidad de comprensión de alto nivel. Pero —y esto es
mucho más importante— los análisis más profundos y diferenciados de Polanyi son
demasiado liberado res y propician un alejamiento de las cómodas prácticas y
argumentaciones propias de una disciplina seudocientifica ya establecida (ibídem). En
efecto, la supuesta liberalización de Kuhn confirma, más que desafía, las difusas
actitudes positivistas que pueblan la mente de muchos psicólogos y sociólogos.
Un análisis de la dinámica del estatuto epistemológico de los paradigmas hace ver que
éstos juegan un doble papel en la evolución de ¡a ciencia. Por un lado, son
absolutamente esenciales e indispensables para el progreso científico, ya que ordenan y
sistematizan los conocimientos en un momento dado de la historia de una disciplina; por
el otro, en cambio, actúan, posteriormente, como constreñidores conceptuales, que
dificultan de un modo decisivo la posibilidad de nuevos descubrimientos y la
exploración de nuevas áreas de la realidad. Esta función, al mismo tiempo progresista y
reaccionaria, de los paradigmas debe ser el foco del análisis epistemológíco.
ANÁLISIS EPISTEMOLÓGICO
En este análisis notamos tres hechos básicos que merecen ser puestos de relieve: en
primer lugar, se encuentra una renuencia excesivamente grande a revisar los
compromisos epistemológicos de base; de aquí se deriva, como segundo hecho, una
notable desproporción entre la atención que se ofrece a los compromisos de fondo del
propio trabajo y aquella dada a los detalles superficiales y hasta pedantes de carácter
instrumental: se reposa felizmente dentro de la superestructura, y, finalmente, se detecta
una disposición a aceptar las cosas en forma acrítica y a convertirse en un individuo más
de la “tendencia central”. Cuando una persona se halla bajo presión, cualquier
pensamiento que venga a eliminar esa presión será aceptado como verdadero,
renunciando, así, al examen de posibles alternativas teoréticas y mutilando los mejores
recursos propios de la imaginación y de la creatividad, especialmente en las mentes
jóvenes.
Ya Santo Tomás de Aquino había afirmado que “aquello de lo que se ha estado imbuido
desde la infancia se afirma con la solidez de lo que es natural y evidente por sí mismo”
(Summa contra gentiles, 1, 11).
Sin embargo, y tratando de ser un poco más optimistas que Darwin y Planck, podemos
señalar algunas pistas o vías —aunque sean difíciles de transitar— por las cuales
podemos alejarnos de un viejo paradigma y acercarnos a otro nuevo.
La crítica más radical a la práctica actual de la metodología científica ha sido realizada
por Feyerabend (1975). Como ya vimos, este autor señala que la ciencia no puede ser
gobernada por un sistema rígido, inmutable y de principios absolutos. Las violaciones
de las reglas básicas epistemológicas y metodológicas no han sido meros accidentes; a
lo largo de la historia han sido absolutamente necesarias para el progreso científico. Las
investigaciones científicas que alcanzaron mayor éxito y proyección no se condujeron
de acuerdo con un método únicamente racional. A lo largo de la historia de la ciencia en
general, y en particular durante las grandes revoluciones, la aplicación concienzuda de
los cánones del método científico vigente no sólo no habría acelerado el progreso, sino
que lo habría detenido por completo. La revolución coperníeana, por ejemplo, y otros
descubrimientos esenciales de la ciencia moderna, sólo han sobrevivido gracias a que
con frecuencia, en el pasado, se alimentaron con algo más que la fría razón, como la
imaginación y la intuición.
Los estudios actuales sobre los procesos creativos apoyan estas ideas de Feyerabend.
Los procesos creadores, en efecto, siguen frecuentemente un derrotero al margen de la
conciencia y de la dirección del yo; es más, la toma de conciencia de este proceso
parece interrumpir muchas veces su buena marcha.
Gershon J. Wheeler
Max Born
Isaac Newton, que nació el mismo año de la muerte de Galileo, 1642, dcsarrolló toda
una fórmula matemática del concepto mecanicista de la naturaleza y con ella sintetizó
magníficamente no sólo las obras de Copérnico y Kepler, sino también las de Bacon,
Galileo y Descartes. La clave de su genial síntesis consistió en comprender que una
manzana era atraída hacia la tierra por la misma fuerza que atraía los planetas hacia el
Sol.
Newton, después, supuso que las normas generales que parecen obedecer los cuerpos de
tamaño medianamente grande, son verdad para cada particula de materia, sea cual sea
su clase y tamaño. Estas partículas, pasivas e inmutables, cuya masa y forma permanece
siempre constante, se atraen con una fuerza de gravedad que es directamente
proporcional a sus masas e inversamente proporcional al cuadrado de la distancia que
las separa.
Descartes pone, además, otra idea rectora que expresa, como segunda máxima, en el
Discurso del método: “fragmentar todo problema en tantos elementos simples y
separados como sea posible”. Este enfoque constituyó el paradigma conceptual de la
ciencia durante casi tres siglos.
Este paradigma mecanieista fue ideado y diseñado para estudiar y resolver los
problemas que presentan las ciencias naturales y su tee nología, las cuales, gracias a él,
lograron un gran desarrollo en los últimos siglos. Su mayor mérito consistió en el alto
nivel de adecuación entre el modelo y su objeto de estudio, al nivel de los cuerpos de
tamaño intermedio; pero, en la medida en que el objeto de estudio se aleja del campo
físico intermedio hacia el mundo microfísico o submicrofísico, hacia el mundo
biológico, psicológico o sociológico, su inadecuación se pone de manifiesto hasta
anularse totalmente.
Ya Bertrand Russell había observado que “casi todas las preguntas de mayor interés
para las mentes especulativas son de tal naturaleza que la ciencia (clásica) no puede
responderlas” (1945, pp. xiii, xiv). Eii efecto, esta ciencia ordinariamente evade los
problemas más significativos e inquietantes para los seres humanos.
Llama la atención, por su aspecto paradójico, el hecho de que tanto Newton como
Descartes dan origen a un modelo científico que trasciende hacia las ciencias humanas y
que, en esa dirección, ellos están muy lejos de compartir. Ambos aceptaban y
distinguían claramente el mundo natural y el sobrenatural, al cual pertenecía el hombre.
Para ambos el concepto de Dios era un elemento esencial de su filosofia y de su visión
del hombre Y del mundo; por tanto, estaban muy lejos de usar el modelo mecanicista a
que dan origen, para estudiar y comprender al hombre.
El alcance y la significación de las ideas de Buridan las resume muy bien Robert
Oppenheimer (1956) en el siguiente texto:
La idea clásica de la física sobre el estado natural de la materia la concebía como algo
en estado de reposo; y, así, cuando había cuerpos en movimiento era necesario buscar
una causa. Este era el punto de vista académico. Este era también el punto de vista de
Aristóteles. De hecho. está apoyado en mucha observación...
Jean Buridan y la Escuela de Paris, en el siglo xiv, dieron un paso ni:is haciendo una
nueva analogía que, probablemente, constituye el mayor umce que se ha dudo en la
historia de la ciencia occidental. Ellos decían que cro cierto que la materia tenía un
estado natural, pero que no era de reposo. Es cierto que cuando se altera este estado
natural hay que atribuirlo a la intervención de una causa. Pero el estado natural es un
estado de constante ímpetu, de un momentum constante, de una velocidad uniforme. Y
con esto comenzó la mecánica racional y la ciencia física ra cional. Este parece un
cambio pequeño: reemplazar las coordenadas por la velocidad; es, ciertamente, un
pequeño cambio; v sin embargo, es un cambio total del modo de pensar sobre el mundo
físico...
Este “cambio total del modo de pensar” será apreciado mejor cuan do, después con
Niels Bohr, se llegue a saber que en las “pasivas e inertes” partículas de Parménides o
de Newton, los electrones están girando alrededor del núcleo a una velocidad de l0’
revoluciones por segundo (Margcnau, 1970, p. 48), y que cualquier interacción con el
observador cambia e! proceso de su devenir v por tanto, su realidad de facto. Aunque
este principio se aplica a partículas y acontecimientos submicroscópicos, estos eventos
tan pequeños no son en modo algunos insignificantes. Son precisamente aquellos tipos
de acontecimientos que se producen en los nervios y entre las neuronas del cerebro,
como también en los genes, los cuales llevan las cualidades que heredamos, y, en
general son la base que constituye toda materia del cosmos y todo tipo de movimiento y
forma de energía.
Entre los cambios fundamentales que se dan en la física moderna, hay cinco que
tienen mayor trascendencia para la epistemología y el cambio de paradigma científico:
la teoría de la relatividad de Einstein, la teoría cuántica de Planck, Bohr y Heisenberg, la
teoría de las estructuras disipativas de Prigogine, el principio de exclusión de Pauhi y el
principio de complementariedad de Niels Bohr.
También están unidos de una manera indisoluble el tiempo y el espacio: forman una
única entidad, espacio-temporal, continua. La luz necesita tiempo para viajar desde el
objeto observado hasta el observador: por eso, vemos el Sol como era hace ocho
minutos, vemos la estrella más cercana como era hace cuatro años y vemos las galaxias
como existieron hace millones de años. Por esta misma razón, la longitud de un objeto
depende de su movimiento con relación al observador y cambia con la velocidad de ese
movimiento, es decir, se contrae en la dirección de su movimiento; así, una vara tiene su
longitud máxima cuando está en reposo, y se hace más corta con el aumento de
velocidad respecto al observador (Capra, 1992, pp. 192-193).
Esta cuarta dimensión nos exige, a su vez, que dejemos de lado el simbolismo espacial,
como yuxtaposición de unidades simultáneamente existentes, y su tradicional analogía
visual (como imagen, foto o pintura estáticos), y que recurramos a la analogía auditiva,
que sí incorpora la dimensión temporal. Así, en una melodía o en una polifonía, la
cualidad de un nuevo tono, a pesar de su irreductible individualidad, está constituida
también por todo el contexto musical antecedente que, a su vez, se ve retroactivamente
cambiado por la emergencia de una nueva cualidad musical. La frase musical es un todo
diferenciado sucesivo. Lo mismo que cualquier todo dinámico, exhibe una síntesis de
unidad y multiplicidad, de continuidad y discontinuidad.
Es conveniente observar que casi todos los conceptos de la física moderna —espacio,
tiempo, materia, energía, velocidad, causa, efecto, etc.— deben ser aquí redefinidos, es
decir, que no significan lo mismo que en la física clásica. Esa necesidad de redefinición
continua es el mayor obstáculo para una auténtica comprensión: de ahí el gran papel que
juegan, en esa comprensión, las analogías, imágenes y metáforas.
Para obtener una comprensión más clara de esta compleja realidad, debemos tener en
cuenta varios aspectos importantes del mundo subatómico Así, el diámetro de un átomo
(que está vacío en 99 % de su volumen) es del orden de una cien millonésima parte de
un centímetro; es decir, que si aumentamos tina naranja hasta el tamaño de la Tierra, sus
átomos serían como nueces. Las partículas subatómicas que forman la materia (en la
actualidad se conocen más de 200, y otras tantas antipartículas, pues a cada partícula
corresponde una antipartícula, de igual masa, pero de carga opuesta) no son pasivas e
inertes, sino que están llenas de actividad, y debiéramos representarlas como diminutas
gotas de un líquido extremadamente denso que está hirviendo y burbujeando con gran
fuerza- En las minadas de colisiones que se producen entre las partículas subatómicas,
se crean y destruyen mutuamente muchas cuya vida es inferior a una millonésima de
segundo. Todo experimento implica una interacción entre el sistema que se está
observando y ciertos aparatos de medida apropiados y, según una ley fundamental de la
naturaleza, no puede ser inferior a h, (constante de Planck); ahora bien, los sistemas
cuánticos están caracterizados por valores de acción cercanos a h, lo cual quiere decir
que la perturbación producida por la medición es tan grande como el sistema mismo;
por lo tanto, cualquier medición en un sistema cuántico lo perturbará de tal manera que
se borrará toda posible información sobre su estado antes de la medición (De la Torre,
1992, p. 41). Esto pudiera indicarnos que nunca podremos conocer la cosa en sí (Ding
an sich, de Kant), sólo la realidad resultante de nuestra interacción.
El gran logro de Fleisenberg fue expresar las limitaciones de los conceptos clásicos
(partícula, onda, posición, velocidad, etc.) en una fórmula matemática exacta que se
conoce con el nombre de principio de indeterminación o de incertidumbre. Cuanto más
acentuamos uno de ellos en nuestra descripción, más incierto se vuelve el otro concepto,
y la relación exacta entre ambos la da el principio de indeterminación, que dice que “el
producto de ambas inexactitudes está dado por el cociente de la constante de Planck y la
masa de la partícula en cuestión” (Heisenberg, 1974, p. 117).
Sin embargo, Heisenberg señala que la incertidumbre del científico no reside tanto en la
imperfección de sus instrumentos de medida o en las limitaciones humanas para
conocer o en el hecho que el observador con su intervención perturba los valores
previos de la realidad, aunque todo esto es cierto y hay que tenerlo muy en cuenta, sino
en forzar a una de las muchas potencialidades existentes a convertirse en realidad,
como hace el escultor al extraer una estatua de entre las muchas posibles en el bloque de
mármol. Heisenberg dice que “la transición de lo posible a lo real tiene lugar durante el
acto de observación” que “se aplica al acto de observación física, no al acto psíquico de
observación”, y que “tiene lugar tan pronto como entra en juego la interacción del
objeto con los instrumentos de medición, y por lo tanto con el resto del mundo” (1958a,
pp.54.55).
En otras palabras, el pasado trasmite al futuro una serie de probabilidades, y sólo una de
estas muchas potencialidades puede llegar a realizarse. El futuro no es sencillamente
desconocido, es algo que “no está decidido”, pero tampoco es algo que está
completamente “abierto”, puesto que el presente determina la serie de las futuras
posibilidades. Es el observador el que con su método de interrogación y su instrumental
de medición fuerza a la naturaleza a revelar una u otra posibilidad (Ibíd., p. 58).
En conjunto, se podría decir que si la acción humana sobre las realidades físicas es
determinante y, a su vez, el hombre está influenciado por todo su entorno físico,
biológico, psicológico, social y cultural, entonces, la teoría cuántica nos fuerza a ver el
Universo no como una Colección de objetos físicos, sino, más bien, como una
complicada telaraña de relaciones entre las diversas partes de un todo unificado.
Es digno de señalar la relación que tienen estas ideas con la filosofía griega.
Por otro lacio, el hecho de que el instrumento más sofisticado logrado hasta ahora para
observar el mundo del átomo, la cámara de niebla o de burbuja, sólo nos da una burda
representación de las interacciones de algunas partículas, ya que los procesos reales
implican redes mucho más complicadas de intercambios de partículas en las cuales se
emiten y reabsorben partículas virtuales incesantemente, este hecho nos hace ver qué
cerca estaba Platón de nuestra epistemología cuando dijo, en su Mito de la caverna, que
no conocemos la realidad física de las cosas sino sólo su sombra.
3. En tercer lugar, debemos señalar que una crítica profunda y un posible aporte futuro
se desprenden de la obra de llya Prigogine (1986, 1988), galardonado con el Premio
Nobel de química (año 1977) por su teoría de las estructuras disipativas en la
termodinámica.
...la objetividad científica no tiene sentido alguno si termina haciendo iluso rias las
relaciones que nosotros mantenemos con el mundo, si condena como “solamente
subjetivos”, “solamente empíricos” o “solamente instrumentales” los saberes que nos
permiten hacer inteligibles los fenómenos que interrogamos...; que las leyes de la física
no son en manera alguna descripciones neutras, sino que resultan de nuestro diálogo
con la naturaleza, de las preguntas que nosotros le planteamos... ¿Qué sería el castillo
de kronberg (castillo donde vivió hamlet), independientemente de las preguntas que
nosotros le hacemos? Las mismas piedras nos pueden hablar de las moléculas que las
componen, de los estratos geológicos de que provienen, de especies desaparecidas en
estado de fósiles, de las influencias culturales sufridas por el arquitecto que construyó el
castillo o de las interrogantes que persiguieron a hamlet hasta su muerte. Ninguno de
estos saberes es arbitrario, pero ninguno nos permite esquivar la referencia a aquel para
quien estas preguntas tienen sentido... (pp. 39,40 yl2l).
...aunque ésta modifica la vieja concepción de la objetividad física, deja intacta otra
característica fundamental de la física clásica: la ambición de obtener
una descripción “completa” de la naturaleza.., a través de una fórmula del Universo de
la cual se podría deducir matemáticamente la totalidad de i>s puntos de vista posibles
sobre el mundo, la totalidad de los fenómenos de la naturaleza, como son observados
desde cada punto de vista posible. En este sentido, la relatividad se sitúa aún en la
prolongación de la física clásica (1986, p. 300)
.
Sabemos que la teoría cuántica, por su parte, “supera” el determinismo implícito en la
posición de Einstein, pero, sin embargo, lo hace describiendo la observación como una
modificación irreversible de lo que es observado, es decir, tanto la irreversibilidad
(temporal) como el recurso a las probabilidades (indeterminismo) son referidos en la
física cuántica al acto de observación. Estas nociones están, por tanto, definidas como
algo ligado a la interacción humana, y no como perteneciente de manera intrínseca al
objeto observado.
Para Prigogine, en cambio, la flecha del tiempo —que implica siempre una diferencia y
clara distinción entre el pasado y el futuro— tiene sólo y siempre una sola dirección;
por esto, ubica el carácter irreversible del tiempo y la indeterminación probabilista en la
naturaleza misma de la realidad en sí: son los eventos cuánticos como tales los que son
irreversibles e indeterminados; la dispersión probabilista de energia tiene un significado
intrínseco, independiente dci acto de observación. Sin embargo, las leyes probabilistas,
en sí mismas, no son aún suficientes, ya que la representación probabilista no da sentido
a la distinción entre el pasado y el futuro (1988, p. 106).
Son muchos, en efecto, los autores físicos y humanistas que han seguido a Bohr en un
uso más amplio de la idea de complementariedad: análisis mecanicistas y orgánicos,
descripciones conductuales e introspeccionistas, mente y cerebro, voluntad libre y
determinismo, teleología y mecanicismo, etc., pueden ser considerados no tanto corno
explicaciones conflictivas y contradictorias, sino como descripciones complementarias
(cada una capta aspectos de la realidad que no ven las otras), válidas en diferentes
contextos, y aun en el mismo contexto cuando se adoptan perspectivas diferentes.
Igualmente, la ciencia, la filosofía, la historia, la poesía y el arte pueden ser entendidas
como modos diferentes y complementarios de descripción de la misma realidad, cada
uno de ellos con su aporte propio, único e insustituible. Más adelante (en el cap. 8)
veremos que ésta es una de las vías que fundamentan un nuevo modelo de racionalidad
y la base del paradigma emergente.
En las últimas décadas, la nueva física y la reciente neurociencia nos ofrecen “hechos
desafiantes” que hacen ver que la información entre partículas subatómicas circula de
maneras no conformes con las ideas clásicas del principio de causalidad; que, al cambiar
una partícula (por ejemplo, su spin o rotación: experimento EPR), modifica
instantáneamente a otra a distancia sin señales ordinarias que se propaguen dentro del
espacio-tiempo; que esa transferencia de información va a una velocidad supralumínica;
que esta información sigue unas coordenadas temporales (hacia atrás y hacia adelante en
el tiempo); que el observador no sólo afecta al fenómeno que estudia, sino que en parte
también lo crea con su pensamiento al emitir éste unas partículas (los psitrones) que
interactúan con el objeto; que nada en el Universo está aislado y todo lo que en él
“convive” está, de un modo u otro interconectado mediante un permanente, instantáneo
y hasta sincrónico intercambio de información. Estos y otros muchos acontecimientos
no son imaginaciones de “visionarios”, ni sólo hipotéticas lucubraciones teóricas, sino
conclusiones de científicos de primer plano, que demuestran sus teorías con centenares
de páginas de complejos cálculos matemáticos
David Bohm (1988), principal físico-teórico actual, ha guiado sus investigaciones por la
“fe’ en tras el aparente caos y desorden de la materia ha de existir un orden (el “orden
implicado” o plegado, no visible, en contraposición al “orden desplegado”, visible) que
todavía no alcanzamos a comprender y que nos daría la armonía entre la ciencia, la
filosofía y el arte, como sucedió en el Renacimiento. El orden des plegado determina la
decisión de futuro de las partículas de materia o los individuos; el orden implicado, al
contrario, establece la posibilidad de futuro en función de las interrelaciones de los
elementos o individuos del sistema.
Igualmente, René Thom, mediante su teoría de las catástrofes (1980), trata de explicar
cómo, en contra del segundo principio de la termodinámica y de la entropía, el Universo
genera orden a partir del caos y cómo se dan los procesos de morfogénesis típicos de los
sistemas vivos: ahora, en el contexto del micromundo —aclara este autor—, las
partículas son conscientes, tanto bajo la definición de la teleología (saben dónde van),
como por la determinación de su identidad (el orden desplegado) y la realidad de
choque (la catástrofe) con otra partícula (el orden implicado). El resultado es probable
sólo en un sentido puramente estadístico-
Así, donde Prigogine habla de desequilibrio creativo, Thom habla de catástrofes
benéficas. Y ambos coinciden en una conclusión atípica, aunque no paradójica: el
estado atípico, el salto brusco, ci momento inestable, la ruptura de la continuidad son los
facilitadores del cambio y de la creatividad.
En esta misma línea, Ervin Lazslo, en su obra La gran bifurcación (1990), plantea el
cambio de paradigma social al que se enfrenta humanidad. Para él, el equilibrio no
implica reposo, sino un estado dinámico en el que las fuerzas internas crean tensiones
productivas, Estas tensiones ponen a los sistemas fuera del equilibrio donde tienen lugar
los procesos súbitos y no lineales y los cambios de dirección; se da la bifurcación, que
puede ser benéfica: la catástrofe benéfiea de Reii Thom. Esta bifurcación, entonces,
puede llevar a sistemas más complejos, como la evolución de la vida, la aparición de la
conciencia, la cultura y la civilización.
los estudios profundos sobre los fenómenos del quantum ofrecen pruebas de cine la
información circula de maneras no conformes con las ideas clásicas... Todo lo que se
conoce sobre la naturaleza es acorde con la idea de que sus procesos fundamentales
están situados fuera del espacio-tiempo aunque generan procesos que pueden estar
localizados en el espacio-tiempo. El teorema de este escrito apoya esa forma de ver la
naturaleza, al demostrar que la transferencia supralumínica de información es necesaria
(Racionero-Medina, 1990, p. 94).
Aquí debo detenerme y hablar en nombre de la gran fraternidad que formamos los
expertos de la mecánica. Somos muy conscientes, hoy, de que e1 entusiasmo que
aumentó a nuestros predecesores ante el éxito maravilloso de la mecánica newtoniana,
los condujo a hacer generalizaciones en el dominio de la predictibilidad (...) que
reconocemos ahora como falsas. Queremos colectivamente presentar nuestras excusas
por haber inducido error a un público culto, divulgando, en relación con el
determinismo de los sistemas que satisfacen las leyes newtonianas del movimiento,
ideas que, después de 1960, se han demostrado incorrectas
Debido a que este capítulo requeriría una extensión tal que nos llevaría lejos de los
propósitos y la intención básica de esta obra, nos vamos a limitar a una figura central en
la filosofía de la ciencia que, por la evolución e influencia de su pensamiento, ilustra
muy apropiadamente y en forma paradigmática la doctrina fundamental de las dos
orienta- clones filosóficas básicas y la transición de una a otra, es decir, del positivismo
al pospositivismo. Este hombre es Ludwig Wittgenstein (nacido en Viena, en 1889, y
fallecido en Cambridge, en 1951)
.
LUDWIG WIFGENSTEIN
Se ha dicho, frecuentemente, que todo gran filósofo ha dado a la filosofía una nueva
dirección, pero que sólo Wittgenstein ha hecho esto dos veces: primero con su
Traetatus logico-philosophicus, publicado después de la Primera Guerra Mundial, en
1921-1922, con el que fundamentó el positivismo lógico, y más tarde con las ideas que
encontraron su forma final en sus Investigaciones filosóficas, obra publicada
póstumamente, en 1953, con la que cuestionó el positivismo lógico y afianzó el
pospositivismo.
Wittgenstein era una figura muy fuera de lo común: poco sociable, de vida solitaria,
muy exigente consigo mismo y con los demás, de inteligencia excepcional, “raro” en
muchos aspectos de su personalidad y de “salidas” inesperadas, como el desprenderse
totalmente de la gran fortuna que heredó de su padre.
En 1911, a los 22 años, abrumado por las interrogantes y cuestionamientos de fondo que
se hacía a sí mismo, Wittgenstein se desahogó con el profesor Frege en Jena. Este le
dijo que el único que le podía ayudar en tales problemas era el profesor Bertrand
Russell de Cambridge (Inglaterra) y le aconsejó que fuera a estudiar con él.
Esta obra llega a ser la obra líder en la filosofía de la ciencia llamada positivismo
lógico, desde la década de los veinte en adelante. En sus ideas se apoyan las tesis
fundamentales epistemológicas del método científico tradicional. A continuación
exponemos, en un intento de síntesis apretada, las ideas básicas de su contenido.
Desde la época de los griegos es frecuente encontrar la pregunta de cómo reconocer que
un signo designa lo que significa. A partir del siglo XVII
se preguntará cómo un signo puede estar ligado a lo que significa, pregunta a la que la
época clásica dará respuesta por medio del análisis de la representación y a la que el
pensamiento moderno responderá por el análisis del sentido y de la significación. Pero,
de hecho, el lenguaje no será sino un caso particular de la representación (para los
clásicos) o de la significación (para nosotros) (Foucault, 1991).
Wittgenstein parte de los principios del simbolismo y de las “relaciones necesarias entre
las palabras y las cosas” en cualquier lenguaje, y aplica el resultado de esta
investigación a las varias ramas de la filosofía tradicional. La idea central del Tractatus
sostiene la tesis según la cual “una proposición es una imagen, figura o pintura de la
realidad” Esta idea se le ocurrió Wittgenstein mientras servía al ejército austriaco. Vio
un periódico que describía el acaecimiento y la situación de un accidente
automovilístico por medio de un diagrama o mapa; y había tenido también noticia de
que en los tribunales de París se reconstruían los accidentes automovilísticos mediante
juguetes y muñecos. Una colisión, por ejemplo, entre un camión y un cochecito de niño
se representaría colocando juntos un camión de juguete y un cochecito de juguete. Este
hecho nos daría una pintura tridimensional, un modelo del accidente. ¡Esto impresionó
mucho e impactó a Wittgenstein como una revelación! Wittgenstein estimaba que este
procedimiento arrojaba mucha luz sobre la teoría de la representación y de la
proposición, ya que este mapa era como una proposición y en ella se revelaba la
naturaleza esencial de las proposiciones a saber, el describir la realidad.
Para que una cierta proposición pueda afirmar un cierto hecho, debe haber, cualquiera
que sea el modo como el lenguaje esté construido, algo en común (una forma) entre la
estructura (o sintaxis lógica) de la proposición y la estructura del hecho. Y, aunque la
proposición y el hecho tienen la misma “forma”, la forma de la proposición (su sintaxis
lógica) está dictada o determinada por la naturaleza del hecho, y no al revés. Es decir,
que la forma lógica de la pro posición concuerda con la forma del hecho que
representa; pero la proposición tiene esa particular forma o sintaxis debido a la
naturaleza del objeto o hecho que refleja. Es así como la proposición puede representar
o estar en lugar del hecho. Esta es, tal vez, la tesis fundamental de la teoría de
Wittgenstein. Pero aquello que haya de común, esa forma, entre la proposición y el
hecho, no puede —así lo afirma él— decirse a su vez en
el lenguaje; sólo puede ser, en la fraseología de Wittgenstein, mostrado, no dicho, pues
cualquier cosa que podamos decir tendrá siempre la misma estructura.
La proposición lógica es una figura (verdadera o falsa) del hecho, con el cual tiene en
común una cierta forma. Es esta forma común lo que ‘a hace capaz de ser una figura del
hecho, puesto que es la estructura de las palabras, lo mismo que de los hechos a los
cuales se refiere. Por consiguiente, todo cuanto quede envuelto en la idea de la
expresividad del lenguaje, debe permanecer incapaz de ser expresado en el lenguaje, y
es por tanto, inexpresable en un sentido perfectamente preciso.
Según el Tractatus, una sentencia es una pintura de la realidad sólo si posee la misma
multiplicidad lógica que tiene la realidad que des. cribe. Pero la verdadera multiplicidad
de la situación, y de la sentencia que la describe, puede no revelarse en la superficie:
puede estar Oculta y pudiera revelarse solamente a través de un análisis lógico.
De acuerdo con todo lo expuesto, la tesis central del Tractatus, que dice que una
proposición es una figura o una pintura de la realidad, se podría desglosar, y resumir,
en las siguientes tesis parciales (Kenny, 1984):
...todas las cosas que diremos para que el lector comprenda la teoría de Wittgenstein son
todas ellas cosas que la propia teoría condena como carentes de sentido...Sin embargo,
el mismo Wittgenstein, después de todo, encuentra el modo de decir una buena cantidad
de cosas sobre aquello de lo que nada se podría decir, sugiriendo así al lector escéptico
la posible existencia de una salida, bien a través de la jerarquía de lenguajes o bien de
cualquier otro modo (pp. 16 y 27).
Mis proposiciones son esclarecedoras de este modo: quien me comprende acaba por
reconocer que carecen de sentido, siempre que el que comprenda haya salido a través de
ellas fuera de ellas. (Debe, pues, por así decirlo, tirar la escalera después de haber
subido.) Debe superar estas proposiciones; entonces tiene la justa visión del mundo. De
lo que no se puede hablar, mejor es callarse.
El Tractatus tuvo una aceptación indiscutible. La introducción escrita por una autoridad
como Russell, le dio prestigio y fama. El Círculo de Viena (Moritz shlick, Rudulf
Carnal, Otto Neurath, Herbert Fegl, Kurt Gódel, Carl Hempel, Hans Reichenbach,
Alfred Ayer, etc.), grupo d científicos-matemáticos-filósofos que lideraba, a través de la
revista ER. KENNTNIS (conocimiento), la filosofía de la ciencia positivista a nivel
mundial, lo adoptó como texto de lectura y comentario para sus reuniones periódicas
durante dos años. El mayor valor que le vieron los positivistas residía en la idea central
del Tractatus: el lenguaje representa (casi físicamente) la realidad. Así, manejando el
lenguaje, pensaban que trataban o manipulaban directamente la realidad.
Sin embargo, la insatisfacción del mismo Wittgenstein con su propia obra había crecido
durante los tres años que pasaron entre su culminación (1918) y su publicación (1921-
22). La introducción que le hizo Russell, por ejemplo, tuvo una firme desaprobación por
parte do Wittgenstein; en efecto, dicha introducción —entre otras cosas— no reflejaba
ni podía reflejar el desmantelamiento que le hacía del sistema lógico de sus Principia
Mathematica. Igualmente, la actitud de escrutinio y crítica despiadada que tenía
Wittgenstein con sus propias limitaciones, fallas y errores, lo llevó a alejarse de la
filosofía por espacio de 10 años y a dedicarse a dar clase como maestro de primaria en
remotos pueblos de Austria.
Las investigaciones de William W. Bartley (1987) y otros señalan que, para mejorar sus
actividades educativas, Wittgenstein “leyó los escritos de los psicólogos de la Gestalt y
quedó impresionado por ellos” (p. 156); que, incluso, figuró entre los estudiantes de
Karl Buhler en Viena, uno de los psicólogos más importantes de Europa en las décadas
de los años veinte y treinta, y de gran fama mundial. Buhler, al igual que los gestaltistas,
trató de mostrar que la construcción teórica —organización— era una función básica de
la mente humana al margen de asociaciones de las impresiones de los sentidos u otros
“átomos del pensamiento”. La actividad organizativa y teorizante de la mente gozaría de
una cierta prioridad, la cual determinaría los tipos de totalidades a las cuales uno trata
como “elementos” en el pensamiento. Buhler insistía en que sus argumentos contra el
atomismo psicológico refutaban también el atomismo epistemológico y filosófico.
Parece que, inicialmente, Wittgenstein tuvo profundas discrepancias y cerradas
discusiones con Buhler, pero después entró en su óptica. Bartley (1987) puntualiza que
las semejanzas entre lo que será la segunda filosofía de Wittgenstein y los gestaltistas
emerge claramente los siguientes puntos básicos:
Todo esto arroja mucha luz sobre un hecho aparentemente desconcertante. Aunque los
miembros del Círculo de Viena “veneraban” el Tractatus y buscaban frecuentemente,
en ese tiempo, a Wittgenstein para que les comentara ciertos puntos, él tenía un
comportamiento oblicuo, indirecto y evasivo con ellos, y hacía todo lo posible para no
encontrarlos, en particular a Carnap y Neurath cuyo positivismo antímetafísico lo
consideró como vulgaridad (ibídem, p. 65).
De esta manera, la filosofía que Wittgenstein defendía alrededor de 1930, poco después
de su vuelta a Cambridge, difiere tan claramente de su primera obra que da la impresión
de que el ataque que le hace, que comenzó durante su carrera de maestro y continuó con
el contacto con Bühler y los psicólogos gestaltistas, estaba ya muy avanzado.
Es importante señalar que muchos filósofos vieron, con el rechazo del Tractatus, si no
un intento por destruir la razón, sí la ruina de una importante teoría de la racionalidad
(Bartley, 1984, p. 181).
En 1929, poco antes de que Wittgenstein volviera a Cambridge para inscribirse como
estudiante de investigación y más tarde actuar co profesor, había llegado a esa ciudad un
economista italiano, de nombre Piero Sraffa, con quien estableció amistad. Wittgenstein
y Sraffa discutieron mucho sobre las ideas del Tractatus. Un día —al parecer, viajando
en un tren— cuando Wittgenstein insistía en que una proposición y aquello que describe
debían tener la misma “forma lógica” o “gram. tica”, Sraffa hizo un gesto, que para los
napolitanos significa algo asi como disgusto o desprecio, y que consiste en cepillar la
parte inferior de la barbilla con un movimiento hacia fuera de las puntas de los dedos de
la mano. Y preguntó: ¿cuál es la forma lógica o la gramática de esto? El ejemplo de
Sraffa produjo en Wittgenstein la sensación de que existía un absurdo en la insistencia
acerca de que una proposición y lo que ella describe deben tener la misma “forma”. Esto
rompió la presa que sobre él ejercía la concepción según la cual una proposición debe
ser literalmente una “imagen” de la realidad que describe (Malcolm, en Ferrater Mora,
1966, p. 72).
De acuerdo con la manera como lo describe el mismo Wittgenstein, fue ante todo la
aguda y poderosa crítica de Sraffa la que lo llevó a abandonar sus ideas anteriores y a
emprender la marcha por otros derroteros. Wittgenstein dijo que sus discusiones con
Sraffa le hacían sentirse como un árbol al que se había despojado de todas sus ramas
(von Wright, en Ferrater Mora, 1966, p. 34).
Todo esto representa un golpe mortal para el Tractatus, para lo que él llama, en el
prefacio de las Investigaciones filosóficas, “mi Viejo modo de pensar”, pues equivale a
la inversión de su idea matriz y a la superación de las “ilusiones metafísicas” de las que
se consideró victima.
Como señalara más tarde Bertrand Russell (1977, orig. 1948), r1ia palabra adquiere
significado por una relación externa, así como un hombre adquiere la propiedad de ser
tío. Ninguna autopsia, por exhaustiva que sea, revelará si el hombre era o no tío, y
ningún análisis de un conjunto de sonidos (mientras se excluya todo lo externo) indicará
si este conjunto de sonidos tiene significado, o significación si el conjunto es una serie
de palabras (p. 261).
El intento del primer Wittgenstein era reducir todas las formas del lenguaje a un modelo
uniforme; el último Wittgenstein adquiere una conciencia clara de la riqueza y
diversidad de las formas lingüísticas. La nueva doctrina se apoya en la idea matriz de
que (as proposiciones forman sistemas, regidos por conjeturas de reglas (gramaticales,
arbitrarias) aceptadas tácita o expresamente. En esta nueva orientación, Wittgenstein
coincide con Saussure y su destrucción de la concepción atomista del lenguaje;
igualmente, comparte el famoso “principio del contexto” de Frege que daba primacía a
las frases: “no preguntar nunca por el significado de una palabra aislada, sino sólo en el
contexto de una proposición”.
Wittgenstein piensa que un nombre funciona como tal sólo en el contexto de un sistema
de actividades lingüísticas y no-lingüísticas; es como decir que sólo en el uso se puede
explicar que una barra sea una palanca; o sea, que el sentido de tina oración está
determinado por las circunstancias en las que es proferida y el juego de lenguaje al que
pertenece. Es algo similar al valor que atribuimos a una pieza en el juego del ajedrez: un
caballo o un peón, por ejemplo, tendrán un valor alto bajo, nulo e, incluso, negativo,
dependiendo de su ubicación en relación con las otras piezas. La explicación en detalle
de cómo tenía esto no era algo que pudiera dejarse al psicólogo; la descripción de
juegos del lenguaje era una de las tareas fundamentales del filósofo KenflY, 1984).
En el Brown l3ook (pp. 102-103), Wittgenstein examina la objeción de que las tribus
imaginarias a las que endosa jucg0s de lenguaje hablan nuestra lengua, de modo que se
está presuponiendo la base entera de nuestra lengua. Para responder a esto, dice, la
descripción de los juegos de lenguaje tendría que ser mucho más completa.
El que una palabra del lenguaje de una tribu esté correctamente traducida con una
palabra de nuestra lengua, depende del papel que esa palabra desempeña en la vida
entera de la tribu: las ocasiones en que se usa, las expresiones de emoción que
generalmente la acompañan, las ideas que suscita ordinariamente o los
comportamientos a los que impulsa, etc.
Porque “cocina” —dice— se define por su fin, mientras que “habla”, no. Ile aquí por
qué el uso del lenguaje es en un cierto sentido autónomo, mientras que cocinar y lavar
no lo son. Si al cocinar se guía usted por reglas distintas de las correctas, usted cocina
mal; pero si usted sigue otras reglas que no son las del ajedrez, usted está jugando otro
juego; y si usted sigue reglas gramaticales distintas de tales y cuales, esto no significa
que usted esté diciendo algo equivocado; no, usted esta hablando de otra cosa (ibidein)
Wittgenstein aclara aún más todo esto con su analogía preferida del engranaje: lo que
podría llamarse la “legitimidad” o la “justificación” de un juego de lenguaje se basa en
su integración con actividades vitales. Un lenguaje (un juego de lenguaje) es como un
sistema de ruedas. Si estas ruedas engranan unas con otras y con la realidad, el lenguaje
está justificado. Pero aunque engranen unas con otras, si no engranan con la realidad, el
lenguaje carece de base.
En esta y otras analogías, Wittgenstein nos recuerda las palabras de Aristóteles: “lo más
grande a que se puede llegar es a ser un maestro de la metáfora; ésta es la marca del
genio”. En efecto, Wittgenstein utilizaba magistralmente la metáfora, la analogía y todo
tipo de comparaciones y símiles como elementos descriptivos y expresivos de su
pensamiento. En cuanto a su procedimiento filosófico, en una conferencia hizo las
siguientes observaciones generales:
Igualmente, en una sesión de clase privada, Wittgenstein hizo el comentario que sigue
acerca de la filosofía, comentario muy ilustrativo, ya sea en cuanto a la naturaleza de la
filosofía en general como en referencia a su propia filosofía y a la didáctica de las
mismas. De igual forma, son de advertir los nexos que todo esto tiene con las
posibilidades e inercia mentales descritas en nuestro segundo y tercer capítulos.
Una persona —señala él— atrapada en una confusión filosófica, es como un hombre
que se halla en una habitación de la que quiere salir sin saber cómo. Intenta por la
ventana, pero está demasiado alta. Intenta por la chimenea, pero es demasiado estrecha.
Y. si hubiera caído en la cuenta de volverse, habría visto que la puerta había estado
siempre abierta... Los problemas se solucionan no con nueva información, sino
ordenando lo que siempre hemos conocido (ibídem, p. 60).
Gunther S. Stent.
En la lógica formal una contradicción es el indicio de una falta, pero,
en la evolución, del saber, marca el primer paso del progreso hacia la
victoria.
Alfred North
Whitehead.
Son muchas las razones que nos llevan a pensar que se avanza decididamente, en la
ciencia occidental, hacia un paradigma que cambiará mucho nuestro concepto de la
realidad, en general, y de muchos aspectos de la naturaleza humana, en particular.
Existe una urgente necesidad de un cambio fundamental de paradigma, que permita
integrar, en un todo coherente y lógico, el creciente flujo de conocimientos
revolucionarios procedentes de las más diversas disciplinas y que entran en un conflicto
irreconciliable cuando son procesados e interpretados con los viejos modelos.
El viejo paradigma newtoniano-cartesiano, y sobre todo la mentalidad positivista que
generó, incurren en un grave error epistemológico al no valorar los nexos de
interdependencia que tienen los elementos constituyentes de una entidad y los nexos de
diferentes realidades. Precisamente esos nexos constituyen la base de lo que será el
nuevo paradigma. Pero al enfrentarnos a la red de relaciones que se dan dentro de una
realidad cualquiera y entre diferentes realidades, nos encontramos con varias
antinomias fundamentales que de ninguna manera podemos eludir, es más, que
constituyen el verdadero centro del problema que nos ocupa.
El señalar y describir lo más claramente posible las antinomias básicas (al igual que sus
posibles paradojas y aporías: dificultades lógicas) que se dan en nuestro proceso de
conocer, así como el puntualizar sus aspectos problemáticos, pondrá un fundamento
sólido para comprenderlas mejor, ya que deben ser superados con el fin de establecer ua
firme teoría de la racionalidad. A continuación describimos brevemente las anatomías
fundamentales.
SUJETO-OBJETO
No se puede trazar una línea divisoria tajante entre el proceso de observación y lo que es
observado. Debido a que el instrumento de medida es algo construido por el observador,
es lógico que lo que observamos no es la naturaleza en sí misma, sino la naturaleza
expuesta a nuestro método de búsqueda y a la teoría de ese método. Por esto, somos
actores más bien que espectadores. Aun en el nivel atómico —como ya vimos en el
capitulo 5: segundo cambio— no podemos formarnos una idea del átomo en sí mismo
independientemente de la situación experimental total que escogemos libremente.
Heisenberg dice que “la observación juega un rol decisivo en el evento y la realidad
varía, dependiendo de si la observamos o no” (1958a, p. 52).
Sólo conocemos la realidad física cuando la observamos, pues nunca podremos saber lo
que es o describir lo que sucede entre una observación y otra (ibídem, p. 50). Como muy
bien decía Weizsácker: la naturaleza es anterior al hombre, pero el hombre antecede a la
ciencia sobre la naturaleza”. La primera parte de esta proposición justifica la ciencia
clásica, con su ideal de una completa objetividad; pero la segunda parte nos dice que no
podemos eludir la antinomia sujeto objeto
.
La escisión paradigmática entre sujeto y objeto se instituyó en la ciencia clásica a partir
del siglo xvii con la famosa (y perniciosa) analogía de Locke que concebía el intelecto
humano como una pasiva cámara oscura, provista de un pequeño orificio por el cual
pasaba el rayo de luz y reflejaba los objetos externos en su interior; analogía tomada, a
su vez, de la célebre alegoría de la caverna que presenta Platón en el libro vii de La
República (ver la obra de Locke, An essay concerning human understanding, 1690, vol.
1, final del cap. XI).
En una perspectiva más universal, diríamos que los datos varían de acuerdo con el
marco de referencia o teoría desde los cuales son considerados; que el conocimiento o
la ciencia brotan del entre juego, de la interacción, de la dialéctica o el diálogo entre la
naturaleza y nosotros mismos; que dichos datos son la síntesis conciliada de la relación
sujeto-objeto; que nunca tenemos acceso a la “cosa en sí” Díng un sicli, de Kant), tal
Como sería independientemente de nuestra investigación. Merleau-POntY lo resumió
en una frase, ya citada: “estamos condenados al significado”. Podríamos añadir que... al
significado” que le damos o le atribuimos nosotros a las cosas. En el campo de la
psicología por ejemplo y mas concretamente, del psicoanálisis, desde hace mucho
tiempo se le observó a Freíd “que también el psicoanalista tenia un inconsciente” y, por
tanto, al analizar el inconsciente de un paciente, podría ser víctima del suyo propio, La
ilusión de los empiristas de ser “plenamente objetivos”, solamente podría realizarse
saliéndonos de nosotros mismos para poder contemplar, por lado, a nuestra mente y, por
el otro, al objeto pensado.
LENGUAJE-REALIDAD
Ante esta constatación, Bunge (1972) afirma que la física teórica se supone que
representa ciertos aspectos de sus referentes, si bien de una manera hipotética,
incompleta y simbólica; pero ésta y no otra es la única forma posible en que la teoría
física refiere objetos reales de la manera más objetiva y verdadera posible: “ninguna
teoría física pinta o retrata directamente un sistema físico”, porque toda teoría se
construye con conceptos, y no con imágenes, los cuales sólo refieren algunos aspectos,
considerados relevantes, de los objetos físicos realmente existentes. La física intenta
representar la realidad, aunque tal representación no puede ser sino hipotética, indirecta
y parcial (p. 187).
Sin embargo, los conceptos, al expresar las nuevas realidades, se enfrentan con un grave
obstáculo: o son términos ya existentes —y en este caso están ligados a realidades
“viejas”— o son términos nuevos acuñados expresamente; pero, si es así, hay que
explicarlos recurriendo al lenguaje corriente, igualmente “viejo”.
Los físicos que crearon la física moderna se encontraron ante este problema en gran
escala, y consideraron que no podían y tampoco debían remplazar los conceptos de la
física clásica (espacio, tiempo, materia, energía, causa, efecto, velocidad, etc.) por otros.
Pero esto les trajo, según Heisenberg (1975), un grave problema:
Nos íbamos haciendo a la idea —dice— de que los conceptos e imágenes que habíamos
trasladado desde la física tradicional al campo de os átomos eran allí verdaderos en un
50 % y falsos en el otro 50 %..., ya que no sabemos nunca exactamente lo que significa
una palabra, y el sentido de lo que decimos depende de cómo estén unidas las palabras
en la frase, del contexto de la misma y de otras innumerables circunstancias adyacentes
que no podemos enumerar de manera total (pp. 75, 168).
Por todo ello, podemos ver, con base en estas formulaciones, qué fl j
viejo sistema de conceptos perteneciente a una filosofía anterior usando una vieja
metáfora, cuando queremos poner el vino nuevo en odres viejos. El riesgo es un posible
y, quizá, inevitable colapso del Odre que nos dejará sin vino y sin odres.
PARTES-TODO
Estas partículas —señala De Broglie —están integradas hasta constituir un sistema, que
parece ser más que la totalidad de las partidulas de las que está formado. El sistema
parece, de esta manera, como una especie de unidad de un orden superior (Barbour,
1971,p. 348).
FIL0S0FÍA-CIENCIA
Más que otra antinomia, ésta sería la cuarta cara de la misma antinomia básica que
venimos describiendo.
Por esto, cuando oímos decir, por ejemplo, a Hebb (un conductista clásico) que “la
única esperanza de que la psicología siga siendo científica es suponer que el hombre es
básicamente un mecanismo” (1966, pp. 7-8), o cuando leemos en Skinner que para
convertirse verdaderamente en ciencia, la psicología debe abstenerse por completo de
todo acto mental (Japiassu, 1981, p. 73), nos preguntamos por qué vías, lógica o
procesos cognoscitivos fueron establecidos los parámetros del paradigma de la ciencia
que estos autores aceptan.
Tanto Comte como Bergson, cada cual a su manera, rebatieron por anticipado la
psicología experimental o empírica; el primero, porque su concepción de la ciencia
prohibía todo acceso al tema, y el segundo, porque su concepción del tema prohibía
todo tratamiento experimental.
Por ello —como dice Greco (1972) —, ci verdadero psicólogo nunca está seguro de
hacer ciencia, y, si la hace, nunca está seguro de que ésta sea psicología. En definitiva,
Bergsofl coincide con Comte en que una ciencia del sujeto como tal no puede prescindir
de la metafísica (- 19, 21).
LIBERTAD-NECESIDAD
Este binomio nos señala otra antinomia que está en la base de una innata condición
humana, y es la necesidad de alojarse en cómodos compartimientos conceptuales.
Sigmund Koch (1981) nos ilustra bastante bien la naturaleza, la dinámica y las
consecuencias de esta antinomia: estas casillas conceptuales —explica él— nos
presentan la promesa de aliviar las penas de la incertidumbre cognitiva o de suavizar
nuestra tensión frente a la duda problemática. Pero esta punzante necesidad humana,
busca un marco de referencia, un sistema, un mapa o un conjunto de reglas a cualquier
precio, y que parece ofrecernos un rayo de esperanza en la solución de nuestra
incertidumbre, nos hace gravemente vulnerables -en mayor o menor grado— y nos
obliga a aceptar las exigencias de lo simplista, reductivo, excesivamente general o, en
otros aspectos, de una estructura que deforma la verdadera naturaleza de las cosas, en la
medida en que tiene la apariencia de “sistematicidad”. Es más, habiéndonos introducido
en nuestro cofre o recinto conceptual, apoyándonos en una u otra base ocasional,
estamos preparados para defender nuestro feliz domicilio hasta la muerte, lo cual
significará, ordinariamente, nuestra muerte.
El único medio que existe para salvarse de esta situación es el intento de saltar fuera de
estos encasillamientos conceptuales y ver otro panorama: contemplando los linderos de
nuestros conceptos aceptados, de nuestras construcciones teoréticas, de nuestros
sistemas formales de creencias, etc., en una palabra, de la validez de nuestra teoría de la
racionalidad. Y, para ello, debemos asumir una actitud básica Y esencialmente crítica.
En síntesis, podríamos decir que nuestros instrumentos conceptuales son necesarios, e
incluso indispensables, como puntos de llegada, pero que, al mismo tiempo, tienen que
ser puntos de partida hacia otras construcciones teoréticas que los superen; es decir,
que, C01fl0 ilustra la filosofía de Hegel, nuestra mente parte de una tesis o proposición,
elabora después su antítesis u oposición y, finalmente, se cofl1 lían ambas en la síntesis
o integración, la cual a su vez, es un punto de partida como una nueva tesis. Esta
dialéctica constituye el modo natural de ser de nuestra mente.
Ciertamente, el conflicto cognitivo que hemos comentado puede r de por sí, paralizante
en el sentido de que de alguna manera “yo que no puedo conocer” con plena certeza;
pero, al mismo tiempos sentimos impulsados desesperadamente a esforzarnos por cono-
por discernir aunque sólo sea algunas islas de orden en medio del océano de antinomias
en que podemos nadar. En el próximo capitulo veremos que estas islas de orden también
pueden crecer y formar amplios continentes.
Jenófanes
Platón
Fritiof Capra
Werner Heisenberg
Einstein decía que crear una nueva teoría no era como erigir un rascacielos donde había
un viejo granero; que era, más bien, como escalar una montaña, logrando una visión
nueva y más amplia y descubriendo conexiones inesperadas entre nuestro punto de
partida y su rico entorno; pero que el punto de que partimos estaba siempre allí y podía
ser visto, aunque ahora pareciera menor y formase una parte muy pequeña de nuestro
amplio panorama actual.
Podríamos decir que los criterios para valorar los aspectos más significativos de un
posible paradigma universal serían aquellos que mejor nos ayuden a superar las
antinomias señaladas en el capítulo anterior y sus posibles paradojas y aporías, que más
nos ayuden a realizar un cambio en la estructura y el proceso de nuestro pensamiento.
En relación con la teoría cuántica en general, con sus leyes probabilísticas, Pauli dice
que existen esperanzas de un desarrollo futuro de las diferentes ramas de la ciencia
hacia una mayor unidad (Popper, 1985, p. 220); y, sin duda, las diferentes ramas de la
ciencia que él tiene en mente son las ciencias biológicas y, en último término, las
ciencias del hombre. La mayoría de los hombres de ciencia de cada disciplina fueron
unificadores. Newton y Einstein fueron los supremos unificadores de la física: Newton
unificó la gravitación terrestre y la gravitación celeste en 1680; Faraday y Ampére
unificaron la electricidad y el magnetismo en 1830; Maxwell unificó éstos con la
radiación en 1878, y Einstein unificó todos los anteriores, a través de la teoría general
de la relatividad, en 1916. Los grandes triunfos de la física fueron triunfos de
Unificación. Popper, igualmente, señala que la aspiración propia de un metafísico es
reunir todos los aspectos verdaderos del mundo (y no solamente los científicos) en una
imagen unificadora que le ilumine a él y a los demás y que pueda un día convertirse en
parte de una imagen aun más amplia, una imagen mejor, más verdadera (ibídem, p.
222).
También fue Einstein quien escribió una vez que la cosa más incomprensible del mundo
es que el mundo sea comprensible. Y Heisenberg (1974) puntualiza:
Cinco serían, a nuestro modo de ver, los principios o postulados fundamentales y más
universales, es decir, lo principios de inteligibilidad del paradigma emergente: dos de
naturaleza o base más bien ontológica, que serían la tendencia universal al orden en los
sistemas abiertos y la ontología sistémica, y tres de naturaleza epistemológica, el
conocimiento personal, la metacomunicación del lenguaje total y el principio de
complementariedad. Cada uno de estos principios tiene, de por sí, la virtud suficiente
para exigir el cambio y la superación del paradigma clásico.
Esta es la tesis fundamental de Ilya Prigogine (1986, 1988), que le hizo acreedor del
Premio Nobel, y está relacionada con su teoría de las estructuras disipativas. Cuando
Prigogine, de nacionalidad belga, pero nacido en Rusia, fue galardonado en 1977 con el
Premio Nobel de Química el Comité Evaluador informó que lo honraba con tal premio
por crear teorías que salvan la brecha entre varias ciencias, es decir, entre varios niveles
y realidades en la naturaleza. Esta teoría desmiente la tesis de la ciencia tradicional, para
la cual la emergencia de lo nuevo era una pura ilusión, y que consideraba la vida en el
Universo como un fenómeno fruto del azar, raro e inútil, como una anomalía accidental
en una lucha quijotesca contra el absoluto dictamen de la segunda ley de la tern1odu1m
y de la entropía, que terminaría inexorablemente en la muerte térmica como perspectiva
final. Prigogine invierte completamente este modo de ver las cosas.
Según los expertos, nuestro Universo comenzó hace unos 15 mil millones de años; de la
materia surgió la vida hace 3500 millones de años; los primeros vertebrados aparecieron
hará unos 500 millones de años y hace sólo unos tres millones emergió el ser humano,
confundida criatura que, en palabras de Plotino, “se halla a mitad de camino entre los
dioses y las bestias” (Pigem, 1991, p- 117). Monod (1982) sugiere que la vida emergió
de la materia inanimada por una combinación sumamente improbable de circunstancias
fortuitas y que esto puede no haber sido simplemente un suceso de baja probabilidad,
sino de probabilidad cero; en realidad, un suceso único.
En 1960, von Foerstcr había expuesto en una obra (Qn self-organi zing systems and
their enviromments) un principio que llegó a ser celebre: “el orden a partir del ruido”
(orderfrom noise). Este principio general, ejemplificado a través de las pequeñas
partículas imantadas que se organizan gracias a la agitación, dio un paso más allá del
principio “orden a partir del orden”, expuesto por Schródinger en su famoso ensayo
What is life? (1945).
En “el orden a partir del ruido” —explica Morin (1984)— los elementos de
desorganización participan de la organización del mismo modo que el juego
desorganizador del adversario, en un partido de fútbol, es un constituyente
indispensable del juego del equipo, el cual deviene capaz de las construcciones
combinatorias más refinadas. Estos son los cimientos del principio de von Foerster, que
además va a aplicarse a toda creación, todo desarrollo, toda evolución.
Quizá esta teoría llegue a tener un impacto en la ciencia en general, como la de Einstein
lo tuvo en la fisica, ya que cubre la crítica brecha entre la física y la biología, y es el
lazo entre los sistemas vivos y el universo aparentemente sin vida en que éstos se
desarrollan. También explica los “procesos irreversibles” en la naturaleza, es decir, el
movimiento 1acia niveles de vida y organización siempre más altos. Prigogine, cuyo
interés primario había residido en la historia y en las humanidades, había advertido que
la ciencia, en general, ignoraba esencialmente el concepto de tiempo.
La teoría de Prigogine resuelve el enigma fundamental de cómo seres vivos “van hacía
arriba” en un Universo en que todo parece b “hacia abajo”.
Prigogine llama a los sistemas abiertos estructuras disipativas, es decir, que su forma o
estructura se mantiene por una continua “disipación” (o consumo) de energía. Como el
agua que se mueve en un remolino y al mismo tiempo lo crea, la energía se mueve a
través de las estructuras disipativas y simultáneamente las crea. Todo ser viviente y
algunos sistemas no vivientes, como ciertas reacciones químicas, son estructuras
disipativas.
Cuanto más compleja sea una estructura disipativa, más energía necesita para mantener
todas sus conexiones. Por ello, también es más vulnerable a las fluctuaciones internas.
Se dice, entonces, que está más lejos del equilibrio. Debido a que estas conexiones
solamente pueden ser sostenidas por el flujo de energía, el sistema está siempre
fluyendo. Cuanto más coherente o intrincadamente conectada esté una estructura, más
inestable es. Así, al aumentar la coherencia se aumenta la inestabilidad. Pero, esta
inestabilidad es la clave de la transformación- La disipación de la energía, como
demostró Prigogine con refinados procedimientos matemáticos, crea el potencial para
un repentino reordenamiento.
El continuo movimiento de energía a través del sistema crea las fluctuaciones. Si éstas
alcanzan un cierto nivel crítico, “perturban” el sistema y aumenta el número de nuevas
interacciones en el mismo. Los elementos de la vieja estructura entran en una nueva
interacción unos con otros y realizan nuevas conexiones, y así, las partes se
reorganizan formando una nueva entidad: el sistema adquiere un orden superior,
integrado y conectado que el anterior; pero éste requiere un mayor flujo de energía para
su mantenimiento, lo que lo hace, a su vez, menos estable, y así sucesivamente.
El tiempo forma parte esencial de cualquier estructura dinámica. Al igual que una
estructura musical no puede ser captada sin su secuencia temporal —ya que cada nota
interactúa armónicamente con las que le preceden y con las que le siguen—, lo mismo
acontece con toda estructura que se desarrolla en el tiempo, desde la actividad atómica
hasta la del Universo en general.
3. La posibilidad de que estos hechos sean el punto de partida de una nueva coherencia.
En este modelo darwinista se echa por tierra el título de gloria de la física clásica: el
descubrimiento de leyes invariantes; asimismo la idea de “causa” se reduce a una
afirmación privada de gran parte de su posible aporte cognoscitivo. Pero la evolución
darwinista, con su mecanismo de selección natural, constituye sólo un modelo, no la
verdad de toda la historia. En efecto, Darwin ponía el origen de la variación en el
ambiente, mientras que con el paso del tiempo y los análisis posteriores, el principio de
la transformación se ha ido considerando cada vez mas como un principio interno de la
“cosa viva” en sí misma.
Las ideas de Prigogine son más completas que las de Darwin y están mas centradas en
la raíz del problema: el proceso termodinámico de los Sistemas abiertos en
desequilibrio. Lejos del equilibrio, en las situaciones de inestabilidad, los procesos
irreversibles —inscritos en la misma materia, como los que vemos que están en la vida
— no siguen la ley de la entropía y a la evolución hacia el desorden sino parcialmente;
al contrario, son fuente de coherencia, ya que pueden exportar esta entropía a su
entorno e incrementar, en vez de disminuir, su orden interno. La aparición de esta
actividad coherente de la materia —las “estructuras disipativas”— nos impone un
cambio de perspectiva, de enfoque, en el Sentido de que debemos reconocer que nos
permite hablar de estructuras desequilibrio como fenómenos de “autoorganización”.
Todo esto implica la inversión del paradigma clásico que se iden. tificaba con la
entropía y la evolución degradante.
El estudio de las estructuras disipativas de ciertas reacciones químj. cas ayudó a
descubrir el principio que las rige: el orden a través de la fluctuación.
Las radiaciones solares que bañan la Tierra —dice Prigogine— Son ciertamente
sinónimo de disipación, pero son igualmente responsable5 de la creación de
biomoléculas de estructura compleja... Debemos entender aquí un tiempo productor, un
tiempo irreversible que ha dado origen al Universo en expansión... y que engendra aún
hoy la vida compleja y múltiple a que pertenecemos (1988, p. 10).
La validez de este principio de los sistemas abiertos, por lo tanto, no se limitaría a las
reacciones químicas que demuestran ser autorrenovadoras, sino que su potencial de
autoorganización representaría el mecanismo básico del desarrollo evolutivo en todos
los campos, desde los átomos hasta las galaxias, desde las células hasta los seres
humanos, las sociedades y las culturas. Esta tendencia y mecanismo básico se
evidenciaría, por ejemplo, en la evolución y el paso del hombre de las cavernas al de
nuestra sociedad y cultura modernas. Vivimos en un mundo de emergente novedad.
Es evidente que toda esta estructura de conceptos básicos nos lleva hacia un nuevo
modelo de inteligibilidad, hacía un nuevo modelo de comprensión de la realidad, es
decir, básicamente, hacía un nuevo paradigma científico.
ONTOLOGÍA SISTÉMICA
Hay dos clases básicas de sistemas: los lineales y los no lineales. Los Sistemas lineales
no presentan “sorpresas”, ya que fundamentalmente son “agregados”, por la poca
interacción entre las partes: se pueden descomponer en sus elementos y recomponer de
nuevo, un pequeño cambio en una interacción produce un pequeño cambio en la
solución determinismo está siempre presente y, reduciendo las interacciones a valores
muy pequeños, puede considerarse que el sistema está compuesto de partes
independientes o dependientes linealmente. El mundo de los sistemas no lineales, en
cambio, es totalmente diferente: Puede ser impredecible, violento y dramático, un
pequeño cambio en un pan. metro puede hacer variar la solución poco a poco y, de
golpe, variar aun tipo totalmente nuevo de solución, como cuando, en la física cuántica
se dan los “saltos cuánticos”, que son un suceso absolutamente impredecible que no está
controlado por las leyes causales, sino sólo por las leyes de la probabilidad.
Estos sistemas deben ser captados desde adentro y su situación debe evaluarse
paralelamente con su desarrollo. Prigogine afirma que el mundo no lineal contiene
mucho de lo que es importante en la naturaleza: el mundo de las estructuras disipativas.
Ahora bien, nuestro universo está constituido básicamente por sistemas no lineales en
todos sus niveles: físico, químico, biológico, psicológico y sociocultural.
Según Capra (1992), la teoría cuántica demuestra que “todas las partículas se componen
dinámicamente unas de otras de manera autos consistente y, en ese sentido, puede
decirse que ‘contienen’ la una a la otra”. De esta forma, la física (la nueva fisica) es un
modelo de ciencia para los nuevos conceptos y métodos de otras disciplinas. En el
campo de la biología, Dobzhansky ha señalado que el genoma, que comprende genes
tanto reguladores como operantes, trabaja como una orquesta Y no como un conjunto de
solistas.
También Kohler solía decir que “en la estructura (sistema) cada parte conoce
dinámicamente a cada una de las otras”. Y Ferdinand de Saussure (1931) afirmaba que
“el significado y valor de cada palabra está en laS demás”, que ci sistema es “una
totalidad organizada, hecha de elementos solidarios que no pueden ser definidos más
que los unos en relación con los otros en función de su lugar en esta totalidad”.
La necesidad de un enfoque adecuado para tratar con sistemas se ha sentido en todos los
campos de la ciencia. Así fue naciendo una serie de enfoques modernos afines como,
por ejemplo, la cibernética, la informática, la teoría de conjuntos, la teoría de redes, la
teoría de la decisión, la moría de juegos, los modelos estocásticos y otros; y, en la
aplicación práctica, el análisis de sistemas, la ingeniería de sistemas, el estudio de los
ecosistemas, la investigación de operaciones, etc. Aunque estas teorías y aplicaciones
difieren en algunos supuestos iniciales, técnicas matemáticas y meas, coinciden no
obstante, en ocuparse, de una u otra forma y de acuerdo con su área de interés, de
“sistemas”, “totalidades” y “organización”; es decir, están de acuerdo con ser “ciencias
de sistemas” que estudian aspectos no atendidos hasta ahora y problemas de interacción
de muchas variables, de organización, de regulación, de elección de metas, etc. Todas
buscan la “configuración estructural sistémica” de las realidades que estudian.
sería una conclusión prematura afirmar que podemos evitar las dificultades,
limitándonos al uso del lenguaje matemático. Esta no es una salida real, pues no
sabemos hasta qué punto puede aplicarse el lenguaje matemático a los fenómenos. A fin
de cuentas, también la ciencia tiene que recurrir al lenguaje habitual cotidiano, que es el
único que nos permite captar realmente los fenómenos-” Las matemáticas son la forma
con la que nuestra comprensión de la naturaleza; pero las matemáticas
no son el contenido de la naturaleza. Se interpreta equivocadamente la ciencia moderna
si se sobrevalora la importancia del elemento formal (p.186 y 213).
¿Cuál es la utilidad de los esquemas matemáticos exactos? Tal vez ustedes sepan que yo
no soy demasiado aficionado a los métodos matemáticos rigurosos y quisiera dar
algunas razones para explicar esta actitud... Siempre me muestro escéptico frente a estos
métodos. Cuando uno se atiene demasiado a los métodos matemáticos rigurosos, fija la
atención en cuestiones que no son importantes desde el punto de vista de la física y, en
consecuencia, se aparta de la situación experimental. Si uno, en cambio, trata de
resolver un problema mediante una matemática aproximada, como principalmente he
hecho O siempre, se ve forzado a pensar continuamente en la situación experimental y,
cualesquiera que sean las fórmulas que uno escribe, compara esas fórmulas con la
realidad y así en cierto modo está más cerca de la realidad que sí atendiera tan sólo a
los métodos rigurosos (Salam 1991, PP- 143 y 148-149)
El mismo Bertrand Russell afirmó muchas veces que una ley puede ser muy científica
sin ser matemática (1975 p. 55).
Este “todo polisistémico”, que constituye la naturaleza global, nos obliga, incluso, a dar
un paso más en esta dirección. Nos obliga a adoptar una metodología interdisciplinaria
—como veremos en el próximo capítulo— para poder captar la riqueza de la interacción
entre los diferentes subsistemas que estudian las disciplinas particulares. No se trata
simplemente de sumar varias disciplinas, agrupando sus esfuerzos para la solución de
un determinado problema; es decir, no se trata de usar una cierta multidisciplinariedad,
como se hace frecuentemente. La interdisciplinariedad exige respetar la interacción
entre los objetos de estudio de las diferentes disciplinas y lograr la integración de sus
aportes respectivos en un todo coherente y lógico. Esto implica, para cada disciplina, la
revisión, reformulación y redefinición de sus propias estructuras lógicas individuales,
que fueron establecidas aislada e independientemente del sistema global con el que
interactúan. Es decir, que sus conclusiones particulares ni siquiera serían “verdad” en
sentido pleno.
Las estructuras lógicas individuales pueden conducir a cometer Un error fatal, como
hace el sistema inmunológico que, aunque funcione maravillosamente bien para
expulsar toda intrusión extraña en el organismo, procede de igual forma cuando rechaza
el corazón que se le ha trasplantado a un organismo para salvarlo. En la lógica del
sistema inmunológico no cabe esta situación: ¡ese corazón es un cuerpo extraño... y
punto! La ciencia universal que necesitamos en la actualidad debe romper e ir más allá
del cerco de cada disciplina.
...conocer es siempre aprehender un ciato en una cierta función, bajo una cierta
relación, en tanto que mc significa o me presenta tal o cual estructura... El acto de
conocer no pertenece al orden de los hechos; es una toma de posesión de los hechos,
incluso interiores, que no se confunde con ellos, es siempre una “recreación” interior de
la imagen mental... No es el ojo, ni el cerebro, ni tampoco el “psiquismo” del psicólogo,
el que puede cumplir el acto de visión. Se trata de una inspección del espíritu donde los
hechos, al mismo tiempo que vividos en su realidad, son conocidos en su sentido (pp.
275-276).
Traer a colación todas estas disciplinas, permitirá “conocer más profundamente” el acto
criminal, añadiéndole relaciones o elementos “atenuantes” o “agravantes”, según el
caso. Esto es precisamente lo que hace el juez sabio en un proceso judicial para
encontrar la “verdad” de los hechos y emitir un veredicto justo: mediante el uso de un
procedimiento argumentativo y a través de un conflicto de interpretaciones (refutación
de excusas, pruebas de testigos, demostraciones del abogado acusador o defensor,
rechazo de falsas evidencias, etc.) llega a establecer la interpretación final, el veredicto
(dicho verdadero), el cual, sin embargo, es todavía apelable.
Este procedimiento del juez es, en cierto modo, un modelo ejemplar del nuevo
paradigma, ya que:
1. Su forma es plenamente dialéctica (cada cosa va influyendo y cambiando el curso de
las demás).
Podríamos, incluso, ir más allá y afirmar que la mente humana, su actividad normal y
cotidiana, sigue las líneas matrices del paradigma. En efecto, en toda toma de
decisiones, la mente estudia, analiza, compara, evalúa y pondera los pro y los contra, las
ventajas desventajas de cada opción o alternativa, y su decisión es tanto más sabia
cuantos más hayan sido los ángulos y perspectivas bajo los cuales fue analizado el
problema en cuestión. Por consiguiente, la investigación científica con el nuevo
paradigma consistiría, básicamente, en llevar este proceso natural a un mayor nivel de
rigurosidad, sistematicidad y criticidad. Esto es precisamente lo que tratan de hacer las
metodologías que adoptan un enfoque hermenéutico, fenomenológico, etnográfico, etc.,
es decir, un enfoque cualitativo que es, en su esencia, estructural-sistémico (ver
Martínez M., 1989a, 1989b).
Las entidades complejas exigen ser vistas y valoradas como un todo integrado y
organizado, de la misma manera que vemos y reconocemos el rostro de una persona
amiga: viéndolo en su totalidad y no por partes. El sistema no lo podremos deducir
nunca de medidas cuantitativas tomadas previa y aisladamente, por muy refinadas y
sofisticadas que sean nuestras técnicas estadísticas.
Conocimiento tácito
En este campo, Polanyi sigue de cerca las ideas de Merleau-Ponty sobre el concepto de
estructura. En efecto, Merlcau-Ponty (1976) afirma que las estructuras no pueden ser
definidas en términos de realidad exterior, sino en términos de conocimiento, va que son
objetos de la percepción y no realidades físicas; por eso, las estructuras no pueden ser
definidas como cosas del mundo físico, sino como conjuflto5 percibidos y,
esencialmente, consisten en una red de relaciones percibidas que, más que conocida, es
vivida (pp. 204 y 243)
Ahora bien, el estudio de entidades emergentes requiere el uso (le una lógica no
deductiva; requiere una lógica no deductiva en la cual las partes son comprendidas
desde el punto de vista del todo. Dilthey (1900) llama círculo hermenéutico a este
proceso interpretativo, al movimiento que va del todo a las partes y de las partes al todo
tratando de buscarle el sentido. En este proceso, el significado de las partes o los
componentes se encuentra determinado por el conocimiento previo del todo, mientras
que nuestro conocimiento del todo es corregido continuamente y profundizado por el
crecimiento de nuestro conocimiento de los componentes.
Actualmente sabemos que nuestro cerebro, al igual que algunos sentidos como la vista y
el oído, utilizan principios holográficos en su actuación.
El principio holográfico fue descubierto por Dennis Gabor en 1947, científico que fue
galardonado con el Premio Nobel de física en 1971. Sin embargo, su aplicación sólo se
obtuvo con la aparición del rayo láser en la década de los años sesenta. Como las ondas
producidas por dos piedras lanzadas en un estanque de agua chocan, interactúan y se
contrarrestan en el punto de encuentro, así dos rayos láser que se encuentran producen
un patrón de interferencia, que puede ser grabado en una placa fotográfica.
Sin embargo, también aquí, conviene precisar que son varios los autores (Capra,
Harman, Wilber) que le señalan varias limitaciones a las teorías holográficas: estas
teorías tratan de interpretar (y no de comprender) la conciencia en términos de algo muy
distinto (medidas cuantificables de nivel físico inferior); la imagen estática, no
relativista, del holograma no es adecuada para describir las propiedades e interacciones
de las partículas subatómicas; existe una etapa indebida e ilógica al pasar del plano
cerebral personal (demostrado) al plano transpersonal (no demostrado) y, por todo esto,
son un mal modelo de la realidad e, incluso, es dudoso que sean una buena metáfora. En
resumen, se concluye que estas teorías no forman todavía parte de la nueva ciencia, sino
más bien de la vieja y, por tanto, toda la teoría se derrumbaría corno paradigma (Wilber
et al., 1987, pp. 156, 204-205 y 289).
Por su parte, Niels Bohr, refiriéndose a la naturaleza íntima del mundo atómico, señala
una idea básica que, a fortiori, es válida para las ciencias humanas:
Conocen, sin duda la poesía de Schiller Sentencias de Confucio, y saben que siento
especial predilección por aquellos dos versos: “Sólo la plenitud lleva a la claridad y es
en lo más hondo donde habita la verdad.” La plenitud es aquí no sólo la plenitud de la
experiencia, sino también la plenitud de los conceptos, de los diversos modos de hablar
sobre nuestro problema y sobre los fenómenos. Sólo cuando se habla sin cesar con
conceptos diferentes de las maravillosas relaciones entre las leyes formales de la teoría
cuántica y los fenómenos observados, quedan iluminadas estas relaciones en todos sus
aspectos, adquieren relieve en la conciencia sus aparentes contradicciones internas, y
puede llevarse a cabo la transformación en la estructura del pensar, que es el
presupuesto necesario para comprender la teoría cuántica... Hemos de poner en claro el
hecho de que el lenguaje sólo puede ser empleado aqui en forma parecida a la poesía,
donde no se trata de expresar con precisión datos objetivos, sino de suscitar imágenes
en la conciencia del oyente y establecer enlaces simbólicos... Desde el momento en que
no pudiéramos hablar ni pensar sobre las grandes interdependencias, habríamos
perdido la brújula con la que podemos orientarnos rectamente (lleisenberg, 1975, pp.
259, 52 y 269).
CONOCIMIENTO PERSONAL
Para el mundo antiguo —señala Ortega y Gasset (1981)— las cosas estaban ahí fuera
por sí mismas, en forma ingenua, apoyándose las u alas otras, haciéndose posibles las
unas a las otras, y todas juntas formaban el Universo... Y el sujeto no era sino una
pequeña parte de ese Universo, y su conciencia un espejo donde los trozos de ese
Universo se reflejaban. La función del pensar no consistía más que en un encontrar las
cosas que ahí estaban, un tropezar con ellas. Así, el conocimiento no era sino un re-
presentar esas cosas en la mente, con una buena adecuación a las mismas, para ser
objetivos. No cabía situación más humilde para el yo, debido a que lo reducía a una
cámara fotográfica.
Esta es la analogía (cámara oscura) que utilizarán después Locke y el empirismo inglés
para concebir el intelecto humano; analogía que, a su vez, será la base del positivismo
más radical del siglo XIX y parte del xx.
Esta opinión —según Galileo— implicaba una notable perspicacia y hacía tal violencia
a sus propios sentidos con la pura fuerza del intelecto, que era muy difícil preferir lo
que la razón les mandaba a lo que la experiencia sensible mostraba llanamente en
contra (Diálogo sobre los sistemas máximos, p. 328).
Este cambio copernicano no será sólo un cambio astronómico, será también un cambio
epistemológico, paradigmático, de incalculables consecuencias.
Así Kant, dos siglos y medio después, en la Crítica de la razón pura, razona de la
siguiente manera:
Hasta nuestros días se ha admitido que todos nuestros conocimientos deben regularse
por los objetos... Sucede aquí lo que con el primer pensamiento de Copérnico que, no
pudiendo explicarse bien los movimientos del cielo, si admitía que todo el sistema
sideral tornaba alrededor del contemplador probó si no sería mejor suponer que era el
espectador el que tornaba y los astros los que se hallaban inmóviles. Puédese hacer con
la metafísica un ensayo semejante, en lo que toca a la intuición de los objetos.
Hacia fines del siglo xix, la psicología de la Gestalt estudia muy a fondo y
experimentalmente el proceso de la percepción y demostrará que el fondo de la figura o
el contexto de lo percibido, que son los que le clan el significado, serán principalmente
obra del sujeto y, de esta manera, coincidirá, básicamente, con las ideas de Kant.
A principios del siglo xx, estas mismas ideas se hacen presentes y se constatan aun en el
estudio de la naturaleza misma del átomo. En efecto, el aspecto crucial de la teoría
cuántica consiste en que el observador no sólo es necesario para observar las
propiedades de los fenómenos atómicos, sino también para provocar la aparición de
estas Propiedades. Por ejemplo,
Por todo ello, el conocimiento será el resultado de una dialéctica O de un diálogo entre
estos dos componentes: objeto y sujeto.
La mente humana trabaja sobre los datos que recibe, como el escultor sobre su bloque
de mármol. Así como diferentes escultores pueden extraer estatuas diferentes del mismo
bloque, diferentes mentes pueden construir también mundos diferentes del mismo caos
monótono e inexpresivo. Tal vez en el área de la percepción auditiva sea donde mejor se
constate esta realidad: cuando a nuestro alrededor se desarrollan varias conversaciones
diferentes al mismo tiempo, podemos oír y dar sentido a una que nos interesa, mientras
desoímos las demás que no nos llaman la n y siguen siendo lo que objetivamente son:
simple ruido; pero en cualquier momento podemos cambiar nuestra atención, y lo que
era simple ruido se convierte en conversación interesante, y viceversa.
Estas ideas son avaladas actualmente también por los estudios de la neurociencia
(Popper-Eccs, 1980), los cuales señalan que
…no hay “datos” sensoriales; por el contrario, hay un reto que llega del mundo sentido
y que entonces pone al cerebro, o a nosotros mismos, a trabajar sobre ello, a tratar de
interpretarlo..- Lo que la mayoría de las personas considera un simple “dato” es de
hecho el resultado de un elaboradísimo proceso. Nada se nos da directamente: sólo se
llega a la percepción tras muchos pasos, que entrañan la interacción entre los estímulos
que llegan a los sentidos, el aparato interpretativo de los sentidos y la estructura del
cerebro. Así, mientras el término “dato de los sentidos” sugiere una primacía en el
primer paso, yo (Popper) sugeriría que, antes de que pueda darme cuenta de lo que es
un dato de los sentidos para mí (antes incluso de que me sea dado), hay un centenar de
pasos de toma y dame que son el resultado del reto lanzado a nuestros sentidos y a
nuestro cerebro... Toda experiencia está ya interpretada por el sistema nervioso cien o
mil veces antes de que se haga experiencia consciente (PP. 483-484).
Sin embargo, es conveniente advertir que en este diálogo entre el sujeto y el objeto,
donde interactúan dialécticamente el polo de la componente “externa” (el objeto: con
sus características y peculiaridades propias) y el polo de la componente “interna” (el
sujeto: con sus factores culturales y psicológicos personales), puede darse una
diferencia muy notable en la conceptualización o categorización resultante que se haga
del objeto. En la medida en que el objeto percibido pertenezca a los niveles inferiores de
organización (física, química, biología, etc.) la componente “exterior” jugará un papel
preponderante y, por esto, será más fácil lograr un mayor consenso entre diferentes
sujetos o investigadores; en la medida, en cambio, en que ese objeto de estudio
corresponda a niveles superiores de organización (psicología, sociología, política, etc.),
donde las posibilidades de relacionar sus elementos crece indefinidamente, la
componente “interior” será determinante en la estructuración del concepto, el modelo o
la teoría que resultará del proceso cognoscitivo; de aquí, que la amplitud del consenso
sea, en este Caso, inferior. Así, por ejemplo, el concepto de “silla” estará básicamente
determinado por las “imágenes físicas” que nos vienen del exterior, mientras que en el
concepto de “buen gobierno” entrarán, sobre todo, los factores estructurantes culturales,
ideológicos y psicológicos personales del sujeto.
Las paradojas que plantea el uso del lenguaje parecen aparentemente, insolubles. En
efecto, si hacemos consistir la “verdad” en la relación entre una proposición un hecho
si, a su vez, este hecho viene ya “cabalgando” —como dice Pániker, 1989— en otra
proposición y así indefinidamente, la cadena no termina jamás, y un cierto idealismo
parece inevitable. La cuestión que se plantea es: ¿de qué manera refleja el lenguaje la
realidad?, ¿qué sentido tienen las nociones de “reflejo” y de “realidad”? Una
descripción del mundo implica al observador que, a su vez, es parte del mundo. La
paradoja subsiste. Es obvio que incluso para un empirista los hechos nunca están dados,
sino que vienen construidos, ya que, como decía Nietzsche, “no hay hechos, sólo
interpretaciones”.
Pareciera que siempre llevamos algún territorio cultural a cuestas, que la superación del
lenguaje no es un acto que pueda ejercerse desde el lenguaje mismo, que no existe en
ninguna parte un lenguaje absoluto, pues nadie tiene la sensación cierta de tocar la
realidad con sus propias manos: todo son “modelos” interpuestos (ibídem).
Todo lo que tiene nombre es ideológico. Todo lo que articula en lenguaje se inserta en
algún contexto condicionante. Saber esto nos hace más lúcidos y críticos pero no
impotentes. Las frases anteriores no se autodestruyen porque: ¿desde dónde sabemos
que estamos condicionados? Lo sabemos desde fuera, o ubicados por encima, del
condicionamiento (ibídem).
Según Wittgenstein, no hay ningún segundo lenguaje por el que podamos comprobar la
conformidad de nuestro lenguaje con la realidad. Sin embargo, el mismo Wittgenstein
—como señaló Russell en su Introducción al Tractatus encontró el modo de decir un
buena cantidad de cosas sobre aquello de lo que nada se podría decir, sugiriendo así al
lector escéptico la posible existencia de una salida, bien sea a través de la jerarquía de
lenguajes o de cualquier otro modo (p. 27).
Metacomunicación
El lenguaje total tiene, además, otra característica esencial que lo ubica en un elevado
pedestal y lo convierte en otro postulado básico de la actividad intelectual del ser
humano: su capacidad autocrítica, es decir, la capacidad de poner en crisis sus propios
fundamentos.
Los animales se comunican, quizá, hasta mejor que el hombre en algunos aspectos, pero
no pueden criticar su comunicación; el suyo no es un lenguaje simbólico. Al introducir
el lenguaje simbólico iniciamos la cultura. Los animales no tienen cultura. Nuestro
lenguaje simbólico puede autocriticarse y volverse contra sus condicionadores y
secuestradores y delatarlos. Con ello, “el hombre es también un animal capaz de
desimbolizar, un animal crítico, que hace que los símbolos se vuelvan contra sí mismos”
(Pániker, 1989, p. 400); es decir, alguien que es capaz de dar o atribuir significado a sus
acciones, corregir este hecho y rehacerlo de otra manera.
Este cambio es posible porque nuestro “espíritu” o nuestra “mente” es capaz de cambiar
de nivel lógico: puede pasar de los elementos a las clases, y luego de éstas a las clases
de clases, etc. El lenguaje es un instrumento de múltiples usos, decía el segundo
Wittgenstein, y no hay por qué escandalizarse de que una proposición engendre (en las
antinomias) a SU contraria. El lenguaje es más originario, de lo que la tutela de la lógica
nos había hecho creer. Junto a nuestra lógica formal (que no
siempre es la de la naturaleza) hay también una lógica informal (Ryle).
Autorreferencia
El papel activo de la mente autoconsciente, que describimos en el capítulo 2, consiste
precisamente en que se ubica en el nivel más alto de la jerarquía de controles, desde el
cual el “yo” ejerce una función maestra, superior, interpretativa, autocrítica y
controladora de toda actividad cerebral.
El ser humano tiene, a través del lenguaje, entre su riqueza y dotación, la capacidad de
referirse a sí mismo. Las ciencias humanas deben hacer eso frecuentemente. De una
manera particular, la filosofía y la epistemología operan, por su propia naturaleza,
dentro del campo de la autorreferencia. No es posible una filosofía sin el regreso del
pensamiento sobre sí mismo. Las ciencias naturales hacen esto sólo de vez en cuando, al
dar un paso fuera del sistema en que operan; las ciencias del hombre, en cambio, y en
particular la filosofía, lo hacen constantemente, porque la autorreferencia está dentro de
su propio método.
El problema surge al pensar que no tenemos un ojo extracorpóreo para examinar nuestra
visión (a menos que sea el del oculista), lo cual nos obliga a dar un paso confiando o
creyendo que nuestro ojo esta sano o aceptando, provisionalmente, que nuestra imagen
de su enfermedad es suficientemente correcta, razonable o justificada. Efectivamente,
no tenemos un ojo autocrítico; por eso recurrimos a la creencia. Los mismos físicos-
filósofos que crearon la física moderna (Einstein lIeisenberg, Max Planck, Niels Bohr,
Schródinger, Pauli, Dirac, de Brog lie: todos premios Nobel) se debatieron, en las
primeras décadas del siglo xx, con este mismo problema, al constatar que no podían
conceptualizar la realidad del átomo sin estudiar a fondo la acción del observador sobre
el objeto percibido.
Dada la aptitud reflexiva de nuestro espíritu, que permite que toda representación, todo
concepto y toda idea puedan llegar a ser objeto de representación, concepto, idea; dado
que el espíritu mismo puede ser objeto de representación, concepto, idea; en fin, que
podemos, incluso, estudiar científicamente los órganos y procesos neurocerebrales
relacionados con el conocimiento, es natural que podamos constituir un conocimiento
de segundo grado o nivel sobre todos los fenómenos y dominios cognitivos (ibídem).
Veamos más de cerca los diferentes niveles de la autoreferencia. Si, después de realizar
un mal negocio, reflexionando, yo digo: “me engañaron”, es porque mi mente analiza
ahora el proceso que siguió entonces y del cual fue víctima. (Este sería un primer nivel
de autoreferencia.) Si, en cambio, en otro negocio, que todavía no ha sido cerrado, yo
pienso: “me están engañando”, es porque mi mente analiza el proceso que está
siguiendo en ese momento, y dialoga críticamente con sus elementos, sopesando y
evaluando su propio proceder. (Este Seria segundo nivel.) Por último, si yo —o el
lector de estas páginas— reflexionando sobre lo que estamos haciendo en este
momento, pensamos: “qué maravillosa es nuestra mente, que puede analizarse a sí
misma y revisar críticamente sus propios procesos!”, es porque nos ubicamos en un
tercer nivel de autorreferencia.
Hacia el final del capítulo 11, al referirnos a la teoría crítica de la acción comunicativa,
ahondaremos aún más en las implicaciones que conlleva la autoreferencia.
PRINCIPIO DE COMPLEMENTARIEDAD
En esencia, este principio subraya la incapacidad humana de agotar la realidad con una
sola perspectiva, punto de vista, enfoque, óptica o abordaje, es decir, con un solo intento
de captarla. La descripción más rica de cualquier entidad, sea física o humana, se
lograría al integrar en un todo coherente y lógico los aportes de diferentes personas,
filosofías, métodos y disciplinas.
Ya Aristóteles había dicho en su tiempo que “el ser nunca se da a sí mismo como tal (y,
menos, en su plenitud), sino sólo por medio de diferentes aspectos o categorías”. Por
esto, necesitamos una racionalidad más respetuosa de los diversos aspectos del ser del
pensamiento, una racionalidad múltiple. Habermas señala que esta racionalidad
tendría que hacer accesible al mismo tiempo las tres esferas del conocimiento
especializado, es decir, “creando una interacción sin restricciones de los elementos
cognitivos con los práctico-morales y los expresivo-estéticos” (Giddens et al., 1991, p.
209).
En el campo del arte, por ejemplo, los movimientos del expresionismo, del simbolismo
y del cubismo pusieron de manifiesto la multiplicidad paradójica del mundo, su
ambigüedad y su incertidumbre. Un objeto no tiene una forma absoluta, sino muchas,
tiene tantas formas como planos haya en la región de la percepción. Así como hay 360
ángulos diferentes para ver la estatua ecuestre que está en el centro de una plaza pública
—y esto sólo en el plano horizontal, ya que cambiando de plano serían infinitos— así,
puede haber muchas perspectivas complementarias y enriquecedoras de examinar toda
realidad compleja.
Foucault, por su parte, señala (1991) que “hay más que hacer interpretando las
interpretaciones que interpretando las cosas; y más libros sobre libros que sobre
cualquier otro tema”. Esto quiere decir que la realidad necesita ser enfocada desde
muchos ángulos diferentes para ser ilustrada y dilucidada adecuadamente en sus
poliédricas facetas. Esta misma situación la constatamos en la vida moderna cuando
nombramos un jurado, una comisión o el parlamento, integrados siempre por muchos
miembros, conscientes de que así, con una mayor amplitud de criterios, será analizada
más exhaustivamente la complejidad de la realidad.
En consecuencia, y como corolario de estas dos ideas, es necesario enfatizar que resulta
muy difícil, cuando no imposible, que siempre se pueda demostrar la prioridad o
exclusividad de una determinada disciplina, teoría, modelo o método (o cualquier otro
instrumento conceptual que se quiera usar) para la interpretación de una realidad
específica, especialmente cuando esa conccptualizació1 es muy simple o reduce esa
realidad a niveles inferiores de organización, como son los biológicos, los químicos o
los físicos.
Es digno ele tenerse en cuenta cómo otros autores llegan a la misma idea central por
caminos totalmente diferentes. Así, por ejemplo, ¿no explica el psicoanálisis que toda
opinión verbalizada tiene algo —o mucho— de error, y que la verdad no consiste jamás
en la palabra dicha, sino en la precisa relación que la une a un no-dicho que a su vez la
hace posible como palabra y como error? La verdad _añade Lacan— no consiste en
ideas ni en el significado, sino que insiste en ellas. De la misma manera, Marx afirma
que todo objeto percibido (una mesa, una máquina, una lata de conservas) no puede ser
más que un objeto erróneo de la percepción y, como tal, el resultado (social) de una
cierta articulación histórica, donde el valor del uso de la mercancía ha quedado
subsumido por su valor de cambio.
Igualmente, y desde el punto de vista filosófico, Hegel dirá que la verdad de la cosas no
se encuentra refutando la contradicción sino integrándola, es decir, resolviendo los
opuestos con un concepto superior que los mantiene conciliados. La tesis y la antítesis
se concilian en síntesis.
CONCLUSIÓN
Nace así, una nueva concepción de la “objetividad científica”, basada también en una
diferente teoría de la racionalidad, que nos ayuda a superar las antinomias descritas
anteriormente y que pone de relieve el carácter complementario, interdisciplinar y no
contradictorio de las ciencias experimentales, que crean y manipulan sus objetos, y las
ciencias humanas, que tienen como problema la descripción del sentido que descubren
en las realidades. Es lo que algunos autores (Snow, 1977; Prigogine, 1986) han venido
llamando la Tercera cultura, es decir,
..un medio donde pueda realizarse el diálogo indispensable entre los progresos
realizados en el modelado matemático y la experiencia conceptual y práctica de
economistas, biólogos, sociólogos, demógrafos, médicos, que tratan de describir la
sociedad humana en su complejidad (Prigogine, 1986, p. 39).
El objetivo será lograr un todo integrado, coherente y lógico, que nos ofrezca —como
decía Braithwaite— una elevada “satisfacción intelectual”, que es el criterio y la meta
última de toda “validación”. Cualquier sistema —señala Bateson—, sea una sociedad,
una cultura, un organismo o un ecosistema, que logre mantenerse a sí mismo, es
racional desde el propio punto de vista.
Parece evidente que cada vez es más imperiosa la necesidad de un cambio fundamental
de paradigma científico. Los modelos positivistas y mecanicistas quedarían ubicados
dentro del gran paradigma del futuro, al igual que la física newtoniana quedó integrada
dentro de la relativista moderna como un caso de ella. Asimismo, la lógica clásica y los
axiomas aristotélicos, aunque indispensables para verificar enunciados Parciales, darían
paso a procesos racionales menos rigidizantes y asfixiantes a la hora de enfrentar un
enunciado complejo o global.
Como académicos en un mundo en transición nos toca la difícil misión de enseñar cómo
vivir sin certeza y, sin embargo, no quedar paralizados por la incertidumbre.
Como investigadores, no debiéramos apoyarnos demasiado en una doctrina específica,
ni tampoco confinar nuestro modo de pensar en el recinto de una única orientación
filosófica sino, más bien, estar preparados para cambiar los fundamentos de nuestro
conocimiento ante la aparición de nuevas experiencias.
9 La interdiscip1inarieda es el camino
La razón pura, en relación con los principios del
conocimiento constituye en sí misma una unidad
completamente aparte en la que cada miembro existe
paro los otros así como en un cuerpo organizado y lo
otros para cada uno, i donde no puede aceptarse con
plena seguridad ningún principio bajo una sola
relación sin ser al mismo tiempo examinado bajo
todas las relaciones del uso todo de la razón puro.
Inmanuel Kant
Edgar Morin, en una de sus obras más recientes (1992), señala que
...por todas partes, se es empujado a considerar, no los objetos cerrados y aislados, sino
sistemas organizados en una relación coorganizadora con su entorno (...); por todas
partes se sabe que el hombre es un ser físico y biológico, individual y social, pero en
ninguna parte puede instituirse una ligazón entre los puntos de vista físico, biológico,
antropológico, psicológico, sociológico. Se habla de interdisciplinariedad, pero por
todas partes el principio de disyunción sigue cortando a ciegas. Aquí y allá se empieza a
ver que el divorcio entre la cultura humanista y la cultura científica es desastroso para
una y para otra, pero quienes se esfuerzan por ir y venir entre una y otra son
marginalizados y ridiculizados. Aquí y allá, se empieza a poner en cuestión el reino de
los expertos y tecnócratas, pero no se pone en cuestión el principio de
hiperespecialízación que los produce y reproduce (p. 241).
Esta situación nos impone a los profesionales del campo académico la obligación de
adquirir el aprendizaje de todos los procedimientos capaces de mejorar la capacidad de
conectar campos que la organización tradicional de los saberes aísla con celo.
NECESIDAD DE LA INTERDISCIPLINARIEDAD
Pero hay un hecho innegable y una lógica inexorable: los problemas desafiantes que nos
presenta la vida real cotidiana no vienen confeccionados en bloques disciplinarios, sino
que sobrepasan ordinariamente los métodos, las técnicas, las estrategias y las teorías que
hemos elaborado dentro del recinto “procustiano” de nuestras disciplinas académicas
fundamentadas en un enfoque, en un abordaje, en unos axiomas, en un método, en una
visión unilateral de la poliédrica complejidad de toda realidad. Esos problemas nos
obligan a centrarnos más en la naturaleza del objeto del conocimiento que en el método
de medida.
...se hace tanto énfasis en el método que olvidarnos el problema, accediendo a una
metafísica de la ciencia, a una escolástica de la clasificación, a unas abstracciones
empobrecidas que nada nos dicen de la interacción en la realidad que nos rodea.
Mientras la disciplina es la guardiana del método, lo que caracteriza a la
interdisciplinariedad es la fidelidad al problema.
Las disciplinas académicas aisladas son menos que adecuadas para tratar los problemas
intelectuales y sociales más importantes. Esa separación de saberes se torna inoperante
cuando se enfrenta a la realidad concreta que vivimos. Esencialmente, estas disciplinas
son, más bien, conveniencias administrativas que se acoplan bien con las necesidades de
las instituciones académicas y que se perpetúan a sí mismas C0fl10 organizaciones
sociales. Pero cuando se enfrentan los problemas básicos y reales de la vida, que exigen
saber cómo producir suficiente alimento para la población, cómo asegurarle una buena
salud, cómo garantizar su seguridad personal o cómo ofrecerle una explicación del
sentido del universo, pareciera que estas subdivisiones disciplinarias entorpecen y
obnubilan la visión de la solución más de lo que la iluminan. “Este saber disciplinar
puede constituirse en cerco que atrape a especialista en las redundancias y la tautología,
prisionero de una fórmulas vacías, abstracciones que se convierten en obstáculo para e
conocimiento de la realidad (ibídem).
Las implicaciones que trae la especialización aislada, ya sea tanto para la organización
de la ciencia como para el lugar que ésta ocupa en la cultura general, las expone muy
acertadamente Oppenheimer (1958) en el siguiente texto:
Hoy (en oposición a la Grecia de Platón), no se trata solamente de que nuestros reyes no
conozcan las matemáticas, sino de que nuestros filósofos no conocen las matemáticas y
—para dar un paso más— nuestros matemáticos no conocen las matemáticas. Cada uno
de ellos conoce una rama de su disciplina y cada uno escucha al otro con fraterno y
honesto respeto; y sólo acá y allá se puede encontrar alguna unión de los diferentes
campos de la especialización matemática... Así, el conocimiento científico de hoy no
constituye un enriquecimiento de la cultura general. Más bien es, por el contrario, la
posesión de algunas comunidades altamente especializadas que lo aman, que quisieran
compartirlo y que hacen algunos esfuerzos para comunicarlo; pero no forma parte del
entendimiento común humano... Solamente tenemos en común las formas simples en
que aprendimos a vivir, a hablar y a trabajar juntos. De aquí nacieron las disciplinas
especializadas como los dedos de la mano, unidos en Su origen pero no más en
contacto.
Oppenheimer cita las matemáticas, pero su ilustración es válida para toda disciplina.
Los profesionales de la medicina, por ejemplo, saben muy bien cuán limitado es el
campo que realmente dominan y Cuán amplio el que ignoran. Los profesionales de la
psicología pensarán inmediatamente en tantos colegas suyos que conocen y dominan el
conductismo, el psicoanálisis u otra área de la psicología, pero que ignoran el resto de
su disciplina. Y lo mismo podemos decir de la física, del derecho, de la historia, de la
economía y de cualquier otra disciplina.
La complejidad de la realidad con que nos enfrentamos a diario exige que se aplique el
principio de complementariedad de que hablamos en el capitulo anterior, es decir, que
se transite el camino de la interdisciplinariedad, la cual es inherente a la naturaleza
misma de la realidad. Por ello, si la universidad desea enfrentar con seriedad y
autenticidad los problemas reales de la sociedad, debe crear verdaderos centros
interdisciplinarios, que serán administrados y dirigidos en forma muy diferente de como
lo hacen muchos institutos de investigación actuales.
A lo largo del siglo xx se han ido incrementando cada vez más los grupos de estudio
interdisciplinario debido, principalmente, a la necesidad de ir más allá de los límites
impuestos a la realidad por el énfasis en la especialización, la cual corta los nexos y las
interrelaciones que se dan en los organismos y en la sociedad. La interdisciplinariedad
es un viejo concepto que se basa en valores muy aceptados, como la integración, la
síntesis y la unidad del conocimiento. No sería tan perentoria ni tan difícil si todos
fuéramos tan sabios como Aristóteles, Platón, Leonardo da Vinci o Confucio. Así, la
interdisciplinariedad fluiría de manera espontánea, ya que la integración del
conocimiento se daría originaria y naturalmente en cada uno de nosotros.
En las primeras décadas del siglo xx, la meta era el logro de una “educación general”,
como respuesta de reforma a la tendencia, cada vez más manifiesta, de la fragmentación
del saber, debida al incremento del conocimiento científico, a la aparición de nuevas
disciplinas, al crecimiento de la especialización y a las demandas que las comunidades
hacían a las universidades.
En la década de los años treinta, debido a la influencia y autoridad que adquirieron Otto
Neurath, Rudolph Carnap y otros miembros influyentes del Círculo de Viena, el
Movimiento de la Unidad de la Ciencia intentó unificar los dominios racional y
empírico a través del positivismo lógico, al cual nos hemos referido en capítulos
anteriores.
A mitad del siglo xx, tomaron auge también otros dos movimientos o tendencias
“integradores” muy significativos, que ampliaron el concepto de interdisciplinariedad e
hicieron más visible su realidad a través de equipos de investigación: la teoría general
de sistemas y el estructuralismo. Se comenzaron a financiar más generosamente los
proyectos de investigación multi o interdisciplinarios o de alguna manera orientados
hacia la solución de problemas reales tecnológicos o sociales. Estos dos movimientos
demostraron ser poderosos enfoques interdisciplinarios al enfatizar la búsqueda de
interacciones. El análisis sistémico centra en los patrones e interrelación de las partes en
el todo, mientras que el estructuralismo reconoce una importancia prevalente a las
estructuras profundas que subyacen en el pensamiento humano. Pero ambos recurren a
un amplio abanico de disciplinas como modelos explicativos instrumentales y
conceptuales, rompiendo, así, sus casillas y linderos preestablecidos.
Sin embargo, los obstáculos que se oponen al enfoque interdisciplinario son fuertes y
numerosos. En primer lugar, están los mismos conceptos con que se designa la
disciplina y sus áreas particulares: así los profesores suelen hablar de su “mundo”, su
“campo”, su “área”, su “reino”, su “provincia”, su “dominio”, su “territorio”, etc.; todo
lo cual indica una actitud feudalista y etnocentrista, un nacionalismo académico y un
celo profesoral proteccionista de lo que consideran su “propiedad” particular, y estiman
como la mejor de todas las disciplinas.
La fragmentación de las disciplinas nos vuelve a todos, en cierto modo, pasivos ante un
mundo que se hace incesantemente más oscuro y arbitrario. Las disciplinas, que fueron
originariamente instrumentos de maestría para manejar las realidades de la vida, se
pueden convertir en medios de perpetuación de irracionalidades al aconsejar un mal uso
del conocimiento en la sociedad moderna. La solución no consiste en desechar la
acumulación de conocimientos que la humanidad ha logrado como si fueran un lastre
pernicioso, sino en crear nuevos sistemas a su codificación e integración, donde esos
conocimientos serán más verdaderos y también más útiles y prácticos y una herencia
más rica para las generaciones jóvenes.
NATURALEZA DE LO INTERDISCIPLINARIO
El énfasis está puesto en la naturaleza de la integración que se hace tanto del proceso
investigativo como de los resultados o hallazgos de las diferentes disciplinas. Implícitos
en el concepto de “integración” se encuentran los conceptos de “profundidad” y
“extensión” del proceso y del análisis. Evidentemente, estos conceptos son recíprocos:
cuanto más enfatizamos uno, menos lo haremos con el otro.
EL EQUIPO INTERDISCIPLINAR
Los equipos que se han demostrado más exitosos son los compuestos por cinco o seis
miembros. Cuando son inferiores se manifiesta una pobreza de contribuciones, y cuando
superan ese número no se da la intensa comunicación requerida para una efectiva
integración.
El investigador líder del equipo debe poseer varias cualidades personales que faciliten la
dirección y guía. Se han demostrado más efectivos aquellos profesionales que reúnen
las siguientes características: dominan en profundidad una determinada disciplina y han
sido reconocidos como tales por sus colegas, pero están insatisfechos con la misma o se
han visto obligados a mirar el mundo con una visión más amplia y ahora dominan otras
áreas del saber; han hecho contribuciones significativas en dos o más disciplinas; han
constatado que es necesario hacer confluir un determinado rango de disciplinas para la
solución de cualquier problema importante en ciencia y tecnología, tienen un amplio
radio de intereses y son lectores habituales de revistas de cultura general; mantienen
múltiples contactos COn diferentes sociedades científicas, sociales y culturales; se
distinguen Por sus cálidas relaciones interpersonales: saben escuchar, son empáticos,
aceptan las sugerencias y la crítica, son optimistas, generan entusiasmo Y saben animar
a sus colegas (Anbar. 1986).
En cuanto al tipo de liderazgo y la atmósfera que éste es capaz de crear para lograr
resultados exitosos, se suelen distinguir tres fundamentales del mismo.
A esto conviene añadir que se puede apreciar lo que otra persona tiene que decir pero, al
mismo tiempo, sentir cierto rechazo o desprecio por sus disciplinas. Los esfuerzos
interdisciplinarios no tienen mayor éxito cuando los participantes no sienten respeto por
las áreas del saber o los de los otros. La mayoría de nosotros tenemos prejuicios sobre
una u otra área de la ciencia, contra los médicos o algunas de sus escuelas contra los
teólogos o algunas de sus escuelas, contra los o algunas orientaciones religiosas,
etcétera.
Si se dan las condiciones de respeto señaladas, hacia las personas y sus respectivas
disciplinas y métodos, ciertamente el cambio personal lugar y este cambio de la base y
el determinante para el cambio de perspectiva del marco de referencia e, incluso, de un
paradigma completo.
Este trabajo reiterativo llevará a los miembros del equipo a sentir las siguientes
necesidades:
Cardenal J. H. Newman
Albert Einstein
Si bien es cierto que durante el siglo xix los científicos siguieron estructurando el
modelo mecanicista del universo en sus diferentes campos, como el de la física, la
química, la biología, la psicología y las ciencias sociales, también, y como consecuencia
de ello, la máquina newtoniana del mundo reveló ser una estructura mucho más
compleja y sutil. Al mismo tiempo, nuevos descubrimientos y modos de pensar sacaron
a la luz las limitaciones del modelo newtoniano y prepararon el terreno para las
revoluciones científicas del siglo xx, las cuales se basarían en un modelo de estructura
conceptual con un enfoque interdisciplinario, holístico y ecológico de la realidad.
EN LA FÍSICA
Durante los últimos cuatro siglos, la física ha sido el ejemplo más evidente de una
ciencia exacta y un modelo para las demás ciencias. Durante dos siglos y medio, los
físicos han utilizado una visión mecanicista del mundo para desarrollar y perfeccionar la
estructura conceptual conocida con el nombre de física clásica. Basando sus ideas en la
teoría matemática de Newton, en la filosofía racionalista de Descartes y en la
metodología inductiva de Bacon, las han desarrollado de acuerdo con un concepto de la
realidad que predominó durante los siglos xvii, xviii y xix. En su opinión, la materia
constituía la base de toda existencia y el mundo material se concebía como un gran
número de objetos separados ensamblados a una gran máquina. Creían que la maquina
cósmica, al igual que las fabricadas por el hombre, estaba formada por componentes
elementales; en consecuencia, el complejo significado de los fenómenos naturales se
podía deducir reduciendo dichos fenómenos a sus partes constitutivas básicas y
descubriendo los mecanismos que los ponen en funcionamiento. Esta teoría, llamada
reduccionismo está tan arraigada en nuestra cultura que frecuentemente se la identifica
con el método científico.
Casi todas las otras ciencias, una después de otra, aceptaron y adoptaron la visión
mecanicista y reduccionista de la realidad expuesta por la física clásica y modelaron sus
propias teorías de acuerdo con ella. Cada vez que un sociólogo, un psicólogo o un
economista necesitaba una base científica para sus teorías, recurría a los conceptos
básicos de la física newtoniana, sin pensar demasiado en el hecho de que la física está
trabajando con el nivel más simple de organización estructural y, por tanto, produce
unas verdades relativamente simples.
Durante el presente siglo, sin embargo —como ya vimos en el capítulo 5—, la misma
física ha pasado por varias revoluciones conceptuales que han puesto de manifiesto las
limitaciones de la visión mecanicista del mundo; por esta razón, ha llegado a una visión
ecológica y orgánica del mundo. El Universo ya no es una máquina compuesta de una
cantidad de objetos separados, sino una unidad indivisible y armónica, una red de
relaciones dinámicas en cuya constitución entran tanto el observador humano como su
conciencia.
René Descartes sostenía que el hombre, para llegar a un conocimiento absolutamente
cierto de la verdad, sólo podría guiarse por la intuición evidente y la deducción
necesaria. El método cartesiano era analítico, es decir, consistía en dividir los
pensamientos y problemas en cuantas partes fuera posible y luego disponerlos según un
orden lógico. Debido a que para él la razón era más cierta que la materia, llegó a la
conclusión de que ambas cosas eran entes separados y básicamente distintos. Por
consiguiente, sostenía que el concepto de “cuerpo” no incluía nada que perteneciera a la
mente y el de “mente”, nada que perteneciera al cuerpo.
El universo que nos rodea, el universo material, era para Descartes sólo una máquina.
En la materia no había ni vida, ni metas, ni espiritualidad. La naturaleza funcionaba de
acuerdo con unas leyes mecánicas, Y todas las cosas del mundo material podrían
explicarse en términos de la disposición y del movimiento de las partes que las
constituyen y le dan forma.
Francis Bacon, por su parte, llama la atención hacia la experiencia, hacia la observación,
hacia el contacto con la naturaleza como Único punto de partida para su penetración.
Sólo con el método inductivo, y no con el proceso de la deducción, se llegará a
comprender la naturaleza, a robarle sus secretos y servirse de ella, para dominarla. Este
concepto del dominio de la naturaleza es importante en la especulación baconiana, pues
en él se resumen las aspiraciones de los estudios cultivados en su siglo.
Estos procesos tienen un punto en común: todos van en la misma dirección, del orden al
desorden. A mediados del siglo pasado, Rudolf Clausius introdujo una nueva medida de
cantidad a la que dio el nombre de entropía, con la que se expresa matemáticamente
esta direec60 evolutiva de los sistemas físicos.
Las leyes de la física atómica son leyes estadísticas según las cuales las probabilidades
de que ocurran ciertos fenómenos atómicos están determinadas por la dinámica de todo
el sistema. Mientras que, en la mecánica clásica, las probabilidades y el comportamiento
de las partes determinan los del todo, en la mecánica cuántica, la situación es
exactamente la contraria: es el todo lo que determina el comportamiento de las partes.
En tercer lugar, la imagen lúgubre que preconizaba la ley de la entropía —del orden al
desorden, al caos y a la muerte térmica del Universo como perspectiva final— se opone
a la idea evolutiva de los biólogos, para quienes el Universo evoluciona del caos al
orden, hacia estados cada vez más complejos. La aparición del concepto de evolución en
la física sacó también a relucir otra limitación de la teoría newtoniana: el concepto
mecanicista del Universo, que lo concibe como un sistema de pequeñas bolas de billar
que se mueven al azar, es demasiado simple para aplicarlo a la evolución de la vida.
Para la última década del siglo xix, la mecánica newtoniana había perdido ya su papel
como teoría fundamental de los fenómenos naturales. La electrodinámica de Maxwell y
la teoría de la evolución de Darwin suponían una serie de conceptos que iban mucho
más allá del modelo newtoniano y revelaban que el Universo era mucho más complejo
de lo que Descartes y Newton habían imaginado. A pesar de todo, las ideas básicas de la
física newtoniana, si bien insuficientes para explicar todos los fenómenos naturales,
siguieron considerándose básica y esencialmente correctas.
A principios del siglo XIX, especialmente en las primeras tres décadas, la situación
cambió radicalmente. Dos desarrollos de la física, que culminaron en la teoría de la
relatividad y en la teoría cuántica echaron por tierra los principales conceptos de la
visión cartesiana y de la newtoniana. La noción de espacio y tiempo absolutos, las
partículas sólidas elementales, la sustancia de materia fundamental, la naturaleza
estrictamente causal de los fenómenos físicos y la descripción objetiva de la naturaleza
eran conceptos inaplicables en los nuevos campos que eran ahora objeto básico de
estudio de la física.
En el siglo xx, los físicos se encontraron con un problema crucial: se enfrentaron por
vez primera con un serio desafío a su capacidad de comprender el universo. Cada vez
que, en un experimento atómico, le preguntaban algo a la naturaleza, ésta les respondía
con una paradoja, y cuanto más trataban de esclarecer la situación, más grande se hacía
la paradoja- La nueva física exigía una profunda modificación de los conceptos
fundamentales a través de los cuales se experimenta el mundo —espacio, tiempo,
materia, energía, velocidad, objeto, causa y efecto—, pero esta transformación suponía
un choque violento. En efecto, la teoría cuántica modificaba en gran medida la
concepción clásica de la ciencia, revelando el papel crucial desempeñado por el sujeto
en el proceso de observación e invalidando, así, la idea de una descripción objetiva de la
naturaleza.
La idea clásica del objeto sólido fue destruida por el descubrimiento del aspecto dual de
la materia y del papel fundamental de la probabilidad. A nivel subatómico, los objetos
de materia sólida de la física clásica, se dispersan en formas ondulatorias de
probabilidades. Es más, estas ondas ni siquiera representan la probabilidad de una cosa,
sino la probabilidad de que varias cosas establezcan una relación recíproca. Analizando
detalladamente el proceso de observación de la física atómica se llega a la conclusión de
que las partículas subatómicas no tienen ningún significado como entidades aisladas,
sino como correlaciones o conexiones entre varios procesos de observación y medida.
Sobre este tema Niels Bohr escribió: “las partículas de materia aisladas son
abstracciones; la única manera en que podemos definir y observar sus propiedades es a
través de la interacción que establecen con otros sistemas” (Capra, 1985, p.87).
De acuerdo con la teoría cuántica, la materia siempre es inquieta nunca está en reposo,
hasta el punto de que los objetos pueden ser concebidos como un conjunto de
componentes más pequeños —moléculas átomos y partículas— que permanecen en un
estado de movimiento continuo. Todos los objetos materiales de nuestro entorno están
hechos d átomos vinculados entre sí de varias maneras y forman una gran variedad de
estructuras moleculares que no son rígidas ni están desprovistas de movimiento, sino
que vibran de acuerdo con su temperatura y en armonía con las vibraciones térmicas de
su entorno. Los electrones Situados dentro de estos átomos vibrantes están ligados a los
núcleos atómicos por fuerzas eléctricas que tratan de mantenerlos unidos, y ellos
responden a este confinamiento girando sobre sus ejes a gran velocidad. Finalmente, en
el núcleo, los protones y los neutrones son sometidos a la enorme presión de poderosas
fuerzas nucleares que los reducen a un volumen ínfimo y, como consecuencia de ello,
giran a una velocidad inimaginable, tan alta que se aproxima a la velocidad de la luz.
Puesto que todas las palabras que tenemos a disposición se refieren a nociones
convencionales del tiempo, resultan inadecuadas para describir los fenómenos
relativistas. Por esto, la teoría de la relatividad nos ha enseñado la misma lección que la
mecánica cuántica: nuestras ideas sobre la realidad se limitan a la experiencia cotidiana
que tenernos del mundo físico y que hemos de abandonarlas si queremos ampliar esta
experiencia y llegar al mundo de la “vida” que hay en el átomo.
Así, la visión del mundo que emerge de la física moderna se caracteriza por ser
orgánica, holística y ecológica. Se la podría llamar una visión de sistemas, en el sentido
de la teoría general de sistemas, como la entiende su creador Ludwig von Bertalanffy
(1981), y no como la entienden la gran mayoría de autores, anclados todavía en el
paradigma newtoniano. El mundo ya no puede percibirse como una máquina formada
por una gran cantidad de objetos, sino que ha de concebirse como una unidad indivisible
y dinámica cuyos elementos están estrechamente vinculados. El mundo se concibe
desde el punto de vista de la interrelación y la interdependencia de todos sus
fenómenos; un sistema, en esta estructura, es una unidad integrada cuyas propiedades
no se pueden reducir a las de sus partes: son sistemas los organismos vivientes, las
sociedades y los ecosistemas. Pero la estructura sistémica arranca ya desde la misma
naturaleza íntima del átomo.
Así, resulta claro y también muy revolucionario que las dos teorías básicas de la física
moderna, han trascendido los principales aspectos de la visión cartesiana del mundo y
de la física newtoniana. La teoría cuántica ha demostrado que las partículas
subatómicas no son corpúsculos aislados de materia, sino modelos de probabilidades,
conexiones de una red más amplia e indivisible que incluye al observador humano y su
conciencia. La teoría de la relatividad ha dado vida —por decirlo así— a la red
cósmica, al revelar su naturaleza intrínsecamente dinámica y al demostrar que su
actividad es la esencia misma de su existencia. La física moderna ha reemplazado la
imagen mecánica del universo por la de una unidad individual y dinámica cuyas partes
constitutivas están vinculadas en su esencia y que puede concebirse sólo como modelo
de un proceso cósmico. A nivel subatómico, las correlaciones y las interacciones de las
partes de la unidad son más importantes que las partes mismas. Hay movimiento pero
no hay, en el fondo, objetos que se mueven; hay actividad, pero no hay actores; no
existen danzantes, sólo existe la danza (Capra, 1985, pp. 55 ss. y 81 ss.).
Todos los físicos contemporáneos han aceptado el tema central contenido en este
discurso: el hecho de que la física moderna ha trascendido la visión mecanicista
cartesiana del mundo y que ello nos está llevando a un concepto holístico e
intrínsecamente dinámico del Universo. Y esta visión del mundo de la física moderna
no sólo está teniendo un fuerte impacto en las demás ciencias, sino que también tiene la
posibilidad de ser paradigmáticamente modeladora y epistemológicamente unificadora.
EN LA BIOLOGÍA
Ciertamente hay campos en que el “viejo” paradigma rinde buenos frutos y en otros los
errores son poco significativos, pero en muchos de ellos sus resultados son desastrosos.
Es necesario distinguir esos campos. Los físicos tuvieron que abandonar el paradigma
mecanicista al llegar al nivel submicroscópico (física atómica y subatómica) y
acroscópico (astrofísica y cosmología).
Y René Dubos, biólogo y ecólogo, puntualiza que muchos biólogos suelen sentirse más
seguros cuando el organismo que están estudiando ya no vive.
Por todo ello, es necesario descubrir dónde se derrumba el modelo cartesiano. Muchos
problemas que los biólogos contemporáneos no pueden resolver, aparentemente debido
a su enfoque fisicista, parcial y fragmentario, parecen estar relacionados con el
funcionamiento de los sistemas vivientes como unidades y con las interacciones que
éstos tienen con el entorno.
Creo que durante los próximos 25 años los biólogos tendremos que aprender otro
idioma... Aún no sé cómo se llama ese idioma; de hecho nadie lo sabe. Pero lo que se
trata de hacer, en mi opinión, es solucionar e problema elemental de la teoría de los
sistemas elaborados... Y es aquí donde surge un grave problema de niveles: quizá sea
un error creer que toda la lógica se halla a nivel molecular. Tal vez tengamos que ir más
allá de los simples mecanismos de relojería (Capra, 1985, p. 133).
Hay una gran diferencia entre una máquina y un organismo. Las máquinas funcionan
según cadenas lineales de causa y efecto, y cuando se estropean es posible identificar
una única causa de la avería (robótica). Por el contrario, el funcionamiento de los
organismos sigue los modelos cíclicos de flujo de información conocidos como
retroalimentación. Por ejemplo, el componente A puede afectar al B; éste puede in fluir
en el C, y el C, a su vez, puede afectar retroactivamente al A, de suerte que el círculo se
cierra. Cuando este sistema deja de funcionar, la interrupción suele estar causada por
múltiples factores que pueden amplificarse recíprocamente por medio de unos circuitos
de retroacción que son interdependientes. Muchas veces carece de importancia
determinar cuál de estos factores ha sido la causa inicial de la avería, pues los resultados
pueden ser idénticos.
A pesar de esta admirable capacidad que presentan los seres vivos ara conservarse y
repararse, ningún organismo complejo puede funcionar indefinidamente. Estos
organismos se deterioran de manera gradual durante el proceso de envejecimiento y, a la
larga, sucumben al agotamiento aunque estén relativamente sanos. Para sobrevivir, estas
especies han desarrollado una suerte de “super-reparación”: en vez de sustituir las partes
dañadas o consumidas, sustituyen todo el organismo. Este, por supuesto, es el fenómeno
de la reproducción, sexual o asexual, que es típico de todos los organismos vivientes, y
cuyo proceso supera inconmensurablemente las explicaciones fisicistas, pues raya en el
misterio.
Los organismos vivientes requieren una visión integral. Esta visión es difícil de
comprender desde la perspectiva de la ciencia clásica, pues requiere una serie de
modificaciones básicas de las ideas clásicas La situación no es distinta de la que
encontraron los físicos clásicos en las primeras tres décadas de este siglo, cuando se
vieron obligados a revisar drásticamente sus conceptos básicos de la realidad para
comprender los fenómenos atómicos. Este paralelismo queda corroborado ulteriormente
por el hecho de que la noción de “complementariedad”, que fue tan crucial en el
desarrollo de la física atómica, también parece desempeñar un papel importante en la
nueva biología de sistemas y en sus explicaciones paralelas.
Las visiones que tenían los biólogos sobre la evolución han enfrentado con frecuencia a
la religión y a la ciencia, pues la primera asumía la existencia de un proyecto general
diseñado por un Creador divino, mientras la segunda reducía la evolución a un “juego
de dados” cósmico. La nueva teoría de sistemas, si bien no niega la espiritualidad e,
incluso, puede utilizarse para formular el concepto de una deidad, no admite un
proyecto evolutivo preestablecido. La evolución es una aventura abierta y continua que
crea sus propios objetivos en un proceso cuyo éxito detallado es intrínsecamente
imprevisible. Con todo, se puede reconocer y comprender perfectamente un modelo
general de la evolución, entre cuyas características figuran un aumento progresivo de la
complejidad, de la coordinación y de la interdependencia (Capra, 1985, pp. 109 ss. y
307 ss.).
EN LA MEDICINA
Sin embargo, como señala Vrooman (1970), René Descartes, pese a haber sido quien
introdujo la distinción entre mente y cuerpo, consideraba la interacción de ambos como
un aspecto esencial de la naturaleza humana, y comprendía perfectamente las
repercusiones que esto tenía en la medicina. En efecto, en sus funciones de médico con
su amiga la princesa Isabel de Bohemia, cuando ésta padecía alguna enfermedad y le
describía sus síntomas, Descartes no vacilaba en diagnosticar que la aflicción se debía
principalmente a la tensión emocional —corno diríamos hoy— y le recetaba un
tratamiento de reposo y meditación, además de algunos remedios físicos (pp. 173 ss).
Así, pues, Descartes se reveló menos cartesiano que la mayoría de los médicos actuales,
quienes imitan sólo un aspecto muy limitado de su doctrina.
Ciertamente, el enfoque biomédico de la salud seguirá siendo muy útil, de igual manera
que el esquema newtoniano sigue siéndolo en muchos campos de la ciencia clásica,
siempre y cuando se reconozcan sus limitaciones. Los científicos de la medicina tendrán
que comprender que un análisis reduccionista de la máquina del cuerpo no puede
proporcionarles un entendimiento completo del problema humano. La investigación
biomédica tendrá que integrarse en un sistema de asistencia sanitaria mucho más
extenso que conciba las manifestaciones de los males de la humanidad como resultados
de tina interacción entre mente, cuerpo y entorno, y los trate de acuerdo con esta
compleja interdependencia.
Esta definición está en consonancia con el enfoque de la medicina china. La idea china
del cuerpo siempre ha sido principalmente funcional y ha estado centrada más en la
interdependencia de sus partes que en la precisión anatómica. Por consiguiente, el
concepto chino de órgano físico se refiere a un sistema funcional integral que ha de ser
Considerado en su totalidad, junto con las partes más importantes del sistema de
correspondencia. Por ejemplo, el concepto de pulmón abarca, además del pulmón en sí,
todo el aparato respiratorio, la nariz, la piel y las secreciones relacionadas con estos
órganos.
Es importante subrayar que esta noción china del cuerpo como un sistema indivisible
formado por componentes relacionados entre si es mucho más similar al enfoque
integral moderno que al modelo cartesiano clásico, y el parecido queda reforzado aún
más por el hecho de que los chinos ven la red de relaciones que están estudiando como
una red intrínsecamente dinámica. Cada organismo, como también la totalidad del
cosmos, se concibe desde el punto de vista de fluetuacjo1 continuas, múltiples y
mutuamente dependientes, cuyos modelos se describen en función de la fluctuación del
ch’i. El concepto de ch’i, de gran importancia en casi todas las escuelas chinas de
filosofía natural supone una concepción radicalmente dinámica de la realidad.
La función del médico que implican estos conceptos y actitudes es totalmente diferente
de la que se le suele atribuir en Occidente. En la medicina occidental, el médico que
goza de la mejor reputación es el especialista que conoce en detalle una determinada
parte del cuerpo. En la medicina china, en cambio, el médico ideal es un sabio que
conoce la manera en que cooperan todos los elementos del Universo, que trata a sus
pacientes de manera individualizada, cuyo diagnóstico no etiqueta al paciente como
afectado de una enfermedad específica sino que registra de la manera más completa
posible el estado mental y fisiológico del paciente y su relación con el ambiente natural
y social. Idealmente, cada paciente es un caso único, al presentar gran cantidad de
variables que han de tomarse en consideración.
Los internistas chinos creen que sus terapias no sólo eliminan lo principales síntomas de
la enfermedad del paciente, sino que también afectan a todo el organismo, tratándolo
como un todo dinámico.
Cuando formulan sus diagnósticos, los médicos chinos pasan mucho tiempo hablando
con los pacientes de su situación laboral, de su familia y de su estado emocional, pero
en lo que respecta a la terapia se concentran en consejos dietéticos, en medicinas
herbarias y en la acupuntura, limitándose a una serie de técnicas que influyen en los
procesos interiores del cuerpo.
En sintonía con estas ideas nos podríamos preguntar: ¿qué aspectos de la filosofía y de
la práctica médica china podemos o debemos incluir en nuestro sistema conceptual de
asistencia médica? Para responder a esta pregunta resulta extremadamente útil el estudio
de la medicina japonesa contemporánea. Este estudio nos proporciona una oportunidad
única de ver cómo los médicos japoneses modernos utilizan los conceptos y la práctica
de la medicina tradicional del Asia Oriental para ocuparse de unas enfermedades que no
son tan diferentes de las que existen en nuestra sociedad hace un siglo, los japoneses
adoptaron voluntariamente el sistema de la medicina occidental, pero en la actualidad
están revalorando cada vez más sus prácticas tradicionales, pues creen que éstas pueden
cumplir muchas funciones que están fuera del alcance del modelo biomédico.
A partir del siglo xvii, nuestra cultura ha estado dominada por la concepción
mecanicista que analiza el cuerpo humano desde el punto de vista de sus partes. La
mente se separa del cuerpo, la enfermedad se ve como una avería de los mecanismos
biológicos, y la salud se define como la ausencia de enfermedad. Actualmente esta
concepción va siendo eclipsada poco a poco por una visión holista y ecológica que
concibe el mundo como un sistema “viviente” y que insiste en la relación y dependencia
recíprocas de todos los fenómenos, tratando de entender la naturaleza no sólo desde el
punto de vista de las estructuras fundamentales, sino también del de los procesos
dinámicos subyacentes. Pero aún se sabe muy poco sobre la manera en que los aspectos
físicos y psicológicos establecen su interacción. La mayoría de los médicos tienden a
limitarse al modelo biomédico y no toman en cuenta los aspectos psicológicos de la
enfermedad.
Los clínicos y los investigadores modernos son cada vez más conscientes del hecho de
que prácticamente todos los trastornos son psicosomáticos, en el sentido de que suponen
una continua interacción entre la mente y el cuerpo en su origen, en su desarrollo y en
su curación. En las palabras de René Dubos: “Sea cual sea la causa que la engendra o
Sus manifestaciones, una enfermedad concierne invariablemente tanto al cuerpo como a
la mente, y estos dos aspectos están tan inextricablemente vinculados que no se pueden
separar el uno del otro” (1968, p. 64).
De acuerdo con este enfoque de la medicina, que es holista, dinámico y ecológico, los
fármacos se usarán sólo en casos de emergencia y aun entonces lo más parca y
específicamente posible. Así, la asistencia sanitaria se liberaría de su dependencia de la
industria farmacéutica y los médicos y farmacólogos podrían seleccionar juntos entre
los miles de productos farmacéuticos, las pocas docenas de fármacos que, según la
experiencia clínica, sean más adecuados para una asistencia médica eficaz. Estos
cambios sólo serán posibles si se llevan a cabo junto con una reorganización radical de
la enseñanza de la medicina.
Hace apenas tinos años, la ONU divulgó un comunicado en que aparecían más de 400
productos farmacéuticos —entre los que se encontraban muchos de uso general y
corriente— que, de una u otra forma, eran dañinos, por tener repercusiones o efectos
secundarios negativos en algunos órganos del cuerpo. Pero la industria farmacéutica es
muY poderosa, y este poder lo aumenta cuando encuentra médicos —bien
recompensados_ que se prestan para patrocinar “medicamentos” cuyos objetivos
básicos son estrictamente comerciales.
En los últimos tiempos ha llamado la atención una terapia que se puede considerar
holista por excelencia, el nuevo método de tratamiento del cáncer conocido como el
enfoque de Simonton.
Estos resultados exigen una revisión cuidadosa de los procedimientos corrientes usados
en la terapéutica del cáncer.
La maligna enfermedad del cáncer comienza con una célula que contiene una
información genética equivocada por haber sido dañada por ciertas sustancias y por
otras influencias ambientales, o simplemente porque de vez en cuando el organismo
produce una célula imperfecta. Mientras las células normales se comunican eficazmente
con su entorno para determinar sus dimensiones óptimas y su ritmo de reproducción, las
células malignas no pueden comunicarse ni autoorganizarse a causa de los daños que
han sufrido. Como consecuencia, crecen mucho más que una célula normal sana y su
ritmo de reproducción es desenfrenado. Además, la cohesión normal de las células
puede debilitarse y algunas células malignas pueden desprenderse de la masa original y
trasladarse a otras partes del Cuerpo donde formarán nuevos tumores, fenómeno
conocido como metástasis. En un organismo sano, el sistema inmunizador reconocerá
las Células anormales y las destruirlo al menos las aislará de manera que evite Su
difusión. Ahora bien, si por algún motivo el sistema inmunizador no es lo
suficientemente fuerte, la masa de células defectuosas seguirá creciendo. Por tanto, el
cáncer no es un ataque desde fuera, sino un derrumbamiento que comienza desde el
interior de cada persona.
El crecimiento del cáncer, sus mecanismos biológicos, demuestran Claramente que las
investigaciones han de seguir dos caminos. Por una Parte, se trata de saber qué es lo que
causa la formación de células cancerosas; por otra, tenemos que entender cuál es la
causa del debilitamiento del sistema inmunizador del cuerpo. Con los años, muchos
investigadores han acabado por darse cuenta de que las respuestas a estas dos preguntas
consisten en una compleja red de factores genéticos bioquímicos, ambientales y
psicológicos interdependientes.
Según Ana Aslan, líder endocrinóloga de Rumania, que trabaja en su propia clínica de
Bucarest, hay que valorar mucho la quím1 producida por la “voluntad de vivir”. Ella
afirma que hay una conexión directa entre una fuerte voluntad de vivir y los balances
químicos del cerebro, que una robusta voluntad de vivir produce los impulsos vitales
cerebrales que estimulan la glándula pituitaria, la cual dispara, a SU vez, una serie de
efectos en la glándula pineal y en todo el sistema endocrino (Cousins, 1991, pp. 47.48).
Actualmente está muy claro que el estrés emocional tiene dos consecuencias
principales: disminuye el sistema inmunológico del cuerpo, y lleva al mismo tiempo a
un desequilibrio hormonal que tiene como esultad0 una gran producción de células
anormales. De esta manera, se crean las condiciones óptimas para el crecimiento
canceroso. La producción de células malignas comienza justamente en un momento en
el que el cuerpo tiene menos capacidad para destruirlas o para bloquear su prolifera1ó
El primer paso hacia el comienzo del cielo de curación consiste, como en todas las
terapias holistas, en hacer que el paciente tome conciencia del amplio contexto de su
enfermedad. La determinación del contexto del cáncer comienza pidiéndole a los
pacientes que identifiquen las principales situaciones de estrés en las que se encontraban
de seis a 18 meses antes del diagnóstico. La lista de estas situaciones de estrés se usará
luego como base para discutir en qué manera ha participado el paciente en el comienzo
de su enfermedad. Este concepto de una participación del paciente no tiene el objeto de
crear un sentimiento de culpa, sino el de crear la base para invertir el ciclo de procesos
psicosomáticos que han llevado al estado de mala salud. Mientras determina el contexto
de la enfermedad de un paciente, Simonton también trata de reforzar su fe en la eficacia
del tratamiento y en la fuerza de las defensas del cuerpo.
Para ayudar a los pacientes a resolver los problemas que están en el origen de su
enfermedad, Simonton y sus colaboradores han hecho del asesoramiento psicológico y
la psicoterapia dos elementos esenciales de su enfoque. Normalmente, la terapia se
realiza en sesiones de grupo en las que los pacientes se ayudan y se apoyan
mutuamente. Esta terapia está centrada en los problemas emocionales de los pacientes,
sin separarlos de los modelos más generales de sus vidas y, por consiguiente, suele
incluir aspectos sociales, culturales, filosóficos y espirituales, así como sus variadas
interrelaciones (Capra, 1985, pp. 357 ss).
Las ciencias médicas tendrán que ir más allá de su visión parcial de la salud y de la
enfermedad. Esto no significa que deban ser menos cje1 tíficas, por el contrario, se
necesitará un concepto de salud mucho más amplio que incluya sus dimensiones
individuales, sociales y ecológicas.
EN LA PSICOLOGÍA
A esto se añadió el célebre concepto de la tábula rasa de Locke, que concebía la mente
como una pizarra en blanco sobre la cual se imprimían las ideas por medio de la
percepción sensible. Este concepto de Locke, junto con el de la cámara oscura, del cual
hablamos en el capítulo 7, constituyeron la base de la teoría mecanicista del
conocimiento.
Para los psicólogos conductistas, los organismos vivientes eran máquina complejas que
respondían a estímulos externos, y este mecanismo de estímulo y respuesta imitaba el
de la física newtoniana, implicando una relación causal rigurosa que les permitía
predecir la reacción provocada por un estimulo determinado y, a la inversa, determinar
el estímulo para una respuesta dada. Las leyes derivadas de situaciones experimentales
simples podían ser aplicadas a fenómenos más complejos, y las respuestas
condicionadas cada vez más complejas eran consideradas una explicación adecuada de
todas las expresiones de la conducta humana, ya sea que se manifestara a través de la
ciencia, del arte o de la filosofía y la religión.
El continuador del pensamiento de Watson en las décadas siguientes fue B. E Skinner.
En su famosa obra La ciencia y la conducta humana, Skinner explica claramente desde
el principio que, en su Opinión, todos los fenómenos relacionados con la conciencia
humana, como la mente o las ideas, son entidades que no existen, “inventadas
para proporcionar explicaciones espurias”. Según Skinner, las únicas explicaciones
serias son las que se basan en la visión mecanicista de lo organismos vivientes y
cumplen con los criterios de la física newtoniana. “Es posible afirmar que los
acontecimientos mentales o psíqui00 carecen de las dimensiones de la ciencia física —
escribió Skinner – y ésa es otra razón para rechazarlos” (1953, pp. 30-31). ¡Es
sorprendente que un hombre inteligente como Skinner no haya advertido la flagrante
paradoja de su pensamiento en las expresiones anteriores! Por Otro lado, aunque el
titulo de la obra de Skinner se refiere de manera explícita al comportamiento humano,
los conceptos que en su libro se discuten se apoyan casi exclusivamente en
experimentos de condiciona miento realizados con ratas y palomas.
Los conceptos básicos de la teoría de Jung, sobre todo, se salían de los modelos
mecanicistas de la psicología clásica y la aproximaban mucho más a la estructura
conceptual de la física moderna que a las demás escuelas psicológicas. Además, Jung
era plenamente consciente de la necesidad de ir más allá del enfoque freudiano para
poder explorar aspectos más sutiles de la psique humana, que se encuentran allá de
nuestra experiencia cotidiana y que determinan, influencia’ modelan más
profundamente el comportamiento psicológico.
Al romper con Freud, Jung abandonó los modelos psicoanalíticos flcwtonftnlOS y
desarrolló unos conceptos que son perfectamente coherentes con los de la física
moderna y los de la teoría de sistemas. En Aión, una de sus principales obras,
encontramos el profético pasaje que exponemos a continuación:
Así, la terapia de enfoque humanista consistía en ver a las personas como capaces de
crecer y de “autorrealizarse” y en reconocer las posibilidades intrínsecas que cada ser
humano lleva consigo.
El enfoque integral de la nueva psicología tiene, como las otras disciplinas, una
perspectiva holista y dinámica. La visión holista, que en psicología suele relacionarse
con el principio de la Gestalt, sostiene que las propiedades y las funciones de la psique
no pueden comprenderse reduciéndolas a elementos aislados, exactamente como el
organismo físico no puede ser comprendido analizando cada una de sus partes por
separado. La visión fragmentaria de la realidad no es sólo un obstáculo para la
comprensión de la mente, sino también un aspecto característico de la enfermedad
mental. Una experiencia sana de uno mismo es una experiencia de todo el organismo,
cuerpo y mente, y las enfermedades mentales muchas veces son el resultado de la
incapacidad de integrar los distintos componentes de este organismo. Desde este punto
de vista, la distinción cartesiana entre mente y cuerpo y la separación conceptual entre
los individuos y su entorno nos parecen síntomas de una enfermedad mental colectiva
compartida por la mayoría de las personas de la cultura occidental y, como tal, suele ser
vista por otras culturas, habituadas a ver y apreciar la realidad en forma más global e
integrada.
Maslow expresó también esta misma idea en su obra cumbre (1970), al afirmar:
“recientemente me he sentido cada vez más inclinado a creer que el modo atomista de
pensar es una forma de psicopatología mitigada o, al menos, un aspecto del síndrome de
inmadurez cognitiva” (p. xi).
EN LA ECONOMÍA
Durante los siglos xviii y xix, al ir triunfando la mecánica newtoniana, la física quedó
establecida como prototipo de una ciencia “exacta” con la que se habían de cotejar todas
las demás ciencias. Cuanto más cerca llegasen los científicos en su imitación de los
métodos físicos, y cuantos más conceptos de la física lograsen utilizar, tanta más
categoría tendría su ciencia ante la comunidad científica y en los medios académicos.
Todo hace ver que la crisis económica actual sólo se superará cuando los economistas
estén dispuestos a participar en el cambio de paradigma que actualmente se está
verificando en todos los campos. Igual que en psicología y en medicina, la transición
del paradigma cartesiano a una visión sistémica y ecológica no significa que los nuevos
métodos sean menos científicos; por el contrario, los hará más coherentes con los
últimos desarrollos en los campos de las ciencias naturales y, de una mana particular, de
la física cuántica.
Conviene enfatizar una idea que desde hace varios siglos ha tenido predominio en el
escenario económico. La idea mercantilista del balance comercial de los siglos xvi y
xvii —la creencia de que la nación se enriquece cuando exporta más de lo que importa
— se convirtió en el concepto central de todo el pensamiento económico. No cabe duda
de que influyó en ella el concepto de equilibrio de la mecánica newtoniana que
concordaba perfectamente con la limitada visión del mundo de las monarquías de la
época, las cuales tenían poca población y estaban aisladas en sí mismas. Pero en la
actualidad, en un mundo superpoblada donde todos dependemos estrechamente de los
demás, resulta obvio que no todos los países pueden ganar de manera simultánea el
juego mercantilista. El hecho de que muchos países —entre los que figura desde hace
poco Japón— sigan intentando mantener una balanza comercia ampliamente positiva
lleva necesariamente, según muchos analistas, a la guerra comercial, a la crisis
económica y al conflicto internacional. Lo lógico es que un país predomine en un área,
pero no en todas. El dominio en algunas áreas lleva al intercambio y al comercio; el
dominio en muchas lleva al imperialismo económico.
Adam Smith fue, quizá, el más influyente de todos los economistas. Como la mayoría
de los grandes economistas clásicos, Smith no era un especialista, sino un pensador rico
en imaginación y con muchas ideas nuevas. En un comienzo, se puso a investigar cómo
aumenta y se distribuye la riqueza de un país, el tema central de la economía moderna.
Después de rechazar la visión mercantilista según la cual la riqueza aumenta mediante
el comercio exterior y la acumulación de lingotes de oro y plata, Smith afirmó que la
verdadera base de la riqueza se halla en la producción que resulta del trabajo humano y
de los recursos naturales: la riqueza de una nación dependería, así, del porcentaje de la
población que participe en esta producción, en la eficiencia y en la habilidad de las
personas. Smith sostenía que el medio fundamental para incrementar la producción era
la división del trabajo. Igualmente, justificaba las ganancias del capitalismo afirmando
que éstas eran necesarias para invertir en fábricas y en máquinas que serían provechosas
después para todos.
Carl Marx, por su parte, criticó la economía clásica con más habilidad y eficacia que
cualquiera de sus predecesores. No obstante, la influencia de Marx no ha sido
intelectual, sino política. Como revolucionario, si se juzga por el número de sus
admiradores, Marx ha de ser Considerado un líder casi religioso, al estilo de Cristo o
Mahoma. El veía la economía en el juego de las interrelaciones, con una percepción
amplia y global. Marx, en efecto, no solía hablar de sí mismo como filósofo, historiador
o economista —aunque era todo eso a la vez— sino corno critico de la sociedad.
En el caso de Estados Unidos, tras lavar, en cierto modo, el cerebro del público y
controlar eficazmente a sus representantes, el complejo militar- industrial ha logrado
obtener con regularidad presupuestos de defensa cada vez mayores y los ha empleado
para diseñar las armas que se utilizarían en una posible guerra futura. En el campo
militar trabajaban, hasta hace poco, de un tercio a la mitad de los científicos e
ingenieros estadounidenses, utilizando toda su imaginación y su creatividad para
Inventar medios cada vez más complejos destinados a la destrucción total:
sistemas de comunicación por láser, ondas dirigidas de partículas y otras tecnologías
complejas destinadas a una posible y aterradora “guerra de las galaxias”, cuya imagen
tratan de tener viva.
Así, en la actualidad nos resulta incomprensible la opinión del gran economista político
John Stuart Mill que, en 1848, en su grandiosa obra Principios de la Economía Política,
sostiene que la economía solo debía preocuparse de la producción y que la distribución
no era un proceso económico, sino Un proceso político. Evidentemente, la distribución
es un proceso político, pero también es un proceso económico.
Este enfoque utilitarista era, en cierta forma, una herencia del individualismo atomista
que había profesado su compatriota John Locke, y que llevaría a la tesis sostenida
actualmente por muchos economistas estadounidenses: “Lo que es bueno para la
General Motors es bueno para Estados Unidos.” Se identifica el todo con la suma de sus
partes y se olvida la posibilidad de que sea superior o inferior a esta suma, según la
interferencia recíproca de las partes. Esta falacia reduccionista puede generar
consecuencias y conflictos sociales imprevisibles. Un ejemplo de ello lo tenemos en una
cándida declaración reciente del presidente del Citibank, el segundo banco del mundo,
en la que sostiene que las empresas están exentas de valores, que no existen valores
institucionales, que sólo hay valores personales, y que, por tanto, a las empresas se les
debería permitir funcionar fuera del orden moral y ético (Capra, 1985, p. 253).
Para definir la riqueza dentro de una estructura ecológica es necesario ir más allá de las
actuales connotaciones de la palabra sobre acumulación de bienes materiales y darle un
sentido más amplio de enriquecimiento humano, y no ocuparse de los valores en
términos exclusivamente monetarios. De hecho, los problemas económicos actuales han
puesto en evidencia que el dinero solo ya no es un criterio de medición adecuado. Desde
1990, la ONU se está orientando en este sentido, pues utiliza un Índice de Desarrollo
humano que incluye el poder adquisitivo por habitante, la esperanza de vida y el nivel
de alfabetización.
Como muy bien ha puesto de relieve Hazel Henderson (1978), la disipación de energía
ha alcanzado en las sociedades industrializadas avanzadas un nivel tal que los costos de
las actividades improductivas —mantenimiento de tecnologías complejas,
administración de las grandes burocracias, control de la criminalidad, protección de los
consumidores y del ambiente, etc.—, se han convertido en parte cada vez mayor del
PNB y, por consiguiente, llevan la inflación a un nivel cada vez más alto.
El paso del paradigma mecanicista al paradigma sistémico y ecológico no es algo que
haya de suceder en un futuro indefinido, sino algo que está ocurriendo hoy mismo en
nuestras ciencias, en nuestras actitudes y valores individuales y colectivos y en nuestros
modelos de organización social.
En 1976, un estudio realizado por el Stanford Research Jnstitute estimó que entre cuatro
y cinco millones de estadounidenses habían reducido sus ingresos de manera drástica y
habían abandonado su situación anterior en la economía de consumo, adoptando un
estilo de vida que incluía el principio de simplicidad voluntaria. Este instituto también
cálculo que otros ocho o 10 millones de estadounidenses vivían según algunos
principios de simplicidad voluntaria: consumo frugal, conciencia ecológica e interés por
el crecimiento personal e interior. Este cambio de valores se ha discutido extensamente
en los medios de comunicación masiva. En otros países, como Canadá, el tema de la
simplicidad voluntaria se ha discutido, incluso, de manera oficial.
La nueva visión de la realidad, de que hemos estado hablando en este capitulo, se basa
en la comprensión de las relaciones y dependencias recíprocas y esenciales de todos los
fenómenos: físicos, biológicos, psicológicos, sociales y culturales. Esta visión va más
allá de los actuales límites disciplinarios y conceptuales. Hoy por hoy, no existe ninguna
estructura conceptual o teoría de la racionalidad que esté firmemente establecida y
que se adapte a las fórmulas del nuevo paradigma, Pero las líneas generales de esta
estructura ya las están trazando muchos individuos, comunidades y grupos que están
ideando nuevos modos de pensar y que se están organizando según nuevos principios.
Sin embargo, la pregunta natural es la siguiente: ¿puede existir una ciencia que no se
base exclusiva ni preponderantemente en la medición tina comprensión de la realidad
que incluya tanto la calidad y las relaciones de las cosas percibidas como la experiencia
de ellas y que, pese a ello, pueda ser llamada científica? Esta comprensión es posible.
La ciencia no tiene que estar limitada forzosamente a mediciones y análisis
cuantitativos. Debemos considerar científica cualquier manera de abordar el
conocimiento siempre que satisfaga dos condiciones: que el conocimiento se base en
observaciones sistemáticas y que se exprese organizadamente desde el punto de vista de
modelos coherentes, aunque sean limitados y aproximativos. Estos requisitos —la base
empírica y el proceso de la creación de modelos— representan los dos elementos
esenciales del método científico. Otros aspectos, como la cuantificación, la
contrastabilidad empírica o el uso de las matemáticas, suelen ser deseables, pero no son
cruciales ni indispensables.
El mismo Einstein solía decir que “la ciencia consistía en crear teorías”, es decir, en
crear modelos representativos y coherentes de las realidades observadas. En efecto, el
proceso de la creación de modelos consiste en la formación de una red lógica y
coherente de conceptos que se usan para enlazar los datos observados. En la ciencia
clásica, estos datos equivalían a cantidades obtenidas a través de la medición, y los
modelos conceptuales se expresaban, cada vez que se presentaba la Posibilidad, con
lenguaje matemático. El objeto de la cuantificación era doble: aumentar la precisión
“cuantificable” y garantizar la objetividad “objetivable”, eliminando toda referencia al
observador. Pero ahora ha aparecido una precisión sistémica, que es mucho más
importante, y una objetividad que incluye al sujeto, que representa más íntegramente la
realidad total; por tanto, se está abriendo un camino mucho más promisorio para el
avance científico y para un progreso más general.
1 Postmodernidad y nuevo paradigma
Cuando le diqo algo a alguien, reúno implícitamente
los siguientes “requisitos de validez”: que lo que digo es
inteligible; que su contenido proposicional es verdadero;
que estoy justificado cuando lo digo y que hablo
sinceramente, sin intención de engañar.
Jurgen Habermas
Quisiéramos tratar dicha temática ahora desde una perspectiva algo distinta que está
muy de moda, la perspectiva de la dialéctica modernidad/postmodernidad, ya que los
autores que se mueven en este ruedo utilizan términos y, a veces, también conceptos, en
cierto modo diferentes. Esperamos que el diálogo con sus temas y posiciones le dé a
esta obra una cobertura más amplia y universal.
Más específicamente, la postmodernidad es, sobre todo, una evaluación crítica del
“proyecto de la modernidad” (sus creencias, esperanzas, razones y gustos) —
desarrollado e instaurado en la cultura occidental a partir del Renacimiento—, una
acusación de fracaso y, por tanto, rechazo del mismo, y un intento de sugerencias que lo
remplacen La postmodernidad nos sumerge, así, en los problemas culturales y sociales
de los hombres de hoy.
Tratando de simplificar mucho las cosas y, por tanto, siendo muy injustos con la
realidad, podríamos hablar de tres paradigmas, si buscamos un pivote central de apoyo o
un núcleo aglutinador o fundamento asignador de significados.
Primer paradigma
Con la creación de las universidades durante la Edad Media, por obra de la Iglesia, esta
estructura lógica, que ya habían asimilado los autores griegos, adquirirá plena
consistencia y robustez, hasta el punto de pensar que aun las mismas ciencias naturales,
como la astronomía y la física, no podían afirmar nada que contradijera a la teología: la
teología era la reina de las ciencias, a la cual debían supeditarse la rectitud y el grado
de verdad de las demás disciplinas. El proceso a Galileo fue una prueba clara que
señalaba cuál era el principio rector del saber y la lógica que había que seguir para
alcanzarlo.
Segundo paradigma
A los “ilustrados”, en estos “siglos de las luces”, les animó una gran fe en el futuro,
creyeron en la felicidad y en poder conseguirla, aunque su optimismo progresista casi
siempre procedía de un criterio utilitario.
De esta manera, se da un cambio de visión del mundo y, con él, un cambio del centro
institucional en la sociedad, que marca la ruptura neta entre la sociedad tradicional, o
premoderna, y la sociedad moderna. A la visión premoderna del mundo como unidad
cósmica integrada le sucede una visión descentrada, diferenciada en compartimientos,
en subsistemas con su lógica propia y una pluralidad de valores: los valores de la
ciencia, de la ética, del arte, etc. (Mardones, 1988, p. 20)
Tercer paradigma
Nuestra visión de lo que podríamos considerar como los “postulados” iniciales del
nuevo paradigma, los expusimos ampliamente en el capítulo 8. Señalaremos aquí muy
brevemente la idea que se forman al respecto los autores postmodernos y la que
presentan los teóricos críticos de la Escuela de Frankfurt posteriormente, analizaremos
y profundizaremos sus posiciones.
Los autores postmodernos consideran una pretensión y una ilusión el creer poseer una
filosofía o un sistema unificador del conocimiento de la realidad. Lo que tenemos,
según ellos, es, simplemente, una visión fragmentada de las cosas, una visión pluralista
de la realidad, ya que todo sistema o modelo de pensamiento está determinado por
intereses, factores inconscientes y situaciones vitales personales.
Desde dentro del propio paradigma modernista han surgido críticas agudas contra sus
aspectos más débiles. Estas autocríticas constituyen su más valiosa riqueza y poder,
pues lo conducen a una autosupcracjó0 a ir, en cierto modo, más allá de sí mismo. Este
hecho ha originado una dialéctica entre la modernidad y la postmodernidad y está
cargado de consecuencias filosóficas, políticas, sociales y religiosas. Es más, tiene un
indudable interés universal, pues incide directamente sobre la conceptualización del
nuevo paradigma de la racionalidad.
Seguiremos en este análisis el esquema general que desarrolla Mardones (1988) para
presentar las objeciones básicas a la razón ilustrada.
Crítica social
Según Habermas (1982), Marx representa el primer intento de convertir la teoría del
conocimiento en teoría social. La realidad histórico-social, con sus condicionamientos,
limitaciones y prácticas sociales, cambia la pureza perceptiva del sujeto, la nitidez del
objeto y, sobre todo, la dinámica y la naturaleza de la interacción entre ambos. De esta
manera, la mente no reflejará sin más la realidad, ya que los órganos de percepción
estarán orientados, y hasta deformados, por las prácticas sociales predominantes. De
acuerdo con Marx, hay una verdadera con figuración del conocimiento que le “es
trasmitida a cada generación por la anterior”.
Esta crítica formaba parte de la verdadera ilustración, que deseaba que el hombre
ejerciera a plenitud el poder de su razón, que se sobrepusiera a estos condicionamientos
levantando la cabeza por encima de sus hombros. Es el ejercicio de esta capacidad el
que le hizo pensara muchos representantes de la Ilustración que, con él, “el hombre
había llegado a su mayoría de edad”. Se quiere que la razón sea verdaderamente
autónoma y no responda a ningún tipo de sucedáneos de la misma. Es una crítica de la
razón y del sujeto para que lleguen a ser plenamente tales, a pesar de las dificultades
que le plantea continuamente el medio social y el sistema en que viven.
Crítica psicológica
Las ideas de Freud son rápidamente tomadas y difundidas por la novela moderna, cine
hace llegar al gran público una literatura ilustrada, puesta al alcance de la mayoría de las
mentes medianamente cultas. Sin embargo, el objetivo general de la obra de Freud es
sumamente positivo, pues intenta lograr que el hombre sea más auténtico y consciente
de las aguas en que se mueve y de las corrientes que lo arrastran o pueden arrastrar. En
este sentido, la motivación central del psicoanálisis se inscribe dentro del ideal general
de la Ilustración.
Crítica epistémica
Lo más grave del señalamiento que hace Horkheimer (1971) es la consideración de que
la razón lleva en sí misma este impulso objetivador, sistematizante y dominador, como
si fuera una enfermedad, una insania que tiene sus raíces en su propio origen, en el
deseo del hombre de dominar la naturaleza.
Aunque estos autores concluyen su análisis con un gran escepticismo, su crítica está
guiada por la mejor de las intenciones, pues tratan de ilustrar a la misma Ilustración para
liberar a la razón y al sujeto de su violencia dominadora. Horkheimer lo hace a través de
su propuesta de la razón autónoma, en la que trata de conjugar la razón objetiva (sin
dogmatismos ni esencialismos) y la razón instrumental. Adorno (1975) intenta volver el
pensamiento contra sí mismo con el fin de transcenderlo, ya sea a través de un
pensamiento transdiscursivo (configuratiyo), ya entrelazando la mímesis y la
racionalidad tal como sucede en la filosofía y la obra de arte (Mardones, 1988, pp. 39-
40).
Esta es la posición que asume un notable grupo de autores, sobre todo de origen
estadounidense, como D. Bell, P. Berger, M. Novak, R. Nisbet y otros, que tratan de
readquirir la confianza en la razón, volviendo a posiciones anteriores a la crítica y al
racionalismo. Es una posición conservadora, que pretende desconocer e, incluso, anular
la obra de la Ilustración, la obra que realizó el pensamiento autocrítico con la toma de
conciencia de los factores que entran en su proceso.
La preocupación principal que les angustia a estos autores, es la pérdida del “donador de
sentido universal” (la religión), que era el sostén de las dimensiones normativas y
morales de esa sociedad. Esta pérdida trajo la creciente separación y autonomía de las
distintas “dimensiones de la razón”, teórica, práctica y estética (Kant), o de las “esferas
de valor”, ciencia, ética, arte y derecho (Weber), que necesitan ser reintegradas de
nuevo; pero esto sólo lo podrá realizar un nuevo modelo o paradigma de la racionalidad.
Sin embargo, algo está demasiado claro, especialmente en la posición de Bell que, en
cierto modo, es el líder del grupo: la “racionalidad” a que él se refiere es la racionalidad
del representar, calcular y disponer que subyace en el capitalismo moderno (Heidegger),
la racionalidad funcional, que produce el éxito y la rentabilidad en el ámbito del Orden
tecnoeconómico, y a la que se deben supeditar las demás dimensiones de la razón; pero
es también, por esto, el tipo de racionalidad causante del individualismo desenfrenado,
apoyado en la economía y que se traslada a la cultura, minando todo orden social y
haciendo perder orientación a la razón; de esta manera, ese “desarrollo” de la sociedad
liberal burguesa desemboca, sin alternativa posible, en la irracionalidad.
Nietzsehe había dicho que no hay verdad, ni conocimiento de las cosas “en sí mismas”;
que sólo podemos aspirar a tener “metaforizaciones” de la realidad, las cuales tienen la
virtud de expresar más el estado del individuo y las condiciones históricas y sociales en
que vive, que la objetividad de lo expuesto. Nietzsche hablaba de “la muerte de Dios”
para indicar que ya no tenemos ningún fundamento último (Grund) —ningún concepto
matriz epistemológico, como verdad, razón, sentido, causa, justicia, libertad, etc.—
sobre el cual apoyarnos o considerar como algo seguro e inconmovible. Según
Nietzsche,
...la imagen de una realidad ordenada racionalmente sobre la base de un principio (tal es
la imagen que la metafísica se ha hecho siempre del mundo) es sólo un mito
asegurador, propio de una humanidad todavía primitiva y bárbara: la metafísica es
todavía un modo violento de reaccionar ante una situación de peligro y de violencia;
trata, en efecto, de adueñarse de la realidad con un golpe de sorpresa, echando mano (o
haciéndose la ilusión de echar mano) del principio primero del que depende todo (y
asegurándose por tanto ilusoriamente el dominio de los acontecimientos) (en:
Vattimo, 1990, p. 16).
Tenemos que aceptar el heteromorfismo de los juegos del lenguaje, con sus diferencias,
inestabilidades, antagonismos, discontinuidades y paradojas. No se pueden establecer
unidades por encima de la pluralidad de los juegos del lenguaje que se derivan de la
pluralidad de formas de vida. No puede existir un metadiscurso omnicomprensivo, una
meta- teoría o fundamentación última, ya que estamos rodeados por las determinaciones
estructurales, libidinales y lingüísticas. No podemos ni siquiera fiarnos de los “maestros
de la sospecha”: tenemos que sospechar de los sospechosos (Marx, Freud) (ibídem, pp.
116-118).
Pero, con la pérdida del horizonte, hemos perdido también el sentido de las realidades
que vivimos: sin contexto, sin mareo de referencia, no hay significado.
Las ideas de los “postmodernos” contrastan básicamente con las de los teóricos críticos
alemanes: J. Habermas, K-O Apel, A. Wellmcr, C, Offe, Schnadelbach y otros, quienes
proponen “un acuerdo de los hombres en tanto que inteligencias cognoscentes y
voluntades libres obtenido por medio del diálogo” (Lyotard, 1984, p. 109).
Los teóricos críticos sostienen la posibilidad de formular unos criterios mínimos para
sustentar los discursos teórico-prácticos en los campos de la ciencia, la ética, la estética
y la cultura en general. Su ideal es recuperar la fuerza creadora del consenso de la razón,
el poder de integración social perdido por la tradición religiosa. Este ideal sitúa a los
teóricos críticos en la orientación propia de la Ilustración.
Habermas parte del siguiente punto: “clarificar los presupuestos racionales del proceso
de alcanzar la comprensión, que debe ser considerado como universal, ya que es
inevitable” (1984, p. 242). Es decir, que para poder vivir humanamente tenemos que
convivir y relacionarnos comunicativamente, entendernos con los demás. “El consenso
que se consigue en cada caso se mide por el reconocimiento intersubjetivo de las
pretensiones de validez” (1985, p. 77). Habermas establece, así, un principio de
solución a través de su ética comunicativa, pues considera que en el mero hecho de la
comunicación hay una razón comunicativa común a todas las racionalidades por tanto,
una ética comunicativa. Este intento pretende responder con seriedad al vacío ético que
dejan los autores postmodernos.
CONCLUSIÓN
En relación con la postura de los autores postmodernos, percibimos, con muchos otros
críticos de la actitud postmoderna, que hay una inconsecuencia e, incluso, cierta
autocontradicción en el mismo pensamiento postmoderno, pues sus propias
afirmaciones, a veces, resultan paradójicas. Su propia actitud crítica con la razón
ilustrada y el “proyecto moderno” sólo se sostienen en la posibilidad de una crítica de lo
existente desde algún supuesto en que puedan apoyarse tanto la crítica como la misma
utopía postmoderna. Es decir, que no son posibles una “ideología o un pensamiento
postmodernos”, cualesquiera que ellos sean, sin una metafísica o teoría del ser que los
sustente y sin una epistemología que dé sentido a sus afirmaciones. De lo contrario, no
hay posibilidad de crítica alguna, pues quedamos presos y atrapados en lo existente —
como le pasa a alguna araña en su propia red— y no podremos distinguir entre la
gimnasia y la magnesia. De esta manera, la ideología postmoderna radical, en lugar de
ser un instrumento para construir su felicidad, se convertiría en su propia trampa mortal.
Quizá, lo más valioso que haya aportado la postmodernidad sean dos contribuciones:
por un lado, su sensibilidad cuestionadora y crítica ante las grandes y más significativas
propuestas no realizadas de la modernidad, propuestas que han generado el deseo de ir
más allá de la situación actual y, por el otro, el concepto de “verdad pluralista”, en el
sentido de que la realidad es inconmensurable e inagotablemente rica y su ser último
desborda al pensamiento humano; de tal manera, que no habría teoría o explicación que
agotara la realidad, es decir, la riqueza y potencialidad significativa que puede captar en
ella la mente humana, ante la cual la actitud y pretensión objetivadora y dominadora de
la razón técnica luce como una idolatría. Este aspecto lo ilustramos ya ampliamente en
el capítulo 8 al hablar del principio de complementariedad.
12 La matriz epistémica y su significación
Respondió Don Quijote: el que está encantado,
como yo, no tiene libertad para hacer de su persona lo
que quisiere, porque el que le encantó le puede hacer
que no se mueva de un lugar en tres siglos.
Miguel de Cervantes
Enmanuel Levinas
Lanzarse a investigar hoy, en ciencias sociales sobre todo, después que en la década de
los sesenta se han replanteado en forma crítica todas las bases epistemológicas de los
métodos y de la ciencia misma, hace ineludible la reflexión descarnada en torno a los
fundamentos que han de soportar todo el trabajo que el investigador se dispone a
efectuar (Moreno, 1993a, p. 21).
La matriz epistémica es, por tanto, el trasfondo existencial y vivencial, el mundo de vida
y, a su vez, la fuente que origina y rige el modo general de conocer, propio de un
determinado periodo histórico-cultural y ubicado también dentro de una geografía
específica y, en su esencia, consiste en el modo propio y peculiar que tiene un grupo
liumano, de asignar significados a las cosas y a los eventos, es decir, en su capacidad y
forma de simbolizar la realidad. En el fondo, ésta es la habilidad específica del horno
sapiens que, en la dialéctica y el proceso histórico-social de cada grupo étnico,
civilización o cultura, ha ido generando o estructurando su matriz epistémica.
La matriz epistémica, por consiguiente, es un sistema de condiciones del pensar,
prelógico o preconceptual, generalmente inconsciente, que constituye “la vida misma” y
“el modo de ser”, y que da origen a una We!tanschauung o cosmovisión, a una
mentalidad e ideología específicas, a un Zeitgeist o espíritu del tiempo, a un paradigma
científico, a cierto grupo de teorías y, en último término, también a un método y a unas
técnicas o estrategias adecuadas para investigar la naturaleza de una realidad natural o
social. En conclusión, la verdad del discurso no está en el método sino en la episteme
que lo define.
Todo conocer, en su génesis, producción y producto, está informado y regido por esa
huella que es la episteme. Puesto que la episteme es histórica, todo conocer es histórico.
Puesto que la episteme es-de-ese-mundo-de-vida. El pensamiento entonces y por tanto,
la filosofía, en cuanto conocer reflexivo y conocer intelectual circula por los caminos de
la huella-episteme (ibídem, p. 8).
En un mundo de vida, sin embargo, no hay un solo discurso filosófic0 sino una
multiplicidad de ellos. No obstante, si se los reduce, mediante u análisis hermenéutico
que rasgue los velos del lenguaje y de la representación, se encontrará su común
fundamento en la huella-epistenie propia de ese mundo-de-vida (ibídem).
De todo lo dicho, es fácil colegir que una de las características básicas de toda episteme
y, por consiguiente, del concepto de ciencia y de todo conocimiento, es su
provisionalidad, es decir, su valor relativo y únicamente temporal.
EPISTEMOLOGÍA CRÍTICA
McLuhan dijo en cierta oportunidad: “Yo no sé quién descubrió por primera vez el
agua, pero estoy seguro de que no fueron los peces.”
En este contexto de reflexión que venimos haciendo, surge una pregunta: si la matriz
epistémica es algo prelógico, preconceptual y hasta inconsciente y, además, rige todo
nuestro pensamiento, ¿cómo podemos analizarla sin salirnos de ella?
Un análisis detenido y profundo de este problema nos llevaría más lejos de lo que aquí
nos interesa. En sus aspectos fundamentales, ya lo hemos realizado en el capitulo 8, al
hablar de la autorreferencia. Señalemos, por tanto, solamente cuál sería la conclusión de
ese posible análisis. Dicha conclusión diría que la mente puede analizarse a sí misma
debido a su capacidad propia de reflexión; que puede replegarse sobre sí misma y
autoanalizarse en su realidad más profunda, aunque eso, a veces, le dé vértigo o
sensación de vacío; que puede hacer este autoexamen debido a su capacidad mental de
autorreferencia.
Michael Polanyi dice que “la ciencia es un sistema de creencias con las cuales estamos
comprometidos... y, por tanto, no puede ser representada en términos libres de
compromiso” (1958, p. 171). Si esto es así, como resulta evidente por todo lo dicho
anteriormente, es también lógico que las primeras creencias son epistémicas. Esta
situación crea la necesidad de una epistemología crítica.
Es, precisamente, el mismo Polanyi, como científico y epistemólogo, el que nos alerta
con la siguiente constatación:
En los días en que podía silenciarse una idea diciendo que era contraria a la religión, la
teología se convirtió en la mayor fuente de falacias. Hoy cuando todo pensamiento
humano puede desacreditarse calificándolo de no-científico, el poder ejercido
previamente por la teología ha pasado a la ciencia; así, la ciencia ha llegado a ser la
mayor fuente de errores (1957, pp. 480-484).
¡La ciencia ha llegado a ser la mayor fuente de errores! Esta afirmación, venida de tan
eminente académico, que enseñó tanto la física nuclear como las formas de comprender
al hombre, nos plantea un gravísimo problema y nos lanza un reto inevitable: debemos
ser plenamente conscientes de las aguas en que nos movemos y de las corrientes que
nos arrastran.
Sin embargo, el hombre europeo sigue siendo el único paradigma humano valedero y,
como dice Vattimo (1990), “habida cuenta que en la modernidad ha sido siempre el del
hombre moderno europeo como diciendo: nosotros los europeos somos la mejor forma
de humanidad, todo el decurso de la historia se ordena según que realice más o menos
completamente este ideal” (p.12). Por esto, en un análisis epistémico, la
postmodernidad se revela como la última etapa, hasta ahora, de la modernidad sin más.
Tanto el pensamiento heideggeriano como el posheideggeriano y el postmoderno se
podrían inscribir en este mundo-de-vida de la última modernidad. Y los mismos
postmodernos no rechazan plenamente el hecho de que haya una continuidad entre
modernidad y postmodernidad. Así, Lyotard (1988) aclara que “la postmodernidad no
es una época nueva, es la reescritura de ciertas características que la modernidad había
querido o pretendido alcanzar” (p. 43). Este autor hace ver la confusión conceptual que
existe sobre el mismo término postmodernidad:
Esta confusión terminológica es acentuada aún más por Baudrillard, en una entrevista al
diario madrileño ABC:
Todo esto pudiera llevar a una conclusión apresurada: que el análisis de este problema
es inaccesible. Sin embargo, esta inaccesibilidad, de todos modos, no es absoluta,
aunque no está libre de todo riesgo. Existen, por lo menos, dos vías por las cuales
acceder a la episteme en la que un pensador está integrado. Una es la vía extra-empírica
de la crítica hermenéutica radical que interpreta descarnada e inmisericordemente todo
el conocimiento hasta sus últimas raíces, rasgando los velos de todas las
representaciones Y de todos los discursos. Y la otra es el encuentro con una episteme
distinta.
Igualmente, esta situación nos exigirá que examinemos hasta qué punto lo nuevo que
estamos conociendo queda ya determinado por la opción previa del paradigma elegido o
por la matriz epistémica vivida o aceptada, quizás, en forma acrítica.
Muy bien pudiera resultar, de estos análisis, una gran incoherencia lógica e intelectual,
una gran inconsistencia de nuestros conocimientos considerados como los más sólidos y
que muchos aspectos de nuestra ciencia social pudieran tener una vigencia cuyos días
estén contados.
Ya señalamos —en el capítulo 3— que los estudios de cuarto nivel deben ubicar a sus
estudiantes en las fronteras del conocimiento y habilitarlos mentalmente para
ampliarlas. Pero si el conocimiento se entiende como articulación de toda una estructura
epistémica, nadie ni nada podrá ser eximido —llámese alumno, profesor, programa o
investigación— de afrontar los arduos problemas que presenta la epistemología crítica.
Lo contrario seria convertir a nuestros alumnos en simples autómatas que hablan de
memoria y repiten ideas y teorías o aplican métodos y técnicas entontecedores y hasta
cretinizantes con los cuales ciertamente reducirán sus capacidades y por las cuales
podrían ser arrastrados hacia el vació cuando una vuelta de la historia, como la que
hemos presenciando recientemente en los países de Europa Oriental, mueva los
fundamentos epistemológicos de todo el edificio.
Por la interacción y dialéctica de los procesos mentales que se dan en el ser humano, la
reflexión y crítica hermenéutica sobre el modo de conocer pudiera terminar postulando
una matriz epistémica distinta, con un sistema de asignación de significados y procesos
operativos también diferente. Muchas manifestaciones de la postmodernidad y sobre
todo, del post positivismo, así lo hacen entender.
¿Qué es la razón? Cuando un hombre razona no hace otra cosa sino con. eebir una suma
total, por adición de partes; o concebir un residuo por sustracción de una suma respecto
a otra, lo cual (cuando se hace por medio de palabras) consiste en concebir; con base en
la conjunción de los nombres de todas las cosas, el nombre del conjunto; o de los
nombres del conjunto, de una parte, el hombre de la otra parte... Del mismo modo que
los aritméticos enseñan a sumar y a restar en números..., los lógicos enseñan lo mismo
en cuanto a las consecuencias de las palabras: suman dos nombres, uno con otro, para
componer una afirmación; dos afirmaciones para hacer un silogismo, y varios
silogismos para hacer una demostración, y de la suma o conclusión de un silogismo,
sustraen una proposición para encontrar la otra.
Creemos que para poder captar la naturaleza del nudo gordiano que nos ocupa, debemos
centrar nuestra atención en el hombre como sujeto, y no sólo como objeto de estudio; es
decir, en el hombre como persona, con conciencia y libertad, irreductible a cualquier
otra cosa. Sólo así podremos captar parte de ese misterio que siempre presenta nuevas
facetas por conocer y que permanece también siempre inagotable. “Cuando uno dice
Tú... —señala Martín Buber— el Tú no tiene confines” (1974, p. 9). Y “la mejor manera
de encontrarte con ‘ese Tú’ —dice Levinas—, es 110 poder en absoluto describir el
color de sus ojos” (1984, p. 80).
Las ciencias humanas se mueven ante este reto: el investigador debe enfrentar, sin poder
eludirlo, la unicidad, la singularidad y la irrepetibilidad de las personas, y lo hace,
además, desde una postura y perspectiva propias también singularísimas. Es evidente
que, para enfrentar este reto, no hay ni puede haber una vía regia, un método o una
metodología incuestionables.
Y es llamativo el hecho que las ciencias naturales se toparon también con la misma
dificultad: los físicos que hicieron la revolución de la física a principios del siglo xx
(Einstein, Heisenberg, Max Planck, Niels Bohr, Sehródinger, Pauli, Dirac, De Broglie:
todos Premios Nobel) debieron convertirse primero en filósofos y, sólo así, entendiendo
mejor al sujeto-investigador, a la persona humana y su modo de conceptualizar la
realidad, pudieron, después, comprender más a fondo su objeto físico. Es lógico que la
teoría de la relatividad de Einstein, el principio de indeterminación de Heisenberg y el
principio de exclusión de Pauli postulaban una nueva episteme de las ciencias.
El autor que más ha desarrollado esta gran intuición de Hegel , Feuerbach —que en el
fondo es la idea básica del cristianismo— es Buber. Su obra y su pensamiento están
fundamentados en ella.
Sin embargo, el gran esfuerzo de Marx, como el de los ideólogos marxistas en general,
con su énfasis en la materialidad y su dialéctica y las limitaciones exageradas que le
imponen a la libertad humana, pierde esa esencia del hombre que es, sobre todo,
inmaterial y espiritual, y deja abierto el camino para regresar al individualismo que la
niega: es decir, no logra sustentar su orientación ideológica con una matriz epistémica
realmente distinta de la individualista.
En conclusión, y simplificando mucho las cosas, pudiéramos decir que a lo largo de la
historia de Occidente se ha tratado de representar la calidad de dos formas netamente
diferentes:
2. La otra forma es la relacional, sistémica, estructural, gestáltica. Valora las cosas, los
eventos y las personas por lo que son en sí, pero enfatiza la red de relaciones en que
nacen y se desarrollan; es más, considera a este conjunto de relaciones como
constitutivos de su ser intimo especialmente al referirse a la persona humana, que será
siempre sujeto, y propicia con ello, la solidaridad y la dimensión inmaterial espiritual
del hombre y de las realidades e instituciones por él creadas. Esta forma de
representación, aunque ha existido a lo largo de la historia, solamente ha tomado auge a
fines del siglo xix y en la segunda mitad del siglo xx. Corno metodología de estudio,
utiliza estrategias aptas para captar los aspectos relacionales, sistémicos y estructurales
de las realidades, sirviéndose para ello, sobre todo, de los métodos cualitativos.
Es evidente, y conviene señalarlo, que en el trasfondo de cada una de estas dos formas
de conocer, existe también una matriz epistémica diferente que las rige.
CONCLUSIÓN GENERAL
Sin embargo, hemos visto que todo aquello que nos constituye, aun en lo más íntimo de
nuestro modo de percibir, de pensar y de valorar puede entrar en crisis y ser objetivado
y sometido a un análisis y crítica radical. Pero este proceso es difícil y también doloroso
y genera resistencias de todo tipo, pues, en su esencia, equivale a suprimir el soporte en
que nos apoyamos, sin tener otro que lo sustituya. Por consiguiente, es lento y exige ir
ideando y habilitando otro soporte que consideremos, por lo menos, igualmente sólido y
seguro. Y solamente cuando dicho soporte esté disponible y a nuestro alcance,
podremos hacer el cambio.
Esperamos que la lectura de esta obra pueda ayudar al lector a ver ese otro modo de
relacionar las realidades complejas que componen nuestro mundo, a percibir las
exigencias de cambios que nos piden y a encontrarle, así, un sentido más auténtico, más
pleno y, por tanto, también más verdadero. Como dice Hegel (1966), “debemos estar
convencidos de que lo verdadero tiene por naturaleza el abrirse paso al llegar su tiempo
y de que sólo aparece cuando éste llega, razón por la cual nunca se presenta
prematuramente ni se encuentra con un público aún no preparado para ello” (p. 47).