Nociones de Epistemología

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 84

Escuela Provincial “Dr.

Luis Federico Leloir”


Departamento de Ciencias Sociales
Nivel Polimodal – Modalidad Humanidades y Ciencias Sociales
Proyecto de Investigación e Intervención Socio-Comunitaria

J. Habermass

Nociones
de
Epistemología
(Edición Preliminar)

2004/07

Armando Zabert - Compilador


Proyecto de Investigación e Intervención Socio-Comunitaria
Nociones de Epistemología

Indice Tematico
1- INTRODUCCION A LA EPISTEMOLOGÍA. Armando Zabert.........................................................4
1. El concepto de epistemología........................................................................................................4
Esquema 1.........................................................................................................................................4
2. Dimensiones de la epistemología..................................................................................................5
3. Orientaciones epistemológicas......................................................................................................6

2 - LA RELACION ENTRE LA EPISTEMOLOGIA Y LA METODOLOGÍA. SU HISTORIA. Armando


Zabert.....................................................................................................................................................8
Algunas opiniones sobre las relaciones entre epistemología y metodología....................................8
Un repaso histórico............................................................................................................................9
a.- La propuesta aristotélica...........................................................................................................9
b.- El furor por el método.............................................................................................................10
c.- El afianzamiento de la reflexión metodológica.......................................................................12
d.- La epistemología en el siglo XX.............................................................................................12
Algunas conclusiones......................................................................................................................13

3 - THOMAS SAMUEL KUHN. Jose Sánchez-Cerezo de la Fuente................................................14

Textos pertenecientes a "La estructura de las revoluciones científicas":........................................17

4 - LA CIENCIA. ALGUNAS DEFINICIONES E IDEAS BASICAS. Armando Zabert......................19


LA NOCIÓN DE PARADIGMA......................................................................................................20
LA COMUNIDAD CIENTÍFICA......................................................................................................20
LA CIENCIA NORMAL...................................................................................................................21
LAS ANOMALÍAS..........................................................................................................................22
LAS TEORIAS CIENTÍFICAS Y SUS TIPOS..................................................................................22
Componentes básicos en el proceso de construcción de teorías...................................................23
Corrientes Epistemológicas Actuales..............................................................................................23
Los paradigmas según Kuhn.......................................................................................................23
Programa de Investigación Científica de Lakatos.......................................................................24
Campos y líneas de Investigación en la Epistemología de Bunge..................................................26

5 - EL OBSTACULO EPISTEMOLÓGICO Y SU LUGAR EN LA INVESTIGACIÓN. Armando


Zabert...................................................................................................................................................27
1. Concepto......................................................................................................................................27
2. El obstáculo epistemológico y el Conocimiento científico...........................................................28
3. Clasificación. ...............................................................................................................................28

6 - EL METODO HIPOTETICO-DEDUCTIVO DE LA CIENCIA. Armando Zabert...........................31


1. Los pasos del método hipotético-deductivo................................................................................31
Esquema 1: El método hipotético-deductivo...............................................................................32
2. Un ejemplo de la historia de la ciencia........................................................................................33
3. Fundamentos lógicos del método hipotético-deductivo...............................................................34
Esquema 2: Fundamentos lógicos del método hipotético-deductivo..........................................34
4. Implicancias en Ciencias Sociales del razonamiento hipotético-deductivo.................................35
Esquema 3: El problema de las cuatro tarjetas...........................................................................36

7 - LA ABDUCCION O RETRODUCCION. LA LOGICA DEL DESCUBRIMIENTO. Armando Zabert


..............................................................................................................................................................37
1. Un acercamiento al concepto de abducción................................................................................37
Ordenamiento de las premisas.- .................................................................................................37
La estructura formal del razonamiento........................................................................................38
El marco teórico.- ........................................................................................................................38
la hipótesis.- ................................................................................................................................38
Otros ejemplos de abducción......................................................................................................39
El aporte de Peirce.......................................................................................................................39

2
ARMANDO ZABERT (COMPILADOR)

2. Abducción, inducción y deducción...............................................................................................39


3. Abducción y reducción.................................................................................................................40
La reducción de Lukasiewicz.......................................................................................................40
La reducción débil tipo B de Bunge.............................................................................................41
4. Conclusión...................................................................................................................................41

8 - REFLEXIONES EPISTEMOLOGICAS SOBRE LA INVESTIGACION CUALITATIVA EN


CIENCIAS SOCIALES. Adrián Scribano...........................................................................................43
Introducción.....................................................................................................................................43
I. Estrategias Alternativas para la Investigación Cualitativa............................................................43
II. Nuevas Experiencias de Gabinete y Formas de Razonamiento en la Investigación Cualitativa 46
II.1. Pluralidad de Voces y la Utilización de Hipertextos..............................................................46
II.2. Hacia una Lógica del Razonamiento Hipotético en Investigación Cualitativa......................48
III. A Modo de Conclusión: Problemas Epistemológicos Emergentes de la Investigación Cualitativa
Asistida por Computadora...............................................................................................................50

9 - LA IMPORTANCIA DE LA TEORIA CRITICA EN LAS CIENCIAS SOCIALES. Silvana Laso...53


1 – Introducción: planteo del problema epistemológico: la importancia de la teoría crítica............53
2 – La escuela Frankfurt: su historia y sus teorías..........................................................................54
3 – Habermas dentro de la Escuela Frankfurt.................................................................................55
4 – La teoría crítica de Habermas...................................................................................................58
5 - Discusión del carácter crítico de las ciencias como problema epistemológico..........................64
6 – Conclusión.................................................................................................................................67
Bibliografía.......................................................................................................................................67

10 - INTRODUCCION AL PENSAMIENTO COMPLEJO. Edgar Morin............................................68


Introducción.....................................................................................................................................68
La necesidad del pensamiento complejo........................................................................................70
El paradigma de complejidad .........................................................................................................71
El paradigma de simplicidad............................................................................................................72
La complejidad y la acción...............................................................................................................74
La máquina no trivial....................................................................................................................75
Prepararse para lo inesperado....................................................................................................76

11 - LAS CIENCIAS SOCIALES Y EL PRINCIPIO DE INCERTIDUMBRE. Pablo Casau................77


1. Un poco de historia......................................................................................................................77
2. El principio de incertidumbre.......................................................................................................78
3. Dos interpretaciones del principio de incertidumbre....................................................................80
4. Críticas a la interpretación probabilista........................................................................................81
Determinismo e indeterminismo en Ciencias Sociales................................................................82
La influencia del observador en la Investigación Social..............................................................82

3
Proyecto de Investigación e Intervención Socio-Comunitaria
Nociones de Epistemología

1- INTRODUCCION A LA EPISTEMOLOGÍA. Armando Zabert


La epistemología es la disciplina que se ocupa del estudio del conocimiento
científico. No se preocupa solamente de decir qué es la ciencia, sino también de
explicarla y hasta de imponerle o prescribirle criterios de cientificidad. La
epistemología actual incluye muy variadas orientaciones.

1. El concepto de epistemología

El término “epistemología” tuvo y tiene diferentes significados. Nos limitaremos en este


articulo a explicar uno de ellos, hoy el más difundido y, por ello, muy importante.

Desde este punto de vista, podemos definir escuetamente a la epistemología como

 DEFINICIÓN 1: La disciplina que estudia la Ciencia, entendida ésta en su


doble aspecto de Actividad (la investigación, la docencia, la aplicación
práctica) y de Producto de esa Actividad (el conocimiento científico).

Los primeros estudios epistemológicos figuran en la obra de Aristóteles, y se extienden


hasta nuestros días con múltiples variantes e innovaciones.

Debemos entonces distinguir bien tres niveles: la realidad, la ciencia y la epistemología.


El esquema 1 nos muestra que la realidad es estudiada por el científico, y la actividad
del científico es estudiada a su vez por el epistemólogo.

Un científico entonces estudia realidades: por ejemplo el psicólogo social estudia el


comportamiento de las personas en el contexto de las diferentes Sociedades, el físico
estudia un trozo de materia o un rayo de luz, etc. Un epistemólogo, en cambio, estudia
qué hacen los científicos para estudiar la realidad y qué diferencian a estos de los no
científicos, cómo y porqué construye sus teorías sobre el mundo, qué métodos utilizan,
cómo intentan probar sus hipótesis, qué características especiales tiene el lenguaje
científico, etc.

Un Investigador Físico por ejemplo, puede proponerse comprender el comportamiento


de un determinado trozo de materia frente la acción del calor, dando explicaciones o
proponiendo interpretaciones.

Cuando termina la investigación, el Físico expone frente a sus pares en Congresos, es


decir otros Físicos supuestamente con mayor experiencia que él, para examinar si está
procediendo bien o mal con su estudio, es decir se trata de un control epistemológico,
puesto que el Físico “examinador” ya no estudia el comportamiento de la materia frente
al calor, sino cómo el Investigador Físico hace para comprenderla y cómo diseña su
estrategia de experimentación y de conclusiones.

El epistemólogo ya no estudia la realidad, sino cómo ciertas personas llamadas


“científicos” van constituyendo el conocimiento de esa realidad. El epistemólogo estudia
cosas como las herramientas del científico, sus métodos, su lógica, mientras que el
científico se limita simplemente a utilizarlas.

Esquema 1

REALIDAD CIENCIA EPISTEMOLOGIA


Paciente Psicólogo Epistemólogo
Materia Físico Epistemólogo

Así como hay una carrera y una profesión institucionalizadas de física, de biología, de
astronomía o de sicología donde uno puede ser Licenciado, Doctor, etc., no ocurre lo
mismo respecto de la epistemología.

4
ARMANDO ZABERT (COMPILADOR)

En general no hay una carrera donde uno se reciba de Licenciado en Epistemología, y


sólo está institucionalizada a nivel de asignatura, no de carrera.

Muchas de estas últimas incluyen, en efecto, materias como “Epistemología”,


“Metodología de la Ciencia”, etc. Si hoy decimos que alguien es epistemólogo, en
realidad es un epistemólogo aficionado, y no en un sentido peyorativo.

Muchos epistemólogos son o fueron filósofos o científicos: Gastón Bachelard comenzó


siendo químico, Thomas Kuhn o Mario Bunge comenzaron siendo físicos, y otros no
abandonaron su actividad central de científicos pero tuvieron inquietudes
epistemológicas.

De manera que la epistemología es ante todo un rol, una actitud. Un científico actúa
como epistemólogo en la medida que auto examina, critica, analiza su propia ciencia,
sus propios métodos preguntándose por ejemplo si está procediendo bien o mal,
“científicamente” hablando.

2. Dimensiones de la epistemología

Toda investigación epistemológica incluye, en mayor o menor medida, tres ingredientes


fundamentales: testimonial, explicativo y normativo.

El primero muestra qué es la ciencia, el segundo intenta una explicación de porqué la


ciencia es como es, y el tercero apunta a cómo “debe” ser la ciencia.

2-1.- Epistemología testimonial o Descriptiva

Una dimensión de los estudios epistemológicos es la descriptiva, en el sentido que


busca describir lo más objetivamente posible qué es la ciencia, qué métodos utiliza,
cómo los utiliza. Todo epistemólogo procura dar ejemplos de cómo investiga tal o cual
científico en tal o cual época, a partir de allí podrá dar una explicación de estos
procedimientos o hacer una crítica de los mismos, pero estas ya serán las dimensiones
explicativas y normativas.

Por ejemplo, la epistemología descriptiva busca testimoniar cómo y con qué criterios se
han clasificado las ciencias. Sabemos que hay muchas ciencias que estudian los
mismos objetos: la sicología, la física, la biología, etc. todas estudian al hombre, sólo
que lo hacen desde diferentes puntos de vista.

Para decirlo en un vocabulario más técnico: muchas ciencias comparten la misma


“región óntica”, es decir se ocupan del mismo ente, pero difieren en sus “regiones
ontológicas”, esto es, en la forma de encarar su estudio. La epistemología descriptiva
testimonia estas diferentes maneras de estudiar la realidad.

2-2) Epistemología explicativa.-

Desde este punto de vista, podríamos definir la epistemología como la disciplina que se
ocupa del '”tercer porqué”. Uno de los puntos de partida de la investigación científica es
la detección de una relación entre un objeto y un atributo.

El científico observa, por ejemplo, que Juan (objeto) tiene delirios de persecución
(atributo), o que una piedra (objeto) cae al ser soltada (atributo). A partir de aquí se
plantea un “primer porqué”, que busca indagar porqué José tiene esos delirios o porqué
la piedra se cae. La respuesta a este primer porqué se llama hipótesis o teoría.

Por supuesto que en este momento estas explicaciones son puras conjetura, y como tal
deben ser verificadas o fundamentadas de alguna forma. Entonces el científico dice que
su teoría es sostenible o está bien confirmada “porque'”los experimentos o las
observaciones así lo muestran. Este es un “segundo porqué”, que ya no busca explicar
el hecho sino fundamentar, justificar o legitimar la teoría sobre el hecho.

5
Proyecto de Investigación e Intervención Socio-Comunitaria
Nociones de Epistemología

Así termina la labor del científico, pero empieza el trabajo de la epistemología


explicativa, que buscará fundamentar porqué el científico hizo ese tipo de
fundamentación (porque hizo lo que hizo), es decir, busca responder un “tercer porqué”,
que ya tiene rango epistemológico.
Desde esta perspectiva, la epistemología estudia todo aquel conocimiento que intenta
ser validado o justificado sobre la base de ciertos procedimientos llamados científicos,
como así también estudiar estos mismo procedimientos un poco '”desde afuera” de la
ciencia.

 Analice el lector el siguiente ejemplo e indique en el párrafo, cada uno de


los PORQUE: un cuerpo cae si hay una fuerza de atracción gravitacional; La
teoría de la fuerza gravitacional es cierta y así lo han demostrado muchos
experimentos; los científicos han intentado verificar la teoría gravitacional de
diversas maneras según la época histórica como modo de verificación impuesto
por la cosmovisión de la época, los científicos entienden las teorías como
modelos aproximados de la realidad y entonces las comprobaciones deben ser
empíricas, etc.

Una variante de la dimensión explicativa es la epistemología hermenéutica, que centra


su análisis en la idea de “interpretación” en sentido amplio.

La epistemología hermenéutica no solo dice que el texto de un científico es susceptible


de interpretación de acuerdo a la cosmovisión de la época (por ejemplo los textos de
Laplace deben, interpretarse en función del mecanicismo imperante en su siglo XVII-
VIII), sino también, y por extensión, que la obra de un determinado investigador no es
más que la interpretación de que él hacen los demás pensadores, y que son tales
interpretaciones, en definitiva, las que quedarán registradas como conocimiento
científico en la historia de la ciencia.

Esta afirmación es más cierta cuanto más ambigua es la obra del investigador, lo que
hace aumentar la probabilidad de formulación de muchas interpretaciones diferentes.

En suma: también se puede explicar la ciencia diciendo que es el producto de una


interpretación que de ella hacen los científicos, interpretación que a su vez podrá
depende de tales o cuales condicionamientos culturales, sociales.

2-3.- Epistemología normativa

Esta dimensión prescriptiva o valorativa de la ciencia busca examinar en qué medida se


ajusta la ciencia tal como la conocemos a algún “modelo ideal” de ciencia, y cómo es
posible acercar la ciencia a dicho modelo.

La preocupación del epistemólogo normativista es la de saber cómo “debe ser” la


ciencia, cómo es posible modificar sus métodos para que pueda seguir progresando y
perfeccionándose.

Un ejemplo de epistemólogo con una fuerte tendencia normativista es Karl Popper,


quien no deja de insistir en que el científico “no debe” centrar su método en la inducción,
sino que el científico “debe” intentar refutar sus teorías en vez de salvarlas de la
falsación, etc. Otro ejemplo es la epistemología husserliana.

Por tanto siempre es posible encontrar una epistemología normativa que ejerza una
especie de “vigilancia epistemológica”, como dirían las orientaciones francesas tipo
Bachelard, que aliente permanentemente a los científicos acerca de la necesidad de no
sucumbir a los prejuicios, intentando superarlos en forma permanente.

Finalmente, todas las orientaciones epistemológicas tienen, en mayor o menor medida,


alguna proporción de estas tres dimensiones. Examinemos ahora esas diferentes
orientaciones.

6
ARMANDO ZABERT (COMPILADOR)

3. Orientaciones epistemológicas

Tanto las dimensiones como las orientaciones epistemológicas son distintas formas de
encarar el estudio de la ciencia; la diferencia está en que las dimensiones están
presentes en todo estudio epistemológico, mientras que las segundas son exclusivas de
cierto tipo de estudios, llamados precisamente orientaciones.
Podemos clasificar estas orientaciones según dos criterios.

3-1.- Primer criterio de orientación

Las epistemologías pueden ser internalistas o externalistas, según que estudien la


ciencia desde su estructura interna, desde su lógica intrínseca, desde sus métodos y
técnicas específicas, o según que estudien la ciencia desde afuera, es decir, desde el
conjunto de factores que, ya como causas o como consecuencias, estén vinculados al
quehacer científico, como pueden ser los factores psicológicos, sociales, culturales, etc.

La epistemología internalista estudia la ciencia en sí, y la epistemología externalista


intenta estudiar la ciencia desde su contexto.

Se trata de distintos puntos de interés, y cada una de estas orientaciones no presupone


necesariamente criticar o eliminar al otro, pero sí no ocuparse de él, simplemente.

3-2.- Segundo criterio de orientación

Las epistemologías puede dividir en historicistas y no historicistas, según encaren un


estudio diacrónico o sincrónico de la ciencia, respectivamente.

La epistemología no historicista estudia la ciencia tal como se nos presenta


actualmente, sin importarle demasiado sus raíces históricas. El positivismo lógico
surgido hacia la década de 1930 es un ejemplo de este tipo de orientación en la cual,
por lo demás, domina la dimensión normativista.

Los enfoques historicistas intentan explicar la ciencia a partir de su historia. Entre


quienes se ocuparon sistemáticamente de esta cuestión están Bachelard, Kuhn, Lakatos
y Piaget.

Bachelard concibe la ciencia como una progresiva superación de obstáculos


epistemológicos, de manera que tal o cual teoría de determinada época se explica
como superación de obstáculos anteriores, y al mismo tiempo como prejuicio que
deberá ser superado por la siguiente etapa histórica.
Kuhn, por su parte, explica la ciencia a partir de ciertos ciclos históricos donde se
alternan momentos de crisis y momentos de ciencia normal, y donde periódicamente
van apareciendo nuevos paradigmas que reemplazan total o parcialmente a los
anteriores.
Lakatos encara una tarea similar pero centrándose en la idea de “programa de
investigación”, hasta cierto punto similar a la de “paradigma” de Kuhn.
Piaget, se decidió a estudiar la ciencia desde una “epistemología genética”, pero
no a partir de su origen histórico sino fundamentalmente desde su génesis
psicológica, vale decir, cómo el científico (y el no científico) van construyendo su
conocimiento de la realidad desde la infancia en adelante. Se trata, según palabras
del mismo Piaget, de una epistemología científica, es decir construida sobre la base
de métodos y técnicas propias de la ciencia como la observación, el experimento,
etc., y en este caso de la sicología genética.

7
Proyecto de Investigación e Intervención Socio-Comunitaria
Nociones de Epistemología

2 - LA RELACION ENTRE LA EPISTEMOLOGIA Y LA METODOLOGÍA. SU


HISTORIA. Armando Zabert

Epistemología y metodología son dos áreas del conocimiento que suelen


anunciarse y enunciarse conjuntamente, pero que también, sin embargo, se las
presenta separadas como si fueran dominios diferentes. La presente nota aporta
elementos de juicio, algunos de ellos históricos, para reflexionar sobre esta
cuestión de las relaciones entre la epistemología y la metodología, en la que no
existe un consenso universal.

Algunas opiniones sobre las relaciones entre epistemología y metodología

Es muy común encontrar en los diversos planes de estudio universitarios, ambas


disciplinas, y con los libros de texto sucede algo similar, que pueden ser clasificados en
tres tipos de textos:

a) aquellos textos que hablan exclusivamente de cuestiones “metodológicas”, y que,


por lo demás, suelen estar centrados en la metodología de determinadas
disciplinas (sicología, educación, economía, etc.)
b) aquellos textos que se centran en el tema “epistemología” (2)
c) Aquellos otros textos que, tal vez motivados por un afán totalizador, intentan
incluir -cuando no sintetizar- ambas disciplinas. Dentro de esta última posibilidad
podemos mencionar ciertos textos de Samaja, Klimovsky y Bunge, y sólo por citar
autores argentinos.

Examinemos brevemente solo a modo de información, estos puntos de vista.

1) Bunge (Mario) comienza presentando su voluminoso tratado "La


investigación científica" (1), nada menos que con la expresión "este tratado
de metodología y filosofía de la ciencia", donde “filosofía de la ciencia” es
otra de las designaciones habituales que, según diversos autores, recibe la
epistemología. Más allá de esta referencia, Bunge no analiza en este texto
las relaciones entre la metodología y la filosofía de la ciencia
(epistemología). Para ello, debemos recurrir a su libro "Epistemología" (2),
donde muestra a la Metodología como una rama de la Epistemología (2:
pag. 24).
2) Klimovsky (Gregorio) asigna a su libro "Las desventuras del
conocimiento científico" el subtítulo general "Una introducción a la
epistemología" (6). Sin embargo, internamente está dividido en dos
grandes partes, centradas respectivamente en la metodología y en la
epistemología: "El método científico" y "Problemas epistemológicos". El
Autor nos indica que la metodología y la epistemología abordan distintos
ámbitos de problemas y así, mientras el metodólogo busca estrategias
para incrementar el conocimiento, por ejemplo recurriendo a la estadística,
el epistemólogo podría plantearse el interrogante acerca del pretendido
valor atribuido a los datos y muestras. En esta perspectiva y siempre
según Klimovsky, la metodología puede ser posterior a la epistemología
porque debe contar con criterios para evaluar su método, pero también la
metodología puede ser anterior, como cuando alguien inventa un método y
luego aparece el epistemólogo, que puede verse en la necesidad de
justificarlo en el marco de su propia disciplina. Además, "a diferencia de lo
que sucede con el epistemólogo, el metodólogo no pone en tela de juicio el
conocimiento ya obtenido y aceptado por la comunidad científica" (6: pag
28), con lo cual, en suma, dos diferencias justificarían, sobre la base de
estas afirmaciones de Klimovsky, la separación entre metodología y
epistemología: por un lado una disciplina es eminentemente práctica y la
otra es mas bien teórica, y por el otro lado, una es no crítica,
conservadora, y la otra es crítica, cuestionadora. En rigor, el texto de
Klimovsky es un texto de epistemología, ya que su parte “metodológica”,

8
ARMANDO ZABERT (COMPILADOR)

titulada "El método científico" hace de éste un tratamiento donde no


escasean consideraciones teóricas y críticas.
3) Samaja (Juan), por su parte, tituló elocuentemente su texto como
"Epistemología y Metodología" (5), y su primer párrafo es "este libro es el
fruto de una prolongada actividad docente sobre lógica, metodología y
epistemología...". Más adelante, agrega que intenta presentar "una
perspectiva integral del proceso de investigación, mediante un enfoque
que busca articular las cuestiones epistemológicas y de sociología e
historia de la ciencia, con las específicamente metodológicas" (5: pag. 15-
16). El autor citado llega a proponer, incluso, dos tipos de lectores, el lector
epistemólogo y el lector metodólogo (5: pag. 17), estableciendo
indicaciones para que unos y otros puedan aprovechar mejor el libro.
Samaja presenta una relación entre epistemología y metodología en
algunos puntos similar a la de Klimovsky. Cuestiona la idea de “vigilancia
epistemológica” (de la metodología), pues a) tiene una connotación
prescriptiva según la cual una disciplina, la epistemología, podría
supervisar el método, y b) con igual derecho también podría hablarse de
una vigilancia metodológica de la epistemología.

Esta recorrida por estas opiniones, sin ser exhaustiva, alcanza para identificar dos
posturas diferentes: por un lado están quienes, como Mario Bunge, considera que la
metodología es simplemente otra rama más de la epistemología (1: pag. 50) (2: pag.
24). Por el otro lado, están los filosofos que piensan que se trata de dos disciplinas
relativamente independientes como son los casos de Gregorio Klimovsky (6: pag. 28-29)
y Juan Samaja.

Un repaso histórico

¿Cómo se explica esta divergencia de opiniones? Para ello debemos hacer un recorrido
por la historia de la epistemología por cuanto, en gran medida, la historia de las ideas
sobre la ciencia es la historia de las ideas sobre el método científico.

Por tal motivo podemos distinguir cuatro etapas en la historia de la epistemología: a) la


epistemología aristotélica (siglo III AC); b) la revolución metodológica que dio origen a la
ciencia moderna (siglo XVI- XVII); c) el afianzamiento de las reflexiones sobre el método
(siglo XIX); y d) la diversificación de los intereses epistemológicos (siglo XX).

En cada uno de estos tramos, las relaciones entre epistemología y metodología


asumieron diferentes aspectos.

a.- La propuesta aristotélica

Los primeros estudios epistemológicos sistemáticos fueron desarrollados por Aristóteles


en los "Segundos Analíticos", una de las cinco partes del "Organon" (a su vez una
recopilación medieval de los escritos de Aristóteles sobre lógica y epistemología).

Una de las preocupaciones aristotélicas era definir el conocimiento científico, y señaló


que aquello que identifica a una ciencia es un objeto y un método. El objeto distinguía
una ciencia de otra, mientras que el método, aunque común a todas las ciencias, era lo
que distinguía al saber científico de otros saberes diferentes.

Así por ejemplo, Aristóteles habría estado de acuerdo con afirmar que la biología tiene
como objeto de estudio a los seres vivos, la física otro objeto distinto, y así
sucesivamente. Se trata de un supuesto ontológico de la doctrina aristotélica, que
Klimovsky sintetiza diciendo que "para cada ciencia o disciplina en particular hay un
género o tipo de entidades que constituye el objeto o el propósito de estudio de la
misma" (6:107).

Según la metafísica aristotélica las entidades están ordenadas en una jerarquía


decreciente (por ejemplo ser, ser vivo, animal, caballo, etc.), con el tiempo el estudio del
ser en general quedó como el objeto de estudio de la “filosofía primera” (y más
concretamente de la metafísica), mientras que los géneros derivados del ser (como ser

9
Proyecto de Investigación e Intervención Socio-Comunitaria
Nociones de Epistemología

vivo), fueron objeto de estudio de las “filosofías segundas'” es decir, de las diferentes
ciencias.
Respecto al método, Aristóteles propuso para la ciencia su método inductivo-deductivo
(9: pag.15) o demostrativo (6: pag.106) y que luego, por obra de los pensadores
medievales, adoptó la denominación de “método resolutivo-compositivo” (9: pag. 41).

Según este método, el científico debía "inducir principios explicativos a partir de los
fenómenos que se han de explicar, y después deducir enunciados acerca de los
fenómenos a partir de premisas que incluyan esos principios" (9:16).

Aristóteles explicó su método científico fundamentalmente en el Organon, aunque


también pueden encontrarse discusiones de ciertos aspectos del método en su "Física"
y en su "Metafísica" (9:15).

¿Cómo concebir, en esta primera etapa de la historia de la epistemología las relaciones


entre ésta y la metodología?

Simplemente, no se había hecho una diferencia entre ambas disciplinas: la metodología


era simplemente un capítulo más dentro de la epistemología, dedicada específicamente
al estudio del método científico.

b.- El furor por el método

La propuesta aristotélica se mantuvo vigente durante toda la Edad Media, hasta los
albores de la Modernidad, donde se produce la revolución metodológica que dio origen
a la ciencia moderna, en los siglos XVI-XVII.

Las críticas estuvieron dirigidas no tanto al método consagrado por Aristóteles, como a
ciertas formas incorrectas de emplear dicho método, como lo testimonian los planteos
de Galileo (9: pag. 64) y Francis Bacon (9: pag. 72 y 73).

En una muy apretada síntesis mencionaremos solo a algunos de los protagonistas de


esta revolución:

1) En el siglo XIII, los medievalistas R. Grosseteste y su discípulo Roger Bacon


proponen el método experimental, mediante el cual era posible verificar las
conclusiones alcanzadas por el método resolutivo compositivo de inspiración
aristotélica (9: pag. 65). La experimentación es, en efecto, una característica
definitoria de la ciencia moderna.
2) Galileo Galilei merece ser mencionado aquí, no tanto por sus innovaciones
metodológicas -fue un defensor del esquema inductivo-deductivo de Aristóteles, y
además tuvo una actitud ambigua respecto de la importancia del método
experimental (9), como por su idea de delimitar la ciencia de la religión a partir de
un método propio identificado, precisamente, con aquel método aristótélico.
Galileo propuso así un nuevo campo del saber delimitable y separado de la
religión. Pero al mismo tiempo, y sin proponérselo explícitamente, contribuyó a
aclarar el panorama acerca de las diferencias entre el saber cotidiano (verdades
de hecho), el saber filosófico (verdades de razón), el saber religioso (verdades de
fe) y el saber propiamente científico, fundado en verdades de hecho (la
“experiencia de los sentidos”) y en verdades de razón (las “demostraciones
necesarias”) reivindicando, con esto último, el método inductivo-deductivo de
Aristóteles para las ciencias. Así, la ciencia moderna maduró y se diferenció de la
filosofía y del dogma religioso bajo la guía de un método. Señala Bunge: "el
concepto general de método no se consolida y populariza hasta comienzos del
siglo XVII, al nacer la ciencia moderna. Los primeros pensadores modernos de
gran estatura e influencia que propugnan la adaptación de métodos generales
para lograr avances en el conocimiento son [Francis] Bacon y Descartes" (2: pag.
29). En efecto, por la misma época, otros pensadores emprenderán uno u otro
camino: Francis Bacon (1561-1626) intentará fundar el conocimiento
inductivamente (9: pag.72), y Descartes (1596-1650) hará otro tanto sobre la
base de la deducción (9: pag. 80).

10
ARMANDO ZABERT (COMPILADOR)

3) Francis Bacon aceptó también el método científico de Aristóteles, pero hizo


fuertes críticas tanto para la etapa inductiva como para la deductiva. Respecto de
la primera, cuestionó el procedimiento azaroso para recoger datos, las
generalizaciones apresuradas y la excesiva confianza en la inducción por
enumeración simple, y respecto de la etapa deductiva cuestionó la demostración
silogística sin una definición adecuada de los términos, así como la excesiva
importancia otorgada a la deducción, la que sólo tiene valor científico "si sus
premisas tienen un soporte inductivo adecuado" (9: pag. 73). A partir de F. Bacon
se continuaron por lo menos dos líneas de pensamiento: por un lado los filósofos
empiristas ingleses, desde Locke a Stuart Mill, y por el otro el gran teórico de la
didáctica, Comenio (1592-1670). Cada nuevo pensador, impulsado por un afán
perfeccionista, retomaba las ideas de los anteriores y ahondaba las
investigaciones en torno al método. Prueba de este furor son los nombres
sucesivos de tres textos ya clásicos sobre metodología: para superar el
"Organum" aristotélico, Bacon propuso su "Novum Organum", apareciendo dos
siglos después el "Novum Organum Renovatum" de William Whewell. Inspirado
en Bacon, Comenio propugnó y desarrolló por su lado, un método universal para
la adquisición y la enseñanza de todos los conocimientos: "la unidad de todos los
conocimientos y la universalidad del método inductivo empírico son fuertemente
subrayados por Comenio" (3: pag. 537), quien no vacilaba en afirmar que su
método didáctico podía enseñar "de todo a todos". La "Didáctica Magna" de
Comenio representó, así, el primer esfuerzo sistemático por construir una
didáctica. Comenio no intentó hacer un método de investigación científica, como
lo hizo Bacon, sino de enseñanza. La propuesta de Bacon era un método para
inventar y probar hipótesis (contextos de descubrimiento y justificación de la
ciencia), mientras que la de Comenio era un método para enseñar (contexto de
difusión).
4) Al hablar de Rene Descartes, Losee nos indica que él "coincidía con Francis
Bacon en que el mayor logro de la ciencia es una pirámide de proposiciones, con
los principios más generales en el vértice. Pero mientras que Bacon buscaba
descubrir las leyes generales mediante un progresivo ascenso inductivo a partir
de relaciones menos generales, Descartes pretendía comenzar por el vértice y
llegar lo más abajo posible mediante un procedimiento deductivo" (9: pag. 80). La
línea cartesiana, con algunas variantes, sigue en nuestros días ejerciendo su
influencia en dos importantes epistemólogos de nuestro siglo, como Husserl y
Popper. El primero, por ejemplo, reconoce su deuda con el filósofo francés en
"Meditaciones cartesianas", mientras que el segundo desarrolló su teoría
falsacionista sobre la base de una crítica de la inducción y de su defensa del
procedimiento deductivo: el “modus tollens” es, en efecto, la base lógica
deductiva para refutar hipótesis, a su vez considerado por Popper como el
procedimiento por excelencia de la verificación científica.

Esta recorrida por estos pensadores del incipiente modernismo nos muestra, que el
furor metodológico hizo que la ciencia quedara identificada a partir de un método y no ya
de un objeto de estudio (el que, como dijimos, ya venía recortado desde la tradición
griega).

Del Renacimiento en adelante, la biología siguió siendo como siempre el estudio de los
seres vivientes, y la sicología el estudio del alma, pero lo que en realidad había
cambiado era el método: inspirado por la nueva propuesta metodológica de los
modernistas, el biólogo primero y el psicólogo después comenzaron poco a poco a
verificar sus hipótesis mediante el auxilio de la inducción, del método hipotético-
deductivo y el procedimiento experimental, convertidos ya por entonces en partes
indisolubles del método científico por excelencia.

En efecto, lo cuestionado no fue tanto, el objeto de estudio de las ciencias, sino su


método, el que a partir de allí se convirtió en el centro de la reflexión de los
epistemólogos.

Esta “rama'”de la epistemología que estudiaba el método comenzó a reducirse, con lo


que metodología pasó a ser prácticamente un sinónimo de epistemología.

11
Proyecto de Investigación e Intervención Socio-Comunitaria
Nociones de Epistemología

Aún en la actualidad sigue resonando esta idea: Klimovsky llega a sostener, por
ejemplo, que "la ciencia es esencialmente una metodología cognoscitiva y una peculiar
manera de pensar acerca de la realidad", y que "nuestro texto [que es una introducción
a la epistemología] asigna una particular importancia al análisis del método científico" (6:
pag. 15).

c.- El afianzamiento de la reflexión metodológica

Continuando con nuestra discusión sobre las relaciones entre epistemología y


metodología, dos acontecimientos nos interesa rescatar del siglo XIX: la consagración
del nuevo método científico, y las reflexiones en torno a las nuevas ciencias sociales.

Ambos contribuyeron, aunque de diferente manera, a consolidar aún más la rama


metodológica de la epistemología. Veamos algunas consideraciones al respecto:

1) El “nuevo” método exaltado por los modernistas siguió siendo aplicado por los
físicos, los químicos, los biólogos y los incipientes psicólogos, lo que produjo un
efecto importante: terminó redefiniendo, a su vez, el objeto de estudio de cada
ciencia. Por ejemplo el método experimental de Wundt sustituyó el alma, una
noción especulativa, por la de conciencia y sensación, conceptos verificables
comprensibles al método científico. Incidentalmente, agreguemos que Augusto
Comte (1786-1857), en lugar de pensar en la posibilidad de “cientifizar” a
sicología desde el método, directamente la eliminó del campo del saber científico
porque su objeto de estudio era el alma, una especulación metafísica. Este
primer acontecimiento apuntaló aún más a la metodología como estudio
epistemológico privilegiado, toda vez que el método había adquirido el poder de
transformar los mismos objetos de estudio de la ciencia, convirtiéndolos en
constructos verificables.
2) Comenzaban también en el siglo XIX a diferenciarse un nuevo tipo de ciencias:
las ciencias del hombre, o ciencias del espíritu, o ciencias culturales, donde el
objeto de estudio, las producciones humanas, aparecía como radicalmente
diferente al objeto de estudio de las ciencias tradicionales, que eran las
producciones de la naturaleza. Frente a esta situación había por lo menos tres
alternativas: como el nuevo objeto de estudio no se adecuaba al método científico
consagrado
i. las “ciencias” del hombre debían ser relegadas a la filosofía, es
decir, asignarles el mismo destino que Comte le dio a la sicología
ii. había que crear un método nuevo especial para las ciencias
sociales
iii. había que incoporar el método científico consagrado a estas nuevas
ciencias, porque sus nuevos objetos de estudio eran en realidad
perfectamente abordables con el método tradicional.
La primera de estas alternativas no prosperó, mientras que las dos últimas siguen
aún vigentes, y hasta siguen polemizando entre sí. La segunda alternativa implicó
que el objeto de estudio empezara a recortar el método (y no a la inversa, como
cuando en este mismo siglo XIX el método recortó el objeto de estudio de la
sicología). Un ejemplo típico fueron los intentos de Dilthey por dotar a las ciencias
humanas (sociales) de un procedimiento que pasara menos por la clásica
explicación causal de las ciencias naturales, y más por la comprensión y la
metodología hermenéutica como un intento de aproximación al nuevo objeto de
estudio. La tercera alternativa sigue hoy también vigente. Klimovsky, por ejemplo,
sostiene que "el método científico no se rompió cuando se lo estiró para que
abarcara los problemas sociales. Tampoco se rompe si se lo aplica a otras
disciplinas, en particular las humanísticas" (2: pag. 42).

En suma, esta nueva problemática introducida por la aparición de las ciencias sociales
no hizo más que acentuar la importancia de los estudios metodológicos dentro de la
epistemología, toda vez que era un método el que tenía nada menos que el poder de
separar diferentes tipos de ciencias, o el de poder unificarlas.

12
ARMANDO ZABERT (COMPILADOR)

d.- La epistemología en el siglo XX

Las nuevas ciencias sociales, en este siglo, contribuyeron a afectar nuevamente las
relaciones entre epistemología y metodología en dos direcciones diferentes: por un lado
diversificaron los intereses epistemológicos, y por el otro contribuyeron a estimular el
estudio de las técnicas de investigación en el nuevo ámbito de lo social.

Analicemos algunas cuestiones respecto a estas dos direcciones:

1) El crecimiento de las ciencias sociales nacidas en el siglo pasado promovió, entre


otras razones, la idea de que existía una determinación social de las
producciones humanas, idea que no tardó en trasladarse a aquella producción
cultural llamada ciencia. Se inició así una diversificación de los intereses
epistemológicos al tomarse conciencia de que la ciencia no era ni única ni
fundamentalmente un método: era también un producto histórico y social (Kuhn),
el resultado de una génesis psicológica (Piaget), un producto psicoanalizable
(Bachelard) un conocimiento anárquico y sin métodos (Feyerabend), todo lo cual
hizo que la rama metodológica de la epistemología perdiera su condición
privilegiada en el contexto de los intereses del epistemólogo, quedando confinada
principalmente al estudio del fundamento lógico del método científico.
2) El desarrollo de las ciencias sociales (sicología, sociología, ciencias de la
educación, economía, etc.), fue una de las razones por las cuales se implantó la
apertura de un nuevo campo para el estudio de las técnicas de investigación
social. Esto tiene que ver con la tercera alternativa a la que nos referimos
anteriormente, porque de lo que trataba era de poder incluir las ciencias sociales
dentro del esquema metodológico clásico, haciendo alguna que otra adaptación a
la peculiaridad del objeto de estudio de dichas ciencias. Esta tarea ya estaba
cumplida desde hacía rato en las ciencias naturales, y por ello es que hoy en día,
desde hace algunas décadas, proliferaron los libros y manuales sobre
“investigación social”, en contraste con la poca cantidad de textos de
“investigación natural”.

Fue así que la original rama metodológica de la epistemología continuó reduciéndose


(aunque no a expensas de otros ámbitos posibles de estudio epistemológico, como
sucedió en los albores de la modernidad) y terminó separándose del corpus de la
epistemología.

En suma: el estudio del método, o si se quiere la rama metodológica de la


epistemología, siguió dos caminos diferentes: una parte quedó confinada dentro de los
límites de la epistemología convirtiéndose en un estudio del fundamento lógico del
método científico (Hempel, Popper, Carnap, y muchos otros), mientras que la otra parte,
menos crítica y menos teórica empezó a quedar por fuera de la epistemología
convirtiéndose en lo que hoy se designa como “metodología”, y que no cuestiono la
lógica del método sino cuestiones más prácticas relativas a su instrumentación técnica y
su manipulación estadística (McCall, 1923, Fisher, 1925, Campbell, Stanley, Selltiz y
muchos otros) (10: pag. 10).

Por ejemplo, un problema típico del primer caso consistió en comparar las ventajas y las
desventajas de un procedimiento inductivo y un procedimiento hipotético-deductivo,
mientras que un ejemplo de problema en el segundo caso fue y es mucho más concreto
y práctico, como por ejemplo analizar qué tipo de diseño experimental podría resultar
más eficaz cuando se trata de investigar qué factores ambientales influyen sobre el
aprendizaje de los escolares.

Algunas conclusiones

Tal como encontramos la situación hoy en día, por lo tanto, podemos trazar las
siguientes semejanzas y diferencias entre epistemología y metodología.

13
Proyecto de Investigación e Intervención Socio-Comunitaria
Nociones de Epistemología

Respecto de las semejanzas, lo que hace que muchos autores pongan del mismo lado a
la epistemología y la metodología es el hecho de que ambas comparten un mismo
objeto de estudio.

Tanto la epistemología como la metodología estudian por igual “esa cosa llamada
ciencia”, utilizando el titulo de la famosa obra de Chalmers (8), por cuanto la ciencia es
saber fundado (episteme), y por cuanto procede de acuerdo a un método.

Respecto de las diferencias, anotemos dos: a) la epistemología es más crítica, más


cuestionadora, y no por nada algunos autores como Bourdieu y Passeron (5:14) hablan
de una “vigilancia epistemológica” ejercida incluso sobre la misma “metodología”, por
cuanto proponen que el ejercicio de una reflexión epistemológica implica subordinar el
uso de las técnicas de investigación a las condiciones y los límites de su validez.

La metodología, en cambio, es mas bien dogmática, pues se limita a describir y analizar


ciertos procedimientos ya consagrados (por ejemplo los diferentes tipos de diseño
experimental, o los diferentes tipos de tratamiento estadísticos de los resultados) y
eventualmente a diseñar nuevos procedimientos para adaptarlos a cada nuevo caso.

Otra diferencia es que la epistemología es un saber más teórico y la metodología un


saber más práctico. Con la expresión “más teórico” quiero indicar que intenta llegar a los
fundamentos mismos de la ciencia, a sus bases lógicas y a sus determinaciones
sociales, psíquicas, etc.

Una pregunta me surge, ¿debe hoy todavía seguir manteniéndose separadas la


epistemología y la metodología? Seguramente el tiempo lo dirá.

Mientras tanto, los libros de texto y las asignaturas de la universidad y como así también
de las escuelas secundarias siguen manteniéndolas, en general, separadas. El peligro
de ello, reside en que se aíslen cada vez más la una de la otra, impidiendo una mutua
realimentación enriquecedora de sus respectivos resultados.

Bibliografía Consultada

(1) Bunge M., "La investigación científica". Su estrategia y su filosofía, Barcelona, Ariel,
1969.
(2) Bunge M., "Epistemología", Barcelona, Ariel, 1980.
(3) Ferrater Mora J., "Diccionario de Filosofía", Madrid, Alianza, 1979, Tomo 1.
(4) Programa de "Metodología de la Investigación Psicológica", Cátedra de la Prof.
María Lores Arnaiz, Facultad de Psicología (UBA), 1997.
(5) Samaja Juan, "Epistemología y Metodología", Eudeba, Buenos Aires, 1995.
(6) Klimovsky G., "Las desventuras del conocimiento científico" (Una introducción a la
epistemología), A-Z Editora, Buenos Aires, 1994.
(7) Galilei G., "Carta a la Señora Cristina de Lorena, Gran Duquesa de Toscana" (1615),
texto incluído en Babini José, "Galileo", Buenos Aires, Centro Editor de América Latina,
1967.
(8) Chalmers Alan, "¿Qué es esa cosa llamada ciencia?", Siglo XXI editores, Buenos
Aires, 1991.
(9) Losee John, "Introducción histórica a la filosofía de la ciencia", Alianza, Madrid, 1979,
2° edición.
(10) Campbell Donald y Stanley Julian, "Diseños experimentales y cuasi experimentales
en la investigación social", Buenos Aires, Amorrortu, 1995.
(11) Por ejemplo, en el "Manual de técnica de la investigación educacional", de Van
Dalen y Meyer, se propone un ejemplo de la física galileana para mostrar cómo se
analiza un problema científico.

14
ARMANDO ZABERT (COMPILADOR)

3 - THOMAS SAMUEL KUHN. Jose Sánchez-Cerezo de la Fuente


http://www.webdianoia.com/

(1922-1996)

Thomas Samuel Kuhn nació en Cincinnati, Ohio, el 18 de julio de 1922. Estudió Físicas
en la Universidad de Harvard, por la que se doctoró en dicha especialidad en 1949.

A partir de entonces su interés se orientó hacia el estudio de la Historia de la Ciencia, al


que se dedicó por completo. Permaneció en Harvard como profesor ayudante de
Historia de la Ciencia hasta 1956, en que aceptó una oferta de la Universidad de
Berkeley, donde ocupará la Cátedra de Historia de la Ciencia a partir de 1961.

En 1964 pasará a desempeñar ese mismo puesto en la Universidad de Princenton


hasta 1979, año en que se instalará en Boston, ocupando la Cátedra de Filosofía e
Historia de la Ciencia del Massachusetts Institute of Technology. Falleció el 17 de junio
de 1996 en su casa de Cambridge, Massachusetts.

El filósofo Thomas Kuhn se ocupó principalmente de cuestiones acerca de filosofía de


la ciencia:
• ¿Cómo se lleva a cabo la actividad científica?
• ¿Existe un mismo patrón en dicha actividad que se pueda aplicar a lo largo de
las distintas épocas históricas?
• ¿A qué se debe el aparente éxito en la obtención de conocimientos de la
ciencia?
• Dicho conocimiento, por otra parte, ¿es acumulativo a lo largo de la historia?

Este tipo de cuestiones, así como las respuestas que Kuhn ofrecerá, nos muestran el
enfoque histórico con el que se analiza la ciencia.

Efectivamente, Kuhn se dedicó en un primer momento al estudio de la historia de la


ciencia y fue a partir de ella de donde surgieron diversas cuestiones que muestran un
contraste entre dos concepciones de la ciencia.

Por un lado, la ciencia entendida como una actividad completamente racional y


controlada (como nos la presenta el Círculo de Viena, por ejemplo), y por otro lado, la
ciencia entendida como una actividad concreta que se ha venido dando a lo largo de los
siglos y que en cada época histórica presenta peculiaridades y características propias.
Estos dos planteamientos pueden ser denominados "formalista" e "historicista",
respectivamente.

Las respuestas que Kuhn da a las cuestiones iniciales, que se plasman en la obra "La
estructura de las revoluciones científicas", de 1962, supusieron un gran cambio en el
debate filosófico del momento, pues el modelo formalista que imperaba fue desafiado
por el enfoque historicista de Kuhn, según el cual, la ciencia se desarrolla siguiendo
determinadas fases:

1. Establecimiento de un paradigma
2. Ciencia Normal
3. Crisis
4. Revolución Científica
5. Establecimiento de un nuevo paradigma

En esta concepción la noción de "paradigma" resulta fundamental. Kuhn define


paradigma de la siguiente manera: "Considero a los paradigmas como realizaciones
científicas universalmente reconocidas que, durante cierto tiempo, proporcionan
modelos de problemas y soluciones a una comunidad científica".

15
Proyecto de Investigación e Intervención Socio-Comunitaria
Nociones de Epistemología

Los paradigmas son, por tanto, un marco o perspectiva bajo la cual se analizan los
problemas y se trata de resolverlos.
Por ejemplo, el movimiento aparentemente irregular de los planetas en el cielo es un
problema concreto. Podemos verlo a la luz del paradigma que ofrece la teoría
geocéntrica de Aristóteles, según el cual el movimiento de los planetas es
absolutamente circular.

En éste caso, por lo tanto, la labor del científico será mostrar que la irregularidad de los
planetas no es tal y aclarar a qué se debe dicha apariencia. Pero podríamos verlo
también partiendo del paradigma de la teoría heliocéntrica.

En este último caso podríamos llegar a aceptar la no-circularidad del movimiento real de
los planetas, pero sea cual sea la explicación ofrecida, debe aplicarse por igual al resto
de los cuerpos celestes. Los paradigmas son, por lo tanto, macro teorías que se
aceptan de forma general por toda la comunidad científica y a partir de las cuales se
realiza la investigación.

El objetivo de la misma es aclarar los posibles fallos del paradigma (como por ejemplo
datos empíricos que no coincidan exactamente con la teoría) o extraer todas sus
consecuencias. A este proceso de investigación basado en un paradigma se le
denomina "ciencia normal".

En palabras de Kuhn: "ciencia normal" significa investigación basada firmemente en


una o más realizaciones científicas pasadas, realizaciones que alguna comunidad
científica particular reconoce, durante cierto tiempo, como fundamento para su práctica
posterior"

Esta fase del desarrollo de la ciencia ocupa la mayor parte del tiempo de los científicos,
porque aunque los nombres que nos han llegado hasta nosotros han sido los de
científicos revolucionarios que han roto con las concepciones de su tiempo (como
Galileo o Einstein), la mayor parte de científicos realizan trabajos rutinarios de
comprobación para mostrar o poner a prueba la solidez del paradigma en el que se
basan.

En ocasiones, no obstante, un paradigma no es capaz de resolver todos los problemas,


y estos persisten a lo largo de los años o de los siglos, tal vez acumulándose junto con
otros.

En ese caso el paradigma en conjunto comienza a ponerse en cuestión y los científicos


comienzan a considerar si supone el marco más adecuado o la forma más correcta de
abordar los problemas o si debe ser abandonado.

La crisis supone la proliferación de nuevos paradigmas, en un principio tentativos y


provisionales, con vistas a resolver la o las cuestiones más problemáticas. Estos
nuevos paradigmas compiten entre sí y cada uno trata de imponerse como el enfoque
mas adecuado.

Finalmente se produce una revolución científica cuando uno de los nuevos paradigmas
sustituye al paradigma tradicional (como sucedió con la visión del mundo copernicana,
que derrocó a la concepción aristotélica o con la teoría de la relatividad de Albert
Einstein, que sustituyó a la visión newtoniana de la realidad como la forma más
apropiada forma aproximarse al mundo): "Las revoluciones científicas se consideran
aquí como aquellos episodios de desarrollo no acumulativo en que un antiguo
paradigma es reemplazado, completamente o en parte, por otro nuevo e incompatible."

Tras la revolución el ciclo comienza de nuevo y el paradigma que ha sido instaurado da


pie a un nuevo proceso de ciencia formal.

Como se puede ver, el enfoque historicista da más importancia a factores subjetivos en


el proceso de investigación científica que anteriormente habían sido pasados por alto.
Kuhn muestra que la ciencia no es solamente un contraste y neutral entre las teorías y

16
ARMANDO ZABERT (COMPILADOR)

la realidad, sino que hay diálogo, debate, y también tensiones y luchas entre los
defensores de los distintos paradigmas.

Los científicos no son seres absolutamente racionales. Cuando los experimentos


parecen mostrar que una teoría determinada es falsa, algunos científicos continúan
usándola. Si hay una posible aplicación práctica de la teoría o existen intereses de
algún tipo, esto influye en la actividad científica, así como la existencia de
colectividades o grupos sociales a favor o en contra de una teoría concreta, o la
existencia de problemas éticos.

Todos ellos son casos en los que la actividad científica se ve influenciada por el "mundo
exterior".

En definitiva, allí donde los formalistas afirmaban que lo importante de la ciencia son las
teorías y la comparación objetiva entre las teorías existentes, los historicistas conceden
más importancia al sujeto que lleva a cabo la investigación así como a la sociedad en la
que está inmerso.

Otro argumento adicional en contra de la concepción de la ciencia como un proceso


perfectamente racional en el que sólo tienen importancia la fuerza de los argumentos es
el hecho de que desde un paradigma resulta difícil (algunos afirman que imposible)
entender el punto de vista alternativo, ya que siempre se parte de un paradigma
determinado.

No existe forma de alejarse de todos los paradigmas y compararlos de forma objetiva,


sino que siempre estamos inmersos en uno de ellos y conforme al mismo interpretamos
el mundo que nos rodea. El debate que se establece, por lo tanto, entre defensores de
distintos paradigmas puede resultar a menudo estéril, hasta el punto, llega a decir
Kuhn, de que un paradigma triunfa no porque consiga convencer a sus oponentes, sino
porque los representantes del paradigma más antiguo van falleciendo.

Considerados estos factores, ¿cómo hemos de entender el progreso en la ciencia? La


respuesta de Kuh es que el progreso, estrictamente hablando, sólo se produce en las
fases de ciencia normal, pero no se puede hablar de un progreso continuado desde la
época de los griegos hasta la actualidad, porque las revoluciones científicas no son sino
rupturas de esa continuidad. Cada revolución marca, en cierto sentido, un nuevo
comienzo.

Esta perspectiva dará pie posteriormente a un relativismo radical según el cual no


habría forma de saber cuál, entre dos teorías, es verdadera puesto que la verdad
depende del paradigma desde el que se analizan los problemas (Feyerabend es un
filósofo relativista que ejemplifica esta postura). El propio Kuhn, sin embargo, se
desmarcará de una interpretación de su propia teoría en ese sentido.

Textos pertenecientes a "La estructura de las revoluciones científicas":

 "La observación y la experiencia pueden y deben limitar drásticamente la gama


de las creencias científicas admisibles o, de lo contrario, no habría ciencia. Pero,
por sí solas, no pueden determinar un cuerpo particular de tales creencias. Un
elemento aparentemente arbitrario, compuesto de incidentes personales e
históricos, es siempre uno de los ingredientes de formación de las creencias
sostenidas por una comunidad científica dada en un momento determinado."
 "El estudio de los paradigmas es lo que prepara principalmente al estudiante
para entrar a formar parte como miembro de la comunidad científica particular
con la que trabajará más tarde."
 "A falta de un paradigma o de algún candidato a paradigma, todos los hechos
que pudieran ser pertinentes para el desarrollo de una ciencia dada tienen
probabilidades de parecer igualmente importantes. Como resultado de ello, la
primera reunión de hechos es una actividad mucho más fortuita que la que
resulta familiar, después del desarrollo científico subsiguiente."
 "No puede interpretarse ninguna historia natural sin, al menos, cierto caudal
implícito de creencias metodológicas y teóricas entrelazadas, que permite la

17
Proyecto de Investigación e Intervención Socio-Comunitaria
Nociones de Epistemología

selección, la evaluación y la crítica. Si este caudal de creencias no se encuentra


ya implícito en la colección de hechos -en cuyo caso tendremos a mano algo
más que hechos simples- deberá ser proporcionado del exterior, quizá por una
metafísica corriente, por otra ciencia o por incidentes personales o históricos.
Por consiguiente, no es extraño que, en las primeras etapas del desarrollo de
cualquier ciencia, diferentes hombres, ante la misma gama de fenómenos -pero,
habitualmente, no los mismos fenómenos particulares- los describan y los
interpreten de modos diferentes. Lo que es sorprendente, y quizá también único
en este grado en los campos que llamamos ciencia, es que esas divergencias
iniciales puedan llegar a desaparecer en gran parte alguna vez."
 "Para ser aceptada como paradigma, una teoría debe parecer mejor que sus
competidoras; pero no necesita explicar y, en efecto, nunca lo hace, todos los
hechos que se puedan confrontar con ella."
 "El surgimiento de un paradigma afecta a la estructura del grupo que practica en
ese campo. En el desarrollo de una ciencia natural, cuando un individuo o un
grupo produce, por primera vez, una síntesis capaz de atraer a la mayoría de los
profesionales de la generación siguiente, las escuelas más antiguas
desaparecen gradualmente. Su desaparición se debe, en parte, a la conversión
de sus miembros al nuevo paradigma. Pero hay siempre hombres que se
aferran a alguna de las viejas opiniones y, simplemente, se les excluye de la
profesión que, a partir de entonces, pasa por alto sus trabajos. El nuevo
paradigma implica una definición nueva y más rígida del campo."
 "Cuando un científico individual puede dar por sentado un paradigma, no
necesita ya, en sus trabajos principales, tratar de reconstruir completamente su
campo, desde sus principios, y justificar el uso de cada concepto presentado."
 "El éxito de un paradigma es al principio, en gran parte, una promesa de éxito
discernible en ejemplos seleccionados y todavía incompletos. La ciencia normal
consiste en la realización de esa promesa, una realización lograda mediante la
ampliación del conocimiento de aquellos hechos que el paradigma muestra
como particularmente reveladores, aumentando la extensión del aclopamiento
entre esos hechos y las predicciones del paradigma y por medio de la
articulación ulterior del paradigma mismo."
 "Ninguna parte del objetivo de la ciencia normal está encaminada a provocar
nuevos tipos de fenómenos; en realidad, a los fenómenos que no encajarían
dentro de los límites mencionados frecuentemente ni siquiera se los ve.
Tampoco tienden normalmente los científicos a descubrir nuevas teorías y a
menudo se muestran intolerantes con las formuladas por otros. Es posible que
sean defectos. Por supuesto, las zonas investigadas por la ciencia normal son
minúsculas; la empresa que está siendo discutida ha restringido drásticamente
la visión. Pero esas restricciones, nacidas de la confianza en un paradigma,
resultan esenciales para el desarrollo de una ciencia. Al enfocar la atención
sobre un cuadro pequeño de problemas relativamente esotéricos, el paradigma
obliga a los científicos a investigar alguna parte de la naturaleza de una manera
tan detallada y profunda que sería inimaginable en otras condiciones."
 "Creo que hay sólo tres focos normales para la investigación científica fáctica y
no son siempre ni permanentemente, distintos. Primeramente encontramos la
clase de hechos que el paradigma ha mostrado que son particularmente
reveladores de la naturaleza de las cosas.(...) Los esfuerzos por aumentar la
exactitud y el alcance con que se conocen hechos como ésos, ocupan una
fracción importante de la literatura de la ciencia de observación y
experimentación. Desde Tycho Brahe hasta E. O. Lawrence, algunos científicos
han adquirido grandes reputaciones, no por la novedad de sus descubrimientos,
sino por la precisión, la seguridad y el alcance de los métodos que desarrollaron
para la redeterminación de algún tipo de hecho previamente conocido.
Una segunda clase habitual, aunque menor, de determinaciones fácticas se
dirige hacia los hechos que pueden compararse directamente con predicciones
de la teoría del paradigma. (...). Una tercera clase de experimentos y
observaciones agota la tarea de reunión de hechos de la ciencia normal.
Consiste en el trabajo empírico emprendido para articular la teoría del
paradigma, resolviendo algunas de sus ambigüedades y permitiendo resolver
problemas hacia los que anteriormente sólo se había llamado la atención. (...)
Estas tres clases de problemas: la determinación del hecho significativo, el

18
ARMANDO ZABERT (COMPILADOR)

acoplamiento de los hechos con la teoría y la articulación de la teoría, agotan,


creo yo, la literatura de la ciencia normal, tanto empírica como teórica."
 ”El surgimiento de nuevas teorías es precedido generalmente por un periodo de
inseguridad profesional profunda. Como podría esperarse, esta inseguridad e
generada por el fracaso persistente de los enigmas de la ciencia normal para dar
los resultados apetecidos. El fracaso de las reglas existentes es el que sirve de
preludio a la búsqueda de otras nuevas."
 "Supongamos entonces que las crisis son una condición previa y necesaria para
el nacimiento de nuevas teorías y preguntémonos después cómo responden los
científicos a su existencia. Aun cuando pueden comenzar a perder su fe y, a
continuación a tomar en consideración otras alternativas, no renuncian al
paradigma que los ha conducido a la crisis."
 "La transición de un paradigma en crisis a otro nuevo del que pueda surgir una
nueva tradición de ciencia normal, está lejos de ser un proceso de acumulación,
al que se llegue por medio de una articulación o una ampliación del antiguo
paradigma. Es más bien una reconstrucción del campo, a partir de nuevos
fundamentos, reconstrucción que cambia alguna de las generalizaciones
teóricas más elementales del campo, así como también muchos de los métodos
y aplicaciones del paradigma. Cuando la transición es completa, la profesión
habrá modificado su visión del campo, sus métodos y sus metas."
 "Casi siempre, los hombres que realizan esos inventos fundamentales de un
nuevo paradigma han sido muy jóvenes o muy noveles en el campo cuyo
paradigma cambian. Se trata de hombres que, al no estar comprometidos con
las reglas tradicionales de la ciencia normal debido a que tienen poca práctica
anterior, tienen muchas probabilidades de ver que esas reglas no define ya un
juego que pueda continuar adelante y de concebir otro conjunto que pueda
reemplazarlas. La transición consiguiente a un nuevo paradigma es la revolución
científica."
 "No hay ninguna norma más elevada que la aceptación de la comunidad
pertinente. Para descubrir cómo se llevan a cabo las revoluciones científicas,
tendremos, por consiguiente, que examinar no sólo el efecto de la naturaleza y
la lógica, sino también las técnicas de argumentación persuasiva, efectivas
dentro de los grupos muy especiales que constituyen la comunidad de
científicos. Para descubrir por qué la cuestión de la elección de paradigma no
puede resolverse nunca de manera inequívoca sólo mediante la lógica y la
experimentación, debemos examinar brevemente la naturaleza de las
diferencias que separan a los partidarios de un paradigma tradicional de sus
sucesores revolucionarios."
 "La tradición científica normal que surge de una revolución científica es no sólo
incompatible sino también a menudo incomparable con la que existía con
anterioridad."

19
Proyecto de Investigación e Intervención Socio-Comunitaria
Nociones de Epistemología

4 - LA CIENCIA. ALGUNAS DEFINICIONES E IDEAS BASICAS. Armando Zabert


La Ciencia no es un proceso de acumulación de descubrimientos e inventos
científicos que se realiza de una forma lineal desde un pasado borroso hasta
nuestros días. Esta idea ha sido inculcada a los profesionales y estudiantes de
la disciplina como consecuencia de la mala interpretación y enseñanza de los
hechos científicos plasmados en los libros de texto. Así se nos hacen partícipes
de la errónea concepción de que las realizaciones científicas actuales son la
herencia de una serie de conceptos y hallazgos, unidos y transformados
mediante una cuidadosa depuración de la que se han ido desechando, a lo
largo del tiempo, todas aquellas cosas que hoy se definen como inservibles e
ingenuas. Esta imagen de la Ciencia, como un gran recipiente, ha desfigurado
lo que es verdaderamente el transcurrir de la Ciencia.

Desarrollaremos previamente algunos conceptos importantes, que nos serán de gran


utilidad con posterioridad. Entre estos conceptos consideraremos la noción de:

• Paradigma
• Comunidad Científica
• Ciencia Normal
• Enigmas
• Anomalías

A continuación, una síntesis de que son las Teorías Científicas y sus tipos, los
componentes básicos para la construcción de las teorías, para finalizar con una
bravísima descripción de tres corrientes epistemológicas actuales: Kuhn, Lakatos y
Bunge. Dejando para un capitulo especial las ideas de Habermas.

LA NOCIÓN DE PARADIGMA

Concepto: El paradigma es un modelo o ejemplo a seguir, por una comunidad científica,


de los problemas que tiene que resolver y del modo como se van a dar las soluciones.
Un paradigma comporta una especial manera de entender el mundo, explicarlo y
manipularlo.

Estos modelos son "realizaciones científicas universalmente reconocidas que, durante


cierto tiempo, proporcionan modelos de problemas y soluciones a una comunidad
científica"

Este paradigma ofrece al que lo sigue:

• una base de afirmaciones teóricas y conceptuales


• un cierto acuerdo entre los problemas urgentes a resolver
• unas técnicas de experimentación concretas
• unos supuestos metafísicos que encuadran y dirigen la investigación y sobre los
que no hay ninguna duda aunque sean incomprobables

Es precisamente esa adhesión a un paradigma común lo que permite distinguir lo que


es una Comunidad Científica

LA COMUNIDAD CIENTÍFICA

Concepto: Una Comunidad Científica es aquel grupo de personas que practican


conjuntamente una profesión científica y que están ligados por elementos comunes
para llevar a cabo la resolución de metas y objetivos de su investigación; es decir,
realizan su proyecto basados en un paradigma compartido que es aceptado
plenamente.

20
ARMANDO ZABERT (COMPILADOR)

Los miembros de una Comunidad Científica participan de una misma educación,


basada en libros de texto y conferencias de una tradición científica determinada. Eso
permitirá que haya una gran comunicación en el grupo y una adecuación de juicios que,
sin embargo, no excluirá las discrepancias.

Además el grupo científico se puede dedicar a los aspectos más sutiles de la


investigación porque no tiene que justificar los principios teóricos ni los conceptos
utilizados en su campo. Cuando una Comunidad Científica se basa en un Paradigma
para llevar a cabo sus investigaciones se dice que éstos hacen Ciencia Normal.

LA CIENCIA NORMAL

Concepto: Es la ciencia que hacen los científicos habitualmente cuando indagan acerca
de la naturaleza y resuelven los problemas que más urgentemente se les presentan,
apoyados en un paradigma que no es puesto en duda.

Esto es muy útil porque, cuando un paradigma generalmente aceptado es capaz de


asegurar a los científicos que los problemas investigados son importantes, los hombres
de ciencia desarrollan complicados y costosos aparatos para agotar el campo de
investigación o extender ésta al menos tanto como sea posible, dependiendo ello,
naturalmente, en primer lugar, de que la validez del paradigma siga siendo aceptada e
incluso se confirme cada vez más y, en segundo lugar, en razón de circunstancias
extrañas a él: precisión de los instrumentos, posibilidades de inversión económica,
perspectivas que ofrece el paradigma, consiguiente entusiasmos de los investigadores
etc.

Por lo tanto, la Ciencia Normal perfila el campo de la investigación por medio de la


articulación de las teorías y del paradigma mismo; es decir, la Ciencia Normal facilita la
unión entre los hechos y las predicciones de la teoría, forzando a la naturaleza para que
se ajusten a los límites preestablecidos por el paradigma.

Así cuando el científico hace Ciencia Normal, debe ser capaz de explicar los hechos
reveladores de la naturaleza de las cosas utilizando la observación y la experimentación
y comparando los hechos con las predicciones de la teoría de su paradigma.

Su labor ha de ser matematízable y ajustada a la naturaleza, debiéndose resolver, para


ello, toda clase de ambigüedades y problemas que se presenten durante su
investigación.

No obstante, la investigación nunca se presenta de esta manera ya que siempre surgen


problemas extraordinarios que no concuerdan con estos presupuestos. A estos
resultados y problemas no previstos por el científico, Kuhn los denominó Enigmas.

LOS ENIGMAS

Concepto: Los enigmas pueden hacer fracasar una investigación, fracaso en el que se
va a ver involucrado el científico y nunca la Naturaleza. Un enigma puede tener una
solución, varias o ninguna, y el profesional debe poner a prueba sus conocimientos y su
ingenio para resolverlo.

El Paradigma debe capacitar a una comunidad científica para la resolución de enigmas


mediante un compromiso teórico, conceptual, instrumental y metodológico.

Estos compromisos generan una serie de reglas para ordenar el mundo y resolver
problemas y enigmas, pero estas reglas serán siempre posteriores al paradigma y
suministradas por él. Las Ciencia se rige siempre por paradigmas y las Comunidades
Científicas no tienen porque necesitar de un completo conjunto de reglas ya que desde
el punto de vista teórico no se necesitan, aunque, en la práctica sí se utilicen.

Precisamente cuando más se necesita un conjunto de reglas es cuando la Ciencia entra


en un período de crisis. En esos momentos la confianza en el paradigma se deteriora y
se espesa el número de reglas para vencer un poco la inseguridad creciente.

21
Proyecto de Investigación e Intervención Socio-Comunitaria
Nociones de Epistemología

Aunque los paradigmas no son productores de novedades fácticas o teóricas, sin


embargo surgen teorías completamente nuevas que hacen desaparecer el modelo
anterior.

¿Por qué sucede esto?. El Paradigma, aunque no es propenso al cambio, e incluso


opone una gran resistencia a él, sin embargo lo hace cuando descubre que la
naturaleza de alguna manera "ha violado las expectativas inducidas por el Paradigma
que rige la Ciencia Normal".

Esta trasgresión de los límites del Paradigma por parte de la Naturaleza, es lo que Kuhn
llamó Anomalía.

LAS ANOMALÍAS

La Ciencia Normal, ante una anomalía, se encuentra con que no puede resolver el
problema nuevo sin que le tiemblen un poco los cimientos de su paradigma, ya que
necesitaría revisarlo y esto sería preparar el camino hacia la novedad que, si es
importante, podría exigir un cambio en el modelo.

Si la anomalía es lo suficientemente esencial como para poner en entredicho algunos


de los elementos más esenciales del Paradigma anterior, entonces se podrá producir lo
que Kuhn denominó como Revolución Científica, es decir, el surgimiento de un nuevo
Paradigma.

LAS TEORIAS CIENTÍFICAS Y SUS TIPOS

Es normal que se utilice él termino TEORIA con distintos sentidos y grados de


generalidad. Por ello siguiendo al filosofo Nagel diferenciaremos cuatro acepciones para
el termino teoría:

1. Un primer sentido, teoría es un sistema de enunciados, frecuentemente


universales y relativos a distintos aspectos de fenómenos complejos, capaces
de explicar algunas regularidades empíricamente establecidas a partir de
sucesos observados, y en muchos casos, de predecir con distintos grados de
precisión cierta clase de ocurrencias individuales. Ejemplos de ello seria, la
Mecánica de Newton, etc.
2. Un segundo sentido, teoría se refiere a una “ley o generalización que puede
afirmar alguna relación de dependencia entre variables” que puede adoptar una
forma estrictamente universal o tener un alcance estadístico. Por ejemplo la Ley
de los Gases de Boyle.
3. Un tercer sentido, teoría no hace referencia a un conjunto de enunciados
sistemáticamente integrados ni a una única generalización estrictamente
formada, sino a las identificaciones de una “clase de factores o variables que por
distintas razones se suponen constituyen los determinantes principales de los
fenómenos que se investigan en una disciplina determinada”. Ejemplo la Teoría
Económica de Keynes.
4. Un cuarto sentido, a una teoría se refiere a cualquier análisis mas o menos
sistemático de un conjunto de conceptos relacionados. Ejemplo, la teoría del
conocimiento en Filosofía.

Otra visión interesante de tener en cuenta, es la distinción que hace Burkhardt entre las
teorías fenomenológicas y las teorías fundamentales.

Las teorías fenomenológicas son las que surgen directamente de los datos,
constituyendo un modelo descriptivo de una porción particular de los fenómenos. Se
caracterizan por el rango limitado de objetos a los que se le aplican, pero detalladas y
especificas en sus descripciones, resultando de utilidad en el diseño de experimentos y
en la compresión de los fenómenos que ocurren por su proximidad a la realidad.

Las teorías fundamentales, son estructuras conceptuales de variables y relaciones entre


ellas que comprende los aspectos esenciales de un conjunto de fenómenos. Tienen
carácter descriptivo y predictivos y es completa dentro de un dominio bien delimitado.

22
ARMANDO ZABERT (COMPILADOR)

Son modelos analíticos que tratan de explicar un rango amplio de fenómenos en


términos de pocos conceptos. Son ejemplos de casos típicos la mecánica de Newton,
etc.

Una de las cuestiones con respecto a las Teorias que en Ciencias Sociales es aun tema
de discusión, es si las teorías sociales (por ejemplo conductismo, constructivismo,
desarrollo, etc.) realmente proporcionan estructuras completas para explicar los
fenómenos, o si debido a que no son completas en un dominio, deben ser usadas
teniendo en cuenta que sin mecanismos de control, son descripciones peligrosamente
simples de sistemas complejos.

Componentes básicos en el proceso de construcción de teorías

A continuación transcribimos el proceso de construcción del conocimiento científico


según Romberg1:

Fenómenos Formulación M odelo Predicción


del Mundo del Problema

Decisión Datos

Según este modelo, el autor plantea que la raíz de la teorización esta en los fenómenos
del mundo que interesa estudiar y sus interdependencias y relaciones con el sistema
social.
El paso siguiente, es la formulación del problema en la que su eje es la identificación
de variables claves, usando un vocabulario y un conjunto de enunciados causales sobre
el fenómeno. Para este paso, es conveniente organizar dichos enunciados en términos
de modelos causales. Y a continuación se afirma una predicción, donde se define
predicción como un enunciado sobre los datos que se espera observar bajo las
hipótesis de que el modelo sea verdadero. Estos datos pueden provenir de diseños
experimentales en que se garantice el control de las variables o observaciones, y serán
comparados con los resultados o hipótesis previas.

Debemos aclarar que este esquema de Romberg es un enfoque clásico o confirmatorio,


más didáctico que actual, asociado con métodos cuantitativos. La naturaleza de las
ciencias sociales, y la complejidad de los problemas que aborda hace necesarios, una
vez formulado, y previa a la construcción de un modelo, una toma de datos, que se
analizan desde todas las perspectivas posibles en un enfoque exploratorio, buscando
teorías que las expliquen. Este es un enfoque más propio de la investigación cualitativa.

Corrientes Epistemológicas Actuales

El análisis del objeto y los métodos de cualquier área del conocimiento científico, es un
tema propio de la Epistemología. Por consiguiente, la Epistemología estudia,
recordando conceptos, la constitución de los conocimientos científicos que se
consideran validos, abordando problemas de demarcación de la ciencia y el estudio del
desarrollo del conocimiento científico.

En este breve subtitulo, abordare aspectos relativos a las concepciones epistemológicas


de Kuhn, Lakatos y Bunge.

1
Romberg, T (1988) Necessary ingredients for a Theory of Mathematics Education. En Steiner, H.G. y Vermandel, A
(Eds.) Fondations and Methodology of de discipline Mathematics Education . Procceding 2nd TME –
Conference.Bielefeld. Dept of didactics and Criticism Antwerp Univ.

23
Proyecto de Investigación e Intervención Socio-Comunitaria
Nociones de Epistemología

Los paradigmas según Kuhn

La teoría epistemológica defendida por Kuhn2 asigna un rasgo importante al carácter


revolucionario del progreso científico, en el que una revolución supone el abandono de
una estructura teórica y su reemplazo por otra, incompatible con la anterior.

Veamos el siguiente esquema del progreso de la ciencia:

Preciencia

Ciencia Nueva
Normal Ciencia
Normal

Crisis

Revolución

La noción de Paradigma es una de las aportaciones mas importantes de Kuhn a la


Teoría de la Ciencia.

Recordando: un paradigma es una concepción predominante, es el conjunto o red de


hipótesis teóricas generales, leyes y técnicas de aplicación, compartidas por los
miembros de una comunidad científica.

La formación de una ciencia, se estructura cuando una comunidad científica se adhiere


a un solo paradigma, pero va precedida por una fase de actividad relativamente sin
organización, que se denomina presciencia, en la que su característica es que falta un
acuerdo en aspectos fundamentales entre los distintos miembros de la comunidad
científica. Para Kuhn en la pre-ciencia, habrá tantas teorías como investigadores haya,
cada teórico sé vera obligado a comenzar de nuevo y a justificar su propio enfoque.

Posteriormente, sigue la ciencia normal (ya definida en este trabajo) y los inicios de las
crisis, enigmas y anomalías que llevan a una revolución y nuevamente a la pre-ciencia.

Programa de Investigación Científica de Lakatos

En la visión de Lakatos3, este filosofo de las ciencias, considera que lo que debe ser
valorado como científico no es la teoría, sino una sucesión de teorías enlazadas con un
criterio de continuidad en programas de investigación

Según Lakatos, estos programas de investigación, contendrán reglas metodológicas


acerca de las vías de investigación que deben ser evitadas, a los que él filosofo
denomina heurísticas negativas y los caminos que deben seguirse a los que llama
heurísticas positivas.

Estas heurísticas, proporcionan una definición implícita del marco conceptual del
programa correspondiente, el cual incluirá:

• Un núcleo firme o “centro firme” del programa


• Un cinturón protector de hipótesis auxiliares o “cinturón de Lakatos”
• La heurística o conjunto de procedimientos aplicables a la solución de los
problemas.

2
Kuhn, T.S. (1975) La estructura de las revoluciones científicas. México. F.C.E
3
Lakatos, I y Musgrave, A. 1975. La critica y el desarrollo del conocimiento. Barcelona. Grijalbo.

24
ARMANDO ZABERT (COMPILADOR)

Veamos en el siguiente grafico esta descripción de Lakatos:

Núcleo
Firme

Cinturón Protector
de hipótesis
Auxiliares

Realidad Social

 ¿Cómo se hará la diferenciación entre programas de investigación que


compitan entre sí?

Según Lakatos, la diferenciación entre programas de investigación competitivos se hará


teniendo en cuenta su potencial para descubrir nuevos fenómenos y el poder explicativo
que proporcionen.

La aparición de un nuevo programa de investigación supone un cambio progresivo de


problemática, mientras que la degeneración de un programa viene dado por la aparición
de hechos contradictorios.

En palabras de Lakatos, los programas de investigación pueden estar basados en


hipótesis “inconmensurables”, pero estas tendrán distintos “frutos” en cuanto a sus
resultados científicos, y en consecuencia, se pueden comparar sobre la base de un
progreso relativo.

 ¿Cuándo una teoría supone progresos?

Para Lakatos una teoría supone progreso cuando cumple tres requisitos:

1. la nueva teoría hace predicciones que no hacia la predecesora


2. algunas de las nuevas predicciones se han podido corroborar
3. La nueva teoría puede explicar hechos que no se podían explicar con la teoría
que la precedía.

En términos más sencillo, el “núcleo firme de una teoría” es muy difícil de contrastar,
pero podemos decir y determinar si un programa cumple los tres criterios de progreso, lo
que permite evaluar la validez y racionalidad del cambio científico.

 ¿Cómo interpreta Lakatos el estado de la ciencia madura e inmadura?

Para Lakatos, el estado de ciencia madura implica la existencia de un programa de


investigación y el de ciencia inmadura una secuencia de ensayos y errores.

Según este filosofo, el estado de ciencia normal (según la definición que hemos
desarrollado de Kuhn) estaría caracterizado por la existencia de un programa de
investigación que ha logrado monopolizar la explicación de los fenómenos.

25
Proyecto de Investigación e Intervención Socio-Comunitaria
Nociones de Epistemología

 ¿Cómo interpreta Lakatos la Historia de la Ciencia?

Para Lakatos, la historia de la Ciencia debe ser la de los programas de investigación o


paradigmas que compiten entre sí, y no debe convertirse en una sucesión de periodos
de ciencia normal, cuando más pronto se inicie la competencia entre programas de
investigación, mejor para el progreso científico.

Es preferible el pluralismo y no el monismo (teoría única y absoluta prescindente de toda


otra variante) teórico, como así también que algunos investigadores se aferren a un
programa de investigación hasta que este alcance su punto de saturación.

Campos y líneas de Investigación en la Epistemología de Bunge

Según Mario Bunge4, la Ciencia es:” un cuerpo creciente de conocimientos que


caracteriza como racional, exacto, verificable y por consiguiente, falible”.

Para este filosofo, el conjunto de ideas establecidas provisionalmente forman el


conocimiento científico. Las investigaciones científicas se pueden realizar tanto
individualmente, pero sobre todo en el seno de las Comunidades Científicas, las que las
validan o rechazan.

Según Bunge, un campo de conocimiento puede caracterizarse como sector de la


actividad humana, dirigido a obtener, difundir o utilizar conocimientos de alguna clase.

Analicemos este concepto, sean:

• T: comunidad de científicos que estudian T


• S: sociedad
• D: dominio del discurso (objeto de estudio)
• G: concepción general o filosofía relacionada
• F: conjunto de herramientas lógicas o matemáticas utilizables
• E: conjunto de supuestos que toma de otros campos
• P: problemática que aborda
• A: conocimientos específicos acumulados
• O: objetivos y metas
• M: métodos de investigación utilizados

Analíticamente T = S, D, G, F, E, P, A, O, M 

Bunge además distingue entre lo que él denomina campo de creencias (religión,


ideología política, etc.) y los campos de investigación.

• En los campos de creencias, los cambios en las ideas solo se producen como
consecuencia de presuntas revelaciones, de controversias o presiones sociales.
• En los campos de investigación, los cambios son incesantes como consecuencia
de la propia investigación, o por el flujo permanente de los distintos proyectos de
investigación.

 ¿Cómo distingue Bunge marco materia y marco conceptual?

En T, las tres primeras componentes, es decir Comunidad de Científicos, Sociedad que


los apoya (y en la que se desarrolla la investigación) y dominio del discurso (u objeto de
estudio), constituyen lo que Bunge denomina el marco material de un campo de
investigación, mientras que los restantes elementos, constituyen el marco conceptual.

 ¿Cómo analiza Bunge un campo de investigación?

Según Bunge, todo campo de investigación puede analizarse como un conjunto de


líneas de investigación en proceso de diseño o de realización, en las cuales estará
presente cada componente de T.
4
Bunge, M. (1985) Pseudociencia e ideología. Madrid. Alianza.

26
ARMANDO ZABERT (COMPILADOR)

5 - EL OBSTACULO EPISTEMOLÓGICO Y SU LUGAR EN LA INVESTIGACIÓN.


Armando Zabert

Se trata de un término introducido por Gastón Bachelard para designar toda


aquella creencia, habitualmente inconsciente, que frena u obstaculiza el desarrollo
del conocimiento científico. El progreso de la ciencia estaría posibilitado por la
concienzación y superación de tales creencias.

1. Concepto.

Bachelard (1884-1962) desarrolla la idea de obstáculo epistemológico


especialmente en su libro "La formación del espíritu científico", donde expone y
ejemplifica diversos tipos de obstáculos.

Existen, indudablemente, muchos factores que pueden frenar el desarrollo del


conocimiento científico. Podemos encontrar factores objetivos, como por ejemplo la no-
disponibilidad de instrumentos de observación y medición sofisticados, la complejidad
de la realidad, las limitaciones de los sentidos, etc., pero un obstáculo epistemológico no
es objetivo en el sentido apuntado, sino subjetivo, porque se trata de una creencia,
generalmente inconsciente, que tiene el científico y que le impide avanzar en su
conocimiento.

Podríamos decir: el obstáculo epistemológico es interno, no externo. Son


confusiones, prejuicios que se dan en el acto mismo de conocer, generando una inercia
que tiende a perpetuar lo ya conocido, y cerrando las puertas al nuevo conocimiento.

Consiguientemente, la solución no pasaría por comprar un instrumento de


medición más sofisticado, sino por analizar el conocimiento científico, poniendo al
descubierto las creencias inconscientes y poder así comenzar a superarlas.

El epistemólogo francés inicia la tarea de analizar psicoanalíticamente los textos


científicos, especialmente los de la Edad Medieval y Moderna, y centrándose sobre todo
en temas de física, química y biología (Bachelard fue, originalmente, químico).

Más allá de sí son o no científicos, todas las personas tienen creencias que les
impiden pensar, sentir y hacer cosas. Por ejemplo, la creencia "no valgo mucho", limitará
o frenará el desarrollo de las potencialidades en una persona común. Pero tampoco es
este tipo de creencias en las que piensa Bachelard al hablar de obstáculos
epistemológicos: estos son creencias que se producen e los científicos, y afectan
particularmente su manera de comprender o explicar la realidad.

Los obstáculos epistemológicos tienen, no obstante, su aspecto positivo: su


concientización y superación es lo que permite, en última instancia, que la ciencia pueda
progresar hacia nuevos horizontes e ideas, las que a su vez serán nuevos obstáculos
epistemológicos que deberán ser superados, y así sucesivamente.

Así, el progreso científico no tiene un término final absoluto, ya que detrás de


cada obstáculo surge otro, y así indefinidamente. El progreso consiste más que nada en
sucesivas aproximaciones a la verdad (aproximalismo) sin ser esta nunca alcanzada;
consiste, para Bachelard, en un triunfo del espíritu científico sobre las resistencias
representadas por los obstáculos epistemolpogicos. Desde esta perspectiva, no hay
verdad, sino error rectificado.

Esta idea según la cual la Historia de la Ciencia es una historia de superación de


errores está también presente en otros pensadores. El escritor de ciencia-ficción del
siglo XIX, Julio Verne decía que "la ciencia se compone de errores, los que a su vez son
los pasos hacia la verdad".

27
Proyecto de Investigación e Intervención Socio-Comunitaria
Nociones de Epistemología

De idéntica forma, Popper habla del progreso científico en términos de conjeturas


y refutaciones, vale decir, lo concibe como una secuencia, aparentemente ilimitada, de
hipótesis y refutaciones de las mismas por ser equivocadas. No obstante, los planteos
de estos pensadores son diferentes a los de Bachelard, en cuanto que ellos no conciben
los errores como productos de las creencias inconscientes del científico, sino más bien
como obstáculos más técnicos y objetivos.

Bachelard estudia con cierto detenimiento los diversos obstáculos


epistemológicos tal como se fueron presentando en la historia de la ciencia. La marcha
científica de ésta última hacia la objetividad no es inicialmente objetiva: sólo tras una
ruptura epistemológica se hace posible ir pasando de un conocimiento meramente
sensible a un conocimiento más científico.

2. El obstáculo epistemológico y el Conocimiento científico

Los obstáculos epistemológicos como creencias, son adhesiones afectivas, y el


científico procura canalizar esa afectividad en una dirección constructiva, es decir,
productora de un conocimiento más objetivo.

El origen de los obstáculos epistemológicos se asienta no sólo en todo lo que le


fuera transmitido al científico por sus maestros, portadores del mismo error, sino
también en sus primeras experiencias en la investigación.

3. Clasificación.

De la lectura del texto de Bachelard se sugiere dos criterios importantes para


clasificar los obstáculos epistemológicos.

a) Primer criterio: En primer lugar, están los obstáculos que aparecen durante la
investigación básica, y los que aparecen durante la transmisión del conocimiento
a través de la enseñanza, obstáculos estos últimos que son designados con el
nombre de “obstáculos pedagógicos”. Los obstáculos que se producen durante la
investigación básica, aparecen cuando el científico está creando nuevas
hipótesis o las está sometiendo a prueba. Ciertas creencias pueden hacer que el
científico plantee hipótesis irrelevantes, que se resista a abandonar ciertas
hipótesis por existir una adhesión afectiva a ellas, o que utilice métodos de
prueba difícilmente calificables como propiamente científicos. Los obstáculos
pedagógicos aparecen en el acto de enseñar, y como tales van transmitiéndose
de generación en generación contribuyendo a un freno o a una detención del
conocimiento científico: un hecho originalmente mal interpretado es comunicado
tal cual a los alumnos, y estos a su vez a sus alumnos y así sucesivamente. El
profesor, de hecho, no sólo enseña contenidos, sino también una manera de
pensar el mundo, y por ambos caminos se filtran, casi siempre inadvertidamente
tanto para el educador como para el educando, los obstáculos epistemológicos.
b) Segundo Criterio: Esta segunda clasificación los divide en fundamentales y
especiales. Los obstáculos epistemológicos fundamentales son, en la
denominación de Bachelard, la experiencia básica y el conocimiento general, y
deben ser entendidos como dos errores extremos en los cuales puede incurrir el
científico. La experiencia básica consiste en aferrarse a lo singular de los
fenómenos, sin captar lo esencial y sin ejercer una crítica sobre los datos de los
sentidos. La experiencia básica describe desordenadamente lo que ve, salta de
un tema a otro resaltando lo que más le atrae, lo que le es más llamativo,
curioso. La experiencia básica busca la variedad, pero no la variación metódica,
donde el científico va analizando variable por variable en forma experimental, con
el fin de probar la sensibilidad de aquellas que se suponen relevantes. En el otro
extremo, podemos encontrar al conocimiento general. Tan nefasto para el
progreso del espíritu científico, es la atracción por lo particular (experiencia
básica) como la atracción por lo general, su par opuesto. Este segundo obstáculo
consiste en generalizar demasiado y de modo facilista, lo que lleva a una
detención de la experiencia, a un desinterés por el soporte empírico que debe
tener toda ciencia, del mismo modo que la experiencia básica promovía el
desinterés por los principios generales, en favor de la diversidad de lo singular.

28
ARMANDO ZABERT (COMPILADOR)

Señala Bachelard que la excesiva generalización inmoviliza el pensamiento: las


variables que describen lo general dejan en la sombra las variables matemáticas
esenciales y, por lo demás, las generalizaciones apresuradas muchas veces se
equivocan. Bachelard señala que, en efecto, todo obstáculo epistemológico tiene
su par opuesto, hacia el cual se tiende a ir con el fin de superar el primer error.
Los obstáculos epistemológicos especiales son: el obstáculo verbal, el
conocimiento unitario, el conocimiento pragmático, el sustancialismo, el realismo,
el animismo, el conocimiento cualitativo y el conocimiento cuantitativo. Veamos
algunas consideraciones de estos tipos de obstáculos:

1) Obstáculo verbal.- Consiste en una sobre valorización de las comparaciones


o metáforas empleadas para explicar los hechos, donde estos quedan
explicados por estas comparaciones y no por las leyes científicas. En su
intento por describir y explicar el aire, el científico Reamur recurría a la
metáfora de la esponja: "el aire, por su estructura, es semejante a los cuerpos
esponjosos". En realidad, un acercamiento científico al aire implica hablar de
su composición química, de la presión que ejerce sobre la tierra, de su
densidad, de sus propiedades para dejar pasar o no ciertas radiaciones, de su
capacidad para desplazarse según su temperatura, etc. De considerar que el
aire es como una esponja a pensar que tiene porosidades o que resulta útil
para enjabonarse hay un solo paso, y es aquí donde aparece el obstáculo
verbal: tomar al pie de la letra imágenes metafóricas simples y familiares y
proponerlas como explicaciones plausibles.
2) Conocimiento unitario.- Tendencia del conocimiento pre-científico a
considerar que todo está regido por un único principio general de la
naturaleza, o bien que todas las cuestiones deben encuadrarse desde una
única Weltanschauung (es decir cosmovisión, manera de ver las cosas, forma
de pensar el mundo). Por ejemplo, en el siglo 18 la idea de una naturaleza
homogénea y armónica negó todas las peculiaridades propias de los
fenómenos subordinándolas a un principio general, y pasando por alto
también las contradicciones observadas. Explicar la diversidad fenoménica
desde una única óptica es fácil, pero científicamente inconveniente. Pensar
que hay una "unidad armónica" en el mundo conduce al planteo de una supra-
determinación, vale decir, a pensar que todo está determinado, too es
inevitable, todo está en última instancia controlado desde aquella unidad y
aquella armonía.
3) Conocimiento pragmático.- Obstáculo que hace desarrollar indebidamente
una hipótesis de tal forma que pueda ser simplemente útil, proceso que
Bachelard designa como inducción utilitaria. Desde esta perspectiva, todo lo
que no es útil es irracional, es anticientífico. Un ejemplo de hipótesis utilitaria
aparece en el científico Berthollet: "Si se suprimiera la transpiración durante
los primeros años de vida del hombre, los conductos se agrandarían y los
humores (enfermedades) podrían luego salir en forma más abundante". Quien
formuló o aceptó esta hipótesis no le importó mayormente que fuera o no
verdadera; se interesó porque era útil, ya que suministraba un adecuado
curso de acción para evitar el agrandamiento de los conductos, fomentando la
transpiración durante los primeros años de vida.
4) Sustancialismo.- Creencia según la cual la noción de sustancia es suficiente
para explicar los fenómenos observados, noción a la que se apela en virtud de
su familiaridad, su sencillez y su contundencia. Sustancializar un fenómeno es
considerarlo simplemente una sustancia, y como tal ésta de por sí sola explica
dicho fenómeno. En sus intentos por explicar el fenómeno de la electricidad,
los físicos de siglos atrás decían que era como una especie de engrudo, que
era "glutinosa" y "untuosa", ya que habían observado que el polvo se
"pegaba" a una superficie electrizada. Desde ya, la electricidad no queda
explicada diciendo que es un engrudo. En realidad, el conocimiento científico
no se agota en el conocimiento de sustancias, porque la realidad está hecha
de relaciones.
5) Realismo.- Aquí Bachelard alude a un realismo ingenuo, según el cual la
realidad es tal cual como se nos presenta a los sentidos, y estos no nos
engañan. Por lo tanto, carece de sentido buscar algo que esté "más allá" de lo
fenoménico, porque todo lo real está inmediatamente dado. Apariencia y

29
Proyecto de Investigación e Intervención Socio-Comunitaria
Nociones de Epistemología

esencia son, para el realismo ingenuo una y la misma cosa, cuando en rigor
desde una mentalidad científica debe reconocerse que el conocimiento
implica trascender lo fenoménico y emprender la búsqueda de relaciones
esenciales.
6) Animismo.- Tendencia del espíritu pre-científico a explicar los fenómenos
biológicos, y aún los físico-químicos, a partir de la existencia de un impulso
vital, o un fluido vital, que de por sí solo capaz de explicar fenómenos como la
reproducción, el metabolismo, el crecimiento, etc. La palabra "vida" aparece
como una expresión que puede explicarlo todo. Hacia 1664, por ejemplo, se
intentaba explicar ciertos cambios en los metales diciendo que estaban
"enfermos", y que su vitalidad había disminuido. El ejemplo puede parecernos
grotesco, pero muestra al desnudo el obstáculo epistemológico animista.
7) Conocimiento cualitativo.- Obstáculo epistemológico por el cual
consideramos solamente los aspectos cualitativos de los fenómenos, sin
intentar indagar en las relaciones cuantitativas entre las variables
correspondientes. Su par opuesto es el conocimiento cuantitativo. Por
ejemplo, categorizar las personas como "es inteligente" o "no es inteligente",
en lugar de intentar establecer una medición numérica, que siempre es mucho
más precisa.
8) Conocimiento cuantitativo.- En el otro extremo, este obstáculo implicará
cuantificarlo todo en una forma obsesiva, o bien cuantificarlo mal. Por
ejemplo, no se puede medir un proceso como por ejemplo los fenómenos
mentales, a riesgo de extraer conclusiones equivocadas.

Se puede advertir que muchos de los obstáculos epistemológicos descriptos se


superponen y hasta parecen referirse a lo mismo, como por ejemplo la experiencia
básica con el realismo, o el sustancialismo con el animismo. La razón es que todos ellos
están relacionados en los mismos procesos de conocimiento, y si Bachelard los separa
es a los efectos del simple análisis.

Por ejemplo, considerar que la conducta se explica por el alma implica incurrir
simultáneamente en un animismo, porque el alma encierra el impulso vital, en un
sustancialismo, porque se explica todo a partir de la idea de sustancia (en este caso una
sustancia inmaterial), en un conocimiento unitario porque se invoca el alma como único
principio explicativo, etc.

Bibliografía Consultada:

• Bachelard G., "La formación del espíritu científico". Contribuciones a un


psicoanálisis del conocimiento objetivo, Buenos Aires, Siglo XXI editores, 1972,
segunda edición.

30
ARMANDO ZABERT (COMPILADOR)

6 - EL METODO HIPOTETICO-DEDUCTIVO DE LA CIENCIA. Armando Zabert


El método hipotético-deductivo, un clásico de la literatura epistemológica, permite
poner a prueba hipótesis en la ciencia, y consiste básicamente en deducir de las
mismas consecuencias lógicas contrastables con los hechos. Como resultado, las
hipótesis podrán ser corroboradas, refutadas o salvadas de la refutación.
Examinaremos también nota el razonamiento hipotético- deductivo desde ciertos
puntos de vista de las ciencias sociales.

1. Los pasos del método hipotético-deductivo

Concepto: El método hipotético-deductivo consiste básicamente en proponer una


hipótesis (por eso se llama “hipotético”), luego deducir de ella consecuencias
directamente verificables en la realidad (por eso se llama “deductivo”), y finalmente
confrontar esas consecuencias con los hechos para ver si la hipótesis es o no
sostenible.

Para comprender este proceso vamos a guiarnos con un ejemplo muy sencillo,
utilizando el esquema 1

Supongamos que queremos poner a prueba la hipótesis (H) de que todos los cisnes son
blancos. Para demostrar esta afirmación con absoluta seguridad, deberíamos observar
todos los cisnes del mundo, del pasado, del presente y del futuro, cosa obviamente
imposible (recordemos que una hipótesis pretende siempre ser una afirmación general
que se refiere a '”todos” los objetos).

Sin embargo, lo que sí podemos hacer es observar algún o algunos cisnes, y, por lo
tanto, lo que podemos probar directamente y con seguridad es una consecuencia lógica
de la hipótesis, a saber "el cisne del zoológico es blanco". Por lo tanto, de la hipótesis
inicial deducimos esta implicación contrastadora (I), la que pondremos a prueba
confrontándola con la realidad.

En rigor, el pasaje de la hipótesis a la implicación contrastadora no suele ser tan sencillo


como aquí lo sugerimos. Muchas veces la hipótesis de partida es una hipótesis teórica
cuyos términos requieren ser traducidos a un lenguaje observacional, con lo que
obtenemos una hipótesis empírica intermedia, llamada hipótesis derivada.

Es a partir de esta que luego se deducirán implicaciones contrastadoras. Por ejemplo, a


partir de la hipótesis teórica "todos los metales se dilatan con el calor", se traduce el
término teórico "metal" como término empírico "hierro" obteniéndose la hipótesis
derivada "El hierro se dilatará con el calor". Desde aquí, finalmente, deducimos la
implicación "este trozo de hierro se dilatará con el calor".

La confrontación de la implicación contrastadora con los hechos se llama


“contrastación”, pues de lo que se trata es de establecer una comparación, un
“contraste” (una comparación) entre lo que yo supongo que debe ocurrir (el cisne es
blanco) y lo que la realidad me muestra en el zoológico (el cisne puede o no ser blanco).

Tengamos presente, antes de seguir, que la implicación contrastadora "el cisne del
zoológico es blanco" no es originalmente un resultado de la observación, sino una
consecuencia lógica de mi hipótesis, lo cual nos permite entender porqué debemos
contrastarla con los hechos.

Recién cuando yo realice tal confrontación y haya resultado exitosa, podré decir que "el
cisne del zoológico es blanco" es un resultado de la observación, con lo cual dejará de
ser una implicación contrastadora (consecuencia lógica de la hipótesis), para pasar a
ser un enunciado protocolar (o resultado de una observación).

Retomando, cuando decidimos contrastar la implicación contrastadora con los hechos,


pueden suceder dos cosas: que la implicación y los hechos coincidan (efectivamente el

31
Proyecto de Investigación e Intervención Socio-Comunitaria
Nociones de Epistemología

cisne del zoológico es blanco), o que no coincidan (el cisne del zoológico es negro). En
el primer caso decimos que la implicación contrastadora es verdadera, y en el segundo
caso que resultó falsa.

Tal vez no estemos aún conformes con los resultados, porque quizás un solo cisne
blanco no prueba con el rigor que pretendemos que todos los cisnes lo sean.

En este caso buscaremos más cisnes haciendo las correspondientes contrastaciones,


hasta llegar, por decir cualquier cifra, a veinte cisnes blancos, momento en el cual nos
quedamos conformes.

A veces, sin embargo, el apoyo empírico que sustenta una hipótesis no depende tanto
de la cantidad de cisnes, sino de la variedad: quizás tres cisnes blancos de distintas
sub-especies o razas me prueba mejor la hipótesis que veinte cisnes blancos de la
misma sub-especie.

En definitiva, cuando hemos constatado la verdad de las implicaciones contrastadoras,


decimos que hemos “corroborado” la hipótesis, y pasamos a denominarla “ley”.

La hipótesis y la ley son en realidad la misma afirmación, sólo que con la segunda
denominación se busca mostrar que se trata de una afirmación corroborada y, por lo
tanto, digna de pasar a integrar el cuerpo estable de conocimientos llamado ciencia (con
lo cual puede publicarse, difundirse y aplicarse).

 ¿Qué sucede si la implicación contrastadora resulta falsa?

Tenemos dos caminos alternativos: la refutación y la salvación.

Hipótesis (H)

Implicación contrastadora (I)

Contrastación

Refutación

No
Ley Coinciden
coinciden

Salvación

Hecho

Esquema 1: El método hipotético-deductivo

32
ARMANDO ZABERT (COMPILADOR)

El primer camino consiste en declarar falsa la hipótesis "todos los cisnes son blancos"
(refutación), tras haber comprobado la existencia de un cisne negro. En este caso,
recomenzamos todo el proceso volviendo a formular una nueva hipótesis, como por
ejemplo "todos los cisnes son negros".

El segundo camino consiste en intentar salvar de la refutación a una hipótesis que


corre el riesgo de ser falsada.
La historia de la ciencia nos revela que el recurso más habitual es la formulación de una
hipótesis ad hoc. En este caso, la hipótesis ad hoc podría ser: "este cuervo es en
realidad blanco, sólo que está pintado de negro". Si constatamos la verdad de esta
hipótesis ad hoc, habremos corroborado nuestra hipótesis original, aunque también es
posible que la hipótesis ad hoc no quede corroborada, en cuyo caso refutamos la
hipótesis original.

Otras veces, la hipótesis ad hoc no necesita ser corroborada, sino que se la introduce
como supuesto teórico para poder salvar de la refutación a la hipótesis original.

La denominación “ad hoc” significa “para este caso únicamente”, y alude a que es
aplicable solamente al caso anómalo que hemos observado (este cisne pintado de
negro). La expresión suele aparece también en algunos contratos comerciales, donde
una cláusula “ad hoc” es aquella que se aplica solamente a ese contrato en particular.

El empleo de hipótesis ad hoc, dijimos, es más una regla que una excepción. Recién
empiezan a perder eficacia para sostener una teoría cuando se acumulan demasiado:
cuando una teoría está sostenida por demasiadas hipótesis ad hoc (demasiadas
anomalías, en el lenguaje de Kuhn), aumenta el riesgo de ser refutada, contribuyendo a
producir finalmente lo que Kuhn llamaba una revolución científica (1).

Según lo visto hasta aquí, tres pueden ser, en definitiva, los destinos de una hipótesis
cuando es sometida a prueba mediante el método H-D: o bien es corroborada, o bien es
refutada, o bien es salvada de la refutación (o corroborada vía hipótesis ad hoc).

Klimovsky ha denominado “versión simple” del método H-D a la versión según la cual
este método se propone sin más corroborar la hipótesis si los hechos la confirman, o
refutarla en caso contrario.

Sin embargo, el mismo autor señala que esta versión "ha merecido objeciones, basadas
en el argumento de que no refleja la complejidad de la estrategia cientifica real" (2),
razón por la cual es preciso formular una “versión compleja” del método, donde mas
bien se trata de salvar a la hipótesis cuando corre el riesgo de la refutación.

Según el mismo autor (Klimovsky), la versión simple implica sostener una estrategia
revolucionaria, en la medida en que la hipótesis es sin más refutada, mientras que la
versión compleja está más vinculada con una estrategia conservadora, en la medida en
que según ella, "una teoría no se abandona en sí mísma porque presenta refutaciones,
ya que la responsabilidad podría recaer sobre hipótesis ajenas a ella o sobre las
observaciones; y también que una teoría descartada en cierto momento puede volver a
ser aceptada por la comunidad científica si se ponen en tela de juicio los datos que han
servido para refutarla o las hipótesis auxiliares que han intervenido en la refutación" (3).

2. Un ejemplo de la historia de la ciencia

Hempel cuenta las investigaciones de un médico húngaro, Ignaz Semmelweis, quien


trató de averiguar por qué las parturientas de la División Primera del Hospital de Viena
se enfermaban más que las otras de fiebre puerperal. Sus primeras hipótesis tuvo que
refutarlas, hasta que finalmente pudo corroborar la definitiva.

Desde la perspectiva del método H-D, veamos brevemente cómo se llevó a cabo la
refutación, cómo se hizo la corroboración, y cómo se hubiese salvado de la refutación
alguna de las hipótesis en peligro de ser descartada.

33
Proyecto de Investigación e Intervención Socio-Comunitaria
Nociones de Epistemología

a) Refutación.- Una de las primeras hipótesis que planteó Semmelweis fue que "la
fiebre puerperal es producida por influencias atmosféricas" (H). De ello se deduce
la implicación contrastadora "la fiebre puerperal debe atacar por igual en todas
las divisiones del hospital" (I). Sin embargo, se comprobó que la enfermedad era
significativamente mayor en la División Primera, o sea, I era falsa. Conclusión: a
partir de la falsedad de I se deduce la falsedad de la hipótesis, con lo cual queda
refutada, vale decir, las influencias atmosféricas no tienen relación con el
incremento de la fiebre puerperal en una de las divisiones. A partir de aquí,
Semmelweis formuló otras cuatro hipótesis, que también terminaron refutadas.
b) Corroboración.- La última hipótesis fue que "la fiebre puerperal es producida por
los microorganismos presentes en las manos infectadas de los parteros" (H). De
ello se deduce la implicación contrastadora "la fiebre puerperal disminuirá
significativamente si se desinfectan las manos con una solución clorurada de cal"
(I). Se hizo la prueba, y efectivamente el porcentaje de casos de fiebre puerperal
disminuyó en forma significativa, con lo cual se terminó corroborando o
aceptando la hipótesis.
c) Salvación.- Supongamos ahora que la prueba anterior se llevó a cabo, pero no
había cambios en el porcentaje de casos de fiebre puerperal (implicación
contrastadora falsa), y Semmelewis hubiese estado particularmente interesado
en seguir sosteniendo su hipótesis, es decir, en salvarla de la refutación. En este
caso, hubiese planteado una hipótesis ad hoc, vinculada por ejemplo con la
ineficacia antiséptica de la solución clorurada de cal (8).

3. Fundamentos lógicos del método hipotético-deductivo

A continuación explicaremos en forma muy intuitiva los fundamentos lógicos de los


razonamientos que conducen a la aceptación o rechazo una hipótesis según el método
H-D.

El esquema 2 nos muestra las cuatro posibilidades lógicas que pueden darse en cuanto
a los valores de verdad (V o F) de una hipótesis (H) y su correspondiente implicación
contrastadora (I). Estas cuatro posibilidades están representadas por las cuatro hileras
respectivas.

Hipotesis Implicación Contrastadora Validez


Hilera 1 V V Verdadero
Hilera 2 V F Falso
Hilera 3 F V Verdadero
Hilera 4 F F Verdadero

Esquema 2: Fundamentos lógicos del método hipotético-deductivo

Notemos que el único caso donde con seguridad el razonamiento de inferir una I a partir
de H es inválido (falso), es la segunda hilera, es decir, cuando de una hipótesis H
verdadera concluímos una implicación contrastadora I falsa. Es obvio que a partir de
"todos los cisnes son blancos", no puedo deducir válidamente "un cisne es negro".

Un razonamiento podemos compararlo a una “máquina” de fabricar verdades: si por un


lado metemos una verdad, por la conclusión deberá aparecer otra verdad, no una
falsedad (compárese la primera y la segunda hilera del esquema 2).

Esta “máquina de inferir”, sin embargo, se altera, cuando por un lado metemos una
falsedad, en cuyo caso en la conclusión podrá aparece tanto una verdad como una
falsedad (tercera y cuarta hilera del esquema 2).

 ¿cómo se aplica este esquema prescripto por la lógica al método H-D?

Por empezar, ya dijimos que lo único que podemos comprobar fehacientemente en


cuanto a si es V o F no es la hipótesis sino la implicación contrastadora, por cuanto no
podíamos saber si “todos” los cisnes son blancos o no, pero sí si uno o unos pocos lo
son.

34
ARMANDO ZABERT (COMPILADOR)

A partir de allí, la implicación contrastadora puede ser V o F (5). Si es F (segunda y


cuarta hilera del esquema 2), sólo podemos concluír la falsedad de la hipótesis (cuarta
hilera), ya que la segunda hilera implica un razonamiento inválido.

En cambio, si la implicación contrastadora es V (primera y tercera hilera del esquema 2),


entonces podemos concluír indistintamente tanto que la hipótesis es verdadera como
que es falsa, ya que ambas posibilidades no implican necesariamente un razonamiento
inválido.

En síntesis hasta aquí: de la falsedad de la implicación contrastadora concluímos la


falsedad de la hipótesis (refutación), mientras que de la verdad de la implicación
contrastadora podemos concluír tanto la verdad como la falsedad de la hipótesis, con lo
cual decidimos declararla probable (corroboración), y tanto más probable cuanto mayor
cantidad y variedad de implicaciones contrastadoras verdaderas hayamos reunido.

En el ejemplo: de la observación de un cisne negro concluímos la falsedad de la


hipótesis 'todos los cines son blancos', mientras que de la observación de un cisne
blanco podemos concluír tanto la verdad de 'todos los cisnes son blancos' como también
su falsedad (porque queda la posibilidad de que nuevos cisnes no sean blancos).

Esto mismo podemos decirlo de otra manera: basta un solo caso que no esté de
acuerdo con la hipótesis para declararla falsa (basta un solo cisne negro para refutar
que todos los cisnes son blancos), pero no bastan miles de casos que estén de acuerdo
con la hipótesis para declararla verdadera, con lo cual los únicos destinos posibles para
una hipótesis no son la falsedad y la verdad, sino la falsedad y la probabilidad. Esto es
el resultado natural de la asimetría indicada entre refutación y corroboración (6).

4. Implicancias en Ciencias Sociales del razonamiento hipotético-deductivo

Examinaremos aquí algunas consideraciones que se han hecho sobre el razonamiento


hipotético-deductivo en el terreno de las ciencias sociales (psicología cognitiva) y que
permiten aproximarnos al ¿cómo y el por qué las personas -y entre ellas también los
científicos- razonan como lo hacen?. Esto nos dará alguna idea muy elemental sobre el
razonamiento H-D se aplica en las Ciencias Sociales

Se examinara primeramente los razonamientos que conducen a corroborar o a refutar


hipótesis, y luego los que conducen a salvarlas.

1) Corroboración y refutación de hipótesis.- Investigaciones realizadas en


psicología cognitiva (Wason, 1966), han revelado que la gente tiende a razonar
mal, en el sentido de que tiene una tendencia a confirmar o corroborar sus
hipótesis, evitando considerar contraejemplos que la refuten. Wason (7) propuso
a varias personas su conocido “problema de las cuatro tarjetas”. Las soluciones
ofrecidas, casi siempre incorrectas, mostraron esta tendencia a buscar ejemplos
confirmatorios en vez de buscar, además, los contraejemplos. El problema fue
incluso mal resuelto por personas de muy alto nivel intelectual. El problema
consiste en lo siguiente: dadas cuatro tarjetas como en el esquema 3, que tienen
invariablemente una letra de un lado y un número del otro, ¿qué tarjetas se
deberían dar vuelta de manera necesaria y suficiente como para determinar con
certeza la verdad o la falsedad del siguiente enunciado: "en toda tarjeta que haya
una E de un lado, habrá un 4 en la otra"? Este enunciado puede simplificarse
diciendo "Si E, entonces 4". Si lo desea, el lector (alumnos) puede resolverlo y
comparar su respuesta con el resultado correcto que aparece en el próximo
párrafo, antes de seguir leyendo. La respuesta correcta son las tarjetas E y 7. En
la experiencia de Wason, la gran mayoría de las personas incluyó la tarjeta E
(sola o con alguna otra equivocada), pensando que al darla vuelta podía decidir si
el enunciado era V o F: sería verdadero si encontraba un 4, y sería falso si
encontraba otro número distinto. Otras personas consideraron que con ello
bastaría (de hecho, implica un razonamiento correcto, aunque insuficiente), pero
no es así. Si además se hubiesen propuesto dar vuelta la tarjeta 7, y hubieran
encontrado una E, podrían haber determinado en este caso la falsedad del
enunciado propuesto (la tarjeta E-7 representa el contraejemplo). Sin embargo,

35
Proyecto de Investigación e Intervención Socio-Comunitaria
Nociones de Epistemología

casi nadie eligió la tarjeta 7, es decir, casi nadie eligió el camino de partir de un
consecuente falso (el 7) para ver si estaba o no implicado en un antecedente
verdadero (la E). Algunas personas incluyeron en su respuesta la tarjeta 4. Sin
embargo, no hay ninguna necesidad de dar vuelta esta tarjeta para decidir sobre
el valor de verdad del enunciado propuesto. Por ejemplo, si detrás de la tarjeta no
hay una E, ello no prueba la falsedad de "Si E entonces 4".El sesgo hacia la
confirmación que encontramos en las personas en general, existe también en la
ciencia, donde la tendencia o sesgo predominante es la corroboración (elegir la
tarjeta E), mas no la refutación a través de la búsqueda del contraejemplo (elegir
la tarjeta 7).
2) Salvación de hipótesis.- Según Wason, la tendencia a corroborar o confirmar
expresa un razonamiento incorrecto, mientras que la consideración de todas las
posibilidades (ejemplos y contraejemplos), expresa un buen razonamiento.

Esquema 3: El problema de las cuatro tarjetas.

E D
4 7

A modo de reflexión:

Cuando un científico intenta salvar una hipótesis de la refutación, agrega la premisa de


la hipótesis ad hoc de manera tal de que la conclusión presuntamente refutatoria se
derive válidamente de la hipótesis. Así, concluír "este cisne es negro" puede deducirse
válidamente de las premisas "todos los cisnes son blancos" y "este cisne es blanco pero
está pintado de negro". El científico trata así de salvar su hipótesis introduciendo un
'arreglito' en su razonamiento de manera que no aparezca como inválido.

Aunque los resultados de las investigaciones de Henle no han probado fehacientemente


que las personas siempre razonen bien, una cosa es cierta: el hombre tiende siempre a
la coherencia, a la validez -más allá de si lo logra o no- como lo prueba el hecho de que,
frente a un hecho que amenaza refutar la hipótesis, se ve en la necesidad de introducir
premisas adicionales (hipótesis ad hoc) para no verse forzado a aceptar un
razonamiento inválido.

(1) Kuhn T., "La estructura de las revoluciones científicas", FCE, Madrid, 1975, pág. 149.
(2) Klimovsky G., "Las desventuras del conocimiento científico", A-Z editores, Buenos
Aires, 1994, pág. 211.
(3) Klimovsky G., Op. Cit., pág. 239.
(4) Cazau P., "Fundamentos lógicos de la justificación empírica", Revista Observador
Psi N° 32, Enero/Abril 1999, Buenos Aires, pág. 71.
(5) Darwin decía que toda observación debía ser a favor o en contra de alguna opinión
para ser de alguna utilidad (citado por Wisdom John, "Foundations of inference in
natural science", Mathuen, London, 1952).
(6) Para que hubiese una simetría entre ambos procesos, de la verdad de la I se
concluiría la verdad de H, de la misma forma en que de la falsedad de I se concluye la
falsedad de H.
(7) González G., "Temas de Psicología Cognitiva (II) Pensamiento", Tekné, Buenos
Aires, 1987.
refutacionismo.
(8) Hempel K., "Filosofía de la ciencia natural", Alianza Editorial, Madrid, 1977, 3°
edición, pág. 44.

36
ARMANDO ZABERT (COMPILADOR)

7 - LA ABDUCCION O RETRODUCCION. LA LOGICA DEL DESCUBRIMIENTO.


Armando Zabert

Abducción es un término creado por Charles Peirce para designar todo aquel
proceso inferencial que conduce a la invención, descubrimiento o creación de una
hipótesis, propuesta que se inscribe entonces como un intento por construír una
"lógica del descubrimiento" científico. En la presente nota incluímos también una
comparación con la inducción y la deducción.

La investigación científica implica la utilización de diversos tipos de razonamientos.


Desde Aristóteles en adelante, las inferencias básicas del científico siempre fueron la
deducción y la inducción (1), aunque, con el correr del tiempo y ya entrando el siglo XX,
aparecieron otras propuestas como la abducción, planteada y desarrollada por el filósofo
y lógico norteamericano Charles S. Peirce (1839-1914).

En el presente artículo me propongo explicar de un modo muy elemental la propuesta


de Peirce y compararla con otros tipos de inferencia, a los fines de sopesar su función
en el contexto general de la investigación científica. Considero un lector no
especializado en lógica, por lo que evitare en todo lo posible el empleo de vocabulario
técnico.

1. Un acercamiento al concepto de abducción

Concepto: También llamada "retroducción" o "inferencia hipotética", la abducción ocupa


un lugar importante en la filosofía de Peirce (2). Básicamente, se trata de un tipo
especial de razonamiento que nos permite descubrir o inventar nuevas hipótesis para
explicar un hecho (3).

Un ejemplo claro y sencillo nos lo proporcionan Garnham y Oakill (4). Se trata del
ejemplo de abducción del esquema 1, donde, en primer lugar, nos enfrentamos a un
hecho que no podemos explicar: el secador no funciona (primera premisa). Este hecho
requiere una explicación, para lo cual recurrimos a nuestro marco teórico, que nos dice
que si el fusible está fundido, entonces el secador no funciona (segunda premisa). La
conclusión correspondiente es "el fusible está fundido", es decir, es la explicación o
hipótesis que formulamos para explicar el hecho.

El ejemplo de abducción del esquema 2 es utilizado frecuentemente por el mismo


Peirce, quien entonces llama "resultado" al hecho a explicar, "regla" al marco teórico
utilizado, y "caso" a la hipótesis que se formula para explicar el hecho en función del
marco teórico. No utilizaremos aquí esta terminología de Peirce, por parecernos
ambigua y confusa.

Vamos a comentar ahora algunos elementos importantes del razonamiento abductivo,


tales como: el ordenamiento de las premisas, la estructura formal, el marco teórico y la
hipótesis.

Ordenamiento de las premisas.-

Si observamos detenidamente los ejemplos de abducción de los esquemas 1 y 2,


notaremos que las premisas aparecen en diferente orden: en el esquema 1 primero se
presenta el hecho a explicar y luego el marco teórico, mientras que en el esquema 2
primero se presenta el marco teórico (regla) y luego el hecho a explicar (resultado).

La pregunta que puede surgir aquí es ¿cuál es el ordenamiento correcto?, y hacia ello
vamos. Debemos distinguir entre el ordenamiento lógico y el ordenamiento psicológico
de las premisas.

Desde el punto de vista estrictamente lógico, el ordenamiento de las premisas carece de


importancia, dada la propiedad conmutativa de la conjunción lógica. En efecto, según la
lógica proposicional, en todo razonamiento las premisas están relacionadas entre sí por

37
Proyecto de Investigación e Intervención Socio-Comunitaria
Nociones de Epistemología

conjunción, de manera que es lo mismo decir "Si el fusible está fundido entonces el
secador no funciona'” y ”el secador no funciona", que decir "el secador no funciona” y “si
el fusible está fundido entonces el secador no funciona".
Las conclusiones que pueden obtenerse en uno u otro caso son iguales y están
igualmente justificadas desde el punto de vista lógico.

Al igual que el ordenamiento lógico, entonces, nos parece que cualquiera de ambos
ordenamientos en sentido psicológico es correcto, por cuanto ambos presuponen que la
problematización de los hechos está activada o guiada por una teoría previa.

La estructura formal del razonamiento.

La forma de la inferencia abductiva puede presentarse de diferentes maneras. Utilizando


la terminología aristotélica del "Organon", el razonamiento del ejemplo 2 se presenta
como un silogismo categórico, y el mismo razonamiento en el ejemplo 1 está presentado
como un silogismo hipotético mixto y, más específicamente, como un silogismo más
modernamente designado como falacia de la afirmación del antecedente (5), es decir,
como un silogismo de la forma:

q (hecho a explicar)
Si p entonces q (marco teórico)
Por lo tanto p (hipótesis)

Esta estructura pone de relieve más claramente el carácter probable de la conclusión,


tal como lo destacara el mismo Peirce cuando dice que "la abducción sugiere
meramente que algo “puede” ser" (6).

El marco teórico.-

Según Garnham y Oakill, "la principal propuesta de una abducción es generar una
explicación contra un trasfondo de la teoría previamente establecida" (7).

De idéntica manera, Johnson-Laird ubica la abducción como la generación de una


explicación para un acontecimiento a partir de una teoría de cómo funciona el mundo
(4).

En suma, la hipótesis se obtiene "mediante el descubrimiento (o acto de re-


conocimiento) de que un cierto patrón o pauta (observable en los hechos) es análogo a
un patrón general (inteligible como pauta ideal)" (8).

De lo dicho se desprende que, si queremos explicar el mismo fenómeno desde marcos


teóricos diferentes, formularemos hipótesis distintas.

La inclusión del marco teórico como premisa del razonamiento abductivo nos está
diciendo, en suma, que resulta imposible formular una hipótesis si no es dentro de algún
marco teórico o sistema de creencias, sea conciente o inconciente, explícito o implícito.

Si la premisa del marco teórico no existiera, sería imposible inferir una hipótesis
únicamente a partir del hecho.

la hipótesis.-

La hipótesis inferida por abducción no es cualquier hipótesis, sino una hipótesis que
surje a partir de determinado marco teórico, a saber, aquel que fuera incluído como
premisa.

Esta hipótesis presenta dos características:

a) En primer lugar, la hipótesis representa un saber novedoso, por lo menos desde


el punto de vista psicológico. Tal vez no lo sea desde el punto de vista lógico, en
la medida en que la hipótesis está incluída en el marco teórico, del cual es una
derivación inferencial.

38
ARMANDO ZABERT (COMPILADOR)

b) En segundo lugar, y en relación con lo anterior, la hipótesis que se obtiene por


abducción es una de las muchas posibles que admite el marco teórico utilizado.
Sin embargo, como indica M. Fann (9), no siempre resulta claro en Peirce si la
abducción concierne al descubrimiento de una hipótesis o bien a la selección
razonada de una hipótesis entre varias (10).

Samaja opta, por ejemplo, por la segunda interpretación cuando se refiere a la


abducción como una inferencia que reduce los "espacios de búsqueda" de las hipótesis
posibles (8).

Otros ejemplos de abducción

Samaja (8) nos presenta un ejemplo de inferencia abductiva en los siguientes términos:

a) Marco teórico: “La distribución de las posibilidades de reproducción de los


individuos y la acumulación gradual de variaciones en las sucesivas
generaciones (como ocurre en la Selección Doméstica) produce como resultado
la adaptación de los vivientes a sus medios respectivos (Ley de Selección y
Acumulación). Hecho a explicar: Los rasgos que se observan en las especies
naturales presentan rasgos que parecen “controladas” por un patrón de
adaptación al medio.
b) Hipótesis: Los rasgos de las especies naturales son un caso de distribución
selectiva de la capacidad de reproducción por acumulación sucesiva de
variaciones.

El aporte de Peirce.

En suma, y como destaca Ferrater Mora (2), se pueden mencionar dos puntos
importantes en la filosofía de Peirce en lo concerniente a la abducción:

a) los procesos mentales involucrados en los contextos de descubrimiento y


justificación son inferenciales. En el primero de ellos, psicológicamente puede
haber habido algo llamado “intuición” o mera “conjetura”, pero ellas son
susceptibles de ser formalizadas lógicamente, es decir, de ser caracterizadas
como razonamientos o inferencias;
b) de lo anterior, se desprende que las inferencias pueden ser analíticas (la
inferencia deductiva) y sintéticas. Esta última no es solamente inductiva, pues
incluye también la abducción, lo cual nos introduce de lleno en la polémica
cuestión de las relaciones de la abducción con la deducción y la inducción.

2. Abducción, inducción y deducción

Peirce dice que "la deducción prueba que algo debe ser; la inducción que algo es
realmente operativo; y la abducción sugiere meramente que algo puede ser (6)”, para
otros autores, o bien la abducción es irreductible a la inducción, o bien es otro tipo más
de inferencia inductiva, discusión derivada en gran parte de una falta de acuerdo
respecto de lo que ha de entenderse por inducción. Johnson-Laird, por ejemplo, incluye
la abducción como un tipo particular de inducción, que él llama inducción específica
(12).

La diversidad de opiniones sobre este tema deriva de una diferente concepción sobre la
inducción y la deducción.

En principio, hay tres criterios para diferenciar ambos tipos de inferencia: la novedad de
la conclusión (en la inducción la conclusión es novedosa y en la deducción es
tautológica), la necesariedad de la conclusión (en la inducción la conclusión es probable
y en la deducción es necesaria), y la generalidad de la conclusión (en la inducción la
conclusión es más general que las premisas y en la deducción no).

En los esquemas 1 y 2 hemos incluído razonamientos deductivos e inductivos para que


lector pueda compararlos rápidamente con el razonamiento abductivo.

39
Proyecto de Investigación e Intervención Socio-Comunitaria
Nociones de Epistemología

Esquema 1 Esquema 2
Si el fusible está fundido, Todos los porotos de este saco
entonces el secador no son blancos [Regla]
funciona Estos porotos son de este saco
DEDUCCION El fusible está fundido [Caso]
(Por lo tanto) el secador no (Por lo tanto) Estos porotos son
funciona blancos [Resultado]
El secador no funciona Estos porotos son de este saco
El fusible está fundido [Caso]
INDUCCION (Por lo tanto) Si el Estos porotos son blancos
fusible está fundido, [Resultado]
entonces el secador no (Por lo tanto) Todos los porotos de
funciona este saco son blancos [Regla]
El secador no funciona Todos los porotos de este saco
ABDUCCION [Hecho a explicar] son blancos [Regla]
Si el fusible está Estos porotos son blancos
fundido, entonces el [Resultado]
secador no funciona (Por lo tanto) Estos porotos son de
[Marco teórico] este saco [Caso]
(Por lo tanto) El fusible
está fundido [Hipótesis]

Con respecto al segundo criterio, deberíamos considerar a la abducción como una


inducción, por cuanto -como el mismo Peirce recalca- su conclusión es probable (13). Y
con respecto al tercer criterio, deberíamos considerar a la abducción como un caso de
deducción, por cuanto las premisas (marco teórico) es más general que la conclusión
(hipótesis).

La conclusiones posibles que podríamos sacar (esquema 3) son, entonces:


a) que la abducción es desde cierto punto de vista inductiva
b) que desde otro punto de vista es deductiva
c) que estrictamente hablando no es ni inductiva ni deductiva por tener
características de ambos tipos de inferencia, al cual le asignamos, entonces, el
término de abducción.
Esquema 3 Conclusión necesaria Conclusión probable
De lo general a lo Deducción Abducción
particular
De lo particular a lo Inducción completa o Inducción incompleta o
general matemática propiamente dicha

La preocupación más frecuente ha sido la de distinguir la abducción de la inducción, y no


tanto de la deducción. Veamos esta cuestión en el marco de un análisis de las relaciones
entre abducción y reducción.

3. Abducción y reducción

Bunge (14) y Bochenski (15) desarrollan un idea por lo menos similar a la de abducción,
pero invocando la nomenclatura del lógico polaco J. Lukasiewicz (1878-1956), quien
empleó el término "reducción".

Bunge considera que la reducción es un caso especial de inducción o inferencia


plausible (16), mientras que Lukasiewicz (17), al revés, piensa que la inducción no es
más que un caso de reducción.

La reducción de Lukasiewicz.

Desde el punto de vista cronológico es teóricamente posible que Lukasiewicz haya


conocido la obra de Peirce, y más si consideramos que importante labor desplegada por
el pensador polaco como historiador de la lógica. Aparentemente no existe, sin
embargo, referencia alguna a Peirce en su obra, aunque sí se ocupó de analizar con
detenimiento cierto tipo de inferencia a las que llamó "reducción", y que resulta
asimilable a la idea de abducción de Peirce. El esquema de la reducción es el siguiente:

40
ARMANDO ZABERT (COMPILADOR)

Si p entonces q
q
Por lo tanto p

Bochenski (15) distingue a su vez una reducción progresiva y una reducción regresiva.
En la reducción progresiva se parte de la conclusión 'p' y se llega a la premisa 'q',
procedimiento que el autor llama verificación (así, verifico que se da q si se da p); en
cambio, en la reducción regresiva se parte de la premisa 'q' y se llega a la conclusión 'p',
procedimiento que Bochenki llama explicación (así, explico 'q' en función de 'p').

Consiguientemente, es posible asimilar este último procedimiento, la reducción


regresiva, a la abducción.

La reducción débil tipo B de Bunge

Debido a su ambigüedad, Mario Bunge prefiere no utilizar el término inducción,


empleando en su lugar la expresión inferencia plausible (16). Dentro de este tipo de
inferencia incluye la reducción débil, una de cuyas variantes es designada por este autor
con la letra B, y es la que más puede asimilarse a la inferencia abductiva de Peirce. El
esquema propuesto por Bunge es el siguiente (18):

"Si p entonces q" es verosímil


q
(Por lo tanto) es posible que "p" sea verdadera

Bunge (18) destaca que este tipo de inferencia no es deductiva por cuanto la conclusión
no es necesaria sino posible, con lo cual entraría en el territorio de lo que Bunge llama
una "lógica sugestiva", en tanto se ocupa del estudio de inferencias que sólo ofrecen
sugerencias, conjeturas. Ya hemos dicho que tal es la idea que tiene Peirce acerca de la
abducción.

4. Conclusión

En diversos tratados de corte enciclopédico que incluyen tópicos sobre procedimientos


inferenciales (vgr. Bunge, 1969; Bochenski, 1969; Copi, 1974; Prior, 1976; Ruda, 1977),
no aparecen referencias explícitas al concepto de abducción tal como fuera planteado
por Peirce.

Probablemente, cabría buscar la razón de esta ausencia en cierta tendencia de


pensamiento muy arraigada en la epistemología según la cual esta disciplina ha de
ocuparse de los aspectos lógicos y "racionales" de la ciencia, y no de cuestiones de
intuición, que competen más a la psicología.

Hanson (19) describe así esta situación, sin adscribir a ella: "Es así que a los filósofos
hipotético-deductivos les parece que cualquier análisis, como el de Peirce, que pasa
bajo el nombre de retroducción [abducción] debe ser irrelevante para el análisis
conceptual. La retroducción debe ocuparse, aparentemente, de simples cuestiones de
hecho, de diversos aspectos psicológicos, de consideraciones sociológicas e históricas
que tienen mucho que ver con el proceso, la psicodinámica de la resolución de
problemas pero poco, si algo, con la comprehensión de la estructura conceptual" .

Por tanto la Abduccion o Retroduccion se limita a formalizar superficialmente el


razonamiento implicado en el proceso de invención o descubrimiento de hipótesis.

La tarea pendiente que competería a la psicología del conocimiento, es, en todo caso, la
de identificar y formalizar el proceso inferencial (si es que existe) que conduce a la
conclusión "si p entonces q", incluída como premisa del razonamiento abductivo.

Sólo así se habrá podido profundizar verdaderamente en una lógica del descubrimiento.

41
Proyecto de Investigación e Intervención Socio-Comunitaria
Nociones de Epistemología

Bibliografía Consultada

(1) Losee J., "Introducción histórica a la filosofía de la ciencia", Alianza Universidad,


Madrid, 1979, 2° edición (Capítulo 1: La filosofía de la ciencia de Aristóteles).
(2) Ferrater Mora J., "Diccionario de Filosofía", Alianza, Madrid, 1979, página 12-13.
(3) Según se sostenga una tesis filosófica realista o idealista. Desde el realismo, se
'descubren' hipótesis, y desde el idealismo, se 'inventan'.
(4) Garnham A. y Oakill J., "Manual de psicología del pensamiento", Paidós, Barcelona,
1996, página 140.
(5) Ver Cazau P., "Fundamentos lógicos de la justificación empírica", Revista
Observador N° 32, Enero / Abril 1999, Buenos Aires, pág. 74.
(6) Citado por Hanson N.R., "Patrones de descubrimiento: observación y explicación",
Alianza, Madrid, 1977, página 184.
(7) Garnham A. y Oakill J., Op. Cit., página 141.
(8) Samaja J., "Epistemología y metodología", Eudeba, Buenos Aires, 1995, 3° edición,
página 85.
(9) Fann M., "Peirce's Theory of Abduction", 1970 (citado en Ferrater Mora J., Op. Cit.,
página 13).
(10) Peirce es un autor ambiguo y contradictorio. Por ejemplo, como destaca Ferrater
Mora, tampoco resulta siempre claro si la abducción es una conjetura, las razones que
llevan a la conjetura, o las razones que, una vez formulada la conjetura, explican por
qué se ha elegido esa y no otra.
(11) Cazau P., "Heurística: el arte de inventar", Revista El Observador Psi N° 20,
Noviembre / Diciembre 1996, Buenos Aires, página 462.
(12) Los otros dos tipos de inducción son la descriptiva y la explicativa (ver Garnham y
Oakill, Op. Cit., página 140).
(13) De hecho, si aplicamos el método funcional-veritativo de la tabla de verdad al
razonamiento abductivo en su forma de silogismo hipotético mixto, obtenemos una
contingencia.
(14) Bunge M., "La investigación científica: su estrategia y su filosofía", Ariel,
Barcelona,1969, página 862.
(15) Bochenski I., "Los métodos actuales del pensamiento", Rialp, Madrid, 1969, 6°
edición, página 189.
(16) Bunge M., Op. Cit., páginas 860-861.
(17) Bochenski I., Op. Cit., página 142.
(18) Bunge M., p. Cit., página 863.
(19) Hanson N. R., p. Cit, página 51.

42
ARMANDO ZABERT (COMPILADOR)

8 - REFLEXIONES EPISTEMOLOGICAS SOBRE LA INVESTIGACION


CUALITATIVA EN CIENCIAS SOCIALES. Adrián Scribano5

Abstract: It is usually supposed qualitative research is an alternative to


quantitative / positive social science and is much easier to apply. This essay says
there are no arguments for that beliefs. From this point, it describes what computer
analyzes can say qualitative research in the social sciences. Key words: qualitative
research, quantitative research, social science methodology.

Introducción

En las Ciencias Sociales existe una estrategia metodológica que ha cobrado un especial
auge en los últimos años denominada generalmente como investigación cualitativa.

Particularmente en Argentina, más allá de que el material estrictamente metodológico


publicado es escaso, existe una especie de consenso académico implícito, al menos en
sociología y politología, sobre dicha estrategia, que puede ser explicitado del siguiente
modo:

a) que lo cualitativo es la "alternativa" a una ciencia social positivista y cuantitativa


b) que dadas las condiciones de trabajo y formación reinantes, dicha alternativa es
más fácil de enseñar y de aplicar.

Si bien estas dos características deberían ser revisadas con algún detenimiento, desde
mi punto de vista ambas parten de y arriban a conclusiones erróneas. De manera
sintética mi argumento tendría la siguiente forma: “no tenemos ninguna seguridad que
un abordaje cualitativo no sea positivista, no hay ninguna razón epistémica que permita
oponer aporéticamente cuantitativo a cualitativo, y finalmente los conocimientos
teóricos-metodológicos necesarios para hacer investigación cualitativa no son ni tan
fáciles de transmitir ni muchos menos de ejecutar fácilmente”.

En base a este diagnóstico, este trabajo pretende destacar algunos tópicos de la


discusión metodológica respecto a la investigación cualitativa, con especial referencia al
lugar de la informática en la misma, que permitan observar los problemas epistémicos
que de ello emergen.

Mi objetivo es mostrar, al menos parcialmente, que la estrategia en cuestión implica una


pluralidad de técnicas y teorías, que, por su peso específico, trascienden los rasgos
propuestos en el diagnóstico realizado y evidencian que su "progreso" implica
discusiones que van más allá de la mera referencia alegórica al subjetivismo.

Para lograr este objetivo seguiré el siguiente camino argumentativo: en primer lugar
mostraré sintéticamente la situación actual de las diversas estrategias cualitativas desde
donde se presenta una suerte de periodización de la relación cualitativo y cuantitativo.
En segunda instancia, señalaré el lugar que hoy ocupa la informática en la investigación
cualitativa a través de la presentación de dos artículos que pueden resumir algunas de
las discusiones en torno a esto y, finalmente, esquematizaré las discusiones
epistémicas que afloran de este contexto, señalando algunos temas para debatir que
van más allá de una simplificada visión sobre lo cualitativo.

I. Estrategias Alternativas para la Investigación Cualitativa

Una de las confusiones más comunes entre los investigadores recién iniciados respecto
a la investigación cualitativa, es la asimilación de las técnicas cualitativas con las
estrategias metodológicas.

5
Adrián Scribano - Doctor (c) en Filosofía (Universidad de Buenos Aires). Licenciado en Sociología Política (ILADES) y
Licenciado en Ciencia Política (U. Católica de Córdoba). Becario en Università degli Studi di Milano. Profesor de la
Universidad Nacional de Villa María (Córdoba, Argentina). FUENTE: Cinta de Moebio No. 8. Sept. 2000. Fac. de Ciencias
Sociales. Univ. de Chile. http://rehue.csociales.uchile.cl/publicaciones/moebio/08/frames06.htm

43
Proyecto de Investigación e Intervención Socio-Comunitaria
Nociones de Epistemología

Esta confusión acarrea muchos problemas de diseño para la investigación, de igual


dimensión que los que ocasiona realizar una encuesta creyendo que en la aplicación del
instrumento se agota el estudio cuantitativo de la sociedad.

Sumado a esto, existe un prejuicio teórico muy arraigado sobre las diferencias entre
estrategias cuantitativas y cualitativas tomadas como paradigmas rivales e
inconmensurables. Por lo tanto, he creído conveniente sintetizar muy brevemente cuál
es la situación actual de estas dos temáticas para que la presentación que se hará
sobre el lugar de la informática, pueda ser ubicada a un nivel satisfactorio de discusión.
Si bien una de las características de los enfoques cualitativos de la investigación en
ciencias sociales es la íntima relación existente entre diseño, técnicas, análisis y
construcción teórica, que en la práctica invalida una separación tajante de las etapas de
la misma, es lícito y además conveniente intentar mostrar cómo se puede reagrupar
dichas prácticas según alguna orientación dominante que las asemeje y diferencie.

La siguiente es una síntesis y reelaboración de una lista construida por Renata Tesch,
donde la autora ha esquematizado lo que ella denomina "tipos de investigación",
proveyendo de una definición de lo que entiende son los propósitos de los mismos, con
la particularidad de que estas últimas son tomadas directamente de la literatura más
usual en cada temática, lo que la hace aún más interesante.

De esta manera se pueden visualizar 12 enfoques diversos para llevar adelante una
investigación cualitativa, que están agrupados de acuerdo a diversos criterios, entre los
cuales predominan el metodológico y el teórico.

Dichos enfoques son:

1. Análisis de Contenido (Clásico). "Realizar inferencias válidas y replicables


desde los datos hacia sus contextos" (Krippendorf 1990:21). "Descripción
objetiva, sistemática y cuantitativa del contenido manifiesto de la comunicación"
(Berelson 1952:489). "Realizar inferencias mediante una identificación
sistemática y objetiva de las características especificadas dentro del texto"(Stone
et al.1966:5).
2. Análisis de Contenido (Etnográfico). "Análisis reflexivos de los documentos"
(Altheide 1987:65). "Usar el documento y comprender el sentido de la
comunicación, tanto como verificar las interrelaciones teoréticas" (Altheide
1987:68).
3. Análisis del Discurso. "Análisis de lo naturalmente ocurrido conectado por
discursos hablados o escritos" (Stubbs 1983:1) proveyendo "una introducción
dentro de las formas y mecanismos de la comunicación humana y de la
interacción verbal" (van Dijk 1985:4).
4. Estudios de Documentos, Historias de Vida e Historia Oral. Un enfoque "no
estructurado y no cuantitativo" usando documentos personales (Bailey 1978:273)
que generalmente terminan en tipologías, o "a través del cual se examina y
analiza la experiencia subjetiva de los individuos y de sus construcciones del
mundo social" (Jones 1983:147).
5. Etnografía (clásica, holística, reflexiva). "Describir y analizar toda o parte de
cultura o comunidad por la descripción de las creencias y prácticas del grupo
estudiado y mostrar cómo las diversas partes contribuyen a la cultura como un
todo consistente unificado" (Jacob 1987:10).
6. Etnografía (estructural). "Clasificar e iluminar la organización y distribución
social de las significaciones subjetivas como campos de la realidad originarios y
diversos" (Gumbrium 1988:26), estando "en relación con ... catalogar sus formas
e interrelaciones en el tiempo y en el espacio" (Gumbrium 1988:26) donde se
"piensa la cultura como un mapa cognitivo" (Spradley 1979:7) y donde "a la vez,
la cultura tácita y explícita son reveladas a través del habla" (Spradley 1979:7).
7. Etnografía de la Comunicación (microetnografía). Consiste en focalizar "los
patrones de interacción social entre miembros de un grupo cultural o entre
miembros de grupos culturales diferentes" en orden a "especificar el proceso de
interacción y entender como estos ‘micros’ procesos están relacionados con unos

44
ARMANDO ZABERT (COMPILADOR)

más amplios ‘macros’ problemas de cultura y organización social" (Jacob


1987:18).
8. Etnometodología. Que es definida de las siguientes maneras: "estudiar cómo los
miembros de la sociedad, en el curso de la realización de la interacción social,
producen el sentido de expresiones ‘indexicales’. Indexicales son términos cuyo
sentido no es universal, pero es dependiente del contexto" (Bailey 1978:249) o
"cómo los miembros de una situación ensamblan razonablemente comprensiones
de las cosas y eventos que les conciernen a ellos y, por lo tanto, realizan estas
como objetos de la vida cotidiana" (Gubrium 1988:27) o finalmente "cómo la
gente en sociedad organiza sus actividades de un modo tal que ellos producen
un sentido mutuo, cómo la gente hace cosas de maneras tales que los otros
pueden reconocerlos por como ellas son" (Sharrock y Anderson 1986:56).
9. Etnociencia (antropología cognitiva). Que desde una perspectiva se define
como: "comprender las categorías culturales de los participantes e identificar los
principios organizativos que fundamentan esas categorías ... a través del estudio
de los sistemas semánticos" (Jacob 1987:22); o también como "definir
sistemáticamente el significado de las palabras, o etiquetas -en síntesis los
nombres de las cosas en el contexto de su uso" (Werner y Schoepfle 1987:38) en
orden a "construir los campos lexicos-semánticos de conexión de las
proposiciones" (Werner y Schoepfle 1987:38).
10. Análisis de la Estructura de Eventos. Que puede ser conceptualizada como:
"examinar y presentar series de eventos como estructuras lógicas, es decir, como
elementos y sus conexiones (incluyendo los supuestos que gobiernan estas
conexiones) que pueden servir como modelos explicativos para interpretar
secuencias de eventos actuales o folklóricos" (Heis and Lewis 1980).
11. "Grounded theory construction". De particular interés para este trabajo, puede
ser sintetizada diciendo que consiste en "descubrir la teoría desde los datos a
través de un método general de análisis comparativos" (Glaser y Strauss 1967:1).
12. Interaccionismo Simbólico. Cuya conceptualización es: "ver cómo los procesos
de designación e interpretación [los participantes definen e interpretan
recíprocamente sus actos] es la sustancia, devalúa, re-direcciona, y transforma
los modos en los cuales los participantes organizan juntos sus líneas de acción"
(Blumer 1969:53); o también "comprender cómo los individuos son capaces de
tomar otra perspectiva y aprender significados y símbolos en instancias concretas
de participación" (Jacob 1987:29).

La pluralidad es innegable. En cada uno de estos enfoques las unidades de registros y


de análisis cambian o son entendidas de otro modo, el lugar de la natural textualidad de
lo cualitativo es diferente, las técnicas pueden o no ser las mismas, pero por lo general
unas se adecuan más que otras y los puntos de partida teóricos son los que se
transforman radicalmente.

Esta enumeración nos autoriza sólo a constatar dos elementos útiles para nuestro
objetivo aquí: por un lado saber que existen diferentes técnicas y diversas formas de
hacer investigación cualitativa y por otro que sólo a través de sus conceptualizaciones
se puede observar que la relación cuantitativo/cualitativo no es aporética como suele
pensarse.

Para ilustrar este último punto, parece conveniente resumir lo que Ray Pawson a
denominado "fases de la relación cuantitativo/cualitativo":

• La primera fase, se caracteriza por permanecer dentro del puritanismo


metodológico, donde la actividad de investigación podía relacionarse
dicotómicamente con uno u otro enfoque. Se relaciona con la así llamada "guerra
de los paradigmas" metodológicos y las discusiones son "métodocentradas".
• La segunda fase, hace referencia al surgimiento de un pluralismo pragmático
como reacción a la metodolatría, teniendo a las estrategias de "triangulación". Es
una fase centrada en la elaboración y resolución de problemas donde se acepta
que existen diversas vías metodológicas para lograr este objetivo.
• La tercera fase, que aún hoy se desarrolla, consiste en la superación de la
relación cualitativo/cuantitativo desde un punto de vista dicotómico diluyendo un
tratamiento aporético de la misma. Centrada en lo relacional, apunta a que la

45
Proyecto de Investigación e Intervención Socio-Comunitaria
Nociones de Epistemología

discusión se desplace hacia la mejor articulación entre estrategias que puedan


dar cuenta de la conexión entre mecanismos, contextos y agentes.
Finalmente, este apartado nos respalda para introducir, sin malos entendidos, algunas
discusiones sobre el lugar de la informática en la investigación cualitativa.

Fundamentalmente por que ante la pluralidad de enfoques y las nuevas relaciones entre
lo cuantitativo y lo cualitativo dichas discusiones no pueden entenderse como un intento
de cuantificar lo cualitativo, ni tampoco como la idea de disolver la intrínseca pluralidad
de la investigación cualitativa.

El procesamiento y análisis de datos asistido por computadora tiene un lugar especial


en este campo disciplinar y muchos son los avances que se han realizado en su
aplicación.

Justamente sobre algunos de los problemas epistemológicos que esto trae aparejado es
sobre lo que se intenta reflexionar en el próximo apartado.

II. Nuevas Experiencias de Gabinete y Formas de Razonamiento en la


Investigación Cualitativa

En el contexto reseñado hasta aquí y junto al desarrollo de las estrategias cualitativas


desde finales de la década de los ‘70 y principio de los ‘80 se consolidó la utilización de
la informática en la investigación cualitativa.

En principio como una vía más eficiente para codificar y recuperar la inmensa cantidad
de registros acumulados por las diversas técnicas de observación, la asistencia de la
computadora se pensó simplemente como algo meramente instrumental. Este puesto
para la asistencia de la computadora se fue modificando hasta llegar al nivel del análisis
de esos datos otrora irrecuperables, dada la complejidad de su inserción sistemática.

En este sentido, dando un paso más la informática asistió al investigador en la delicada


tarea de interpretar ayudando en la construcción inductiva de "micro-teorías" sobre la
base de datos que se le había proporcionado.

Esta estrategia de análisis básicamente tomada del enfoque de Glasser y Strauss (al
menos de su primer libro) se popularizó, como así también se amplió la oferta de
paquetes estadísticos que podían asistirla. Los noventa son los años de consolidación
de esta relación afianzada por la popularización de lo multi-mediático en el mercado de
las computadoras personales.

En el marco de dicha consolidación se han llevado adelante algunos debates sobre la


posibilidad de que esta "instalación" de la informática en el campo de los estudios
cualitativos sea el comienzo de una nueva visión paradigmática que pretenda agotar la
pluralidad y narratividad propia del abordaje cualitativo en alguna especie de sobre-
cuantificación de los registros y en la creación de la ilusión de formalización del
momento de análisis de las investigaciones.

Un dato curioso de dicho debate, por lo menos desde los autores a que se hace
referencia aquí, es que ninguno pretende descalificar el rol de la asistencia de la
computadora en los trabajos de tratamiento, procesamiento y análisis cualitativo. Un
análisis de la discusión aludida puede ser realizado siguiendo el siguiente camino.

II.1. Pluralidad de Voces y la Utilización de Hipertextos

En principio se puede partir de la presentación de Coffey, Holbrook y Atkinson llamada


"Qualitative Data Analysis: Technologies and Representations" cuya estructura
argumentativa es la siguiente: “La investigación cualitativa se caracteriza por la
pluralidad de interpretaciones que generan una multiplicidad de relatos asociados a la
existencia de una pluralización de mundos”.

Las dos vías que identifican como predominantes son: aquellas que separadamente
aceptan por un lado la consolidación de lo narrativo-literario aceptando el "desafío" post-

46
ARMANDO ZABERT (COMPILADOR)

moderno de la diferencia y la multiculturalidad, y por otro, aquella que construye un texto


desde un enfoque que denominan "realismo narrativo" caracterizado por la construcción
de un relato en tercera persona desde donde afluye el llamado problema de la "crisis de
representatividad" que se basa en la eliminación de la intrínseca pluralidad de voces en
la constitución del mundo social.

Los autores señalan, por un lado, la generalización de las técnicas de codificación y


recuperación de datos "cualitativos" asistido por computadora, como el centro de la
conformación de una nueva ortodoxia ligada directamente al "realismo narrativo"; y por
otro lado, la estructuración de una heterodoxia conectada a la retórica y los desafíos
post-modernos.

En este contexto, postulan como una posible vía alternativa que permita una síntesis de
estas dos tendencias para el análisis y la representación de la investigación etnográfica,
a los desarrollos generados alrededor del uso de hipertextos e hipermedios. Citando a
Nielsen afirman: "podemos decir que el hipertexto fue concebido en 1945, nació en los
‘60, nutrido lentamente en los ‘70, y finalmente incorporado al mundo real en los ‘80
especialmente con un rápido crecimiento en 1985, culminando con el establecimiento de
un campo definitivo durante 1989" (Coffey et al. 8.2).
En esta larga historia de la consolidación del uso del hipertexto se visualiza a la
presentación del texto de un modo no secuencial, como un principio que juega el rol de
hilo conductor en la búsqueda de un tratamiento más eficiente de los textos (Coffey et
al. 8.3).

Si bien el escritor o lector asistido por un procesador de texto podía desplazarse de


diversas maneras por un documento, dicho desplazamiento era siempre secuencial y
este modo de leer y re-escribir no se condecía con las operaciones que en la vida real
se realizaban.

En este sentido es que Coffey y sus colegas sostienen que "el texto mismo está fijado
en forma lineal. De tal modo, trabajar con archivos de textos en la computadora, implica
del mismo modo una estructura lineal" (Coffey et al. 8.3).

El uso de hipertexto involucra la posibilidad de diferentes vías de lectura determinadas


por el lector, dado que el autor provee de distintas alternativas para explorar el texto en
cuestión. Si bien los autores aceptan que ésta no es un idea nueva, señalan una mayor
versatilidad que las referencias cruzadas, por ejemplo. La clave está en la mayor
capacidad de interactividad desde donde aparece una más amplia gama de
posibilidades de relación entre texto y lector. "Los lectores pueden, en un sentido,
devenir autores de sus propias lecturas; ellos no son simple recipientes pasivos de una
forma textual determinada" (Coffey et al. 8.4).

Básicamente, la utilización del hipertexto consiste en la utilización de botones para


establecer links entre referencias cruzadas que apunten a una misma temática o tópicos
relacionados, pudiendo también desplazarse a fuentes de información distinta como los
son bases de datos cuantitativas u otras formas de almacenamiento de datos. "Tales
links constituyen ‘nodos’ y el analista puede crear una red densa de esos links los
cuales pueden ser luego ‘navegados’ en distintas exploraciones de datos" (Coffey et al.
8.6).

Por otro lado, se usan botones de "expansión" que permiten agregar comentarios,
incorporar otro tipos de textos como registros de campo, notas y comentarios. Se abre
así también la posibilidad para el lector de introducirse en el texto. Las limitaciones de
estas posibilidades son justamente las capacidades cognitivas humanas de encontrarse
frente a la creación de un "hiperespacio de lectura y escritura", donde las vías de
recorrido y expansión de la textualidad son prácticamente indefinidas.

Para Coffey y sus colegas es en este marco en que nace una de las particularidades
más llamativas de la introducción de estos medios informáticos para la lectura y
escritura etnográfica, que es justamente la probabilidad que esa diferencia colapse, en
tanto procesos separados de leer y escribir. El hipertexto conserva el sentido de

47
Proyecto de Investigación e Intervención Socio-Comunitaria
Nociones de Epistemología

complejidad, intertextualidad y no linealidad que una narración sobre el mundo social


tiene en sí misma.

Si la utilización del hipertexto abre estas posibilidades, su combinación con las


tecnologías multimedia las potencializa aún más. Con la articulación entre imagen,
sonido y otros tipos de textos para nuestros autores, se puede pensar "la reconstrucción
de los mundos sociales a través de múltiples representaciones" (Coffey et al. 8.11).

Citando el trabajo de Kersenboom, ellos muestran que la aparición de monografías en


CD ofrecen la posibilidad de presentar los registros de palabras, música, escritos y
conversaciones en "sus condiciones existenciales" (Coffey et al. 8.11), lo cual permite a
su vez manejar los contextos interpretativos, también explorar lecturas alternativas y
modos complementarios de representación de los registros originales. Para Coffey y sus
colegas, hipermedios e hipertexto posibilitan un manejo instantáneo y simultáneo de
formas distintas de representar las múltiples voces de la realidad del mundo social.

Estos autores ofrecen como ejemplo su estudio sobre las consecuencias de la genética
en nuestros días, donde aplicaron el etno-drama como medio de reconstruir la toma de
decisiones de los genetistas, junto a las formas de decisiones de las personas respecto
a la reproducción, grabaciones de conferencias científicas, datos contextuales y
entrevistas de familias enteras, usando las posibilidades del hipertexto e hipermedia,
conjuntamente con investigaciones sociológicas más tradicionales.

La propuesta de este equipo es justamente la de articular el realismo narrativo y las


posibilidades de representar múltiples y simultáneas voces, sugiriendo que de este
modo se hace innecesario optar por un enfoque postmoderno o caer en la "nueva
ortodoxia" de la investigación cualitativa asistida por computadora.

II.2. Hacia una Lógica del Razonamiento Hipotético en Investigación


Cualitativa

En un artículo que intenta responder la caracterización de la "nueva ortodoxia" en la


investigación cualitativa asistida por computadora, realizada, entre otros, por Coffey y
sus colegas en el artículo al que se ha hecho alusión, Udo Kelle señala que dicha
caracterización proviene de interpretar mal algunos puntos metodológicos de la
investigación cualitativa. Kelle, para estructurar su argumentación, se desplaza a la
discusión de las estrategias metodológicas y a sus bases epistémicas. Es en este marco
que propone una interrelación entre uso de la informática y la aplicación de la inducción
cualitativa y la inferencia abductiva como modo de coordinar una vía alternativa para la
investigación cualitativa.

Kelle plantea el problema desde la base misma de lo que se ha dado en llamar la


"construcción de teoría" en la investigación cualitativa asistida por computadora.

Genéricamente hablando, la discusión sobre dicha base tiene dos facetas: su sustento
teórico-metodológico representado por la "Grounded Theory" y su procedimiento
elemental conocido como "codificar y recuperar".

Como lo reconoce el mismo Kelle, dada la estructura de su artículo, ambas facetas si


bien no agotan el lugar de la informática en la investigación cualitativa, son el punto de
partida de una adecuada discusión de la supuesta instauración de una nueva ortodoxia
en investigación cualitativa.

Sin hacer justicia a la complejidad de la grounded theory se puede decir que representa
desde 1958 y 1967 una estrategia inductiva de construcción de teoría que ha sufrido
diferentes reformas. En lo sustancial consiste en la idea que se puede obtener una red
de conceptos que emergen de los registros cualitativos a través de un procedimiento de
codificación y "etiquetamiento" de las principales dimensiones de dichos registros. Este
procedimiento se basa en "descubrir" desde los registros grupos analíticos de datos,
conformados por la construcción de lo que Glaser y Strauss llamaron códigos,
categorías y memos. La idea central es que de esta manera se evitaba dar una forma
teórica a los registros, ofreciendo la posibilidad de que justamente el tratamiento

48
ARMANDO ZABERT (COMPILADOR)

analítico de los datos dieran forma a una teoría particular emergida desde los datos
mismos.

Por otro lado, codificar y recuperar es un procedimiento para clasificar datos que parte
de la identificación, sistematización y comparación de segmentos de textos que
contienen los registros.

Muy esquemáticamente hablando, una vez establecidas las diferencias y semejanzas se


procede a construir índices de segmentos de textos sobre tópicos identificados con
palabras claves. Por otro lado se construyen referencias cruzadas que permitan
relacionar los segmentos de textos entre sí y con otras fuentes de información. Estos
procedimientos tan antiguos como los de la exégesis textual se ven acelerados y
mejorados por los medios informáticos para su recuperación y tratamiento.

Si bien esta sucinta presentación puede ser muy esquemática, nos ayuda a comprender
por qué Kelle se preocupa en mostrar que no todo proceso de codificación y
recuperación está basado en la grounded theory, por qué codificar puede ser un
proceso más creativo de lo que se piensa y cómo pueden ser pensadas alternativas
metodológicas para conservar la creatividad en el marco del desarrollo de los paquetes
informáticos, sin caer en un inductivismo ingenuo pero tampoco en una posición
excesivamente relativista.

Como es obvio, dada la síntesis realizada entre la grounded theory y el proceso de


codificar y recuperar, hay aires de familia innegables; más allá de la terminología que
usen los diversos programas, las coincidencias entre los códigos de Glaser y Strauss y
los índices de los programas son muy grandes.

Por esto, Kelle muestra cómo existen diferentes paquetes de tratamiento informático de
textos que se basan en la fenomenología, en los tipos ideales de Weber o directamente
en las ideas falsacionistas de Popper, y cita también una revisión realizada de los
programas usados que indica que el 70% de ellos no tienen como base a la grounded
theory.

Una vez realizada esta tarea de esclarecimiento, Kelle se concentra en tres temas: las
formas de codificar y recuperar que implican la llamada tercera generación de
programas, las confusiones que provienen de tratar de aplicar una estructura hipotético
deductiva en base a la grounded theory y la propuesta de la abducción como una forma
adecuada para evitar el dualismo.

Para mostrar que codificar y recuperar no se basan necesariamente ni en una idea


inductiva ni en las confusiones con la grounded theory, señala los avances producidos a
través de los hiperlinks que no sólo están a disposición en los programas especializados
sino también en las versiones más actuales de Windows.

Esto transforma básicamente el proceso de interrelación entre los textos y otros tipos de
materiales, pero especialmente se abandona la idea de que un segmento de texto debe
ser "comprendido" subsumiéndolo en una categoría creada desde esos mismos
registros.

Esto ocasiona varios resultados colaterales entre los cuales se pueden mencionar los
siguientes: se aumenta la capacidad de recuperación selectiva, pueden ser cruzadas
referencias en un "mismo espacio textual" cuya distancia en los registros es
considerable, los segmentos de textos pueden ser conectados sin códigos previos y los
códigos pueden ser subdivididos en varias categorías nuevas.

Codificar y recuperar, vista de esta manera, es una tecnología abierta que brinda un
gran número de posibilidades para la interpretación. Esta idea de codificar Kelle la
analiza desde dos dimensiones: desde la definición del proceso de codificación y desde
la noción de testear hipótesis a través de este procedimiento, cuestiones ambas que nos
llevan a su segundo tema.

49
Proyecto de Investigación e Intervención Socio-Comunitaria
Nociones de Epistemología

Por un lado, Kelle señala las diferencias entre la codificación cuantitativa y la cualitativa
y la importancia de preservarse de la ingenua idea de poder partir a codificar sin teoría
previa alguna; pero por otro lado subraya la confusión existente por el uso ambiguo de
la expresión "testear hipótesis".

En el primer caso, es claro que la codificación cuantitativa funciona bajo una lógica
deductiva en base a hipótesis previamente establecidas, mientras que la cualitativa se
basa en un proceso de lectura de los registros una vez efectuados, actúan como marcas
que permiten que una cierta cantidad de información sea agrupada y manejada
constituyéndose en representantes de algunas perspectivas desde donde mirar los
datos por parte del investigador.

En relación a esto es que Kelle plantea el problema sobre el testeo de hipótesis. Para él,
los códigos de la investigación cualitativa "no son muy utilizables para testear
proposiciones empíricas respecto a la exacta relación entre dos variables definidas"
(Kelle 1997 3.9), como así tampoco permiten representar claramente eventos empíricos
determinados.

Para Kelle en la investigación cualitativa "la aplicación del paradigma de la codificación o


de ‘códigos teoréticos’ sobre datos empíricos se basa en una lógica del descubrimiento
que no es ni inductiva ni deductiva" (Kelle 1997 4.3), por lo que dicha aplicación
representa el uso de una especial lógica del razonamiento, donde "las premisas son un
set de fenómenos empíricos y la conclusión es una hipótesis, la cual puede dar cuenta
de esos fenómenos" (Kelle 1997 4.3).

Según él, se puede denominar a esta operación razonamiento hipotético basado en las
dos formas de inferencia lógica que Peirce llamara inducción cualitativa y abducción.
Estos es así, porque en una inducción cualitativa un fenómeno empírico específico es
descripto o explicado subsumiéndolo bajo una categoría o regla existente y porque la
abducción permite encontrar conceptos o reglas no conocidas en base a un evento
sorpresivo o anómalo. Al parecer, la clave para Kelle consiste en que "la inferencia
abductiva combina de una manera creativa nuevos e interesantes hechos empíricos con
conocimiento teorético previo" (Kelle 1997 4.3).

Estas formas de inferencia se condicen de alguna forma con el trabajo de la


investigación cualitativa, en tanto se necesita revisar permanentemente pre-
concepciones y prejuicios teoréticos y además posibilita entender de qué manera se
usan en investigación cualitativa los marcos de referencia heurísticos, que permiten al
investigador concentrarse en ciertos fenómenos de su campo de estudio.
Para Kelle con la utilización de la inducción cualitativa y la abducción se puede dar
cuenta del trabajo creativo de la investigación cualitativa como así también del uso del
conocimiento disponible para el área de estudio.

III. A Modo de Conclusión: Problemas Epistemológicos Emergentes de la


Investigación Cualitativa Asistida por Computadora

Aparecen de esta manera dos grupos de problemas o desafíos epistemológicos


basados en las sugerencias sobre el rol de la utilización de hipertextos y multimedios, y
en la propuesta de aplicar el razonamiento hipotético a la investigación cualitativa. Dos
temas centrales parecen emerger de estos desarrollos: en primer lugar podríamos estar
en frente de una nueva noción de experiencia de gabinete en ciencias sociales, y en
segundo lugar se podrían explorar alternativas a las estrategias deductivas e inductivas
aplicadas a la investigación cualitativa.

Sin pensar que se asemeja a un concepto de simulación y sin tomarla como solución
definitiva, en algún sentido, la utilización del hipertexto y la tecnología multimedia crea
una nueva situación de gabinete que al menos necesita ser analizada en los siguientes
niveles: la redefinición de la noción de lo que se podría llamar "experiencia de
laboratorio de la interpretación", el lugar del conocimiento conceptual en relación al
sensitivo, como por ejemplo el visual, la posibilidad de interacción indefinida entre
observador y los sujetos sociales analizados.

50
ARMANDO ZABERT (COMPILADOR)

Esto nos indica una forma de comprensión de lo social que puede ser reconstruida a
través de la computadora en situación de interactividad o aislamiento, el escritorio del
analista no es sólo una computadora y miles de salidas de computadora, es en algún
sentido un mundo social a escala.

La conexión entre hipertexto e hipermedia posibilitaría, dada la potencialidad para


relacionar hipótesis previas, descubrimientos y "realidad virtual", la recreación
multimediática de la pluralidad de voces. Esto es importante porque permitiría redefinir
la noción de generalización empírica extendiendo posiblemente su utilidad y alcance.
También de este modo se presenta la interesante oportunidad para la re-utilización de
los estudios de caso como estrategia de comprensión de la realidad social.

Además, la asistencia de estas tecnologías a la investigación cualitativa permitiría hacer


manejable la complejidad propia de la conformación textual de los registros, pudiéndose
de esta manera disponer de un texto que, si bien presenta mayor variabilidad, dada la
interactividad y la simultaneidad, posibilita explorar con mayor fuerza la búsqueda de
una estructura básica para los análisis. Esto trae aparejado que además de las
tradicionales tareas de registrar, escribir, leer e interpretar, se agregue la de editar como
mecanismo de reconstrucción del mundo social en la computadora. La confluencia de
información cualitativa e información cuantitativa de diversos orígenes, permite "fijar"
con mayor detenimiento las condiciones contextuales de la interpretación.

Por otro lado, si se hace pie en los desarrollos anteriores, no sería para nada difícil
pensar en la propuesta de Kelle, dado que se tendría la oportunidad de estructurar una
forma de razonamiento que permita partir de y crear hipótesis para la argumentación
sobre el nivel de adecuación de la realidad recreada en la computadora.

Para finalizar, sólo resta afirmar que en el campo de la investigación cualitativa, como al
menos se pretende haber insinuado, existen problemas epistémicos que trascienden las
argumentaciones a las que tradicionalmente se las asocia. Lo que llama a salir de un
tratamiento aporético de la relación cualitativo-cuantitativo y sumergirse en la
posibilidades de nuevas racionalidades y narraciones sin perder de vista la construcción
científica de conocimiento sobre el mundo social.

Referencias Bibliográficas

Ball, W. 1994 "Using Virgil to Analyze Public Policy Arguments: A System Based on
Toulmin´s Informal Logic." En Social Science Computer Review, 12:I, Spring. pp. 26-37.
Coffey, A., Holbrook, B. y Atkinson, P. 1996. "Qualitative Data Analysis: Technologies
and Representations" en Sociological Research Online, Vol.1 Nº1.
Coffey, A. y Atkinson, P. 1996. Making Sense of Qualitative Data. Complementary
Research Strategies. Sage Publications. London.
Cook, T. D. y Reichardt, CH. 1986. Métodos Cualitativos y Cuantitativos en Investigación
Evaluativa. Introducción, Cap. I y II. Morata. Madrid.
Gallino, L. 28/3/96 "La Costruzione della Conoscenza Scientifica in Netropolis: Aspetti
Sociali e culturali della ricerca scientifica in rete". Torino Internet. pp. 1 a 5
Goetz, J.P. y LeCompte, M.D. 1988. Etnografía y Diseño Cualitativo en Investigación
Educativa. Cap. II, V, VI, VII. Morata. Madrid.
Forni, F.; Gallart, M.; Vasilachis de Gialdino, I. 1993. Métodos Cualitativos II. La práctica
de la Investigación. CEAL. Nº 57 Bs. As.
Holstein, J. y Gubrium, J. 1995. The Active Interview. Sage. California.
Kelle, U. 1994. Ethnographic Research and Logic of Discovery. Recent Developments in
Analytic Philosophy of Science and their Impact on the Debate on the Epistemological
Foundations of Qualitative Research. Paper presented at the XIII World Congress of
Sociology. Bielefeld. RC 33. Sess. 14.
Kelle, U. 1997. "Theory Building in Qualitative Research and Computer Programs for the
Management of Textual Date." En Sociological Research Online, vol.2, Nº2.
Marshall Magan, J. 1994. "Research Report: Using a Database Management System to
Support Qualitative Research" en Social Science Computer Review, 12:I, Spring. pp.
114-121.

51
Proyecto de Investigación e Intervención Socio-Comunitaria
Nociones de Epistemología

Marshall, C. y Rossman, G. 1995. Designing Qualitative Research. 2º Edition. Sage.


California.
Rodriguez-Alamo, E. 1995. "The conflict Between Conceptual and Visual Thought and
the Future of Science" en Social Science Computer Review 13:2 Summer. pp.: 207-221
Vasilachis de Gialdino, Irene. 1993. Métodos Cualitativos I. Los problemas teóricos-
epistemológicos. CEAL.Nº 32 Bs. As.

52
ARMANDO ZABERT (COMPILADOR)

9 - LA IMPORTANCIA DE LA TEORIA CRITICA EN LAS CIENCIAS SOCIALES.


Silvana Laso6

ÍNDICE

1 – Introducción: planteo del problema epistemológico: la importancia de la teoría crítica

2 – La escuela Frankfurt: su historia y sus teorías

3 – Habermas dentro de la Escuela Frankfurt

4 – La teoría crítica de Habermas

5 - Discusión del carácter crítico de las ciencias como problema epistemológico

6 – Conclusión

1 – Introducción: planteo del problema epistemológico: la importancia de la


teoría crítica

En mi opinión, uno de los aspectos más importantes con los que la Escuela de Frankfurt
contribuyó al pensamiento filosófico y a las ciencias sociales del siglo XX fue el énfasis
colocado en el carácter crítico de la teoría.

Recuperando la perspectiva de la teoría marxiana que se proponía contribuir a la


construcción de una sociedad más justa, en 1930 la escuela de Frankfurt quiso también
abrir los ojos a los hombres mediante la crítica, para con la praxis hacerlos transformar
sus vidas, aniquilando las relaciones sociales y económicas inhumanas en un mundo
que, con el moderno capitalismo altamente industrializado, y con el ascenso de los
movimientos autoritarios y fascistas, parecía estar muy por debajo de lo que prometían
los ideales filosóficos.

Es, entonces, el rechazo a la actitud cientista ingenua del positivismo como


comprometida con el orden existente, uno de los aportes epistemológicos más valiosos
que realizará la escuela de Frankfurt. Así como Marx había criticado la economía
política de Ricardo7 que pretendía en sus análisis negar la distinción entre seres
humanos, bestias y cosas, y no emitir juicios de valor sobre los resultados sociales de la
economía, así la escuela de Frankfurt rechaza los análisis asépticos que el positivismo
pretende introducir en las ciencias sociales.

Horkheimer expresaba el carácter ideológico que se escondía detrás de esta supuesta


neutralidad con estas palabras: “el propósito de la ciencia de no hacer ninguna
distinción esencial entre la conjuración de poderes brutales contra toda aspiración
humana a la felicidad y a la libertad, y, por otro lado, la lucha en contra de esos poderes
– toda esa Filosofía que reduce ambas partes al concepto abstracto de lo dado – les es
muy bien bienvenida a los poderes más antihumanos”8.

Es mi intención en el presente trabajo analizar este problema epistemológico planteado


por la teoría critica respecto a cuál debe ser la actitud de la ciencia ante la realidad, y en
especial, ante la realidad social.

6
Catedra Epistemología de las Ciencias Sociales. tesina 5 año “orientación gráfica”. año 2000. universidad nacional de córdoba. -
facultad de derecho y ciencias sociales - escuela de ciencias de la información – www.eci.unc.edu.ar/epistemologia
7
Ricardo, David (1772-1823), economista británico, su obra más importante, Principios de Economía Política y Tributación (1817)
establecía varias teorías basadas en sus estudios sobre la distribución de la riqueza a largo plazo. Ricardo pensaba que el
crecimiento de la población provocaría una escasez de tierras productivas; su teoría de la renta está basada en la productividad de
la tierra. Defendió la teoría clásica del comercio internacional, subrayando la importancia de la especialización internacional y la libre
competencia. Su teoría del valor trabajo, que influyó en el pensamiento de Karl Marx, afirma que los salarios dependen del precio de
los alimentos, que a su vez dependen de los costes de producción, los cuales dependen de la cantidad de trabajo necesario para
producir los alimentos; en otras palabras, el trabajo es el principal determinante del valor.

8
Citado en E. M. Ureña, La Teoría Crítica de la sociedad de Habermas, Tecnos, Madrid, 1998, Cap. I, Pág. 24.

53
Proyecto de Investigación e Intervención Socio-Comunitaria
Nociones de Epistemología

¿Debe la ciencia esforzarse por alcanzar una neutralidad valorativa como la planteada
por la denominada por Von Wright “Escuela Galileana”? o ¿Debe la ciencia producir
una crítica y una praxis liberadoras que encaminen al hombre y a la sociedad al alcance
de relaciones sociales y económicas más humanas?

En primer lugar, presentaré en este trabajo las líneas generales que caracterizaron la
producción teórica de la primera generación de la escuela de Frankfurt, para poder, a
partir de ella fundamentar una exposición más completa de la teoría crítica de
Habermas.

En segundo lugar realizaré a partir de estos aportes una discusión general y de carácter
personal sobre la importancia de que las ciencias asuman un carácter crítico,
considerando que esta cuestión es uno de los problemas epistemológicos más
acuciantes en un mundo que se encuentra en riesgo de autodestruirse por el resultado
de “desarrollos” tecnológicos que de medios han pasado a transformarse en fines en sí
mismos. Intentaré asimismo aplicar, en forma general, esta discusión al ámbito de las
ciencias de la comunicación.

2 – La escuela Frankfurt: su historia y sus teorías

La Escuela de Frankfurt fue una muy importante concentración de destacados


intelectuales alemanes que compartieron una aproximación teórica de carácter crítico y
un pensamiento social progresista, entre ellos se destacaron: Theodor Adorno, Max
Horkheimer, Herbert Marcuse, Erich Fromm, Walter Benjamín.9

Todos ellos se integrarían en el Instituto de Investigación social fundado en Frankfurt en


1924 mediante una generosa donación de Félix Weil. Weil era un investigador
aficionado pero además un millonario, que fundó el instituto para que se dedicara al
estudio científico del marxismo tratando con ello de buscar un equilibrio entre su
posición de clase y su simpatía por la izquierda. El nuevo instituto mantuvo una
asociación libre con la Universidad de Frankfurt y abrió para los académicos alemanes
de izquierda una puerta para el estudio del marxismo político y económico a nivel
universitario.

El instituto solo empezó a transformarse en escuela cuando Horkheimer fue nombrado


director en 1930. Horkheimer era un filósofo por formación, centrado en la tradición
alemana y hegeliana, y se había acercado solo dubitativamente hacia el marxismo.
Diversas características comunes integraban a los heterogéneos miembros del instituto:

• Interés teórico práctico por el marxismo.


• Oposición al concepto de razón ilustrada y a la idea de progreso que surge en el
siglo XVIII.
• Rechazo del neopositivismo.
• Concepción de la filosofía como teoría crítica de la sociedad.
• Rechazo de la pura especulación filosófica, dedicándose al conocimiento de lo
que ellos llaman el mundo de la vida.

La nueva orientación marcada por Horkheimer no tuvo mucho tiempo para


desarrollarse, pues en 1933 con el ascenso del nazismo al poder la Escuela de
Frankfurt fue absolutamente prohibida y perseguida tanto por su filiación marxista como
por el carácter judío de muchos de sus miembros.

Se inició así una importante etapa de exilio que, tras pasar por algunos países
europeos llevaría a los miembros de la escuela a Nueva York, en donde encontrarían
una base más permanente para su trabajo en conexión con la Columnia University.

Los frankfurtianos permanecerían allí desde julio de 1934 hasta principios de 1943, y
conservarían una importante independencia dado a que sus necesidades económicas
todavía eran cubiertas con su donación original.

9
En esta sección seguimos el artículo sobre la Escuela de Frankfurt de la Enciclopedia Británica, edición electrónica.

54
ARMANDO ZABERT (COMPILADOR)

El exilio fue muy importante porque expuso a los pensadores alemanes a la nueva
realidad de una sociedad de consumo y de industrialización muy avanzada, como lo era
los Estados Unidos en los años ’30. A pesar de la depresión los EE UU eran el país
capitalista más avanzado. Todo ello profundizó la perspectiva crítica sobre la
racionalidad y el progreso técnico. Al mismo tiempo la escuela giró hacia una
perspectiva cada vez más filosófica que hizo de Horkheimer, Adorno y Marcuse las
figuras centrales.

Este giro hacia la filosofía fue acompañado de una diversificación en las bases teóricas
de sus trabajos, en los que el marxismo fue complementado con los aportes de figuras
como Nietzsche y Freud10. El acercamiento hacia estos pensadores era impulsado por
una revalorización de los factores individuales como determinantes de la acción
humana. Al mismo tiempo el acercamiento a estos pensadores estuvo ligado a un
mayor pesimismo en el pensamiento de la escuela sobre el desarrollo de la sociedad.
Adorno y Marcuse veían que aún los pensamientos progresistas que apuntaban a la
liberación, contenían en su interior la semilla de su propia anulación. Así, la ilustración
que había apuntado a liberar al hombre y establecer la soberanía de la razón había
culminado en el dominio despiadado del hombre sobre la naturaleza y del hombre sobre
el hombre.

Tras la guerra mundial Horkheimer y Adorno volvieron a Frankfurt, mientras que el resto
decidió permanecer en América. Los trabajos de los primeros acentuaron su tono
pesimista y melancólico. Para la década del ’60 un nuevo movimiento estudiantil
rechazaba el carácter exclusivamente teórico de la producción de la escuela, y
resaltaba la evidente contradicción de una teoría crítica que carecía de aplicación
práctica. Sería en ese contexto cuando Habermas (ingresado a la Escuela de Frankfurt
en 1956) empezaría a destacarse como figura central.

3 – Habermas dentro de la Escuela Frankfurt

La Crítica de las Teorías críticas anteriores.

Como vimos, la escuela de Frankfurt se consideraba heredera y continuadora del


trabajo de anteriores teóricos de vocación crítica. En ese sentido, se consideraba como
continuación de la fructífera tradición de pensamiento filosófico histórico y socio-
evolutivo de los siglos XVIII y XIX.

El primer referente de los filósofos francofurtenses era Hegel, de quien destacaban el


potencial crítico de su fenomenología al vincular en sus reflexiones la relación entre las
ideas y la realidad: para Hegel, si una situación sociohistórica no se correspondía con
las ideas y potenciales vigentes, en la misma surgía una contradicción que llevaba a
liberar la fuerza transformadora que esa situación tenía en potencia. Hegel había
identificado este tipo de contradicción en la sociedad burguesa de su tiempo a la que
correspondía, a la vez, ser la difusora de los ideales de libertad y justicia y ser la
defensora y perpetradora de un sistema económico y social opresivo que garantizaba la
reproducción de la desigualdad y las injusticias.

Pero el potencial crítico de Hegel había llegado solo hasta ese punto, puesto que hasta
el mismo filósofo alemán retrocedió espantado al comprender el potencial
revolucionario que podría tener la difusión de su teoría entre las masas.

Es ante esta retirada que se formula la revisión crítica que los miembros de la escuela
de Frankfurt, y sobre todo Habermas, realizan de la fenomenología hegeliana. 11 La
retirada de Hegel se había centrado en su rechazo al cambio revolucionario y violento
llevado a cabo directa e intencionalmente por los hombres, sin mediación histórica;
planteaba en cambio la necesidad de un proceso lento y paulatino que llevara al logro
de un derecho abstracto perfecto que surgiría de los distintos derechos y de los
conflictos entre los estados. El resultado del proceso quedaba garantizado por la
intervención del espíritu universal.

10
Esto es visible por ejemplo en la obra de Erich Fromm, sfr. El Miedo a la Libertad, Planeta, Barcelona, 1993, Pág. 30. La edición
original es del año 1941.
11
E. M. Ureña, La Teoría Crítica de la sociedad de Habermas, Tecnos, Madrid, 1998, Cap. II, Pág. 30 – 35.

55
Proyecto de Investigación e Intervención Socio-Comunitaria
Nociones de Epistemología

Así, Hegel afirmaba que: “esta fe universal, la creencia de que la historia universal es
un producto de la razón eterna y de que la razón ha determinado las grandes
revoluciones de la historia, es el punto de partida necesario de la filosofía en general y
de la filosofía de la historia universal”12.

Habermas rechaza a la fenomenología hegeliana puesto que el abandono de su énfasis


crítico original ha implicado la introducción de contradicciones en su sistema filosófico,
pues, al plantear Hegel la existencia de un proceso gradual de desarrollo del derecho,
se ha introducido en la historia un proceso que contradice a la propia dialéctica
defendida por el sistema hegeliano.

Recordemos que la dialéctica implica los tres diferentes momentos de tesis, antítesis y
síntesis superadora, siendo por lo tanto un proceso que implica cambios bruscos y no el
cambio gradual pretendido por Hegel para el desarrollo del derecho.

Habermas distingue así dos aspectos dentro de la fenomenología hegeliana, en primer


lugar uno positivo ya que la fenomenología contiene una autorreflexión crítica sobre el
proceso de autoconstitución del hombre en que las distintas etapas históricas
(identificada cada una con un desarrollo determinado del autoconocimiento y con un
orden social) surgen cada una como una negación de la anterior que sigue conteniendo
sin embargo algo de ella en su interior.

La fenomenología es aquí crítica porque libera al hombre del sometimiento dogmático a


una organización social determinada poniéndolo en relación con el pasado con que ésta
se relaciona y con el futuro que ésta permite.

El aspecto negativo reside en que Hegel considera a esa autorreflexión crítica e


histórica como un saber absoluto, solo accesible para el espíritu universal que tiene una
comprensión total de la historia. La historia queda así fuera de las manos de los
hombres y bajo el control del espíritu universal. La fenomenología se revela entonces
carente de praxis y pierde todo su potencial revolucionario.

El referente central de la teoría crítica de la escuela de Frankfurt era Karl Marx, en


quien veían al pensador que había superado las limitaciones conservadoras del sistema
hegeliano y había desenmascarado las contradicciones vigentes en el seno de la
sociedad burguesa por causa de la explotación inhumana de los trabajadores dentro del
sistema formalmente libre de la economía capitalista.

Desde un primer momento es evidente en Marx el énfasis en conectar su teoría crítica


con una praxis liberadora, él rechaza la idea del espíritu universal como un macrosujeto
guiando la historia universal, para Marx los hombres son sujetos de su propia historia y
la hacen y deshacen con sus acciones.

En concreto, para Marx es el trabajo de los hombres por dominar a la naturaleza el que
explica los diferentes estadios o etapas experimentados por las sociedades humanas
en su desarrollo histórico; en esas etapas se desarrollan distintas formas de trabajo
alienado, ocasionado por el insuficiente dominio sobre la naturaleza, es decir, por el
insuficiente desarrollo de las fuerzas productivas, que trae aparejado la explotación del
hombre por el hombre.

Marx cree que cuando los explotados tomen conciencia de su situación objetiva
inevitablemente originarán un cambio revolucionario; la función de la teoría es entonces
desterrar las falsas conciencias que aprisionan a los hombres para generar la praxis
emancipadora.

Respecto de la sociedad de su tiempo Marx confiaba en que la experiencia de las


contradicciones del capitalismo vivida en carne propia por el proletariado lo iría
haciendo madurar hasta el punto de convertirse en el actor histórico productor del
cambio revolucionario.

12
G. W. F., Hegel Lecciones sobre la filosofía de la historia universal, Alianza, Madrid, s.f., Pág. 55.

56
ARMANDO ZABERT (COMPILADOR)

Marx se equivocó en sus pronósticos sobre el rápido derrumbe del capitalismo para dar
paso al socialismo, pero no es en esto en lo que se centra la crítica de Habermas a
Marx, sino que lo hace en la problemática relación establecida en el pensamiento
marxiano entre el desarrollo de las fuerzas productivas y la acción revolucionaria.

Más específicamente, Habermas distingue dos planos en el sistema de Marx, en primer


lugar, el plano de sus investigaciones materiales en el que Marx distingue entre fuerzas
productivas (es decir el desarrollo de la mano de obra, de la tecnología, de la
organización, etc.) y las relaciones sociales de producción (es decir, las posiciones
ocupadas por los distintos grupos sociales en torno al control del trabajo y la
producción).

En segundo lugar, Habermas distingue un plano categorial o teórico en el cual esa


distinción se borra al ser las relaciones de producción absorbidas por las fuerzas
productivas. Como dijimos, para Marx el fin de la explotación del hombre por el hombre
sobrevendría cuando se alcanzase un dominio suficiente sobre la naturaleza, es decir,
cuando el desarrollo de las fuerzas productivas permitiera una distribución general de
recursos.

Pero, si el cambio revolucionario depende solo de las fuerzas productivas, entonces, la


clase obrera queda reducida a una fuerza productiva más y el género humano que las
desarrolla se transforma en un macro-sujeto colectivo de la historia parecido al espíritu
universal de Hegel.

El tercer referente clave de la teoría crítica de la escuela de Frankfurt es Sigmund


Freud. Los filósofos francofurtenses vieron en el psicoanálisis un aporte teórico con el
cual llenar el vacío individual dejado por énfasis excesivamente colectivo con que Marx
explicaba la acción social.

Para Habermas entonces la teoría freudiana es un complemento necesario para el


materialismo histórico. Sin embargo, su recepción de esta teoría tampoco estuvo exenta
de críticas, pues Habermas rechaza el énfasis cientificista puesto por Freud en la
valoración de sus propios descubrimientos, por el contrario, interpreta el psicoanálisis
como una filosofía del lenguaje, como una hermenéutica, ya que se esfuerza por
interpretar los textos mutilados que el paciente revela en su terapia filtrado por la
censura del super- yo.

El psicoanalista trata de revelar las causas ocultas y reprimidas ligadas a un episodio


de la vida pasada de un paciente; este intento de reconstruir lo reprimido es semejante
al concepto de ideología de Marx; aquello que a la vez cubre y expresa la realidad.

El potencial del psicoanálisis como teoría crítica, reside en el proceso de autorreflexión


por éste inducido para que el paciente se libere a sí mismo: incluye así una teoría y una
praxis relacionada.

Pese a reconocer este potencial crítico Habermas rechaza la inclinación de Freud de


conformar con sus teorías una ciencia natural basada en el concepto de energía, y se
inclina más bien por considerar al psicoanálisis como un proceso de auto-iluminación.

Habermas destaca, sin embrago, como especialmente importante la idea de Freud de


que las instituciones de la sociedad se encargan de garantizar la represión de los
instintos que le son molestos o que no puede asimilar. Esta noción freudiana del peso
represivo de la institución sobre el individuo complementa la noción marxiana de la
institución como la encargada de mantener la represión colectiva para preservar las
relaciones sociales de producción.

En conclusión, los miembros de la escuela de Frankfurt, y sobre todo Habermas,


trataron de integrar los aportes de Hegel, Marx y Freud para conformar una teoría y una
praxis humana de emancipación crítica frente a toda opresión, ya fuera esta de la
naturaleza externa o de las instituciones políticas.

57
Proyecto de Investigación e Intervención Socio-Comunitaria
Nociones de Epistemología

4 – La teoría crítica de Habermas

La obra de Habermas es heredera y continuadora de la tradición crítica de la escuela de


Frankfurt, su pensamiento sigue las líneas generales planteadas por los trabajos de
Horkheimer, Adorno y Marcuse (aunque hay claramente una mayor influencia de los
dos primeros).

Sin embargo, los trabajos de Habermas superan en su amplitud y profundidad a los de


sus predecesores, ya que integran en una rica amalgama elementos más diversos
extraídos de la filosofía y las ciencias sociales.13
Específicamente, Habermas comparte con Horkheimer, Adorno y Marcuse el énfasis en
la crítica al crecimiento desmesurado de la racionalidad instrumental en el mundo
contemporáneo.

El planteo de Horkheimer de un preocupante aplastamiento de la razón objetiva (la que


debe orientar a los hombres respecto a que fines perseguir) por parte de la razón
instrumental (que solo se ocupa técnicamente de ajustar la relación entre medios y
fines), es un eje clave que orientará toda la producción teórica habermasiana.

Habermas ve en el positivismo al principal exponente en el mundo académico de este


predominio de la razón instrumental, tal como antes ya lo habían denunciado
Horkheimer y Adorno; pero Habermas profundizará la crítica y ella será uno de los ejes
en el desarrollo de su propio planteamiento.

Para Habermas el positivismo es una teoría de la ciencia que ha sido elevada y


encumbrada falsamente al lugar que debería ocupar una teoría del conocimiento.

Según Boladeras, Habermas entiende por conocimiento al conjunto de saberes que


acompañan y hacen posible la acción humana14, siendo claro que la concepción
objetivista, instrumental y aséptica que de la ciencia tiene el positivismo es algo muy
limitado al lado de esa noción habermasiana.

Pero el error más grave de esta teoría de la ciencia positivista es su defensa del
monismo metodológico con el cual pretende introducir sus criterios objetivistas y
“desinteresados” en el ámbito de las ciencias sociales.

El resultado de esta invasión metodológica es que las ciencias sociales quedan


neutralizadas al partir de un marco operativo demasiado estrecho como para captar las
complejidades de su objeto de estudio. Para Habermas el positivismo ha desplazado al
sujeto cognoscente de toda intervención creativa en el proceso de conocimiento y a
puesto en su lugar al método de investigación.

En uno de sus trabajos tempranos15, Habermas ya presenta desarrollada su crítica de la


aplicación de los modelos positivistas en las ciencias sociales, allí siguiendo los
lineamientos marcados por Adorno; Habermas sostiene que una ciencia social empírico
analítica solo puede proporcionarnos un control técnico de ciertas magnitudes sociales,
pero la misma es insuficiente cuando nuestro interés cognoscitivo apunta más allá de la
dominación sobre la naturaleza.

Para Habermas es inaceptable pretender que las ciencias sociales traten a su objeto
con la misma indiferencia con la que lo hacen las ciencias naturales; el mundo social es
un mundo de significados y sentidos y la ciencia social positivista se anula a sí misma al
pretender excluirlos de su análisis.

Habermas retoma algunos elementos de la crítica de Hüsserl al positivismo,


especialmente el problema de la separación entre ciencia y filosofía, pero rechaza a la
fenomenología por moverse dentro de la teoría tradicional incapaz de una praxis
emancipadora, mientras que el objetivo de Habermas al denunciar el positivismo es
13
M. Boladeras, Comunicación, ética y política. Habermas y sus escritos, Madrid, Tecnos, 1996, Pág. 18.
14
Ibid., Pág. 27.
15
J., Habermas, “Apendice a una controversia (1963). Teoría analítica de la ciencia y la dialéctica”, en: La lógica de las ciencias
sociales, Tecnos, Madrid, pp. 22 - 44.

58
ARMANDO ZABERT (COMPILADOR)

demostrar la función que la ciencia y la técnica cumplen como ideología en la sociedad


contemporánea para de esa forma contribuir a emancipar a los hombres.16

Es de este rechazo del positivismo del que Habermas parte para desarrollar su propia
teoría del conocimiento, la cual a su vez será al mismo tiempo, como veremos, una
teoría de la sociedad. El concepto central de esa crítica, y de toda su obra teórica, es su
concepto de intereses del conocimiento.

Como heredero de la tradición de pensamiento histórico – filosófico y socioevolutiva de


los siglos XVIII Y XIX, Habermas parte de un esquema de dos dimensiones para
entender la sociedad humana en su desarrollo histórico:

• una dimensión técnica que comprende las relaciones de los hombres con la
naturaleza centradas en el trabajo productivo y reproductivo
• una dimensión social que comprende las relaciones entre los hombres centradas
en la cultura y las normas sociales.

Precisamente la crítica habermasiana apunta a denunciar en la sociedad


contemporánea, la hegemonía desmedida de la dimensión técnica producto del
desarrollo del capitalismo industrial y del positivismo. El esfuerzo de Habermas plantea
una relación más equilibrada entre ambas dimensiones que libere a los hombres del
tecnicismo alienante bajo el cual se encuentran aplastados. Habermas va a plantear
esa crítica y va a establecer los parámetros de esa interrelación más equilibrada a partir
de su concepto de intereses del conocimiento.17

Para él los intereses son las orientaciones básicas de la sociedad humana en torno al
proceso de reproducción y autoconstitución del género humano, es decir, las
orientaciones básicas que rigen dentro de la dimensión técnica y la dimensión social en
el desarrollo histórico de la sociedad.

Habermas ve que es precisamente mediante los desarrollos en torno a esas dos


dimensiones que la sociedad humana se transforma a sí misma a través de la historia.

En ese desarrollo histórico el conocimiento de los hombres sobre la naturaleza apuntó a


lograr el dominio técnico sobre ella, que en las sociedades avanzadas dio origen a las
ciencias naturales; Habermas llama a esa orientación básica interés técnico.

El desarrollo de las relaciones entre los hombres y de su entendimiento mutuo llevó al


desarrollo de las ciencias hermeneúticas partiendo de la orientación básica que
Habermas llama interés práctico.

Habermas destruye las pretensiones metodológicas del positivismo al demostrar que


los objetos de conocimiento se constituyen a partir del interés que rija la investigación.
El sujeto construye a su objeto de estudio a partir de los parámetros definidos por un
interés técnico o un interés práctico, y no se limita a observarlo y aprenderlo “tal como
es” según lo plantea el empirismo ingenuo de muchos positivistas.

Pero Habermas amplía su argumentación en esta línea y señala que el interés del
conocimiento no solo determinará la constitución del objeto de estudio, sino también la
experiencia que se tenga de él, el lenguaje en que esa experiencia se exprese y el
ámbito en que se aplicará la acción derivada de ese conocimiento.

16
Cfr. J., Habermas, “Conocimiento e interés”, en: Ciencia y técnica como ideología, Madrid, Tecnos, 1986, pp. 164 – 166.
17
E. M. Ureña, La Teoría Crítica de la sociedad de Habermas, Tecnos, Madrid, 1998, Cap. VI, Pág. 95 – 99.

59
Proyecto de Investigación e Intervención Socio-Comunitaria
Nociones de Epistemología

Podemos sintetizar esto en el siguiente cuadro:

Interés Técnico Interés Práctico


Objeto de conocimiento técnico (ligado a Objeto de conocimiento práctico(ligado a
la manipulación instrumental de la la comunicación entre individuos)
naturaleza)
Lenguaje fisicalista Lenguaje intencional
Acción instrumental (relación teleológica Acción comunicativa
o estratégica de medios y fines)

El resultado de este análisis es la comprobación de lo erróneo de la premisa positivista


de que las ciencias son desinteresadas, por el contrario es el interés el que está en la
raíz misma de su constitución.

Con esto se rechaza al mismo tiempo la supuesta superioridad de las ciencias naturales
sobre las sociales que se fundaba en el carácter supuestamente más “neutro y
desinteresado” de las primeras frente a las últimas.

El concepto de interés del conocimiento nos muestra la relación que existe entre Teoría
del Conocimiento y Teoría de la Sociedad; ambas teorías se necesitan una a la otra
para su conformación.

La teoría del conocimiento es al mismo tiempo una teoría de la sociedad, porque los
intereses que posee el conocimiento sólo pueden fundamentarse desde una teoría de la
sociedad que conciba la historia como un proceso en donde el hombre se auto-
constituye y genera esos conocimientos en ese mismo proceso.

La teoría de la sociedad necesita de la teoría del conocimiento, porque el desarrollo


histórico de la sociedad humana solo puede comprenderse a partir de los
conocimientos generados por ella en las dimensiones técnicas y sociales, ya que son
esas transformaciones las que han originados los cambios en las dimensiones
mencionadas.

Finalmente, Habermas culmina su ataque al positivismo tratando de hacer que éste


reflexione sobre sí mismo. Lo que pretende demostrar es que las ciencias naturales en
respuesta a un interés técnico, no pueden fundamentar la comunicación Inter-subjetiva
que se da entre los científicos en sus discursos meta-teóricos. Esto permite afirmar la
existencia de una metodología propia en las ciencias del espíritu irreductible a las
ciencias de la naturaleza. El análisis de las relaciones intersubjetivas de esas ciencias
solo puede fundamentarse desde un interés práctico por el entendimiento.

Según Habermas, con la opresión causada por parte de una naturaleza externa no
dominada y de una naturaleza propia deficientemente socializada, aparece una tercera
“orientación básica”, que él denomina interés emancipativo y que no se corresponde
con una tercera dimensión distinta a las de la interacción y la técnica, sino que se
identifica con el proceso mismo de auto-constitución histórica de la sociedad humana.

El interés emancipativo, es entonces un interés primario que impulsa al hombre a


liberarse de las condiciones opresivas tanto de la naturaleza externa como de la
naturaleza interna, y que es, por tanto, la base de los intereses técnicos y prácticos.

Está ligado a un tercer tipo de ciencias, las críticas, y se ubica por debajo de las
ciencias naturales y sociales, es decir que surge como una autoreflexión de éstas. Así,
vemos como el interés práctico y el interés técnico derivan del interés emancipativo, en
donde el conocimiento sólo encuentra su sentido cuando se le refiere al proceso
emancipativo de autoconstitución del género humano.

El interés emancipativo devela la interrelación entre la dimensión técnica y la dimensión


práctica. Al mismo tiempo se restablece aquí la relación perdida y añorada entre las
ciencias y la filosofía señalada por Hüsserl, pero sin que la filosofía exija ahora ser la
reina sino simplemente ubicarse dentro de la ciencia.

60
ARMANDO ZABERT (COMPILADOR)

Las ciencias a su vez necesitan de la filosofía crítica para librarse del estancamiento del
objetivismo que heredaron de la filosofía tradicional.

Habermas aclara el punto de la interrelación entre las dos dimensiones con su


afirmación de que los intereses en sí mismo son racionales, esto quiere decir que los
interese no responden a necesidades empíricas concretas en la relación con la
naturaleza, sino que esas necesidades y esa relación dependen de la interpretación
que de ellas hagan los hombres. Como toda interpretación pertenece a la dimensión
comunicativa, la dimensión técnica aunque sea independiente de la social está
“empotrada” en esta última. De aquí la centralidad que Habermas otorga a la acción
comunicativa.18

Hemos recorrido así el camino que lleva desde el primer eje central del pensamiento
habermasiano la noción de los intereses del conocimiento, hasta el segundo eje central
en el que Habermas ha centrado su producción de las últimas décadas, la teoría de la
acción comunicativa.

Esta es una continuación de los lineamientos que hemos planteado al desarrollar la


noción de intereses del conocimiento, pues con su teoría de la acción comunicativa,
Habermas continúa en su pensamiento crítico pero acercándose en una forma más
concreta a la relación teoría – praxis siempre pretendida por la escuela de Frankfurt.

Alrededor de la acción comunicativa, Habermas presenta sus aportes teóricos más


originales, y logra profundizar y superar con nuevos elementos la crítica de la razón
instrumental a la que se limitó la primera generación de la escuela de Frankfurt. En su
desarrollo de este concepto Habermas fue muy influenciado por el éxito de la filosofía
del lenguaje impulsado por la discusión planteada por Wittgenstein y los miembros de la
corriente de la filosofía analítica.

En sus “observaciones sobre el concepto de acción comunicativa (1982)”, Habermas


distingue entre la aproximación de la teoría sociológica a la acción humana y la
aproximación de la teoría filosófica a la misma, pues mientras que a la primera le
interesan sobre todo “los mecanismos de coordinación de la acción que hacen posible
una concatenación regular y estable de interacciones”; la segunda se interesa por los
problemas básicos relativos a la libertad de la voluntad y a la casualidad.

Precisamente, Habermas parte de una crítica de los planteamientos más desatacados


de la sociología contemporánea en torno al concepto de acción para a partir de ello
introducir los elementos generales de su concepción sobre los conceptos de acción
comunicativa y mundo de la vida.

Habermas, considera en primer lugar el concepto sociológico tradicional de acción


teleológica, el cual también tiene desde Aristóteles una gran influencia en la filosofía de
la acción.

Este concepto supone a un sujeto racional con la capacidad de interpretar una situación
y poder determinar los medios más adecuados para la satisfacción de sus objetivos. A
sí mismo, se concibe al agente social como utilitarista, es decir, que trata siempre de
maximizar obteniendo los mayores beneficios posibles al menor costo. Cuando la
acción teleológica tiene en cuenta la interacción entre distintos agentes se transforma
en el concepto más elaborado de acción estratégica.

A diferencia de la teleológica, la acción estratégica implica un uso del lenguaje, pero en


una forma orientada solo al éxito y no al entendimiento, el lenguaje es un medio más
entre otros para la consecución de los objetivos deseados.

Habermas, califica como acción regulada por normas, al concepto de acción de la


sociología funcionalista que tiene a Parsons como a su representante más desatacado.

18
E. M. Ureña, La Teoría Crítica de la sociedad de Habermas, Tecnos, Madrid, 1998, Cap. VI, Pág. 100- 105

61
Proyecto de Investigación e Intervención Socio-Comunitaria
Nociones de Epistemología

El actor no se concibe aquí aisladamente, sino como miembro de un grupo social.

Para garantizar la satisfacción de sus necesidades básicas, el grupo genera normas y


valores que orientan en ese sentido las acciones de los individuos. Los demás
miembros del grupo tienen derecho a esperar que en cada caso, el actor respete en su
acción la norma social correspondiente.

Para Habermas, este concepto no estratégico, implica una orientación al entendimiento


y no al éxito. Este concepto supone, una orden social entendido como un sistema de
reglas reconocidas y de instituciones vigentes, pero todo ello hasta el punto de hacer
desaparecer la creatividad individual del actor que aparece absorbido como un simple
engranaje de la sociedad.

Otro modelo de acción que Habermas analiza, es el de acción dramatúrgica, introducido


por el sociólogo norteamericano Goffman, quién considera a cada agente como un
actor interpretando un papel ante un público compuesto por todos los agentes con que
interactúa.

Los individuos se relacionan entre sí regulando la información que dejan pasar sobre su
propia subjetividad a los demás, controlando la imagen que presenta a los otros. En
este modelo, ocurre lo opuesto al anterior, pues es aquí la sociedad la que se disuelve
en individuos.

Finalmente, Habermas presenta su concepción de la acción comunicativa, partiendo de


los aportes del interaccionismo simbólico y de la etnometodología.

En el primero, la asunción de rol se entiende como mecanismo de un proceso de


aprendizaje en que el muchacho construye el mundo social a la vez que desarrolla su
propia identidad. Este concepto de asunción de rol permite entender la individuación
como proceso de socialización y simultáneamente la socialización como individuación.19

Pero el interaccionismo simbólico no explica como el lenguaje puede cumplir esa


función de socialización. De ello se ocupa la etnometodología (Garfinkel y Schütz), que
entiende las acciones sociales como procesos cooperativos de interpretación, en el que
los agentes sociales negocian significados comunes para poder coordinar sus planes
de acción. La crítica de Habermas es que aquí, “las acciones se disuelven en actos de
habla, y las interacciones sociales tácitamente se disuelven en conversaciones”20.

El problema es, en síntesis que no se distingue aquí con suficiente cuidado entre
mundo y mundo de la vida, es decir, se confunde aquello respecto de lo cual los
agentes se entienden (el mundo), con aquello a partir de lo cual inician y discuten sus
operaciones interpretativas (las tradiciones culturales, etc. fijadas en el mundo de la
vida).

19
Observaciones sobre el concepto de acción comunicativa, Pág. 488.
20
Ibid.

62
ARMANDO ZABERT (COMPILADOR)

Este argumento lleva a Habermas a plantear comparativamente las distintas relaciones


con el mundo incluidas en cada uno de los conceptos de acción analizados, resumimos
su conclusiones en el siguiente cuadro:

CONCEPTO RELACIONES CON EL MUNDO


Acción Teleológica Concibe un solo mundo objetivo, con el cual el actor puede
establecer dos relaciones, conocer estados de cosas existentes y
traer a la existencia estados de cosas deseados.
Acción Estratégica Se complejiza un poco respecto de la teleológica porque ahora
pueden presentarse, además de cosas y sucesos, otros agentes.
Pero sigue siendo un concepto que cuenta con un solo mundo.
Acción Regulada Concibe dos mundos, un mundo objetivo de las cosas y un
por normas mundo social que consiste en órdenes institucionales que fijan las
reglas, los roles y los valores.
Acción Concibe tres mundos, además del mundo de las cosas y del
Dramatúrgica mundo social, incluye un mundo subjetivo al que solo el actor
tiene acceso.
Acción Concibe cuatro mundos, al mundo objetivo, al social y al
Comunicativa subjetivo, agrega el mundo del lenguaje a través del cual los
actores llegan a un acuerdo en una acción orientada al
entendimiento.

Habermas reintegra en este punto algunos elementos de su concepción acerca de los


intereses del conocimiento, lo hace con la distinción entre la acción orientada al éxito y
la acción orientada al entendimiento. La orientación al éxito se corresponde claramente
a la acción teleológica – estratégica que, como vimos, es motivada por la consecución
de un fin y tiene por lo tanto un carácter instrumental que responde a un interés técnico.

La acción orientada por normas, es guiada por el interés práctico, ya que, supone la
pertinencia de los papeles sociales dentro de los cuales los agentes operan
solucionando sus conflictos dentro del marco de las normas establecidas.

Por último, la acción orientada al entendimiento, es guiada por el interés crítico –


emancipativo que trata “de llegar a una resolución de problemas a través de la
argumentación, del reconocimiento de las pretensiones de validez de los actos de habla
de los interlocutores”21.

Habermas agrupa estos elementos en dos dimensiones, la dimensión instrumental y la


dimensión comunicativa.

La primera comprende lo teleológico – estratégico y promueve un tipo de interacción


social basado en intereses comunes y en un adecuado calculo de las posibilidades de
éxito.

La segunda promueve una interacción basada en procesos cooperativos de


interpretación que posibilita que los individuos afectados por una situación común
realicen una comprensión compartida de la misma generadora de concierto entre ellos.

La primera dimensión de interacción requiere de pocos puntos en común entre los


participantes, sentados en torno a los medios para lograr el objetivo deseado; la
segunda dimensión requiere compartir significados y valoraciones para que el
entendimiento sea posible, ello presupone un cierto grado de comunidad en el mundo
de la vida.

Habermas parte del concepto de acción comunicativa porque él cree que es


centralmente constitutivo de la sociedad humana, por ello trata a partir de éste de
reconstruir una filosofía de la racionalidad.

21
M., Boladeras, op. cit., Pág. 52

63
Proyecto de Investigación e Intervención Socio-Comunitaria
Nociones de Epistemología

Para Habermas la razón es una trama discursiva que articula las acciones de los
individuos. Estos pueden comprenderse porque comparten un mismo mundo simbólico
que garantiza el que se otorgue validez al proceso dialógico. Es el mundo de la vida el
que garantiza que los individuos de una misma sociedad compartan esos elementos
simbólicos que hacen posible la cooperación y el entendimiento.22

Pero el concepto de acción comunicativa es además eminentemente crítico pues las


posibilidades ideales que el concepto plantea desenmascaran el carácter mutilado de la
comunicación vigente en la sociedad contemporánea. Es aquí donde Habermas aplica
a un nivel social general la concepción autoreflexiva del psicoanálisis, como el proceso
crítico que permite tomar conciencia de la represión y mutilación que llevan adelante las
instituciones de las sociedades industrializadas avanzadas, represión análoga a la
experimentada por el paciente neurótico.

5 - Discusión del carácter crítico de las ciencias como problema


epistemológico

Los planteos críticos de la escuela de Frankfurt y de Habermas conservan plena


vigencia en la actualidad pese a los embates del relativismo “posmoderno”.

Si bien el positivismo ha retrocedido y no es sostenido como filosofía de la ciencia más


que por unos pocos, al menos en las ciencias sociales; el carácter acentuadamente
técnico, instrumental e inhumano de la sociedad contemporánea se ha profundizado
desde los momentos en que los pensadores que he reseñado en las secciones
anteriores produjeron sus obras.

Hoy las revoluciones de la informática y de las comunicaciones, y los nuevos campos


abiertos por el desarrollo de la biología del genoma humano, entre muchos otros, nos
indican el ritmo cada vez más acelerado con que las tecnologías hacen accesibles, a
algunos hombres, poderes y capacidades antes impensadas, sin que esos procesos
sean controlados por ninguna guía reflexiva o por ninguna consideración crítica.

El diagnóstico elaborado por la escuela de Frankfurt sigue describiendo acertadamente


la situación en la sociedad contemporánea, en la que la dimensión social es intervenida
y mediatizada en forma cada vez más profunda por tecnologías de todo tipo, que en el
marco del capitalismo globalizado mundial apuntan antes a crear nuevas necesidades
(y ganancias para el capital trasnacional) que a resolver parte de los problemas cada
vez más acuciantes que la desigualdad, el deterioro de la ecología, las enfermedades,
el hambre, y la brecha cada vez más grande entre los países del primer y tercer mundo,
plantean a la humanidad en conjunto.

Las finalidades que rigen la política y la planificación en las áreas consideradas


cruciales siguen siendo finalidades instrumentales, que pretenden solucionar problemas
acentuando el control técnico sobre determinadas variables, resultando en la mayoría
de los casos soluciones ambiguas que con frecuencia generan nuevos problemas o
agravan los ya existentes.

El acentuado deterioro del entorno ambiental del hombre es una de las amenazas más
graves que se ciernen sobre el horizonte humano a corto y mediano plazo. Desde la
revolución industrial y la revolución tecnológica, la economía capitalista ha impuesto
una valoración absolutamente instrumental de la naturaleza como un medio a manipular
y controlar para satisfacer necesidades y, sobre todo, para generar grandes ganancias,
sin ninguna consideración sobre los efectos globales de esta actitud voluntariamente
restringida al corto plazo de la rentabilidad económica.

Como lo señala Habermas, la manipulación de la naturaleza es una de las


orientaciones básicas del proceso de auto-constitución del género humano a lo largo de
la historia, pero en el siglo veinte esa dimensión ha tendido a anular cada vez en forma
creciente la orientación práctica hacia la comunicación y la orientación emancipativa
general hacia la liberación del hombre.
22
M., Boladeras, op. cit., Pág. 60 – 62.

64
ARMANDO ZABERT (COMPILADOR)

La creciente desigualdad social en el capitalismo globalizado, tanto entre ricos y pobres


como entre las regiones “desarrolladas” y “subdesarrolladas” del mundo, es otro de los
problemas que con gravedad creciente someten a la mayoría de la humanidad a una
existencia de sometimiento, miseria y penuria.

Este es el resultado de una economía tecnocrática, inhumana y deshumanizante que,


centrada en los principios de la “neutralidad valorativa”, es fiel a los lineamientos de
David Ricardo, pues sigue negando “la distinción entre hombres, bestias y cosas” en
sus análisis. Encubre con su abstracto y formalizado vocabulario (supuestamente
objetivo y desinteresado) realidades brutales de violencia y bestial explotación del
hombre por el hombre.

Los Estados mundiales se guían en sus políticas por los criterios técnicos que producen
esas ciencias “neutrales” y son los primeros en demandar de ellas ese tipo de
resultados, ansiosos por incrementar el control de las variables centrales de sus
sociedades.

Esto trae aparejado un gran crecimiento del perfil tecnocrático y burocrático de los
gobiernos, lo que mina cada vez más las posibilidades de una democratización genuina
que otorgue poder a la sociedad civil.

El Estado es así la herramienta principal del control técnico de la dimensión social; la


ausencia de toda reflexión crítica y emancipadora sobre los fines que debe perseguir el
Estado determina que sea uno de los principales garantizadores de que los problemas
ecológicos y de la desigualdad social se acentúen. Esto es especialmente cierto de los
países desarrollados que imponen con diversas formas de coerción sus procedimientos
a los Estados de los demás países.

Habermas crítica al Estado de bienestar occidental precisamente en estos términos al


señalar la contradicción entre sus objetivos sociales y sus medios instrumentales.23

En la sociedad mundial actual, las ciencias y las técnicas constituyen entonces la


principal “ideología” generadora de falsa conciencia entre los hombres, que los
mantiene por tanto sometidos a una relación alienada con su situación objetiva de
opresión.

Pese a que el positivismo ha dejado de ser la filosofía de la ciencia dominante en la que


se fundamentan, ellas siguen conservando en gran medida su pretensión de objetividad
y, más aún, el perfil exclusivamente instrumental en la aplicación y justificación de sus
resultados.

Constituyen cada vez más el centro indiscutido de la vida moderna que gira en torno a
ellas alienado de toda otra relación, justificando todos sus resultados a priori y por
definición.

Ante este contexto, la obra crítica habermasiana tiene un peso epistemológico central,
pues no se detiene en las consideraciones metodológicas preocupado por determinar la
posibilidad y la legitimidad del conocimiento científico, como ha sido el caso con
muchos de los pensadores de la escuela galileana, sino que a partir de esas
consideraciones trasciende el marco limitado de lo exclusivamente metodológico, para
pasar a considerar el problema epistemológico central de la situación de la ciencia en
sus relaciones con las demás esferas de la actividad humana, para revelar sus efectos
y resultados.

Habermas no se detiene en la crítica del positivismo y en la fundamentación de la


existencia de una metodología propia de las ciencias sociales, sino que este es el punto
de partida para que su pensamiento crítico revele la situación problemática del
desdibujamiento que la ciencia genera en las dimensiones humanas de la sociedad.

23
J. Habermas, “La crisis del Estado de bienestar y el agotamiento de las energías utópicas”, en: Ensayos políticos, Barcelona,
Península, 1988, pp. 113 134.

65
Proyecto de Investigación e Intervención Socio-Comunitaria
Nociones de Epistemología

Habermas respeta el objetivo planteado por Horkheimer y Adorno de someter la razón


instrumental a la razón objetiva, la que mediante la reflexión crítica debe fijar objetivos
humanos a las ciencias y a la tecnología que ellas producen, pero su pensamiento,
integrando corrientes más amplias de las ciencias sociales y de la filosofía, se distingue
del de sus predecesores por su conexión más directa entre teoría y praxis, en la genial
elaboración de su teoría de la acción comunicativa.

Como lo señala en las tesis IV y V de conocimiento e interés, ésta función emancipativa


corresponde a la ciencia social crítica. Operando del mismo modo que el psicoanálisis,
ésta se vale de la autorreflexión como marco metodológico para liberar al sujeto “de la
dependencia de poderes hipostasiados”.

La autorreflexión responde a un interés cognoscitivo emancipatorio, presente en las


ciencias sociales críticas y en la filosofía. Así, para Habermas, la filosofía debe liberarse
del concepto tradicional de teoría que la ata a un objetivismo que obstaculiza e impide
su carácter autorreflexivo, y “enmascara el nexo de su conocimiento con el interés por
la emancipación.

Habermas recibió en su concepción de la ciencia crítica una gran influencia del modelo
del psicoanálisis freudiano, dejando de lado sus aspectos legaliformes, rescata
insistentemente la idea de una autorreflexión emancipadora del paciente asistida por la
praxis hermenéutica del psicoanalista. Habermas hace extensivo este modelo a la
filosofía, para asumir un carácter crítico ésta debe apuntar a producir una autorreflexión
que libere a los sujetos del carácter “universal y objetivo” de conocimientos ligados a
intereses específicos.

Este problema epistemológico es central en el campo de la comunicación social


considerada como una de las ciencias que Habermas denomina hermenéuticas,
cuando, como él mismo lo denuncia, los medios de comunicación cumplen el rol central
en la generación de esa “comunicación mutilada y reprimida” que caracteriza a las
sociedades actuales.

Numerosas fuerzas impulsan a la comunicación social a asumir un rol técnico y


“objetivo” como disciplina estrechamente conectada con instituciones públicas y
privadas que reclaman la satisfacción de necesidades comunicativas concretas y con
contenidos prefijados (y, por lo tanto, reprimidos) para cumplir con funciones
instrumentales.

En este contexto, creo que es plenamente pertinente el calificar a la función que


cumplen los medios de comunicación masiva como eminentemente ideológica, como
generadora de falsa conciencia y alineación frente a las condiciones opresoras y
deshumanizantes de la sociedad contemporánea. Podemos suscribir entonces las
opiniones del pensamiento crítico del siglo XIX, destacadas por Habermas, sobre la
opinión pública.

El pensamiento crítico debe necesariamente revelar, como lo indica Habermas, que los
medios de comunicación se han transformado en instrumentos de entretenimientos y
dominación de las masas, apoyando la expansión de las esferas de intervención del
Estado en la sociedad civil.

Los medios de comunicación se han transformado en medios de propaganda que en


vez de expresar los intereses generales se convierten en instrumentos para la difusión
privilegiada de intereses privados que se los han apropiado; como lo señala Habermas
“la publicidad crítica es desplazada por la publicidad manipuladora”24.

Todo ello hace necesario que la comunicación social se plantee el problema


epistemológico de cuál debe ser su actitud valorativa; se trata del problema de optar
entre la pretendida cientificidad de la neutralidad técnica y el carácter autoreflexivo y
crítico que trata de convertirla en una disciplina ligada al interés práctico de generar una

24
Citado en M., Boladeras, op. cit., Pág. 39.

66
ARMANDO ZABERT (COMPILADOR)

comunicación libre y no mutilada, es decir, un entendimiento entre los hombres que


apunte a su emancipación.

6 – Conclusión

En este trabajo hemos considerado la contribución habermasiana al problema


epistemológico de la actitud de la ciencia, problema escindido entre la pretensión de la
“neutralidad valorativa” reclamada por el positivismo, y el reclamo de una ciencia crítica
exigida por el pensamiento de la escuela de Frankfurt.

En el mismo nos hemos identificado con esta última postura, y hemos intentado
brevemente desarrollar algunas de sus implicaciones para las ciencias de la
comunicación como integrantes de las ciencias sociales.

Como vimos, ante el contexto instrumentalizante de la ciencia contemporánea, la obra


crítica habermasiana tiene un peso epistemológico central, pues no se detiene en la
crítica del positivismo, sino que éste es el punto de partida para que su pensamiento
crítico revele la situación problemática que la ciencia y la técnica generan al invadir con
su interés técnico las dimensiones humanas de la sociedad; problemática a la que
hemos aludido reiteradamente en este trabajo.

Es nuestra conclusión que la obra teórica habermasiana es central para que las
ciencias sociales se libren de la tutela obstaculizante de la metodología empírico –
analítica del positivismo, y asuman su carácter de ciencias hermenéuticas y dialécticas.
Solo así podrán realizar la contribución central que el pensamiento crítico requiere de
ellas de trasladar el peso del interés práctico y de la dimensión social a un equilibrio
emancipatorio frente al interés técnico y la dimensión del trabajo.

Bibliografía

BOLADERAS, M., COMUNICACIÓN, ÉTICA Y POLÍTICA. HABERMAS Y SUS CRÍTICOS, MADRID, TECNOS, 1996

FROMM, E., EL MIEDO A LA LIBERTAD, BUENOS AIRES, PLANETA, 1993.

HABERMAS, J., LA LÓGICA DE LAS CIENCIAS SOCIALES, MADRID, TECNOS, 1988.

________, “CONOCIMIENTO E INTERÉS”, EN: CIENCIA Y TÉCNICA COMO IDEOLOGÍA , MADRID, TECNOS,
1986.

________, LA TEORÍA DE LA ACCIÓN COMUNICATIVA: COMPLEMENTOS Y ESTUDIOS PREVIOS, MADRID,


CÁTEDRA, 1994.

________, “LA CRISIS DEL ESTADO DE BIENESTAR Y EL AGOTAMIENTO DE LAS ENERGÍAS UTÓPICAS”, EN:
ENSAYOS POLÍTICOS, BARCELONA, PENÍNSULA, 1988.

HEGEL, G. W. F., LECCIONES SOBRE LA FILOSOFÍA DE LA HISTORIA UNIVERSAL, MADRID, ALIANZA, S.F.

UREÑA, E., LA TEORÍA CRÍTICA DE LA SOCIEDAD DE HABERMAS, MADRID, TECNOS, 1998.

VON WRIGHT, G., EXPLICACIÓN Y COMPRENSIÓN, MADRID, ALIANZA, 1987.

67
Proyecto de Investigación e Intervención Socio-Comunitaria
Nociones de Epistemología

10 - INTRODUCCION AL PENSAMIENTO COMPLEJO. Edgar Morin


El presente texto es una compilación de ensayos y presentaciones del pensador
frances Edgar Morin realizadas entre 1976 y 1988, los años durante los cuales su
«método» comienza a cobrar como estructura articulada de conceptos. Es una
introducción ideal a la obra de este hombre cuya desmesurada curiosidad
intelectual y pasión ética evocan aquel apelativo de «genio numeroso» que
Ernesto Sábato dedicara a Leonardo. El diálogo estimulador del pensamiento que
Morin propone a todos los que, ya sea desde la cátedra o los ámbitos más
diversos de la práctica social, desde las ciencias duras o blandas, desde el
campo de la literatura o la religión, se interesen en desarrollar un metodo
complejo de pensar la experiencia humana, recuperando el asombro ante el
milagro doble del conocimiento y del misterio, que asoma detrás de toda filosofía,
de toda ciencia, de toda religión, y que aúna a la empresa humana en su
aventura abierta hacia el descubrimiento de nosotros mismos, nuestros límites y
nuestras posibilidades. Vivimos un momento en el que cada vez más y, hasta
cierto punto, gracias a estudiosos como Edgar Morin, entendemos que el estudio
de cualquier aspecto de la experiencia humana ha de ser, por necesidad,
multifacético. El pensamiento complejo es una aventura, pero también un desafío.

Introducción

Legítimamente, le pedimos al pensamiento que disipe las brumas y las oscuridades, que
ponga orden y claridad en lo real, que revele las leyes que lo gobiernan. El término
“complejidad” no puede más que expresar nuestra turbación, nuestra confusión, nuestra
incapacidad para definir de manera simple, para nombrar de manera clara, para poner
orden en nuestras ideas.

Al mismo tiempo, el conocimiento científico fue concebido durante mucho tiempo, y aún
lo es a menudo, como teniendo por misión la de disipar la aparente complejidad de los
fenómenos, a fin de revelar el orden simple al que obedecen.

Pero si los modos simplificadores del conocimiento mutilan, más de lo que expresan,
aquellas realidades o fenómenos de lo que intentan dar cuenta, si se hace evidente que
producen más ceguera que elucidación, surge entonces un problema: ¿cómo encarar a
la complejidad de un modo no-simplificador?

De todos modos este problema no puede imponerse de inmediato. Debe probar su


legitimidad, porque la palabra “complejidad” no tiene tras de sí una herencia noble, ya
sea filosófica, científica, o epistemológica. Por el contrario, sufre una pesada tara
semántica, porque lleva en su seno confusión, incertidumbre, desorden.

Su definición primera no puede aportar ninguna claridad:

• “es complejo aquello que no puede resumirse en una palabra maestra,


aquello que no puede retrotraerse a una ley, aquello que no puede
reducirse a una idea simple”.

Dicho de otro modo, lo complejo no puede resumirse en el término complejidad,


retrotraerse a una ley de complejidad, reducirse a la idea de complejidad. La
complejidad no sería algo definible de manera simple para tomar el lugar de la
simplicidad. La complejidad es una palabra problema y no una palabra solución.

La necesidad del pensamiento complejo no sabrá ser justificada en un prólogo. Tal


necesidad no puede más que imponerse progresivamente a lo largo de un camino en el
cual aparecerán, ante todo, los límites, las insuficiencias y las carencias del
pensamiento simplificante, es decir, las condiciones en las cuales no podemos eludir el
desafío de lo complejo.

68
ARMANDO ZABERT (COMPILADOR)

Será necesario, entonces, preguntarse si hay complejidades diferentes y si se puede


ligar a esas complejidades en un complejo de complejidades.

Será necesario, finalmente, ver si hay un modo de pensar, o un método, capaz de estar
a la altura del desafío de la complejidad. No se trata de retomar la ambición del
pensamiento simple de controlar y dominar lo real. Se trata de ejercitarse en un
pensamiento capaz de tratar, de dialogar, de negociar, con lo real.

Habrá que disipar dos ilusiones que alejan a los espíritus del problema del pensamiento
complejo.

1. La primera ilusion es crear que la complejidad conduce a la eliminación de la


simplicidad. Por cierto que la complejidad aparece allí donde el pensamiento
simplificador falla, pero integra en sí misma todo aquello que pone orden,
claridad, distinción, precisión en el conocimiento. Mientras que el pensamiento
simplificador desintregra la complejidad de lo real, el pensamiento complejo
integra lo más posible los modos simplificadores de pensar, pero rechaza las
consecuencias mutilantes, reduccionistas, unidimensionales y finalmente
cegadoras de una simplificación que se toma por reflejo de aquello que hubiere
de real en la realidad.
2. La segunda ilusión es la de confundir complejidad con completud. Ciertamente,
la ambición del pensamiento complejo es rendir cuenta de las articulaciones entre
dominios disciplinarios quebrados por el pensamiento disgregador (uno de los
principales aspectos del pensamiento simplificador); éste aísla lo que separa, y
oculta todo lo que religa, interactúa interfiere. En este sentido el pensamiento
complejo aspira al conocimiento multidimensional. Pero sabe, desde el comienzo,
que el conocimiento complejo es imposible: uno de los axiomas de la complejidad
es la imposibilidad, incluso teórica, de una omniciencia. Hace suya la frase de
Adorno «la totalidad es la no-verdad». Implica el reconocimiento de un principio
de incompletud y de incertidumbre. Pero implica también, por principio, el
reconocimiento de los lazos entre las entidades que nuestro pensamiento debe
necesariamente distinguir, pero no aislar, entre sí. Pascal había planteado,
correctamente, que todas las cosas son «causadas y causantes, ayudadas y
ayudantes, mediatas e inmediatas, y que todas (subsisten) por un lazo natural a
insensible que liga a las más alejadas y a las más diferentes».

Así es que el pensamiento complejo está animado por una tensión permanente entre la
aspiración a un saber no parcelado, no dividido, no reduccionista, y el reconocimiento de
lo inacabado e incompleto de todo conocimiento.

Esa tensión ha animado toda mi vida. Nunca pude, a lo largo de toda mi vida,
resignarme al saber parcelarizado, nunca pude aislar un objeto del estudio de su
contexto, de sus antecedentes, de su devenir.

He aspirado siempre a un pensamiento multidimensional. Nunca he podido eliminar la


contradicción interior. Siempre he sentido que las verdades profundas, antagonistas las
unas de las otras, eran para mí complementarias, sin dejar de ser antagonistas. Nunca
he querido reducir a la fuerza la incertidumbre y la ambigüedad.

Desde mis primeros libros he afrontado a la complejidad, que se transformó en el


denominador común de tantos trabajos diversos que a muchos le parecieron dispersos.
Pero la palabra complejidad no venía a mi mente, hizo falta que lo hiciera, a fines de los
años 1960, vehiculizada por la Teoría de la Información, la Cibernética, la Teoría de
Sistemas, el concepto de auto-organización, para que emergiera bajo mi pluma o, mejor
dicho, en mi máquina de escribir.

Se liberó entonces de su sentido banal (complicación, confusión), para reunir en sí


orden, desorden y organización y, en el seno de la organización, lo uno y lo diverso;
esas nociones han trabajado las unas con las otras, de manera a la vez complementaria
y antagonista; se han puesto en interacción y en constelación.

69
Proyecto de Investigación e Intervención Socio-Comunitaria
Nociones de Epistemología

El concepto de complejidad se ha formado, agrandado, extendido sus ramificaciones,


pasado de la periferia al centro de mi meta, devino un macro-concepto, lugar crucial de
interrogantes, ligado en sí mismo, de allí en más, al nudo gordiano del problema de las
relaciones entre lo empírico, lo lógico, y lo racional.

Ese proceso coincide con la gestación de El Método, que comienza en 1970; la


organización compleja, y hasta hiper-compleja, está claramente en el corazón
organizador de mi libro El Paradigma Perdido (1973).

El problema lógico de la complejidad es objeto de un artículo publicado en 1974 (Más


alla de la complicación, la complejidad, incluido en la primera edición de Ciencia con
Conciencia). El Método es y será, de hecho, el método de la complejidad.

Este libro, constituido por una colección de textos diversos, es una introducción a la
problemática de la complejidad. Si la complejidad no es la clave del mundo, sino un
desafío a afrontar, el pensamiento complejo no es aquél que evita o suprime el desafío,
sino aquél que ayuda a revelarlo e incluso, tal vez, a superarlo.

La necesidad del pensamiento complejo

¿Qué es la complejidad? A primera vista la complejidad es un tejido (complexus: lo


que está tejido en conjunto) de constituyentes heterogéneos inseparablemente
asociados: presenta la paradoja de lo uno y lo múltiple.

Al mirar con más atención, la complejidad es, efectivamente, el tejido de eventos,


acciones, interacciones, retroacciones, determinaciones, azares, que constituyen
nuestro mundo fenoménico.

Así es que la complejidad se presenta con los rasgos inquietantes de lo enredado, de lo


inextrincable, del desorden, la ambigüedad, la incertidumbre... De allí la necesidad, para
el conocimiento, de poner orden en los fenómenos rechazando el desorden, de
descartar lo incierto, es decir, de seleccionar los elementos de orden y de certidumbre,
de quitar ambigüedad, clarificar, distinguir, jerarquizar... Pero tales operaciones,
necesarias para la inteligibilidad, corren el riesgo de producir ceguera si eliminan los
otros caracteres de lo complejo; y, efectivamente, como ya lo he indicado, nos han
vuelto ciegos.

Pero la complejidad ha vuelto a las ciencias por la misma vía por la que se había ido. El
desarrollo mismo de la ciencia física, que se ocupaba de revelar el Orden impecable del
mundo, su determinismo absoluto y perfecto, su obediencia a una Ley única y su
constitución de una materia simple primigenia (el átomo), se ha abierto finalmente a la
complejidad de lo real.

Se ha descubierto en el universo físico un principio hemorrágico de degradación y de


desorden (segundo principio de la Termodinámica); luego, en el supuesto lugar de la
simplicidad física y lógica, se ha descubierto la extrema complejidad microfísica; la
partícula no es un ladrillo primario, sino una frontera sobre la complejidad tal vez
inconcebible; el cosmos no es una máquina perfecta, sino un proceso en vías de
desintegración y, al mismo tiempo, de organización.

Finalmente, se hizo evidente que la vida no es una sustancia, sino un fenómeno de


auto-eco-organización extraordinariamente complejo que produce la autonomía. Desde
entonces es evidente que los fenómenos antropo-sociales no podrían obedecer a
principios de inteligibilidad menos complejos que aquellos requeridos para los
fenómenos naturales. Nos hizo falta afrontar la complejidad antropo-social en vez de
dislverla u ocultarla.

La dificultad del pensamiento complejo es que debe afrontar lo entramado (el juego
infinito de inter-retroacciones), la solidaridad de los fenómenos entre sí, la bruma, la
incertidumbre, la contradicción.

70
ARMANDO ZABERT (COMPILADOR)

Pero nosotros podemos elaborar algunos de los utiles conceptuales, algunos de los
principios, para esa aventura, y podemos entrever el aspecto del nuevo paradigma de
complejidad que debiera emerger.

Ya he señalado, en tres volúmenes de El Metodo, algunos de los útiles conceptuales


que podemos utilizar. Así es que, habría que sustituir al paradigma de
disyunción/reducciön/unidimensionalización por un paradigma de distinción/conjunción
que permita distinguir sin desarticular, asociar sin identificar o reducir.

Ese paradigma comportaría un principio dialógico y tanslógico, que integraría la lógica


clásica teniendo en cuenta sus límites de facto (problemas de contradicciones) y de jure
(límites del formalismo). Llevaría en sí el principio de la Unitas multiplex, que escapa a la
unidad abstracta por lo alto (holismo) y por lo bajo (reduccionismo).

Mi propósito aquí no es el de enumerar los «mandamientos» del pensamiento complejo


que he tratado de desentrañar, sino el de sensibilizarse a las enormes carencias de
nuestro pensamiento, y el de comprender que un pensamiento mutilante conduce,
necesariamente, a acciones mutilantes. Mi propósito es tomar conciencia de la patología
contemporanea del pensamiento.

La antigua patología del pensamiento daba una vida independiente a los mitos y a los
dioses que creaba. La patología moderna del espíritu está en la hiper-simplificación que
ciega a la complejidad de lo real. La patología de la idea está en el idealismo, en donde
la idea oculta a la realidad que tiene por misión traducir, y se toma como única realidad.

La enfermedad de la teoría está en el doctrinarismo y en el dogmatismo, que cierran a la


teoría sobre ella misma y la petrifican. La patología de la la razón es racionalización, que
encierra a lo real en un sistema de ideas coherente, pero parcial y unilateral, y que no
sabe que una parte de lo real es irracionalizable, ni que la racionalidad tiene por misión
dialogar con lo irracionalizable.

Aún somos ciegos al problema de la complejidad. Las disputas epistemológicas entre


Popper, Kuhn, Lakatos, Feyerabend, etc., lo pasan por alto. Pero esa ceguera es parte
de nuestra barbarie. Tenemos que comprender que estamos siempre en la era bárbara
de las ideas. Estamos siempre en la prehistoria del espíritu humano. Sólo el
pensamiento complejo nos permitiría civilizar nuestro conocimiento.

Sin embargo, Bachelard, el filósofo de las ciencias, había descubierto que lo simple no
existe: sólo existe lo simplificado. La ciencia construye su objeto extrayendolo de su
ambiente complejo para ponerlo en situaciones experimentales no complejas. La ciencia
no es el estudio del universo simple, es una simplificación heurística necesaria para
extraer ciertas propiedades, ver ciertas leyes.

George Lukacs, el filósofo marxista, decía en su vejez, criticando su propia visión


dogmática: «Lo complejo debe ser concebido como elemento primario existente. De
donde resulta que hace falta examinar lo complejo de entrada en tanto complejo y pasar
luego de lo complejo a sus elementos y procesos elementales.»

El paradigma de complejidad

No hace falta creer que la cuestión de la complejidad se plantea solamente hoy en día, a
partir de nuevos desarrollos científicos. Hace falta ver la complejidad allí donde ella
parece estar, por lo general, ausente, como, por ejemplo, en la vida cotidiana.

La complejidad en ese dominio ha sido percibida y descrita por la novela del siglo XIX y
comienzos del XX. Mientras que en esa misma época, la ciencia trataba de eliminar todo
lo que fuera individual y singular, para retener nada más que las leyes generales y las
identidades simples y cerradas, mientras expulsaba incluso al tiempo de su visión del
mundo, la novela, por el contrario (Balzac en Francia, Dickens en Inglaterra) nos
mostraba seres singulares en sus contextos y en su tiempo.

71
Proyecto de Investigación e Intervención Socio-Comunitaria
Nociones de Epistemología

Mostraba que la vida cotidiana es, de hecho, una vida en la que cada uno juega varios
roles sociales, de acuerdo a quien sea en soledad, en su trabajo, con amigos o con
desconocidos.

Vemos así que cada ser tiene una multiplicidad de identidades, una multiplicidad de
personalidades en sí mismo, un mundo de fantasmas y de sueños que acompañan su
vida.

Por ejemplo, el tema del monólogo interior, tan importante en la obra de Faulkner, era
parte de esa complejidad. Ese inner.speech, esa palabra permanente es revelada por la
literatura y por la novela, del mismo modo que ésta nos reveló también que cada uno se
conoce muy poco a sí mismo: en inglés, se llama a eso self-deception, el engaño de sí
mismo. Sólo conocemos una apariencia del sí mismo; uno se engaña acerca de sí
mismo.

Incluso los escritores más sinceros, como Jean-Jacques Rousseau, Chateaubriand,


olvidan siempre, en su esfuerzo por ser sinceros, algo importante acerca de sí mismos.

La relación ambivalente con los otros, las verdaderas mutaciones de personalidad como
la ocurrida en Dostoievski, el hecho de que somos llevados por la historia sin saber
mucho cómo sucede, del mismo modo que Fabrice del Longo o el príncipe Andrés, el
hecho de que el mismo ser se transforma a lo largo del tiempo como lo muestran
admirablemente A la recherche du temps perdu y, sobre todo, el final de Temps retrouvé
de Proust, todo ello indica que no es solamente la sociedad la que es compleja, sino
también cada átomo del mundo humano.

Al mismo tiempo, en el siglo XIX, la ciencia tiene un ideal exactamente opuesto. Ese
ideal se afirma en la visión del mundo de Laplace, a comienzos del siglo XIX. Los
científicos, de Descartes a Newton, tratan de concebir un universo que sea una máquina
determinista perfecta.

Pero Newton, como Descartes, tenian necesidad de Dios para explicar cómo ese mundo
perfecto había sido producido.

Laplace elimina a Dios. Cuando Napoleón le pregunta: «¿Pero señor Laplace, qué hace
usted con Dios en su sistema?», Laplace responde: «Señor, yo no necesito esa
hipótesis.»

Para Laplace, el mundo es una máquina determinista verdaderamente perfecta, que se


basta a sí misma. El supone que un demonio que poseyera una inteligencia y unos
sentidos casi infinitos podría conocer todo acontecimiento del pasado y todo
acontecimiento del futuro.

De hecho, esa concepción, que creía poder arreglárselas sin Dios, había introducido en
su munto los atributos de la divinidad: la perfección, el orden absoluto, la inmortalidad y
la eternidad. Es ese mundo el que va a desordenarse y luego desintegrarse.

El paradigma de simplicidad

Para comprender el problema de la complejidad, hay que saber, antes que nada, que
hay un paradigma de simplicidad.

La palabra paradigma es empleada a menudo. En nuestra concepción, un paradigma


está constituido por un cierto tipo de relación lógica extremadamente fuerte entre
nociones maestras, nociones clave, principios clave. Esa relación y esos principios van
a gobernar todos los discursos que obedecen, inconscientemente, a su gobierno.

Así es que el paradigma de simplicidad es un paradigma que pone orden en el universo,


y persigue al desorden. El orden se reduce a una ley, a un principio. La simplicidad ve a
lo uno y ve a lo múltiple, pero no puede ver que lo Uno puede, al mismo tiempo, ser

72
ARMANDO ZABERT (COMPILADOR)

Múltiple. El principio de simplcidad o bien separa lo que está ligado (disyunción), o bien
unifica lo que es diverso (reducción).

Tomemos como ejemplo al hombre. El hombre es un ser evidentemente biológico. Es, al


mismo tiempo, un ser evidentemente cultural, meta-biológico y que vive en universo de
lenguaje, de ideas y de conciencia.

Pero, a esas dos realidades, la realidad biológica y la realidad cultural, el paradigma de


simplificación nos obliga ya sea a desunirlas, ya sea a reducir la más compleja a la
menos compleja.

Vamos entonces a estudiar al hombre biológico en el departamento de Biología, como


un ser anatómico, fisiológico, etc., y vamos a estudiar al hombre cultural en los
departamentos de ciencias humanas y sociales. Vamos a estudiar al cerebro como
órgano biológico y vamos a estudiar al espíritu, the mind, como función o realidad
psicológica. Olvidamos que uno no existe sin el otro; más aún, que uno es, al mismo
tiempo, el otro, si bien son tratados con términos y conceptos diferentes.

Con esa voluntad de simplificación, el conocimiento cientifíco se daba por misión la de


desvelar la simplicidad escondida detrás de la aparente multiplicidad y el aparente
desorden de los fenómenos.
Tal vez sea que, privados de un Dios en que no podían creer más, los cientificos tenían
una necesidad, inconscientemente, de verse reasegurados. Sabiéndose vivos en un
universo materialista, mortal, sin salvación, tenían necesidad de saber que había algo
perfecto y eterno: el universo mismo.

Esa mitología extremadamente poderosa, obsesiva aunque oculta, ha animado al


movimiento de la Física. Hay que reconocer que esa mitología ha sido fecunda porque
la búsqueda de la gran ley del universo ha conducido a descubrimientos de leyes
mayores tales como las de la gravitación, el electromagnetismo, las interacciones
nucleares fuertes y luego, débiles. Hoy, todavía, los científicos y los físicos tratan de
encontrar la conexión entre esas diferentes leyes, que representaría una verdadera ley
única.

La misma obsesión ha conducido a la búsqueda del ladrillo elemental con el cual estaba
construido el universo. Hemos, ante todo, creído encontrar la unidad de base en la
molécula.

El desarrollo de instrumentos de observación ha revelado que la molécula misma estaba


compuesta de átomos. Luego nos hemos dado cuenta que el átomo era, en sí mismo,
un sistema muy complejo, compuesto de un núcleo y de electrones.

Entonces, la partícula devino la unidad primaria. Luego nos hemos dado cuenta que las
partículas eran, en sí mismas, fenómenos que podían ser divididos teóricamente en
quarks.

Y, en el momento en que creíamos haber alcanzado el ladrillo elemental con el cual


nuestro universo estaba construido, ese ladrillo ha desaparecido en tanto ladrillo. Es una
entidad difusa, compleja, que no llegamos a aislar. La obsesión de la complejidad
condujo a la aventura científica a descubrimientos imposibles de concebir en términos
de simplicidad.

Lo que es más, en el siglo XX tuvo lugar este acontecimiento mayor: la irrupción del
desorden en el universo físico. En efecto, el segundo principio de la Termodinamica,
formulado por Carnot y por Clausius, es, primeramente, un principio de degradación de
energía.

El primer principio (de la Termodinámica), que es el principio de la conservación de la


energía, se acompaña de un principio que dice que la energía se degrada bajo la forma
de calor. Toda actividad, todo trabajo, produce calor; dicho de otro modo, toda utilización
de la energía tiende a degradar dicha energía.

73
Proyecto de Investigación e Intervención Socio-Comunitaria
Nociones de Epistemología

Luego nos hemos dado cuenta, con Boltzman, que eso que llamamos calor, es en
realidad, la agitación en desorden de moléculas y de átomos. Cualquiera puede
verificar, al comenzar a calentar un recipiente con agua, que aparecen vibraciones y que
se produce un arremolinamiento de moléculas. Algunas vuelan hacia la atmósfera hasta
que todas se dispersan. Efectivamente, llegamos al desorden total. El desorden está,
entonces, en el universo físico, ligado a todo trabajo, a toda transformación.

La complejidad y la acción

La acción es también una apuesta. Tenemos a veces la impresión de que la acción


simplifica porque, ante una alternativa, decidimos, optamos. El ejemplo de acción que
simplifica todo lo aporta la espada de Alejandro que corta el nudo gordiano que nadie
había sabido desatar con sus manos. Ciertamente, la acción es una decisión, una
elección, pero es también una apuesta.

Pero en la noción de apuesta está la conciencia del riesgo y de la incertidumbre. Toda


estrategia, en cualquier dominio que sea, tiene conciencia de la apuesta, y el
pensamiento moderno ha comprendido que nuestras creencias más fundamentales con
objeto de una apuesta. Eso es lo que nos habia dicho, en el siglo XVII, Blaise Pascal
acerca de la fe religiosa. Nosotros también debemos ser conscientes de nuestras
apuestas filosóficas o políticas.

La acción es estrategia. La palabra estrategia no designa a un programa


predeterminado que baste para aplicar ne variatur en el tiempo. La estrategia permite, a
partir de una decisión inicial, imaginar un cierto número de escenarios para la acción,
escenacios que podrán ser modificados según las informaciones que nos llegen en el
curso de la acción y según los elementos aleatorios que sobrevendrán y perturbarán la
acción.
La estrategia lucha contra el azar y busca a la información. Un ejército envía
exploradores, espías, para infornarse, es decir, para eliminar la incertidumbre al
máximo, Más aún, la estrategia no se limita a luchar contra el azar, trata también de
utilizarlo.

Así fue que el genio de Napoleón en Austerlitz fue el de utilizar el azar metereológico,
que ubicó una capa de brumas sobre los pantanos, considerados imposibles para el
avance de los soldados. Él construyó su estrategia en función de esa bruma y tomar por
sorpresa, por su flanco más desguarnecido, al ejército de los imperios.

La estrategia saca ventaja del azar y, cuando se trata de estrategia con respecto a otro
jugador, la buena estrategia utiliza los errores del adversario. En el fútbol, la estrategia
consiste en utilizar las pelotas que el equipo adversario entrega involuntariamente. La
construcción del juego se hace mediante la deconstrucción del juego del adversario y,
finalmente, la mejor estrategia -si se beneficia con alguna suerte- gana. El azar no es
solamente el factor negativo a reducir en el dominio de la estrategia. Es también la
suerte a ser aprovechada.

El problema de la acción debe también hacernos conscientes de las derivas y las


bifurcaciones: situaciones iniciales muy vecinas pueden conducir a desvíos
irremediables.

Así fue que, cuando Martín Lutero (en Alemania) inició su movimiento, pensaba estar de
acuerdo con la Iglesia, y que quería simplemente reformar los abusos cometidos por el
papado en Alemania. Luego, a partir del momento en que debe ya sea renunciar, ya sea
continuar, franquea un umbral y, de reformador, se vuelve contestatario. Una deriva
implacable lo lleva - eso es lo que pasa en todo desvío- y lleva a la declaración de
guerra, a las tesis de Wittemberg (1517).

El dominio de la acción es muy aleatorio, muy incierto. Nos impone una conciencia muy
aguda de los elementos aleatorios, las derivas, las bifurcaciones, y nos impone la
reflexión sobre la complejidad misma.

74
ARMANDO ZABERT (COMPILADOR)

La acción escapa a nuestras intenciones itinerario o no, si hay que violar el código: hace
falta hacer uso de Aquí interviene la noción de ecología de la acción. En el momento en
que un individuo emprende una acción, cualesquiera que fuere, ésta comienza a
escapar a sus intenciones.

Esa acción entra en un universo de interacciones y es finalmente el ambiente el que


toma posesión, en un sentido que puede volverse contrario a la intención inicial. A
menudo, la acción se volverá como un boomerang sobre nuestras cabezas. Esto nos
obliga a seguir la acción, a tratar de corregirla -si todavía hay tiempo- y tal vez a
torpedearla, como hacen los responsables de la NASA que, si un misil se desvía de su
trayectoria, le envían otro misil para hacerlo explotar.

La acción supone complejidad, es decir, elementos aleatorios, azar, iniciativa, decisión,


conciencia de las derivas y de las transformaciones. La palabra estrategia se opone a la
palabra programa. Para las secuencias que se sitúan en un ambiente estable, conviene
utilizar programas. El programa no obliga a estar vigilante. No obliga a innovar. Así es
que cuando nosotros nos sentamos al volante de nuestro coche, una parte de nuestra
conducta está programada. Si surge un embotellamiento inesperado, hace falta decidir
si hay que cambiar el estrategias.

Es por eso que tenemos que utilizar múltiples fragmentos de acción programada para
poder concentrarnos sobre lo que es importante, la estrategia con los elementos
aleatorios. No hay un dominio de la complejidad que incluya el pensamiento, la reflexión,
por una parte, y el dominio de las cosas simples que incluiría la acción, por la otra.

La acción es el reino de lo concreto y, tal vez, parcial de la complejidad. La acción


puede, ciertamente, bastarse con la estrategia inmediata que depende de las
intuiciones, de las dotes personales del estratega. Le sería también útil beneficiarse de
un pensamiento de la complejidad. Pero el pensamiento de la complejidad es, desde el
comienzo, un desafío.

Una visión simplificada lineal resulta fácilmente mutilante. Por ejemplo, la política del
petróleo crudo tenía en cuenta únicamente al factor precio sin considerar el agotamiento
de los recursos, la tendencia a la independencia de los países poseedores de esos
recursos, los inconvenientes políticos. Los políticos habían descartado a la Historia, la
Geografía, la Sociología, la política, la religión, la mitología, de sus análisis. Esas
disciplinas se tomaron venganza.

La máquina no trivial

Los seres humanos, la sociedad, la empresa, son máquinas no triviales: es trivial una
máquina de la que, cuando conocemos todos sus inputs, conocemos todos sus outputs;
podemos predecir su comportamiento desde el momento que sabemos todo lo que entra
en la máquina. De cierto modo, nosotros somos también máquinas triviales, de las
cuales se puede, con amplitud, predecir los comportamientos.

En efecto, la vida social exige que nos comportemos como máquinas triviales. Es cierto
que nosotros no actuamos como puros autómatas, buscamos medios no triviales desde
el momento que constatamos que no podemos llegar a nuestras metas.

Lo importante, es lo que sucede en momentos de crisis, en momentos de decisión, en


los que la máquina se vuelve no trivial: actua de una manera que no podemos predecir.
Todo lo que concierne al surgimiento de lo nuevo es no trivial y no puede ser predicho
por anticipado.

Así es que, cuando los estudiantes chinos están en la calle por millares, la China se
vuelve una máquina no trivial... ¡En 1987-89, en la Unión Sovietica, Gorbachov se
condujo como una máquina no trivial!

75
Proyecto de Investigación e Intervención Socio-Comunitaria
Nociones de Epistemología

Todo lo que sucedió en la historia, en especial en situaciones de crisis, son


acontecimientos no triviales que no pueden ser predichos por anticipado. Juana de Arco,
que oye voces y decide ir buscar al rey de Francia, tiene un comportamiento no trivial.
Todo lo que va a suceder de importante en la política francesa o mundial surgirá de lo
inesperado.

Nuestras sociedades son máquinas no triviales en el sentido, también, de que conocen,


sin cesar, crisis políticas, económicas y sociales. Toda crisis es un incremento de las
incertidumbres. La predictibilidad disminuye. Los desórdenes se vuelven amenazadores.
Los antagonismos inhiben a las complementariedades, los conflictos virtuales se
actualizan. Las regulaciones fallan o se desarticulan.

Es necesario abandonar los programas, hay que inventar estrategias para salir de la
crisis. Es necesario, a menudo, abandonar las soluciones que solucionaban las viejas
crisis y elaborar soluciones novedosas.

Prepararse para lo inesperado

La complejidad no es una receta para conocer lo inesperado. Pero nos vuelve


prudentes, atentos, no nos deja dormirnos en la mecánica aparente y la trivialidad
aparente de los determinismos.

Ella nos muestra que no debemos encerrarnos en el contemporaneísmo, es decir, en la


creencia de que lo que sucede ahora va a continuar indefinidamente. Debemos saber
que todo lo importante que sucede en la historia mundial o en nuestra vida es totalmente
inesperado, porque continuamos actuando como si nada inesperado debiera suceder
nunca.

Sacudir esa pereza del espíritu es una lección que nos da el pensamiento complejo. El
pensamiento complejo no rechaza, de ninguna manera, a la claridad, el orden, el
determinismo. Pero los sabe insuficientes, sabe que no podemos programar el
descubrimiento, el conocimiento, ni la acción.

La complejidad necesita una estrategia. Es cierto que, los segmentos programados en


secuencias en las que no interviene lo aleatorio, son útiles o necesarios. En situaciones
normales, la conducción automática es posible, pero la estrategia se impone siempre
que sobreviene lo inesperado o lo incierto, es decir, desde que aparece un problema
importante.

El pensamiento simple resuelve los problemas simples sin problemas de pensamiento.


El pensamiento complejo no resuelve, en sí mismo, los problemas, pero consituye una
ayuda para la estrategia que puede resolverlos. Él nos dice: «Ayúdate, el pensamiento
complejo te ayudará.»

Lo que el pensamiento complejo puede hacer, es darle a cada uno una señal, una
ayuda memoria, que le recuerde: «No olvides que la realidad es cambiante, no olvides
que lo nuevo puede surgir y, de todos modos, va a surgir.» La complejidad se sitúa en
un punto de partida para una acción más rica, menos mutilante.

Yo creo profundamente que cuanto menos mutilante sea un pensamiento, menos


mutilará a los humanos. Hay que recordar las ruinas que las visiones simplificantes han
producido, no solamente en el mundo intelectual, sino también en la vida. Suficientes
sufrimientos aquejaron a millones de seres como resultado de los efectos del
pensamiento parcial y unidimensional.

76
ARMANDO ZABERT (COMPILADOR)

11 - LAS CIENCIAS SOCIALES Y EL PRINCIPIO DE INCERTIDUMBRE. Pablo


Casau.

En este trabajo se expone el principio de incertidumbre de la física cuántica, se


explican las dos interpretaciones clásicas del mismo, la crítica a la interpretación
probabilista y, finalmente, se plantean algunas consideraciones que vinculan el
principio de incertidumbre con las ciencias sociales en torno a las cuestiones del
dilema determinismo – indeterminismo y de la influencia del observador.

1. Un poco de historia

Podemos comenzar trazando un panorama muy esquemático de la historia de la física


desde Newton hasta nuestros días, para poder ubicar luego, en este contexto, el
Principio de Incertidumbre. Para ello, nos ayudaremos con el esquema 1.

Esquema 1 – Contexto histórico del principio de incertidumbre

MECANICA NEWTONIANA – Siglo XVII


Newton
La naturaleza es en sí mísma determinada. Si a veces
aparece indeterminada es por nuestra incapacidad para
descubrir determinaciones complejas.

TEORIA DE LA
RELATIVIDAD MECANICA CUANTICA
Siglo XX Siglo XX
Einstein Planck – Einstein – Bohr – Schroedinger – De
Broglie – Dirac - Heisenberg

PRINCIPIO DE INCERTIDUMBRE
1925
Heisenberg

INTERPRETACION SUBJETIVISTA
Planck – Einstein – Schroedinger – De INTERPRETACION
Broglie PROBABILISTA
La naturaleza es en sí mísma Bohr – Heisenberg
determinada, a pesar de las La naturaleza es en sí mísma
apariencias. Por tanto, es posible hacer indeterminada, y por tanto sólo
mediciones y predicciones muy pueden hacerse mediciones y
precisas. predicciones probabilísticas.

Bohr N 1885-1962 Dirac P 1902-1984 Heisenberg W 1901-1976 Planck M, 1858-1947


De Broglie L 1892-1986 Einstein A, 1879-1955 Newton I, 1642-1727 Schroedinger E 1887-1961

Iniciemos nuestro análisis con el siguiente ejemplo: un planeta se compone por ejemplo
de piedras. Las piedras a su vez pueden descomponerse en pequeños cascotitos, y
estos a su vez en partículas tan pequeñas que apenas si pueden ser vistas.

Estas partículas a su vez pueden seguir subdividiéndose hasta llegar a ciertos


elementos últimos llamados átomos. Se creyó que los átomos no podían seguir
subdividiéndose más, hasta que a partir del siglo XIX se descubrieron partículas dentro
de los átomos, es decir, partículas “subatómicas” tales como el electrón y el protón.

77
Proyecto de Investigación e Intervención Socio-Comunitaria
Nociones de Epistemología

El hombre ingresó así en el ámbito de la microfísica, o estudio de esas partículas


subatómicas.

Estos descubrimientos fueron muy importantes porque, terminando ya el siglo XIX,


algunos físicos comprendieron que lo microfísico ya no podía estudiarse con las leyes
deterministas que venían rigiendo para lo macrofísico, y debía aceptarse, contra la
tradición establecida, que había ciertas realidades (lo sub-atómico) que eran en sí
mísmas realidades donde regía la indeterminación y la probabilidad. Por lo tanto a
naturaleza misma era indeterminada.

La mecánica newtoniana, representante del determinismo clásico, tuvo plena vigencia


desde el siglo XVII hasta el siglo XIX, y aún hoy se la sigue empleando por razones más
que nada prácticas. Es la mecánica que buscaba explicar el universo macrofísico, es
decir el universo observable de los planetas que giran alrededor del sol, de las piedras
que son arrojadas al aire y de las manzanas que caen sobre la cabeza de Newton.

Sin embargo, en el siglo XIX empezaron a descubrirse las primeras partículas sub-
atómicas ya mencionadas: la investigación física abría el campo de lo infinitamente
pequeño.

Del estudio de los planetas que giraban en torno al sol se pasó al estudio de los
electrones que giraban en torno al núcleo del átomo. Del polígono de tiro donde las
balas seguían una cierta trayectoria se pasó a los tubos de rayos catódicos y a los
laboratorios de aceleración de partículas, donde quienes eran arrojados a enormes
velocidades ya no eran las balas sino las partículas sub-atómicas.

Nació así una nueva herramienta teórica para dar cuenta de estas nuevas e
insospechadas realidades: la mecánica cuántica surgía como la nueva moda cientifica
del siglo XX que convivió pacíficamente, si cabe la expresión, con la mecánica
newtoniana hasta la irrupción del principio de incerdumbre que explícitamente
comenzaba a plantear la indeterminación.

La mecánica cuántica es entonces una teoría desarrollada especialmente para el estudio


y la descripción del micromundo. Sus pioneros fueron Planck y Einstein, y hacia 1930
quedaba casi completada con los aportes de Heisenberg, Shroedinger y Bohr, entre
otros.

Resultó tan eficaz como lo había sido la mecánica newtoniana en el ámbito del
macromundo, pero presentaba algunos aspectos molestos que disgustaron entre otros
al mismo Einstein, que paradójicamente había contribuído a fundarla. Y en ello mucho
tuvo que ver la enunciación del principio de incertidumbre.

2. El principio de incertidumbre

Werner Heinseberg desarrolló un sistema de mecánica cuántica llamado mecánica de


matrices y formuló también, hacia 1925, su conocido y polémico principio de
incertidumbre.

Este principio, también llamado principio de indeterminación o principio de las relaciones


de incertidumbre, sostiene básicamente que no se puede determinar simultáneamente y
con la misma precisión la velocidad y la posición de una partícula subatómica.

O sea, cuanto más exactamente se determina su velocidad, tanto menos exactamente


puede determinarse su posición, o sea en qué parte del universo se encuentra.
Conociendo su velocidad con mucha precisión, sólo se puede establecer una cierta
probabilidad de que un electrón esté en tal o cual lugar.

Vemos entonces que el PI (Principio de Incertidumbre) hace referencia a incertidumbres,


entendidas estas como probabilidades, pero este pasaje de un determinismo a un
indeterminismo no significa renunciar a la razón, sino simplemente reemplazar leyes
causalistas estrictas por leyes estadísticas.

78
ARMANDO ZABERT (COMPILADOR)

El principio también alude, además de a la relación velocidad-posición, a las relaciones


energía-tiempo, momento angular-posición angular y momento de la inercia-velocidad
angular, pero tomaremos como referencia la más conocida de estas propuestas:
velocidad-posición.

De la Torre (1) nos da un ejemplo muy ilustrativo del principio de Heisenberg, donde se
reemplaza un electrón por una bicicleta.

Supongamos (esquema 2) que queremos determinar con exactitud la posición y la


velocidad de una bicicleta en un instante de tiempo. Para determinar su posición le
tomamos una fotografía con un tiempo de exposición muy breve (como una milésima de
segundo), con lo cual obtenemos una foto muy nítida que nos indica su posición (por
ejemplo, se encuentra a 5 metros del punto de partida). Sin embargo, esa foto nada nos
dice acerca de su velocidad.

Para determinar su velocidad le tomamos otra fotografía con un tiempo de exposición


más largo (un segundo). Obtendremos una foto más borrosa, con la posición mal
definida, pero al menos nos permite determinar su velocidad dividiendo el corrimiento de
la imagen por el tiempo de exposición.

Esquema 2

Tiempo de exposición:
Tiempo de exposición:
Una milésima de
Un segundo
segundo

5 metros 4 metros 5 metros

Posición: 5 metros Posición: Indeterminada


Velocidad: Indeterminada Velocidad: 1 metro por segundo

Nuestra primera conclusión es esta:

• si contáramos solamente con un aparato fotográfico no podríamos medir


simultáneamente y con la misma precisión la velocidad y la posición de la
bicicleta, ya que con la primera foto sabríamos muy bien su posición pero no su
velocidad, y con la segunda sabríamos muy bien su velocidad pero no su
posición.

Podríamos solucionar este problema usando dos aparatos fotográficos: uno que mida
bien la posición y otro bien la velocidad en el mismo instante de tiempo, con lo cual
habríamos logrado nuestro objetivo.

Ahora bien: esto puede hacerse perfectamente tratándose de una bicicleta, pero no
podemos hacer lo mismo con un electrón. En el ámbito de lo microfísico o subatómico, la
foto que tomamos al electrón para determinar su posición “modifica” su velocidad, y la
foto que tomamos para medir su velocidad “modifica” su posición. El mismo hecho de
fotografiarlo influye en los resultados, ya que los fotones utilizados para la fotografía
interactúan con el mismo electrón.

79
Proyecto de Investigación e Intervención Socio-Comunitaria
Nociones de Epistemología

Conclusión final:

• resulta imposible medir simultáneamente la posición y la velocidad del electrón,


tal como lo afirma el principio de incertidumbre.

3. Dos interpretaciones del principio de incertidumbre

Las diversas interpretaciones sobre este principio pueden agruparse en dos grandes
tipos: la interpretación probabilista y la interpretación subjetivista, aunque algunos de los
autores que mencionaremos estuvieron oscilando entre una y otra posición a lo largo de
su pensamiento, como por ejemplo De Broglie.

a) Interpretación probabilista del principio de incertidumbre.- Denominación


atribuida a De Broglie, aunque también fue llamada interpretación real por
Ferrater Mora (2) o interpretación de Copenhague, estando representada sobre
todo por Niels Bohr. Según esta interpretación, la indeterminación o
incertidumbre no puede atribuírse a la interferencia del observador en la realidad
física (que de igual modo también existe): lo real está constitutivamente
indeterminado. La imposibilidad de medir simultáneamente dos coordenadas se
concibe como una consecuencia de las leyes fundamentales estadísticas de la
mecánica cuántica, y no como una simple limitación técnica de la observación.
En la interpretación probabilista, entonces, este principio es una prueba del
indeterminismo del universo físico. Y no sólo en lo microfísico sino también en lo
macrofísico, sólo que aquí se considera por razones prácticas un determinismo
en razón del gran número de partículas que intervienen (del mismo modo que se
considera por razones prácticas una geometría euclidiana en la tierra aún
cuando no considere que el universo sea no euclidiano). Para Bohr y los físicos
de Copenhague, entonces, las incertidumbres y probabilidades de la mecánica
cuántica no son una limitación de la física o una señal de la incompletud de la
teoría: para ellos la naturaleza es así: un electrón es una superposición de
probabilidades de estar aquí o allá, tal como lo describe la mecánica cuántica.
Pensar que un electrón está en un determinado lugar no tiene sentido, a menos
que lo observemos. Si lo observamos, el sistema queda como cristalizado en una
posición fija y en ese momento podemos precisar su posición. Los teóricos de
Copenhague sostienen que el observador y lo observado interactúan entre sí: de
alguna manera el electrón se ‘sabe’ observado y por ello su función de onda
colapsa (o sea, queda fijado en una única posición en ese instante). Louis De
Broglie (3) cuenta que “la interpretación de Bohr y de Heisenberg no sólo reduce
toda la física a la probabilidad, sino que da a esta noción un sentido
completamente nuevo. Mientras que los grandes maestros de la época clásica,
desde Laplace hasta Poincaré, siempre proclamaron que los fenómenos
naturales eran determinados y que la probabilidad, cuando se introducía en las
teorías, resultaba de nuestra ignorancia o incapacidad para seguir un
determinismo muy complicado, en la interpretación actualmente admitida de la
física cuántica nos enfrentamos a la ‘probabilidad pura’ que no resultaría de un
determinismo oculto” (4).
b) Interpretación subjetivista del principio de incertidumbre.- Si la
interpretación anterior era la oficial, la subjetivista surge como una crítica a ella.
Sostiene que la realidad está en sí mísma determinada, y el indeterminismo
deriva de la intervención del observador en el mundo subatómico. En toda
medición física hay una interacción entre el observador y el sistema físico
observado. El mero hecho de observar las partículas puede alterar su posición.
Por ejemplo si quisiéramos observar con un microscopio imaginario un electrón
en movimiento, su órbita se vería perturbada por la luz utilizada para observarlo.
Lo que sí puede determinarse –y en esto hay una coincidencia con la
interpretación probabilista- es una probabilidad matemática de que el electrón
esté en un cierto lugar en un determinado instante, y por ello ya no se habla de
órbitas sino de ‘nubes’, o zonas donde hay mayor probabilidad de encontrarlo.
Según la interpretación subjetivista, y he aquí el aspecto que queremos destacar,
la indeterminación en la velocidad y posición de las partículas subatómicas
existiría únicamente en nuestro propio conocimiento y no en la naturaleza de las

80
ARMANDO ZABERT (COMPILADOR)

cosas; la realidad microfísica en sí estaría estrictamente determinada, y la


indeterminación sería el resultado de la intervención de un físico que mediante
su acto de observación modifica las condiciones del fenómeno observado (5).

Los físicos contemporáneos rechazan generalmente esta hipótesis de procesos ocultos


estrictamente determinados que subyacían en la aparente contigencia de los fenómenos
observados (6), tendiendo a admitir la original interpretación probabilista.

No mi intención buscar que el paciente lector sea un especialista en física, sino que de
lo explicado vaya sacando la siguiente conclusión importante: la diferencia entre ambas
interpretaciones es que la interpretación probabilista dice que la realidad (microfísica)
misma está indeterminada, y la interpretación subjetivista que está determinada aunque
se nos aparezca como indeterminada.

Ambas interpretaciones aceptan una interacción entre lo observado y el observador, sólo


que en la interpretación subjetivista esta interacción adquiere especial importancia por
ser precisamente la razón de nuestra visión indeterminista de la realidad microfísica.

4. Críticas a la interpretación probabilista

Los partidarios de la interpretación subjetivista no se limitaron a reformular el principio de


incertidumbre desde una postura determinista, sino que también intentaron refutar los
argumentos de la interpretación oficial (probabilista). Algunos de los argumentos
esgrimidos fueron los siguientes:

a) Si esta “intervención” del observador pudiera eliminarse, desaparecería el


indeterminismo. Los partidarios de la interpretación probabilista, aún cuando
también hablaban de una interacción entre el instrumento de observación y el
sistema observado, no adjudicaban la indeterminación a dicha interacción sino a
la realidad misma, más allá de si ésta fuese o no observada.
b) El principio confunde determinismo con predicibilidad. El hecho de no poder
predecirse –la posición o la velocidad de una partícula en un instante dado- no
significa que la realidad sea indeterminada. En un sistema determinista puede
haber imposibilidad para hacer predicciones. Por ejemplo, cuando se
desconocen las condiciones iniciales y las leyes que rigen la evolución de los
sistemas.
c) El indeterminismo se podría eliminar si se introducen parámetros escondidos a
un nivel subcuántico que restablezcan el determinismo en el sistema físico. De
Broglie y Bohr, por ejemplo, introdujeron estos parámetros. Desde esta
perspectiva, la interpretación probabilista sería solo una etapa provisional de la
ciencia, la cual exige una explicación mediante las estructuras subyacentes a las
leyes de la mecánica cuántica, siguiendo en esto el ejemplo que habían dado, en
un nivel anterior del descenso hacia lo ínfimo, las explicaciones atomistas de las
leyes de la termodinámica (es decir, explicar la evolución de los gases a partir
del comportamiento de sus moléculas).
d) Einstein está más de acuerdo con que los sistemas físicos son deterministas.
Para él, el electrón debía tener una velocidad y una posición determinadas: si la
teoría se las negaba, la teoría era débil. A esto se opuso Bohr defendiendo el PI
y diciendo que la teoría era fuerte, y que en todo caso la realidad era “débil”, o al
menos nuestra idea de ella.

Einstein, Podolsky y Rosen, para demostrar la flasedad del PI, en 1935 sugirieron un
experimento que se llamó la paradoja EPR. Muy simplificadamente debía ser así:
supongamos que dos partículas A y B parten en direcciones contrarias, de forma tal que
a partir de la velocidad de B se puede deducir la posición de A.

Así, uno podría perfectamente saber la posición de A y la velocidad de B. Pero a partir


de la posición fde A se puede deducir la de A, con lo cual sabríamos exactamente
ambas magnitudes de A, en contra de lo sostenido por el PI.

Bohr se opuso a esto y aseguró que al medirse la posición de A, la velocidad de B se


alteraría como si “supiera” que a su compañera la estaban midiendo. La cosa terminó

81
Proyecto de Investigación e Intervención Socio-Comunitaria
Nociones de Epistemología

aquí porque el experimento no podía llevarse a cabo, y sólo en 1982, un experimento de


Aspect terminó dándole la razón a Bohr y refutando a Einstein.

Pienso que Bohr le hubiese dicho a Einstein, a propósito de su experimento imaginario:


“la fe es llegar a una certidumbre subjetiva en un mundo de incertidumbre objetiva” (7).

En definitiva, las cuestiones planteadas por el PI acerca de la estructura determinista o


no determinista de lo real continuaron, y en las últimas décadas han recobrado vigencia
a partir de los planteos de Prigogyne, Hawkins y otros pensadores.

5. Incertidumbre en Ciencias Sociales

El análisis del principio de incertidumbre en ciencias sociales nos presenta la


consideración de dos cuestiones:

a) ¿la realidad social en sí mísma está determinada, como sostiene la interpretación


subjetivista, o es indeterminada como lo plantea la interpretación probabilista?
b) ¿lo que conocemos de la realidad social es lo real en sí, incontaminado por el
observador o sus instrumentos, o al contrario es siempre el resultado de la
interacción del observador (o sus instrumentos) con lo real?

Determinismo e indeterminismo en Ciencias Sociales.

El determinismo puede entenderse de dos maneras distintas:

a. Las leyes que rigen los procesos sociales no pueden alterarse, pero sí los
procesos mismos en tanto respeten esa legalidad. Por ejemplo, no
podemos cambiar la ley de gravedad, pero podemos detener con la mano
la piedra que cae; o también, no podemos cambiar las leyes del
aprendizaje, pero podemos lograr que alguien aprenda mejor.
b. No solamente no pueden cambiarse las leyes sino tampoco alterarse los
procesos.

Existe suficiente apoyo empírico en favor de la primera hipótesis. De otro modo, ni el


investigador social podría actuar como agente de cambio ni el hombre en general no
tendría libre albedrío. Hasta el conductismo ortodoxo admite la posibilidad de cambiar el
proceso, como cuando Watson pregonaba que podía transformar un niño en el adulto
que él quisiera.

Los procesos sociales son inexorables desde el punto de vista que no podemos cambiar
sus leyes: no es posible ir contra la naturaleza cambiando un hombre en una cucaracha.
Pero no son inexorables en tanto podamos alterar el rumbo del proceso encauzándolo
en la dirección deseada y en el marco de la legalidad aceptada para lo real.

La influencia del observador en la Investigación Social.

Cuando se trata de querer cambiar una situación social, queremos que el observador
influya sobre el contexto social, y cuando se trata de querer percibirlo objetivamente,
podríamos querer que el observador no influya.

De lo primero ya hemos hablado en el párrafo anterior, y sobre lo segundo haremos las


siguientes consideraciones.

a) Primera cuestión: cuando se trata de percibir al otro o a nosotros mismos, ¿los


aprehendemos tal cual son, o lo hacemos de manera “deformada”?
b) Segunda cuestión: si la hay, ¿a qué se debe esta “deformación”? ¿Sólo a
nuestra subjetividad? ¿Sólo al hecho de que, aunque no influyera nuestra
subjetividad, el sujeto observado “advierte” la presencia del observador como lo
hacía el electrón de Bohr y entonces sufre ipso facto una modificación? ¿A ambas
cosas?

82
ARMANDO ZABERT (COMPILADOR)

Examinemos la primera cuestión, la tendencia desde la psicología actual es a


considerar el supuesto de que la percepción humana no es totalmente objetiva. Lacan
sostiene que lo real es inaccesible al conocimiento y que lo que nos llega es por ejemplo
una imagen (lo imaginario). El New Look por su lado, demuestra experimentalmente la
influencia del observador sobre lo percibido modificándolo funcionalmente, en el sentido
piagetiano.

Por ejemplo, si un bebé observa un lápiz pero lo percibe como un objeto chupable, hizo
una modificación funcional del objeto: le asignó otra función. Lo interesante del asunto
es que, al percibir el objeto como un objeto chupable, sus acciones reales sobre él
terminarán haciendo del lápiz cada vez menos un objeto para escribir y cada vez más un
objeto para chupar. Mutatis mutandis, si observamos a una persona tranquila pero la
percibimos enojada, hicimos una modificación funcional de la persona y nos
comportaremos con ella como si estuviese enojada, con lo que tal vez terminemos,
haciéndola enojar realmente! (profecía autocumplidora).

Otro ejemplo podría compararse con los planteos que Sigmund Freud hizo en “La
pérdida de la realidad en las neurosis y psicosis”, donde marca una diferencia entre la
persona normal (observa la realidad, imagina como debería cambiarse, y procede a
cambiarla), el neurótico (observa la realidad, imagina como debería cambiarse y se
complace en esa fantasía “como si” fuera real), y el psicótico (observa la realidad, y cree
que el acto de imaginarse como quedaría cambiada ya convierte el cambio en real).

Debemos suponer que estos pensadores han llegado a estas conclusiones no porque
hayan comparado lo real con lo percibido y hayan advertido diferencias (ya que lo real
es inaccesible), sino porque se dieron cuenta que hay varias maneras distintas de ver lo
mismo según cada sujeto, lo que obliga a suponer que por lo menos todos ellos menos
uno no ve las cosas como realmente son.

Examinemos ahora nuestra segunda cuestión. El observador podría influír sobre lo


observado por dos motivos no excluyentes: por factores subjetivos, o por cambios en lo
observado inducidos por el propio acto de la observación.

Tomamos aquí la expresión “factores subjetivos” en un sentido amplio, que puede incluír
limitaciones en los órganos sensoriales, factores cognitivos (como los modos en que la
mente organiza el mundo a su manera para poder conocerlo y controlarlo), y factores
afectivos que nos hacen ver lo que queremos ver, y no ver lo que nos molesta o hiere.

Desde el idealismo moderno en adelante ha prevalecido la idea según la cual los


factores subjetivos influyen sobre lo real observado, modificándolo. Al mundo lo
organizamos desde “nuestras intuiciones puras y desde nuestras categorías del
entendimiento” (según Kant), “desde nuestro inconciente cognoscitivo”, (según Piaget), o
“desde nuestros deseos, temores y motivaciones inconcientes” (según Freud).

También, por ejemplo Bachelard (8) refiere un inconciente newtoniano y euclidiano que
nos procura una visión atomista y sustancial del mundo: “no sabemos como es la
realidad microfísica, pero cuando escuchamos la palabra ‘lectrón inmediatamente nos
imaginamos una bolita que da vueltas alrededor de otra bolita llamada núcleo”.

La mecánica cuántica vino precisamente a desenmascarar esta creencia ofreciendo una


visión de la realidad que contradice abiertamente nuestra visión ingenua del mundo, por
ejemplo, cuando afirma que el electrón “no está en ningún lugar”.

Epistemologías como la de Brunschvicg, Duhem, Bachelard y Piaget (y hasta el mismo


Heisenberg en un momento adhiere a estas posturas) sostienen que el conocimiento (9)
no proviene de simples sensaciones sino mas bien de una percepción siempre
organizada previamente por el sujeto; sitúan el origen de todo conocimiento en la acción
o en la interacción del sujeto con la realidad, con lo cual conocer no es simplemente
contemplar sino transformar.

83
Proyecto de Investigación e Intervención Socio-Comunitaria
Nociones de Epistemología

Lo que Dirac había llamado “lo observable” tendría, en rigor, dos características (10):

a) no es un mero dato sensible sino el resultado de una acción experimental ejercida


sobre la realidad, que modifica al objeto y da lugar a una manifestación medible;
b) “lo observable” es traducido a símbolos operatorios matemáticos libres de toda
representación geométrica; tales operaciones prolongan, en cierta medida, en el
plano del pensamiento deductivo, las acciones experimentales que permitieron
evidenciar lo observable.

Por último, nuestra percepción “deformada” de lo real puede también deberse a que lo
percibido queda alterado cuando “sabe” que es observado, tal como ocurría con el
tímido electrón de Bohr. Y si un electrón sabe que es observado, con mucha más razón
le sucederá lo mismo a un ser humano, cuestión sobre la cual hay suficiente evidencia
empírica:

a) Es conocido el experimento realizado hace ya décadas en psicología industrial,


donde un grupo de obreros había incrementado su rendimiento porque se sabían
observados por un investigador creyendo que habían sido elegidos por éste por
sus virtudes como trabajadores. Se sintieron halagados y aumentaron más su
productividad.
b) El empleo de la cámara Gesell o sorpresa (en tanto implique que una persona
sea observada sin advertirlo) se justifica a partir de la suposición que la conducta
de la persona cambiará si se siente observada.
c) En los diseños experimentales en Ciencias Sociales suele contemplarse la
llamada influencia de la pre-medida, es decir, la influencia que ejerce sobre los
sujetos el hecho de aplicarles una medición. Sería como decir: es difícil evaluar la
inteligencia de una persona porque, al saberse medida con un test se puede
poner nerviosa y disminuír su producción en el mismo, con lo cual ya no estamos
midiendo objetivamente su inteligencia.

Bibliografía Consultada:

(1) De la Torre A, Física cuántica para filosofos, Buenos Aires, FCE, 1992, págs. 42-43.
(2) Ferrater Mora J, Diccionario de filosofía, Madrid, Alianza, 1979, Tomo 2, pág. 1646.
(3) Blanché R, El método experimental y la filosofía de la física, México, FCE, 1972,
págs. 459-460.
(4) De Broglie L, La physique quantique restera-t-elle indeterminniste, París, Gauthier-
Villars, 1953, pág. 15.
(5) Brunschwicg L, Science et la prise de conscience, Scientia, Vol LV, 1934, pág. 334.
(6) Capek M, El impacto filosófico de la física contemporánea, Madrid, Tecnos, 1973,
pág. 302.
(7) Una respuesta del filósofo S. Rosenberg durante el Encuentro Argentino-Israelí de
filosofía celebrado en Buenos Aires, en 1993.
(8) Bachelard G, La formación del espíritu científico, Buenos Aires, Siglo XXI.
(9) Calderón A, Aspectos epistemológicos de la física cuántica, Buenos Aires, Revista de
la Universidad de Morón, N°5, diciembre 1980, pág. 53.
(10) Calderón A, Op. Cit., pág. 55.

84

También podría gustarte