Resumen Del Resumen Epistemología

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 35

Resumen del resumen (Final Epistemología)

Clase 1

La ciencia como producto: la epistemología en ese caso toma el lugar de abordar la estructura
de las teorías y la relación de estas con el mundo que pretenden explicar.

La ciencia como proceso: corresponde al desarrollo de la ciencia a través del tiempo, junto con
los aspectos históricos, sociológicos, culturales, institucionales, económicos, etc. De la ciencia,
y al tipo de relación que pueda establecerse entre ese producto y la actividad misma que lo
produce.

La reflexión acerca de la ciencia se vuelve fundamental en un mundo en el que todo está


impregnado y atravesado por el conocimiento científico.

Es de gran importancia, en este sentido, romper con la inercia y producir una reflexión crítica
sobre el papel de la ciencia en nuestras vidas que vaya más allá tanto del asombro ingenuo y
dogmático, que producen algunas formas de divulgación científica, como así también de la
denostación de la ciencia y la tecnología por parte de posiciones ecologicistas y otros
fundamentalismos.

Mitos epistemológicos

 La idea de una filosofía de las ciencias general, como campo que puede dar cuenta del
fenómeno llamado ciencia. Hay problemas y soluciones generales para todos los
campos de la ciencia, lo que se basa en el mito de la ciencia unificada y la unidad
metodológica.
 Concebir a la ciencia como un conjunto de enunciados, algunos de ellos con referencia
empírica directa, constituidos por un lenguaje neutro, descriptivo y meramente
informativo.
 Concebir a la ciencia como un producto (el discurso científico). Ignorar la cuestión
histórica que llevó a ese producto. (contexto de descubrimiento vs contexto de
justificación)
 Concebir a la ciencia como el resultado de aplicar el método científico.
 El abordaje de la ciencia como aproblemático y ahistórico. La confianza tecnocrática
desmedida: todos los problemas actuales son más bien cuestión de tiempo. Si se hace
mención a la historia de la ciencia en la literatura científica es más bien para resaltar el
conocimiento acumulativo o para denostar a esos pobres antiguos que no sabían nada.
 La “ciencia martillo”: los problemas que pueda traer la ciencia se dan por una mala
aplicación, los objetos tecnológicos son neutros.

El carácter fuertemente prescriptivo de estos mitos se ve en la epistemología de la


Concepción Heredada. Esto termina generando un discurso hueco, en el que la ciencia no
encaja.

Los contramitos epistemológicos

 Confundir ciencia con lo que algunas corrientes epistemológicas dicen de ella.


Ciencia con mero ejercicio del poder y subjetiva. Las verdades son meros
consensos y cuestiones retóricas.
 Ver a la ciencia como la culpable de los desastres del mundo contemporáneo.
 Resaltar el carácter conjetural de la ciencia como algo negativo.
Enseñar ciencia en sí no contribuye necesariamente a la formación del pensamiento crítico en
alumnos. Enseñar ciencia suele ser muy dogmático.

Clase 2 (Concepción Heredada)

En este momento se institucionaliza la filosofía de la ciencia como disciplina autónoma, y


marcó agenda epistemológica de gran parte del siglo XX.

Se vio la necesidad de construir una filosofía de la ciencia precisa, empírica y que recurriera a
la lógica como método de investigación de manera semejante a lo que hace la física con la
matemática. Una filosofía de la ciencia que se pareciera a la ciencia.

Giro lingüistico: basándose en el supuesto de que el conocimiento era un reflejo fiel y neutral
de lo conocido, preconizaba el estudio del lenguaje en el que se describe la realidad como la
forma más objetiva e intersubjetiva del conocimiento. Para la filosofía analítica, los problemas
filosóficos son problemas lingüísticos en el fondo.

Para Wittgenstein, la lógica determina el mundo de lo posible, pero no determina cómo se


estructura el mundo como agente causal externo, sino que es una imagen especular del
mundo.

Hacia fines del siglo XIX y principios del XX la relación S⇒O ya no es directa sino que, giro
lingüístico mediante, el lenguaje resulta la mediación única e insoslayable entre S y O, (S=L⇒O
en nuestro esquema). O sea que la relación entre el sujeto y el objeto de conocimiento está
mediada por el lenguaje.

La respuesta a esto es la búsqueda de un lenguaje lo suficientemente depurado y formalizado


que exprese de manera inequívoca la descripción de porciones de la realidad y cuya suma sea,
finalmente, la descripción del mundo en su totalidad. Si bien el lenguaje se interpone entre el
sujeto y el objeto, se buscaba que no desfigurara en lo más mínimo el objeto de conocimiento.

Prestando atención a los aspectos pragmáticos del lenguaje, se llegó a la conclusión de que el
lenguaje siempre deja su impronta en el objeto conocido. El lenguaje es como un vidrio
translúcido, que permite captar lo que hay del otro lado pero dándole su propio formato.

El círculo de Viena (empirismo lógico) y la Concepción Heredada

Algunas líneas relacionadas con el lenguaje:

 Descripción estructural y axiomatización de teorías científicas


 Precisar términos que desempeñan un papel importante en el discurso científico o
cotidiano
 Análisis reductivo: depurar el lenguaje para que tenga mayor asiento en la realidad

Pretendía una formulación canónica que toda teoría pretendidamente científica debía
satisfacer. Cualquier teoría se debía construir en base a esos cánones. Esta es la utilidad que
pretendía la filosofía de la ciencia.

Características de la CH:

 Militancia antimetafísica, lo cual lleva a reconsiderar alcances y status de la filosofía.


 Distinción tajante entre contextos de descubrimiento y justificación (ciencia como
producto vs ciencia como proceso).
 Intento por establecer criterio de demarcación (ciencia vs resto de pretensiones de
conocimiento).
 Considerar a la ciencia como un sistema de enunciados que tienen entre sí una
relación de deducibilidad.
 Reduccionismo: Consideración de la ciencia como única herramienta cognoscitiva
legítima; ciencia unificada; unidad metodológica; concepción particular de la historia
de la ciencia.

El rechazo de la metafísica y el rol de la filosofía

Se entiende como pensamiento metafísico tanto el pensamiento religioso, como las


experiencias psicológicas privadas y/o místicas sin posibilidad de someterlas a prueba
intersubjetiva, como así también a la filosofía puramente especulativa sin anclaje empírico

Para la CH, la concepción científica del mundo no reconoce ningún conocimiento


incondicionalmente válido derivado de la razón pura ni ningún “juicio sintético a priori” como
los que se encuentran en la base de la epistemología kantiana y aún más de toda ontología y
metafísica pre y post-kantiana.

La concepción científica del mundo sólo reconoce oraciones de la experiencia sobre objetos de
todo tipo, y oraciones analíticas de la lógica y de la matemática.

Se expresan claramente con relación al papel que debe tener, para ellos, la filosofía: no
desarrollar tesis propias sino servir como auxiliar de la ciencia en la depuración del lenguaje y
la clarificación de las estructuras lógicas de las teorías.

La distinción entre contextos

Al contexto de justificación corresponde la ciencia en tanto producto, y para la CH, incluye los
aspectos lógicos y empíricos de las teorías. El contexto de descubrimiento incluye los aspectos
históricos, sociales, culturales y subjetivos que rodean a la práctica de los científicos.

Esta escisión fundamental entre contextos refuerza la idea de que lo que se pretende es que se
justifique lógicamente la validez, aceptabilidad y pertinencia de esos productos finales que son
las teorías científicas, y tal justificación se supone independiente y neutral respecto de las
prácticas que le dieron origen.

el contexto socio-histórico resulta un elemento accesorio a la racionalidad científica, ya que


ésta se desplegaría de manera autónoma y ahistórica, y, siempre según este punto de vista, la
injerencia del sujeto que produce ciencia (individual o, sobre todo colectivo) es evaluada como
una interferencia en tal producción de conocimiento; interferencia que, en el mejor de los
casos podía y debía ser eliminada mediante diversos tipos de procedimientos metodológicos.

El problema de la demarcación

La originalidad de los empiristas lógicos probablemente radica -como señala Ayer (1959)- en
que hacen depender la imposibilidad de la metafísica no en la naturaleza de lo que se puede
conocer, sino en la naturaleza de lo que se puede decir.

La CH pretende dar una formulación canónica que toda teoría científica debería satisfacer. Las
características básicas de este conocimiento científico son: la objetividad, la decidibilidad, la
intersubjetividad y la racionalidad. La objetividad consiste, básicamente, en que es
independiente de los conocimientos, creencias o deseos de los sujetos. La decidibilidad se
refiere a la posibilidad de determinar de modo concluyente, para un conjunto de afirmaciones,
su verdad o falsedad. La intersubjetividad en que puede ser compartido y reconstruido por
cualquier sujeto individual. Y la racionalidad en que satisface las leyes de la lógica, es revisable
y, también, justificable. Para la CH todas estas características se consideran garantizadas de
antemano y no necesitan justificación, aunque ellas mismas justifican la aceptabilidad del
conocimiento. Como quiera que sea, el criterio de demarcación propuesto por el Círculo de
Viena inicialmente sería de tipo semántico, es decir que se apoyaría en la decidibilidad de los
enunciados y apuntaría a delimitar el ámbito de la ciencia, no ya como epistémicamente
privilegiado, sino como único ámbito de conocimiento legítimo.

La exigencia de que un enunciado sea verificable de un modo concluyente o de que sea


refutable de una manera concluyente (la decidibilidad empírica) es demasiado rigurosa como
criterio de significación y se adoptó un criterio que exigía que un enunciado fuese capaz de ser
confirmado o refutado en algún grado por la observación.

Clase 3

Concepción enunciativa de las teorías – Distinción teórico-observacional

Las teorías científicas son consideradas, por la CH, como cálculos axiomáticos empíricamente
interpretados. Las teorías científicas estarían constituidas, entonces, por conjuntos de
enunciados que son, por un lado, independientes unos de otros en cuanto a su decidibilidad, y,
por otro lado, mantienen entre sí relaciones de deducibilidad lo cual convierte al conjunto en
un sistema. Este punto de vista suele denominarse concepción enunciativa de las teorías.

Los enunciados tienen 3 clases de términos: lógico-matemáticos, observacionales y teóricos.

Podemos distinguir también entre lenguaje teórico y lenguaje observacional (también incluye
leyes empíricas). Asimismo, las reglas de correspondencia conectan los términos teóricos con
la experiencia observable cargando así de interpretación empírica los axiomas puramente
teóricos.

Ontología de términos teóricos: está la posición realista que sostiene que son entidades de
existencia física aunque no se puedan observar, y la posición instrumentalista que sostiene que
los términos teóricos son combinaciones complejas de términos observacionales o
convenciones para facilitar la comunicación.

Una teoría nunca puede ser completamente verificada, porque sus enunciados
observacionales son infinitos. Por ello se habla más bien de grado de confirmación, que se
determina mediante la probabilidad inductiva y es progresivamente creciente a medida que
aumenta el número de verificaciones.

De la misma manera es posible decidir entre teorías alternativas mediante experimentos


cruciales, que confirmaran una de ellas, desconfirmando, al mismo tiempo, la otra. Esto es
posible porque las teorías son conmensurables en un doble sentido. En primer lugar, como el
lenguaje observacional es neutral y compartido por las distintas teorías, es posible
compararlas, al menos a este nivel.

La distinción teórico/observacional ha sufrido una serie de críticas según dos líneas principales.
En primer lugar porque resultan problemáticas tanto la distinción misma como así también la
calidad de observable (Achinstein, 1968). Pero sobre todo, en segundo lugar, no es posible
lograr equivalentes empíricos (ni directos ni a través de reglas de correspondencia) para todos
los términos teóricos utilizados en la ciencia, lo cual resulta una impugnación insalvable para
una posición fuertemente empirista.

Reduccionismo, emergentismo y fisicalismo

Fisicalismo, en general, es la tendencia a afirmar que todo se explica mediante procesos físicos
(es decir ni biológicos ni psicológicos), o a establecer una identidad entre lo psíquico y lo físico,
o a suponer que la física es el modelo de conocimiento al cual debe ajustarse cualquier saber.

El lenguaje fisicalista es intersensual, intersubjetivo y universal.

El problema del método

Suele pensarse que hay un solo método científico que ayuda a descubrir. La CH distingue entre
ciencias formales y ciencias fácticas. Las primeras conforman sistemas axiomáticos en sentido
pleno y para las segundas se utilizaría el método inductivista. Además, las ciencias formales
utilizarían enunciados analíticos y las ciencias fácticas, enunciados sintéticos.

Los sistemas axiomáticos

Los sistemas axiomáticos en su versión moderna tienen su origen en el ideal de ciencia


demostrativa planteado por Aristóteles hace más de dos mil años. El científico debía inducir
principios explicativos a partir de fenómenos que se querían explicar, y después, deducir
enunciados acerca de los fenómenos a partir de premisas que incluyan estos principios.

Como en cualquier sistema deductivo, la verdad quedaba asegurada a partir de dos


condiciones básicas: una gnoseológica -la verdad de las premisas- y una lógico instrumental - la
correcta aplicación de las reglas de inferencia.

El método inductivista

Para hacer inducciones debemos suponer en principio que la naturaleza es regular


temporalmente.

Las inferencias inductivas pueden generalizar a partir de la enumeración, la analogía y por


causalidad (correlación entre dos propiedades que hace suponer que una es causa de la otra).

Cuatro métodos inductivos de John Stuart Mill:

 Método de la concordancia: Si varios casos de un fenómeno tienen una sola


circunstancia en común, ésta probablemente sea la causa o el efecto.
 Método de la diferencia: Si en dos casos (en uno se presenta el fenómeno y en el otro
no) tienen solo una diferencia, ésa probablemente sea la causa o el efecto.
 Método de variaciones concomitantes: Cuando un fenómeno varía en proporción
directa o inversa a la variación de una circunstancia dada, ésta puede ser su causa.
 Método de los residuos: Si se resta la parte de un fenómeno, la cual se conoce como
efecto de ciertos antecedentes, la parte restante (el residuo) es el efecto de los
antecedentes restantes.

Método inductivista:
Modelos explicativos

 Modelo nomológico deductivo: Las explicaciones se expresan en forma de argumentos


deductivos, pero también a que explicar un hecho implica mostrar que obedece a
determinadas leyes naturales. Las premisas (explanans) justifican necesariamente la
conclusión (explanandum). Las premisas incluyen leyes generales y condiciones
iniciales
 Modelo probabilístico: Propia de disciplinas en las que se observan regularidades, pero
son de tipo probabilístico o estadístico. El explanans implica al explanandum con cierta
probabilidad.
 Modelo genético: explica hechos y procesos históricos sin necesidad de postular la
existencia de leyes como las del mundo natural. En el explanans deben incluirse un
gran número de sucesos o hechos particulares, que resulten pertinentes con el
explanandum. El problema es determinar criterios para seleccionar hechos
pertinentes.
 Modelo funcional teleológico: El explanandum se justifica admitiendo la existencia de
una finalidad o función de los sistemas a explicar.

Clase 4

Las críticas a la CH

El gran déficit de la CH no fue tanto defender tesis equivocadas (aunque algunas lo han sido)
sino ser un análisis muy parcializado de la ciencia que ha dejado de lado aspectos relevantes.

La justificada aversión por una metafísica puramente especulativa y vacua, hacia perder de
vista que buena parte de los fundamentos de la ciencia y aun de la epistemología cargaban con
el pesado lastre de la ausencia de fundamento empírico, por ejemplo, los supuestos como la
intersubjetividad, la objetividad o la racionalidad, los cuales eran considerados como dados sin
necesidad de justificación.

A su vez, su autolimitación al análisis de las teorías una vez que habían sido construidas,
rechazando además el contexto de descubrimiento, la distanciaba de las ciencias sociales, por
la creciente evidencia de que los criterios de aceptación o abandono de las teorías eran
establecidos por las propias comunidades científicas en sus prácticas habituales y no por
criterios a priori. De ese modo la CH se alejaba cada vez más de la práctica real de los
científicos y de los problemas planteados de hecho en su actividad y se concentraba
paulatinamente en el estudio y resolución de los problemas lógicos que ella misma generaba.
Además, y lo que era más notorio e importante, muchas de las teorías científicas vigentes- por
no decir la mayoría- no satisfacían los criterios canónicos que la CH requería para su
aceptación.
El problema que surge para el empirismo radica en que si no es posible realizar una reducción
o una traducción de los términos teóricos a términos empíricos, además del problema del
pasaje inválido del nivel uno al dos (es decir de enunciados empíricos a leyes, la generalización
empírica) se agrega la imposibilidad de legitimar el uso de enunciados de nivel tres (teóricos).

Se plantea así una disyuntiva crucial: o bien se abandona la parte más interesante y fructífera
de la ciencia (las afirmaciones que contienen términos teóricos) cosa que, obviamente nadie
tomaría en serio o bien se abandona la pretensión de explicar la actividad científica desde una
teoría del conocimiento empirista ingenua.

Quine criticó la distinción analítico-sintética, el dogma reduccionista del empirismo y el


principio verificacionista que a su vez derivan en tesis muy importantes para el desarrollo
posterior de la filosofía de la ciencia como la infradeterminación de la teoría por los datos de
observación y la indeterminación de la traducción.

Quine habla de dos dogmas del empirismo:

 La distinción entre enunciados analíticos y enunciados sintéticos, la cual no puede


pasar de la circularidad porque la analiticidad precisa de la sinonimia, y viceversa.
 Dogma reductivista: la creencia en que, para todo enunciado con sentido, hay una
experiencia, lógicamente formulable que lo confirma. Este dogma supone que todo
enunciado puede aislarse de sus compañeros para ponerse a prueba. Quine dice que
“nuestros enunciados acerca del mundo externo se someten como cuerpo total y no
individualmente al tribunal de la experiencia sensible”.

Solo pueden someterse a confirmación o refutación conjuntos de creencias teóricas (tesis de


Duhem-Quine), o una teoría considerada en su globalidad. Todo puede ser refutado por la
experiencia, aunque no de un modo particular, sino cuando ésta impone un cambio total a
nuestro sistema de creencias. Por lo mismo, tampoco son los enunciados singulares los
portadores de significado, sino que éste se aplica sólo a la teoría general o a conjuntos de
enunciados (holismo semántico).

Se trata de la tesis de la infradeterminación de la teoría por los datos de observación de


consecuencia fundamentales para la filosofía de las ciencias: dada cualquier hipótesis (o teoría)
para explicar un fenómeno determinado, siempre es posible dar un número indefinido de
teorías o hipótesis alternativas que den cuenta del fenómeno en cuestión que sean
incompatibles con la primera y que, al mismo tiempo sean compatibles con la experiencia
disponible.

Se pueden tener proyecciones mejores o peores, pero según este punto de vista no puede
haber criterios no lingüísticos para dilucidar la cuestión. Si los hubiera, ello significaría que se
podrían decidir en forma empírica y absoluta entre muchas hipótesis de análisis incompatibles.
Pero no se dispone de un principio de demarcación que permita distinguir lo que surge del
lenguaje propio o de las propias hipótesis analíticas y lo que surge de la propia realidad.

Palma: “Sin embargo, me interesa rescatar los dos pasos de la fructífera argumentación de
Quine – la indeterminación de la traducción y la posibilidad de establecer hipótesis de análisis
que aporten una comprensión progresiva de la nueva expresión- por igual y en forma
simultánea, por dos razones: en primer lugar porque pueden ser aplicados tanto a la
comprensión de las metáforas, como así también al problema de la relación entre otros dos
lenguajes implicados en la enseñanza: el lenguaje científico propiamente dicho y el lenguaje
utilizado para la EC; y en segundo lugar porque permiten intuir los mecanismos y procesos que
se desarrollan al formular, captar y asimilar una metáfora. En ambos casos, puede considerarse
la existencia de dos lenguajes entre los cuales es posible establecer una comprensión
progresiva que puede ser bastante adecuada pero que siempre deja un residuo intraducible.”

Comprensivismo y hermenéutica

Windelband dividió a las ciencias en nomotéticas e idiográficas: mientras las primeras se


ocupan de leyes generales (es el caso de las ciencias de la naturaleza), las segundas se ocupan
fundamentalmente de lo particular e individual. Las ciencias de la cultura son,
fundamentalmente, ciencias idiográficas pero, en la medida en que las ciencias de la
naturaleza son un producto cultural, deben también ser entendidas desde la ciencia de la
cultura.

Retomando la línea de Windelband, Wilhelm Dilthey (1833-1911) dividió entre ciencias de la


naturaleza y ciencias del espíritu. La distinción no atendía sólo a la diferencia de objeto, sino
también a que las primeras utilizan como método de conocimiento la explicación, las últimas
recurren a la comprensión, como método propio.

La disolución de la CH

Las derivaciones de la CH, conforme una serie de críticas e inadecuaciones se ponían de


manifiesto, puede dividirse en tres grandes líneas: “(...) a) análisis descriptivos de las teorías
que son escépticos respecto de la existencia de características profundas comunes a todas
ellas; b) análisis que consideran que las teorías o formas de teorizar científicas son relativas a
una weltanschauung (cosmovisión) o perspectiva conceptual de la cual depende el significado
de los términos; c) enfoques semánticos.”

a) Achinstein: En realidad de ofrecer una formulación canónica de cómo deben ser las
teorías, “un análisis adecuado de las teorías debe caracterizarlas tal y como de hecho
se emplean en la ciencia”.
b) Toulmin, Hanson, Kuhn, Feyerabend, Lakatos: Creciente tendencia a la indagación del
sujeto que produce ciencia, reconociendo que en el proceso mismo, acontece la
legitimación del conocimiento producido.
c) Suppes, Sneed, Van Fraassen, Giere: La tesis básica de todas ellas es que la naturaleza,
función y estructura de las teorías se comprende mejor cuando su caracterización,
análisis o reconstrucción metateórica se centra en los modelos que determina. Para
ella, el componente más básico para la identidad de una teoría es una clase de
estructuras, y más específicamente una clase de modelos. Un modelo, en su acepción
informal mínima, es un sistema o “trozo de la realidad” constituido por entidades de
diverso tipo que realiza una serie de afirmaciones, las realiza en el sentido de que en
dicho sistema “pasa lo que las afirmaciones dicen” o, más precisamente, las
afirmaciones son verdaderas en dicho sistema. Proponen la axiomatización informal a
través de predicados conjuntistas. Finalmente, consideran engañosa la distinción
teórico/ observacional, porque encubre dos distinciones diferentes. Una entre teórico
y no teórico, en virtud de que un concepto, una función, etc., sea o no completamente
dependiente de una teoría. Otra entre observable e inobservable, en el sentido de
accesible a los sensores humanos (algunos incluyen la detección mediante
instrumentos). La aceptación de una distinción no compromete con la otra.

Clase 5
La ciencia como producto. El racionalismo crítico de Popper

Sigue respetando la distinción entre contextos y la ciencia sin sujeto, la unidad metodológica y
la preocupación por la demarcación.

Se cree que rompe con el positivismo por las siguientes características:

 Señala la carga teórica de la observación


 Su criterio de demarcación es metodológico
 No insiste en una ruptura taxativa entre ciencia y afirmaciones sin sentido, sino que se
abre a pensar en una demarcación de grado entre ciencia y otros discursos en sentido
pleno

La crítica a la inducción

Popper niega que la inducción sea un método válido para producir conocimiento. Resume su
crítica en el trilema de Fries:

1) la inducción es lógicamente válida


2) es un principio autoevidente
3) se justifica a partir de la experiencia

El caso 1) no es cierto porque la inducción incompleta no asegura la verdad de la conclusión a


partir de la verdad de las premisas. En el caso 2), la evidencia resulta un estado subjetivo de
certeza acerca de alguna creencia, pero no acredita justificación suficiente. Lo evidente a veces
depende de la época. Tampoco, en el caso 3), se puede justificar la inducción por la
experiencia, porque se cae en una argumentación circular: “la inducción es válida porque ha
tenido éxito en un número considerable de casos” es un razonamiento por inducción. No se
puede justificar la inducción con la inducción.

Popper propone que los hechos relevantes no son inherentes al problema en sí, sino que se
vuelven relevantes en virtud de la hipótesis propuesta. La observación aparece así lastrada por
una “carga teórica”.

El problema de la demarcación

Si llamamos “criterio de demarcación” a aquel que nos permite diferenciar entre ciencias
empíricas y sistemas metafísicos, Popper rechaza la lógica inductiva porque no proporciona un
rasgo discriminador adecuado.

Conjeturas y refutaciones: El conocimiento científico se caracteriza por ser empíricamente


contrastable, es decir, por estar sometido a la crítica de la experiencia, la más dura y objetiva
de todas. Tal como Popper entiende el racionalismo crítico, esa contrastabilidad consiste
esencialmente en la falsabilidad. La razón es que, dada la estructura lógica de las leyes (y de los
enunciados estrictamente universales en general), éstas son mucho más informativas por lo
que prohíben que por lo que afirman. Mientras que no es posible comprobar si ocurre todo lo
que afirman, es fácil saber si tiene lugar algo de lo que prohíben. Lo contrario ocurre con los
enunciados estrictamente existenciales. Entre verificación y falsación hay una asimetría ya que
una sola refutación hace falsa una teoría mientras ningún número de corroboraciones la hace
verdadera.

El criterio de falsabilidad (criterio de demarcación): Cabe consignar que el propósito de Popper


no es sólo dejar fuera del ámbito científico a la religión, la metafísica o la astrología, sino que
su intención explícita era excluir de la ciencia al marxismo- en verdad una versión muy sui
generis que Popper entiende como todo el marxismo- y el psicoanálisis.

1) Es fácil obtener confirmaciones o verificaciones para casi cualquier teoría, si son


confirmaciones lo que buscamos.

2) Las confirmaciones sólo cuentan si son el resultado de predicciones, es decir, si, de no


basarnos en la teoría en cuestión, habríamos esperado que se produjera un suceso que es
incompatible con la teoría, un suceso que refutará la teoría.

3) Toda “buena” teoría científica implica una prohibición: prohíbe que sucedan ciertas cosas.
Cuanto más prohíbe una teoría, tanto mejor es.

4) Una teoría que no es refutable por ningún suceso concebible no es científica. La


irrefutabilidad no es una virtud de una teoría (como se cree), sino un vicio.

5) Todo genuino test de una teoría es un intento por desmentirla, por refutarla. La testabilidad
equivale a la refutabilidad. Pero hay grados de testabilidad: algunas teorías son más testables,
están más expuestas a la refutación que otras. Corren más riesgos, por decir así.

6) Los elementos de juicio confirmatorios no deben ser tomados en cuenta, excepto cuando
son el resultado de un genuino test de la teoría; es decir, cuando puede ofrecerse un intento
serio, pero infructuoso, de refutar la teoría. (En tales casos hablo de “elementos de juicio
corroboradores”.)

7) Algunas teorías genuinamente testables, después de hallarse que son falsas, siguen
contando con el sostén de sus admiradores, por ejemplo, introduciendo algún supuesto
auxiliar ad hoc, o reinterpretando ad hoc la teoría de manera que escape a la refutación.
Siempre es posible seguir tal procedimiento, pero éste rescata la teoría de la refutación sólo al
precio de destruir o, al menos, rebajar su status científico.

En resumen, el criterio para establecer el status científico de una teoría es su refutabilidad.

Tampoco establece una demarcación tajante, sino de grado. Simplemente permite diferenciar
el conocimiento científico, es decir, el que puede, en principio, ser falsado por la experiencia,
del resto. Eso supone también que una característica básica del conocimiento científico es su
provisionalidad.

Verdad y verosimilitud

Cada teoría determina el conjunto de sus posibles falsadores como el conjunto de enunciados
singulares que prohíbe o que contradicen sus consecuencias. Este conjunto constituye la base
empírica relevante para la teoría y difiere entre teorías distintas. Por ello la teoría determina,
en un cierto sentido, la experiencia.

Popper se opone al esencialismo y el instrumentalismo. El esencialismo propone que con las


teorías científicas se puede penetrar en la esencia de las cosas, dar explicaciones últimas. Está
en contra porque para él el conocimiento es conjetural, sometido a la crítica y a constante
revisión. El instrumentalismo afirma que las teorías científicas son útiles para predecir, pero no
tienen alcance explicativo y no afirma nada de la naturaleza de las cosas. Popper rechaza esto
por su renuncia al realismo.

No alcanza con una sola falsación, sino que esta debe subsumirse en una hipótesis, llamada
hipótesis falsadora. Si la teoría resulta falsada, surge de esto el germen de una nueva teoría.
Sino, resulta corroborada. Cada teoría puede tener un grado de corroboración en un momento
dado.

La combinación de ambos, grado de falsabilidad y grado de corroboración, determina la


verosimilitud de una teoría, que permite jerarquizar y decidir entre teorías desde el punto de
vista de su aceptabilidad.

Supone, también, que verosimilitud y verdad son cosas distintas. Para Popper la verdad
objetiva existe, pero actúa como un ideal regulador, no como algo cognoscitivamente
determinable. Para él, lo cierto es que el conocimiento científico sólo puede acercarse más y
más a la verdad y este aproximarse es la verosimilitud.

Clase 6

El racionalismo crítico de Popper (parte 2)

El racionalismo crítico constituye un fundamento teórico para el método hipotético-deductivo.


En resumen, el método hipotético-deductivo (en adelante MHD) sigue los siguientes pasos: 1)
Parte de problemas; 2) Propone hipótesis para explicarlos; 3) Extrae consecuencias
observables de las hipótesis; 4) Las somete a prueba; 5) Si la consecuencia es verdadera,
confirma o corrobora la hipótesis; 6) Si la consecuencia es falsa, refuta la hipótesis.

Es importante llamar la atención sobre la categoría de “problema” ya que abre a una serie de
cuestiones, la mayoría de las cuales Popper no transitó. En primer lugar que es necesario que
haya alguien, un sujeto, para que algo sea visto como un problema. En el mundo no hay
problemas, sino sólo eventos que se suceden y sólo cuando alguien los ve como problemas
comienzan a serlo. En segundo lugar la historicidad de los problemas, es decir que los eventos
comienzan a ser problemas científicos en un momento dado y no antes.

la intersubjetividad juega un rol fundamental, ya que el conocimiento debe salir de la esfera de


lo privado y debe ser testable por cualquier persona. Como vemos, según este criterio el
proceso de producción del conocimiento científico no comienza con observaciones como
pretendía el inductivismo, sino con afirmaciones tentativas acerca de un estado de cosas en el
mundo que surgen como consecuencia de un problema a resolver. La teoría guía a la
observación; todos los términos poseen carga teórica.

El término corroboración no compromete con la verdad como definitiva y señala tan sólo el
carácter provisional de su aceptación. Las hipótesis tendrán entonces dos únicos destinos
posibles: resultar falsada algún día o seguir eternamente siendo hipótesis. Popper afirma, en
este sentido, que hay una suerte de asimetría entre la verdad y la falsedad de las hipótesis.

Ejemplo -> Caso Semmelweis

Modus tollendo tollens: Si hipótesis fundamental (HF) es verdadera, también será verdadera la
consecuencia observable (CO)

La CO es falsa

POR LO TANTO:

por lo tanto: HF es falsa

Si la CO es verdadera, la hipótesis no necesariamente lo es (sino sería una falacia de afirmación


del consecuente).
Las ciencias sociales

En las ciencias sociales e históricas existe un método específico que Popper llama lógica de la
situación y que permitiría construir una ciencia social objetivamente comprensiva
“independientemente de todas las ideas subjetivas o psicológicas”:

“El método del análisis situacional es, pues, un método individualista, desde luego, pero no un
método psicológico, ya que excluye programáticamente los elementos psicológicos
sustituyéndolos por elementos situacionales objetivos. Su contenido de verdad puede, no
obstante, ser muy grande, de tal modo que pueden constituir-en un estricto sentido lógico-
buenas aproximaciones a la verdad, incluso superiores a otras explicaciones contrastables con
la realidad” Popper

El individualismo metodológico de Popper supone que debe rechazarse cualquier explicación


de los fenómenos sociales o individuales que no se exprese totalmente en términos de hechos
sobre individuos.

Para Popper las entidades sociales, como instituciones o asociaciones, son modelos abstractos,
construidos para interpretar ciertas relaciones abstractas y selectas entre los individuos. Lo
que subyace a esta posición es la creencia en que las leyes sociológicas o históricas son
imposibles o de que las declaraciones con aspecto de ley son siempre falsas, pues la sociología
y la historia se ocupan de acontecimientos singulares e individuales.

El falsacionismo complejo

Quizá la diferencia entre simple y complejo sea engañosa si se interpreta que el aumento de
complejidad involucra sólo consideraciones meramente cuantitativas cuando implica, además,
asumir una imagen de la racionalidad y práctica científicas, bastante diferente:

1. Una de las objeciones que se ha hecho es que los científicos en su práctica concreta y
real no operan según las simples y taxativas indicaciones del método hipotético
deductivo.
2. La refutación inmediata de las hipótesis y teorías no tiene en cuenta la siguiente
objeción: Las teorías científicas no se enfrentan con los hechos en forma directa, y
sobre todo, tampoco lo hacen en forma individual, sino que habitualmente
constituyen un conjunto de hipótesis. una contrastación con resultados negativos
refuta la conjunción, pero al tiempo permite alguna modificación que eluda la
refutación mediante el cambio de alguna de las hipótesis menores introduciendo
alguna hipótesis ad hoc. Esta concepción holista es también llamada tesis Duhem-
Quine.
3. Los problemas que surgen de definir lo que constituye un “hecho”, vale decir las
condiciones necesarias y suficientes en las cuales una observación puede servir para
falsar una teoría. La carga teórica de la observación no sólo efectúa un recorte de la
experiencia posible sino que al mismo tiempo opera la instauración de una perspectiva
particular. La propuesta de perspectivas diferentes puede, literalmente, elevar al rango
de ‘interesante científicamente’ un universo nuevo de ‘hechos’. La categoría de hecho
científico es histórica y esto se aprecia claramente con la irrupción de “nuevos” hechos
en la historia de la ciencia.
4. El modelo científico popperiano sería un modelo meramente lógico, basado en el
modus tollens y la ciencia aparece más racionalista de lo que efectivamente es, y ello
por no tener suficientemente en cuenta la historicidad del saber científico.
Según Lakatos, el falsacionismo dogmático es insostenible porque descansa sobre dos
supuestos falsos:

 El primer supuesto es que existe una frontera natural, psicológica, entre las
proposiciones teóricas y especulativas, por una parte, y las proposiciones fácticas u
observacionales (o básicas), por la otra.
 El segundo supuesto es que si una proposición satisface el criterio psicológico de ser
fáctica u observacional (o básica), entonces es cierta; se puede decir que ha sido
probada por los hechos.

Estos supuestos son complementados por un criterio de demarcación: sólo son 'científicas' las
teorías que excluyen ciertos acontecimientos observables y que, por ello, pueden ser refutadas
por los hechos. Dicho de otro modo: una teoría es científica si tiene una base empírica. Pero
ambos supuestos son falsos. La psicología testimonia contra el primero, la lógica contra el
segundo y, finalmente, la opinión metodológica testifica contra el criterio de demarcación.

Ahora bien, suponiendo este esquema básico bastante más complejo que el falsacionismo
ingenuo, si la consecuencia observable resulta refutatoria, hay básicamente dos caminos
posibles: o bien considerar sin más como falsa a la hipótesis fundamental o bien levantar la
hipótesis factorial, es decir suponer que algún factor no tenido por relevante en un principio
influyó para el fracaso. Este último camino conduce a proponer hipótesis ad hoc, es decir
realizar un cambio en alguna hipótesis menor o introducir una nueva, para salvar el conjunto
básico de hipótesis. Nótese que desde el punto de vista formal este procedimiento puede
llevarse al infinito, ya que siempre, en principio, puede introducirse una modificación
salvadora. las hipótesis ad hoc son aceptadas sólo en la medida que generen nuevas
consecuencias observables, es decir que sean también ellas falsables.

Clase 7

La ciencia como proceso: el giro sociohistórico en la epistemología

Hacia los años ’60 comienza a aparecer una serie de propuestas epistemológicas que
comienzan a centrar la atención en la historia de la ciencia, es decir, acentuando la relevancia
del contexto en la producción científica.

Hanson: En efecto, en oposición a la idea de la CH de restringir la tarea de la filosofía de la


ciencia al contexto de justificación, Hanson cree que hay una lógica del descubrimiento en
virtud de la cual se pueda concluir que ciertas hipótesis son razonables con relación a una
determinada cantidad de conocimiento en un determinado contexto. De modo tal que las
teorías físicas proporcionan modelos dentro de los cuales los datos resultan inteligibles,
constituyendo una ‘Gestalt conceptual’.

1. Un lugar para la historia: Thomas Kuhn

Algunas consideraciones:

 Es cierto que Kuhn revaloriza el papel de la historia, pero no es una idea original
(Bachelard y Koyré ya lo habían hecho).
 Puede inscribírselo en la misma tradición intelectual de la CH, más allá de sus
impugnaciones.
 Kuhn suavizó algunos detalles de su pensamiento inicial, y de preocuparse por la
historia de la ciencia, pasó a atender temas lingüísticos y de la teoría del conocimiento.
Puntos básicos de la propuesta epistemológica de Kuhn:

1) El conocimiento sobre el mundo: Niega la neutralidad de la experiencia y afirma que la


observación depende del marco teórico con el cual se lleva a cabo en un triple sentido:
a) la observación está dirigida por la teoría (carga teórica de la observación), b) los
hechos son construidos por la teoría (son los paradigmas quienes determinan qué es
un hecho y paradigmas distintos considerarán diferentes hechos y taxonomías o
clasificaciones de los mismos) y c) el significado de los términos depende de la teoría y
es relativo a ella.
2) Los alcances del análisis epistemológico: Ha de considerarse toda la actividad
científica, no sólo los productos. Este nuevo enfoque conlleva la disolución de la
distinción disciplinar y conceptual entre contextos, dado que los procesos de
articulación, justificación y aplicación de las teorías están determinados, en alguna
medida difícil de establecer- ese es el trabajo de las nuevas historiografías de la
ciencia- dependen de las prácticas y el contexto socio-histórico. Se comprende
entonces, por qué la Filosofía de la Ciencia no puede ser normativa, sino descriptiva.
Lo que interesa no es tanto prescribir las condiciones canónicas que las teorías
deberían cumplir, sino describir los procesos reales que constituyen la actividad
científica. El análisis lógico ya no es suficiente y se hace necesario elaborar una teoría
de la ciencia que incluya tanto los aspectos lógicos, como los psicológicos, sociológicos
e históricos.
3) Las categorías del análisis: no puede hablarse de las teorías como meros sistemas
axiomatizados de enunciados, sino como estructuras conceptuales globales o, si se
quiere conservar un enfoque lingüístico, como lenguajes (en el sentido de estructuras
o redes semánticas).

Un paradigma es verdaderamente, una “concepción del mundo”, vale decir un conjunto de


valores y creencias que determinan la forma de estructurar, categorizar y clasificar (producir
taxonomías) el mundo: “La completa constelación de creencias, valores, técnicas, y
compartidos por los miembros de una comunidad dada” (Kuhn, 1962-70 [1992, p. 169]). De
modo tal que el paradigma incluye supuestos compartidos, técnicas de identificación y
resolución de problemas, valores y reglas de aplicación, etcétera, y elementos específicos
como los modelos, las generalizaciones simbólicas, aplicaciones y experimentos ejemplares
con sus instrumentos.

Kuhn también describe a los paradigmas como “realizaciones universalmente reconocidas que,
durante cierto tiempo, proporcionan modelos de problemas y soluciones a una comunidad
científica”. (Kuhn, 1962-70 [1992, p. 13]). Es importante resaltar que, en la medida en que el
paradigma determina cuáles son los problemas y las normas de su resolución, el trabajo de los
científicos consiste en la articulación entre los fenómenos y el paradigma; es por eso que Kuhn
calificará a la etapa de ciencia normal (la que se realiza durante la vigencia del paradigma)
como una etapa de resolución de enigmas o también como del armado de un rompecabezas.
Esta metáfora no se refiere tanto a la dificultad y laboriosidad del científico, sino más bien al
hecho de que al encarar el armado de un rompecabezas ya se sabe de antemano como va a
quedar terminado, del mismo modo que el paradigma indica cómo debería ser el mundo,
incluso en aquellos aspectos en los cuales aún no se sabe mucho.

La adopción de un paradigma por parte de una comunidad científica está, en parte,


determinada por la solución que éste da a problemas que hasta ese momento no la tenían,
pero, al mismo tiempo genera otros problemas nuevos: la articulación entre estos nuevos
problemas y el paradigma será la tarea del científico normal.

Los componentes principales de un paradigma son: generalizaciones simbólicas, las partes


metafísicas (analogías y metáforas), valores y ejemplares (las concretas soluciones de
problemas que los estudiantes encuentran desde el principio de su educación científica, sea en
los laboratorios, en los exámenes, o al final de los capítulos de los textos de ciencia).

Los ejemplares cumplen un papel fundamental en la formación profesional de los científicos.


Kuhn analiza el estilo de educación que reciben los científicos y señala, provocadoramente,
que tiene un carácter tan dogmático como la educación religiosa. Sin embargo, el dogmatismo,
que en ciencia y con justa razón, es concebido como un rasgo negativo, tiene para Kuhn una
doble función: por un lado el científico es formado para defender (y completar en lo posible) el
paradigma y no para refutarlo y, por otro lado, sólo aquellos que conocen a la perfección el
paradigma y han sido entrenados para operar con él hasta en los mínimos detalles, están en
condiciones de detectar y comprender el alcance y profundidad de las anomalías que puedan
surgir.

La dinámica historia de la ciencia

Los períodos en los que existe una comunidad estable que comparte un paradigma aceptado
constituyen la ciencia normal. La investigación, en estos periodos, se centra en la articulación,
desarrollo y aplicación del paradigma. Los desajustes y problemas que se producen, los
enigmas, intentan resolverse mediante las técnicas compartidas por la comunidad, pero en
ningún caso se producen cosas tales como verificaciones o falsaciones (pues el paradigma no
se pone en cuestión).

A veces, alguno de esos enigmas resulta irreductible y puede llegar a convertirse en una
anomalía, a medida que la comunidad distraiga más medios y personas para intentar
solucionarlo y las distintas técnicas de resolución paradigmáticas vayan fracasando. Para un
falsacionista ingenuo, estos hechos serían otras tantas refutaciones de la teoría, pero Kuhn
observa que, en verdad, los científicos no trabajan para refutar sus teorías, sino más bien al
contrario, para confirmarlas. Las actitudes de los científicos frente a las anomalías pueden ser
diversas: puede ocurrir que lisa y llanamente no se perciban las anomalías merced al carácter
constitutivo y determinante de la percepción del mundo de los paradigmas; puede ocurrir
también que sea minimizado el efecto refutador de tales hechos rebeldes y, finalmente, los
científicos confían en que, con el tiempo se logrará, definitivamente, ubicar las piezas en el
lugar correcto. Así, los científicos conviven en relativa armonía con las anomalías sin pensar en
abandonar el paradigma.

Puede ocurrir que la actividad científica normal logre articular adecuadamente estas anomalías
como se esperaba, lo que constituirá nuevos éxitos que consolidan y dan fuerza al paradigma
vigente; pero también puede ocurrir lo contrario, es decir que estas anomalías sean
persistentes en el tiempo y que, quizás, aparezcan nuevas. La persistencia de las anomalías o la
acumulación de ellas puede llevar, según Kuhn a una “crisis” del paradigma, aunque no hay
regla sobre la calidad y/o cantidad de anomalías que pudieran conducir a una crisis, y todo
dependerá de la ponderación que la comunidad científica haga de la cuestión. Es importante
destacar que no es la mera existencia de anomalías la que conduce a una crisis, porque de
hecho, los paradigmas conviven en cierta armonía con ellas. Lo cierto es que en algún
momento, por circunstancias históricas diversas, surge una crisis y en ese momento se rompe
la unidad de la comunidad alrededor del paradigma, una pérdida de confianza en la capacidad
del mismo para resolver las anomalías y la búsqueda de soluciones heterodoxas.

Estos periodos de crisis se caracterizan por la proliferación de teorías alternativas enfrentadas,


escuelas en lucha o surgimiento de herejías, cada una de las cuales pretende erigirse en nuevo
paradigma y núcleo de la comunidad científica. Cuando alguna lo consigue se instaura un
nuevo periodo de ciencia normal.

El pasaje de un paradigma a otro da lugar a lo que Kuhn llama revolución científica, proceso
más o menos extenso, que requiere no solamente que un paradigma se encuentre en una
crisis profunda sino que debe registrarse, además, la aparición de un paradigma alternativo.

El problema de la incomensurabilidad

Para la CH, las teorías científicas eran conmensurables, incluso subsumibles en otras más
abarcativas. Kuhn sostiene la tesis contraria.

En una revolución científica, ocurre una verdadera ruptura entre los marcos conceptuales de
una y otra teoría de modo tal que no hay manera de correlacionar semánticamente los
conceptos básicos de una teoría con los de la otra. Cada teoría se vuelve ininteligible para la
otra en la medida que el paradigma estructura la percepción.

La crítica principal a la inconmensurabilidad está dirigida a que, si se la acepta en un sentido


fuerte, la adopción de un paradigma u otro en momentos de crisis es un acto prácticamente
irracional en términos científicos y la elección se haría según criterios externos a la actividad
científica misma.

Volviendo a la noción de inconmensurabilidad de ERC, debe señalarse que otro de los aspectos
que se ha criticado es que anularía el progreso de la ciencia. Sin embargo, lo que Kuhn niega
explícitamente es que el progreso de la ciencia lleve a un conocimiento más profundo de la
naturaleza de las cosas, a una mejor ontología, pero es indiscutible que hay progreso aunque
en un sentido distinto: “Las teorías científicas posteriores son mejores que las anteriores para
resolver enigmas en los medios a menudo distintos a los que se aplican.

Kuhn distingue dos formas de desarrollo de la actividad científica: un desarrollo progresivo


dentro de la ciencia normal (paradigma), acumulativo en el sentido de que se va armando
progresivamente el “rompecabezas”; y otro tipo de desarrollo no progresivo, es decir no
acumulativo entre un paradigma y otro.

Casi al final de ERC Kuhn llama la atención sobre el hecho de que no se ha referido en ningún
momento a la verdad científica, algo bastante llamativo para un libro de epistemología.
Propone, entonces, entender el desarrollo de las ciencias como un proceso no hacia algo (en
este caso a la verdad) sino como un proceso desde lo que conocemos.

La historia y la sociología del conocimiento después de Kuhn

Aplicada a las ciencias, la historiografía whig también se trata de una historia mitológica de
héroes y villanos en la cual los primeros son los que contribuyeron al estado actual de la
ciencia, mientras que los villanos son los que han seguido líneas luego abandonadas y habrían
complicado el avance de la ciencia. Subyace a este modo tradicional de hacer historia el
supuesto de que la ciencia recorre un proceso lineal y acumulativo y, señala Kuhn reserva al
historiador sólo la tarea de: “(...) determinar por qué hombre y en qué momento fue
descubierto o inventado cada hecho, ley o teoría científica contemporánea. Por otra parte,
debe describir y explicar el conjunto de errores, mitos y supersticiones que impidieron una
acumulación más rápida de los componentes del caudal científico moderno”

Pero un análisis algo más detallado de los procesos históricos muestra qué poco tienen que ver
con esta imagen ingenua y que los elementos contextuales parecen jugar papeles
preponderantes, otorgándoles cierta especificidad que no se comprende si se abordan con las
categorías contemporáneas. Más aun, estos elementos contextuales resultan siempre un
ingrediente de la formación de las creencias sostenidas por una comunidad científica. Y las
disputas entre escuelas no resultan de ningún modo de que unos fueran científicos y otros no,
o de que unos contribuyeran al avance de la ciencia y que otros lo retrasaran, sino a lo que
Kuhn denominó formas inconmensurables de ver el mundo.

Ahora bien, toda historia de la ciencia presupone ciertas apreciaciones sobre la naturaleza de
la ciencia, es decir una epistemología, lo cual implica que hay cuando menos algún esbozo de
demarcación entre lo que corresponde a la ciencia –y en tal caso a la historia de la ciencia- y lo
que queda fuera de ella.

Historia interna y externa

Lakatos: En principio la historia interna está constituida por el análisis de las cuestiones
metodológicas vinculadas al cambio de teorías o a las estructuras lingüísticas de una teoría.
Por su parte la historia externa estaría constituida por elementos que, utilizando la expresión
de la CH, corresponderían al contexto de descubrimiento, tales como ideologías, prejuicios en
general, factores culturales, económicos, sociales, etc. Esta distinción entre historia interna e
historia externa, si se pone en paralelo con los contextos de descubrimiento y justificación de
la CH, puede ser considerada como una suerte de criterio de demarcación ha determinado
buena parte de la agenda epistemológica de las últimas décadas.

Clase 8

Los límites de las ciencias

De la fortaleza de la objetividad a las fronteras difusas del relativismo

Se da a continuación una interpretación sobre cómo, en los últimos cien años, la filosofía de la
ciencia ha forzado la cuestión de los límites entre la ciencia y otras manifestaciones de la
cultura, y luego los estudios sociales de la ciencia han intentado diluirlos, y de cómo ambas
estrategias llevaron a una aporía interpretativa.

Kant: La Crítica de la Razón Pura es justamente un intento por delimitar entre los alcances del
conocimiento con fundamento empírico por un lado, y por otro lado la metafísica, en la que los
humanos se pierden cuando se aventuran más allá de la experiencia posible.

Empirismo lógico (principalmente en el Círculo de Viena): en cuya agenda aparece como tema
central el problema de la demarcación: los límites son la clave de la estrategia de comprensión.
La filosofía quedaba limitada sólo a ser una especie de auditor (y auxiliar) de la pureza de la
ciencia. Una de sus principales tareas generales era hallar un criterio canónico y a priori,
normativo, jerárquico y excluyente, que limitase clara y taxativamente entre la buena ciencia,
la ciencia legítima, y otras manifestaciones discursivas humanas3. Una ciencia que cumpliera
con los requisitos de neutralidad y objetividad; diferenciada del pensamiento puramente
especulativo y sin sustento empírico; y que pudiera desarrollarse evitando la influencia y las
determinaciones de las condiciones sociales y materiales de su producción consideradas
negativas y difusas. Pero quizá lo que caracteriza más claramente a esta versión estándar de la
filosofía de la ciencia sea el esfuerzo por hallar los límites entre lo que llamaron contexto de
descubrimiento, por un lado, y contexto de justificación por otro

Sin embargo, otra vez, el límite entre contextos que parece explicar adecuadamente las cosas,
solo esconde una serie de cuestiones más relevantes y cuya respuesta claramente se ubica en
la intersección, más que en su separación artificiosa: la relación entre la ciencia y el momento
socio-histórico. Quedarse en la cuestión anecdótica o psicológica deja sin responder la
pregunta (más importante): ¿qué relación hay, o podría haber, entre las condiciones sociales
(los prejuicios, el conocimiento disponible, la época, la cultura, las creencias instaladas, el
imaginario social, las teorías científicas establecidas, etc.) y el contenido de las teorías?

En la filosofía de la ciencia estándar, se pontificaba sobre la necesidad de que la racionalidad


científica preservara su objetividad y neutralidad desplegándose de manera autónoma,
esquivando la interferencia de los sujetos individuales o colectivos que producen la ciencia.

El problema de la demarcación fue perdiendo interés porque la caracterización de la ciencia,


en tanto fenómeno cultural, fue haciéndose cada vez más desde un punto de vista socio-
histórico con los llamados “nuevos filósofos de la ciencia”.

Puede decirse que hubo un gran esfuerzo del programa inicial de la filosofía de la ciencia por
desarrollar criterios para esclarecer las diferencias y especificidades de la ciencia, por
establecer límites, en suma, cuyo fracaso parcial se explica, probablemente, por su misma
rigidez y exacerbación, resultando así impotentes para explicar qué tiene de común y cómo se
relaciona la ciencia con otras prácticas humanas.

Pero los desarrollos posteriores, principalmente de los estudios sociológicos, al poner el


acento en mostrar en qué se parece la ciencia a otros tipos de prácticas culturales, resultaron
impotentes para explicar lo que la ciencia tiene de específico.

En las últimas décadas, la filosofía de las ciencias parece haber reencontrado ciertos senderos
productivos y promisorios en “filosofías especiales de la ciencia”. No se trata de capítulos o
especializaciones dentro de una filosofía general de la ciencia sino un cambio de estrategia y
objeto que evita avanzar en el estéril establecimiento de límites y se diferencian de la filosofía
de la ciencia tradicional en, al menos, tres aspectos principales. Primero, saltan el límite
artificial que ubica de un lado a “la” ciencia (en singular), una entelequia incapaz de subsumir
la multiplicidad y diversidad de prácticas que los científicos llevan adelante, más allá de ciertos
compromisos básicos acerca de la racionalidad. Segundo, la filosofía deja de ser un auditor
externo de la pureza de la ciencia tal como se la concebía a principios del siglo XX y, en cambio,
el trabajo entre el filósofo y el científico es claramente transdisciplinario. Tercero, el filósofo ya
no hace un uso estratégico de ejemplos científicos para mostrar cómo se cumplen sus tesis a
priori acerca de la ciencia, sino que debe conocer el campo científico en el cual trabaja para
dar cuenta de problemas propios del mismo.

De donde no se puede salir o no se puede acceder

Los límites épicos

Tanto periodistas como científicos creen que se está llegando al “fin de la ciencia” o a una
forma relativamente acabada de ella por estar cerca de hallar las leyes fundamentales de la
naturaleza (que creen que serían las de la física). se trata de visiones estrechas y reduccionistas
de las ciencias, que las ven como la suma de las explicaciones conseguidas, sin tener en cuenta
la irrupción constante de nuevos problemas, nuevos desafíos intelectuales, nuevas
dimensiones de abordaje, nuevas interdisciplinariedades, complejidades y nuevas preguntas.

Los límites cognitivos y tecnológicos

Quizá una de las cuestiones más inquietantes se refiera a los límites cognitivos de la ciencia, es
decir a la existencia de zonas, aspectos o procesos de la realidad que sean incognoscibles
absolutamente. Dejando de lado el cientificismo optimista que solo acepta que es cuestión de
tiempo, complejidad o incapacidad tecnológica (momentánea) develar los secretos más
ocultos del universo, la cuestión no es menor y genera, al menos, dos preguntas.

La primera, más general, puede formularse así: ¿es posible establecer algún límite a priori para
la investigación científica, algún aspecto de la realidad que sea intrínsecamente incognoscible?

La segunda pregunta, que va en el mismo sentido, pero más precisa: ¿existe algún límite,
producto de que la ciencia que tenemos es una ciencia humana? La ciencia que tenemos no
solamente está marcada por su génesis social y cultural, sino por el hecho de que tanto el
aparato perceptual como la racionalidad de los humanos es el producto de millones –o al
menos cientos de miles- de años de una evolución particular y contingente.

Los límites éticos

Se parte del supuesto de que no todo lo que es posible realizar desde un punto de vista
tecnocientífico, es correcto desde el punto de vista ético presente o incluso con relación a las
futuras generaciones.

Las utopías cientificistas y los límites de incumbencia

Probablemente, los problemas centrales y más angustiantes de la especie humana no tienen ni


tendrán respuesta definitiva en las ciencias y la tecnología, elementos necesarios pero clara y
definitivamente insuficientes. La desigualdad es un problema político, no biológico.

Límites disciplinares

Quizá una de las características más distintivas de la ciencia que conocemos es la que separa y
compartimenta el conocimiento no solamente en áreas disciplinares delimitadas por objetos
específicos sino también en subgrupos más amplios y variables.

Más allá de la diversidad taxonómica hay al menos tres cuestiones importantes que deben
tenerse en cuenta. La primera cuestión, es que esta división, esta forma de organizar y
producir conocimiento que tiene, en principio, una justificación obvia en la casi infinita
producción de conocimiento y en la creciente especialización, ha generado maravillosos e
inéditos éxitos en la historia de la Humanidad.

La segunda es que las clasificaciones precedentes, fundamentadas en la diversidad de los


objetos de estudio y formas de abordaje, se han naturalizado consolidando la organización
administrativa, académica y cultural de las ciencias actuales a través de un sistema que se
reproduce incesantemente.

La tercera, consecuencia algo paradojal de las anteriores, es que esta forma de organización
exitosa ha ido mostrando con claridad creciente, no ya sus límites –obvios y conocidos-, sino
las limitaciones que tiene para resolver algunos de los dramáticos problemas globales
complejos; debilidades que llevan a esfuerzos (muchas veces estériles) por lograr integraciones
multi, inter y transdisciplinarias.
Clase 9

La maldición de Procusto. Diversidad e integración de los saberes científicos

1. Multiplicidad de saberes y perspectivas

En primer lugar, dejaremos de lado –al menos como decisión metodológica- el problema
metafísico de “la realidad” para centrarnos en lo que los humanos llamamos conocimiento
científico de esa realidad y, sobre todo, de los múltiples modos o perspectivas que ese
conocimiento adquiere. se diferencia entre la ontología del mundo y nuestra gnoseología –es
decir, entre lo que existe y nuestro conocimiento de ello- sin siquiera suponer que el éxito de
nuestras teorías resulte de que reflejan las estructuras del mundo. Después de todo, lo que
podemos conocer y decir es el resultado de que nuestro aparato perceptual e intelectual -
propio y específico de la especie humana- se conformó a través de un proceso evolutivo
particular y contingente a lo largo de millones de años.

segunda consideración- no abordaremos la cuestión de la verdad de nuestras teorías.

Finalmente, también provisoriamente al menos, asumiremos que nuestros conceptos y teorías


científicas son buenas (aunque siempre perfectibles o reemplazables) porque permiten la
construcción de modelos, -por qué no metáforas- o representaciones exitosas de la realidad y
tienen estas características comunes:

● Permiten operar sobre la realidad empírica e incluso, en muchos casos, predecir con una
enorme precisión, y articular explicaciones racionales aceptables.

● Son públicas (es decir no pueden reducirse a experiencias privadas o íntimas) y por tanto
aceptados intersubjetivamente (en principio, por la comunidad de especialistas).

● Dan explicaciones plausibles y racionales (racionalidad compartida e históricamente situada)


sobre los fenómenos observados (lo que podríamos denominar “base empírica”).

● Son consistentes internamente (es decir no afirman “A” y “no A” dentro de un sistema
teórico) y externamente (es decir, no son contradictorias con el resto de las teorías científicas
aceptadas).

● Renuncian a incluir en sus explicaciones y descripciones instancias teológicas, místicas o


sobrenaturales.

2. El mito de la unidad de la ciencia

La unidad de la ciencia: Consiste en atribuir a todas sus manifestaciones particulares


características básicas similares, lo cual permitiría reunirlas en un conjunto homogéneo
denominado “la ciencia”, en singular, más allá de las obvias diferencias disciplinares. Ese
conjunto homogéneo de características también permitiría diferenciarla clara y tajantemente
de otros saberes, discursos y prácticas humanas como por ejemplo las llamadas
“pseudociencias”, la literatura, el saber vulgar, la religión, la magia, la moda, etc. De hecho, el
uso de la expresión “la ciencia” en el lenguaje vulgar, en la comunicación pública de la ciencia
y, sobre todo entre los propios científicos es generalizado.

3. Reduccionismo y emergentismo: dos estrategias de abordaje de la realidad


Se ha dicho que para los reduccionistas la causa de cada nivel radica en las condiciones del
nivel más bajo (causalidad ascendente); por el contrario para los emergentistas podrían darse
casos en los que niveles superiores funcionen como causa de procesos que se dan en niveles
inferiores (causalidad descendente), por ejemplo si la acción humana modificase el curso de la
evolución biológica.

se puede caracterizar el reduccionismo como la estrategia que supone que lo que ocurre en los
niveles 2 y 3 puede explicarse adecuadamente en términos, conceptos o teorías de algún nivel
más bajo. Por ejemplo cuando se quieren explicar fenómenos biológicos a partir de sus
componentes físico-químicos, o fenómenos sociales en términos biológicos. En una fórmula un
tanto simplista pero ilustrativa: el “todo es igual a la suma de las partes”.

El otro principio, opuesto al reduccionismo, es el emergentismo que, según una fórmula


simplificada paralela a la anterior, supone que “el todo es más que la suma de las partes”.
Según este punto de vista, cada nivel de organización del cuadro precedente introduce
verdaderas novedades con respecto al nivel inferior.

La crítica reduccionista más fuerte al emergentismo no radica tanto en negar la existencia de


novedades en lo real, sino más bien en considerar que el estatuto de novedad sobreviene de la
ignorancia actual. De modo tal que se reconoce que se trataría de un emergentismo
gnoseológico que no sería más que una ilusión engañosa de nuestra insuficiente capacidad
cognoscitiva: la emergencia no sería una propiedad de los objetos, estados o procesos, sino de
los conceptos y leyes disponibles actualmente. En una apretada fórmula, según este modo de
ver: si conociéramos todo lo que hay que conocer sobre algún fenómeno seríamos
reduccionistas y abandonaríamos el emergentismo.

En el origen de las ciencias sociales hay un giro emergentista, consistente en considerar,


justamente, que los fenómenos sociales son emergentes con relación a los estados de los
individuos particulares tomados aisladamente.

Como quiera que sea, ni el principio reduccionista ni el emergentista pueden aceptarse o


descalificarse a priori y, por lo tanto, mucho menos elevarlos a práctica científica universal.
Ambos pueden conducir a éxitos formidables de la razón humana, pero también a dejar sin
explicación adecuada fenómenos multifacéticos (el primero) y a postular cualidades
misteriosas inexistentes o a quedarse en meras especulaciones (el segundo).

Emergencia de los fenómenos biológicos o por qué la biología no puede reducirse a la física

Hay una enorme cantidad de procesos biológicos emergentes con relación a los componentes
fisicoquímicos.

En primer lugar, la complejidad de los sistemas biológicos estructurados jerárquicamente


(macromoléculas, genes, células, organismos pluricelulares, poblaciones, especies) con
propiedades emergentes en cada nivel de organización e integración. En segundo lugar, los
sistemas biológicos son abiertos y por eso no aplican allí (al menos parcial y
momentáneamente) los principios de la entropía de la segunda ley de la termodinámica.

Otro proceso específico que funciona en el mundo viviente y no en el inanimado es el de la


evolución.

En resumen, los seres vivos presentan características completamente ausentes en el mundo


inanimado: reproducción, metabolismo, replicación, regulación, crecimiento adaptación,
evolución y organización jerárquica, procesos de autoregulación.

Emergencia de los fenómenos sociales o por qué las ciencias sociales no pueden reducirse a
la biología

Ejemplos de intentos de reduccionismos biológicos son la frenología o la teoría Lombrosiana


del “criminal nato”.

La continuidad entre animales y humanos, perfectamente probada en las ciencias biológicas,


no debe hacer perder de vista que también hay profundas discontinuidades que no radican,
que quede absolutamente claro, en ninguna naturaleza especial ni sagrada, sino que son el
resultado de la evolución, pero cuyas consecuencias supervienen o emergen de su origen
evolutivo

Tampoco hay que olvidar que las conductas humanas (al menos las más significativas y
relevantes) son intencionales, obedecen a propósitos, intereses y valores imposibles de
explicar en otros niveles.

En la misma línea, otra característica que no se encuentra ni en los sistemas físicos ni en los
sistemas meramente biológicos es el rol fundamental de lo simbólico y, sobre todo del
lenguaje, en las agrupaciones humanas. Aunque pueda argumentarse que la comunicación (no
verbal) es una característica que se encuentra en otras especies animales y que la diferencia
con el homo sapiens es de grado, la diferencia que hace el lenguaje abstracto y conceptual es
fundamental.

Quizá valga la pena insistir en algo obvio: no es que los humanos y sus productos no se rijan o
no estén sujetos a las legalidades física, biológicas o psicológicas, sino que simplemente esas
perspectivas son o bien insuficientes o bien irrelevantes (o en el mejor de los casos subsidiarias
o complementarias) para dar cuenta de lo social.

Un elemento no siempre tenido en cuenta para marcar las especificidades de lo social es el


rango temporal en que transcurre. Las ciencias sociales explican procesos que, a lo sumo,
pueden darse en unos pocos miles de años (como los históricos o antropológicos de largo
plazo), pero en general lo hacen de aquellos que no van más allá de algunas décadas o cientos
de años.

Respecto a las líneas de estudio tales como los programas relativista y constructivista, los
estudios etnometodológicos y la retórica de la ciencia: Estas posturas tienen algunos
inconvenientes, principalmente dos. En primer lugar, no es que sus estudios sobre los
determinantes sociales en la ciencia sean inadecuados o falsos sino que toman la parte por el
todo, descuidando – o al menos sin poder explicar adecuadamente- el problema
epistemológico de la relación ciencia-realidad. En segundo lugar, al asimilar la práctica
científica a otras prácticas culturales –lo cual es perfectamente razonable e interesante-
pierden de vista lo que las ciencias tienen de específico, de cierta autonomía que surge de su
propia práctica y de sus objetivos.

De las disciplinas a los problemas: los estudios inter, multi y transdisciplinarios

Cuatro características definen, a grandes rasgos, la organización y el estado del conocimiento


científico en la actualidad. En primer lugar la disciplinariedad por objetos: se basan en los
distintos tipos de objetos estudiados. En segundo lugar, hay un crecimiento exponencial del
volumen de la información y conocimiento disponibles. En tercer lugar, hay una tendencia,
también creciente, a la especialización y aun a la ultraespecialización. Finalmente, la
inconmensurabilidad parcial entre áreas disciplinares derivada de los distintos tipos de
formación académica, las perspectivas y métodos o enfoques diferentes, la diversidad del
lenguaje, arsenal conceptual y marcos teóricos utilizados.

La cuarta deriva solo en parte de las anteriores y es la causa de una dificultad comunicacional y
conceptual severa consistente en que el parcelamiento de los saberes no se resuelve volviendo
a sumar lo que se ha dividido, porque, justamente hay una inconmensurabilidad fundacional
derivada de que los científicos se forman académica, profesional y culturalmente a través de
diferentes lenguajes, metáforas y registros discursivos; pero también en diferentes
perspectivas de abordaje de la realidad, metodologías y formas de validar, describir y aceptar
“verdades”.

La multidisciplinariedad resulta de la mera suma de perspectivas diferentes sobre un mismo


problema determinado y, en este sentido, constituiría el nivel más bajo de integración. Son los
equipos más fáciles de armar porque se trata de una mera adición, en los que sólo hay
circulación de información consolidada disciplinarmente y en los cuales las decisiones teóricas
y prácticas no suelen contemplar todas las posiciones.

Respecto a la interdisciplinariedad, su éxito en cuanto a integración va a depender de la


separación previa entre áreas y del grado de inconmensurabilidad (suele ser más fácil integrar
disciplinas afines).

En la actualidad, hay dos formas principales de concebir la transdisciplinariedad. La primera,


como un estilo integrado de investigación sobre núcleos problemáticos (Mittelstrass 2003) y
más allá, obviamente, de sectores epistémicos delimitados en la tradición. La segunda como
un principio para la unidad del conocimiento.

Multiplicidad de saberes y perspectivas

Los problemas actuales (superpoblación, conflictos armados, la degradación del medio


ambiente natural) requieren múltiples miradas. Pero, ¿Cómo reorganizar la ciencia cuando ya
hay carreras académicas, laboratorios, etc. según ópticas disciplinares más o menos rígidas?
Por otro lado, puede que la fragmentación y el análisis sea la única forma que tenemos los
seres humanos para aumentar el conocimiento, y de esta manera el ideal interdisciplinario no
sea alcanzable.

Clase 10

Reconsideraciones sobre el problema del lenguaje: metáforas en las ciencias

Según la imagen estándar, las ciencias se relacionan con el lenguaje referencialmente riguroso,
formalizado, pautado y controlado, mientras que la literatura o la retórica, por su parte, se
vinculan con la creatividad, la asociación libre, la falta de límites lógicos y formales, lo intuitivo
y sugerente.

Hay consideraciones de sobra para sospechar que las metáforas que utilizan los científicos (al
menos una gran cantidad de ellas) dicen algo por sí, y no como meras subsidiarias de otras
expresiones consideradas literales y, por tanto, tendrían funciones cognoscitivas y epistémicas
legítimas e insustituibles.

Al menos tres argumentos avalan este punto de vista.

 En primer lugar la ubicuidad de la metáfora tanto en la ciencia del pasado como en la


actualidad. Su presencia parece ser la regla y no la excepción, de modo que
difícilmente pueda tratarse solo de un expediente meramente, heurístico o retórico.
 En segundo lugar, las expresiones metafóricas no son sustitutos o paráfrasis de otras
expresiones literales y más esotéricas que los científicos usarían entre pares o entre
entendidos, lo cual ameritaría asegurar su carácter metafórico sino, por el contrario, la
única y habitual forma en la que expresan sus teorías y conceptos.
 En tercer lugar, las consecuencias teóricas y prácticas de las metáforas son parte del
corpus teórico al cual pertenecen, al modo de los teoremas de un sistema axiomático.

Pero la revalorización de la función epistémica y cognoscitiva de las metáforas no es una


cuestión de detalle, sino que interpela al menos cuatro campos de problemas diferentes: al
concepto mismo de metáfora; a la tradición epistemológica estándar y a sus herejías
posmodernas como los estudios sociales de la ciencia; a la historia de las ciencias y a las
ciencias biológicas y cognitivas.

1. Epistemología de las metáforas científicas

La metáfora no sustituye a una expresión considerada literal, no es una mera paráfrasis de otra
expresión, sino que introduce una novedad semántica.

Comprender una metáfora no sería descifrar un código o hacer una traducción, porque el acto
metafórico, más que dar cuenta de una semejanza o analogía preexistente, crea la semejanza
o analogía. Una metáfora se produce cuando alguien hace converger y pone en intersección
dos planos o universos de discurso ordinariamente separados, por ejemplo la mente y la
computadora. Esta inédita convergencia produce un cambio en la percepción y organización
de los hechos según una nueva lógica producto de la transferencia metafórica, pudiendo
incluso, literalmente, inaugurar nuevos hechos.

La dimensión pragmática resulta fundamental porque determina por qué una expresión
lingüística puede ser interpretada literalmente en un contexto y metafóricamente en otro o
por qué algunas metáforas (científicas o literarias) tienen éxito.
Pero, y aquí radica la gran diferencia con las metáforas literarias o de otro tipo, las ME tienen
su propia historicidad, una suerte de biografía común: rápidamente mueren como metáforas y
se literalizan o, más bien, deberíamos decir que se lexicalizan, es decir comienzan a formar
parte del arsenal lingüístico y conceptual de una teoría. Mientras que las metáforas literarias y
retóricas juegan su razón de ser en mantener la tensión metafórica viva y vigente, las ME, por
el contrario funcionan olvidando su pasado. Aunque siempre se puede reconstruir la
genealogía de una ME (una tarea para la historia de las ciencias), es decir un estudio
diacrónico, su peso epistemológico surge de un análisis sincrónico. Esto tiene, al menos, dos
consecuencias importantes que comportan otras tantas diferencias con las metáforas de otro
tipo: la primera es que la lexicalización ubica a la ME en el mismo campo de cualquier otro
lenguaje, enfrentando los problemas de la verdad, la referencia, el significado y otras
cuestiones epistemológicas (irresueltas); la segunda cuestión es que este análisis resulta un
sinsentido aplicado a las metáforas literarias, porque ellas nunca mueren (perderían su sentido
primordial y se transformarían, simplemente, en afirmaciones falsas o absurdas).

Finalmente, es necesario mencionar que una característica de las ME (también de los modelos
científicos que considero tan solo unas metáforas más pretenciosas y sobre lo cual no me
extenderé aquí) es que por un lado tienen una gran potencia explicativa, permiten una
inmediata comprensión de un fenómeno, relación o área desconocida referenciándola en otras
situaciones ya conocidas e incluso estructuran y configuran de nuevos modos el campo del
saber. Pero, además de este núcleo duro, también poseen bordes difusos (si se me permite la
metáfora) que desvían, complican o entorpecen una cabal comprensión, y que puede derivar
en equívocos o errores de distinta índole al llevarlas más allá de sus posibilidades de aplicación
sin una auditoría epistemológica previa.

2. Las metáforas científicas en la filosofía de las ciencias

Por el lado de la epistemología estándar, las metáforas simplemente no eran tomadas en


cuenta. En las últimas décadas el panorama ha ido cambiando pero en un sentido no del todo
adecuado. Por un lado los estudios sobre la metáfora han desbordado el ámbito acotado de las
reflexiones de retóricos y filósofos anteriores y se convirtieron en objeto de estudio de áreas
de la psicología, la sociología, la antropología e incluso la inteligencia artificial.

Y para todos ellos (la epistemología estándar positivista y los relativistas) el uso de metáforas
ha sido visto –sea como dato positivo, sea como dato negativo- como un demérito de la
ciencia, seguramente por no poner el foco en una revalorización de las mismas desde una
óptica diferente.

3. Metáforas en la historia de la ciencia

podría arriesgarse una hipótesis de trabajo según la cual buena parte de los episodios de la
historia de las ciencias pueden considerarse como un tráfico de metáforas disponibles en una
época sobre las cuales la comunidad científica toma decisiones epistémicas de
aceptación/rechazo como respuesta a un conjunto limitado históricamente de preguntas y
problemas científicos.

El concepto de metáfora epistémica (ME) tiene la ventaja de que no refiere a una suerte de
‘módulo’ estándar y uniforme, identificable claramente en los distintos procesos de la historia
de las ciencias, ni una categoría a priori y rígida en la cual encajar esos procesos, sino que
adquiere variadas formas, niveles y alcances. Incluso los originales de esas metáforas
científicas proceden de campos diversos.
En primer lugar, a lo largo de la historia encontramos lo que podríamos denominar “grandes
metáforas”, como el mecanicismo o el evolucionismo (en reversiones históricas,
antropológicas, etc.)

En segundo lugar, las metáforas de interacción entre campos científicos. Por ejemplo, los
conceptos y fórmulas de la física newtoniana fueron extrapolados, con mayor o menor
rigurosidad, meticulosidad y felicidad a la economía y la sociología; el átomo como un sistema
solar en miniatura.

En tercer lugar, las metáforas provenientes de la cultura, que simplemente son obtenidas del
conocimiento común o del imaginario cultural.

Un cuarto tipo de metáforas son las utilizadas en la enseñanza y en la divulgación científica.


Respecto a esto, en primer lugar señalar que, aunque diferentes en muchos respectos, el uso
de esas metáforas contribuye a construir y a reforzar imágenes culturales sobre el mundo y la
ciencia (por ejemplo la idea de progreso lineal, inacabado e incontenible de la ciencia,
fantasías tecnocráticas, la neutralidad de la tecnología, etc.). En segundo lugar llamar la
atención sobre ese tipo particular de metáforas que se usan en la formación de los científicos
como parte de su entrenamiento profesional que, como bien señalara Thomas Kuhn, cumplen
la doble función de formar exhaustivamente en el corpus teórico vigente y de reforzarlo y
defenderlo más que ponerlo a prueba de manera neuróticamente continua.

4. Biología y metáforas

Sin embargo, y aunque está claro que hacemos metáforas todo el tiempo y que ellas se ubican
en todo el espectro cognitivo y comunicacional, no sabemos si esa ubicuidad procede de que
poseamos un mecanismo biológico fundamental que nos haga proclives a conocer a través de
analogías y que sea resultado de la evolución de nuestra especie. ¿Puede explicarse la
creatividad en general y la creatividad científica en particular como un procedimiento
principalmente de tipo analógico/metafórico?

Lakoff y Johnson lejos de la consideración clásica de la metáfora como parte de una función
extraordinaria o periférica del lenguaje, la conciben como un mecanismo rector de “nuestro
funcionamiento cotidiano, hasta los detalles más mundanos”. La tesis más fuerte de Lakoff y
Johnson es que la metáfora no es tan solo una propiedad de ciertos enunciados, sino que se
trata de un mecanismo cognitivo subyacente de nuestra especie.

Clase 11

El episodio de Darwin y Wallace, sirven de ejemplo a los que suelen argumentar que las ideas y
teorías científicas no son más que el resultado o el reflejo de determinaciones sociales.

Más allá de las casualidades y similitudes de las ideas de la época con las ideas de Darwin, en
ciencia no se trata solo de la idea, sino de relacionarla claramente con una amplia base
empírica, comprender su alcance, ubicarla en el contexto más amplio de los saberes acerca de
la naturaleza y vislumbrar sus posibilidades en prospectiva.

El origen de las especies

la teoría darwiniana de la evolución resulta también el punto clave de una revolución cultural y
antropológica y se ubica en el centro de una compleja y extendida trama de consecuencias
extraordinarias, refractaria a cualquier lectura simplista.
Esta polisemia no es artificial sino que responde al tratamiento de una cuestión que adquiere
múltiples dimensiones y que resulta inédita en la historia de la ciencia por sus implicancias
filosóficas y antropológicas. Y esto resulta así porque la teoría de la evolución biológica se
ubica en la trama de los saberes en un punto clave: es una teoría de las ciencias naturales,
pero resulta un fundamento insoslayable para decir algo sobre lo que somos los humanos,
nuestras conductas, nuestra forma de organizarnos y, sobre todo sobre nuestra
autoconciencia.

El evolucionismo (social)

Es bastante corriente el error de suponer que el evolucionismo social decimonónico era


simplemente la adaptación de las ideas del evolucionismo biológico, especialmente de Darwin,
al estudio de las instituciones sociales y al decurso de las culturas. Una muestra obvia de este
error es que las obras principales que contribuyeron a consolidar la idea del evolucionismo
social son anteriores a la publicación de la teoría de Darwin en 1859, incluso algunas obras que
aparecieron poco después, claramente no abrevan en la evolución biológica y son resultado de
estudios anteriores e independientes.

Sea como el desarrollo de la razón, como el pasaje por los tres estadios (religioso, metafísico y
positivo) sea como la lucha de clases a través de distintos modos de producción donde
subsisten explotadores y explotados, la metáfora evolucionista aparece por detrás de distintas
ramas del saber y no solo en teorías estrictamente filosóficas o sociológicas en los estudios de
la estructura y funcionamiento de la sociedad contemporánea, sino también en los abordajes
de las culturas pasadas, y sobre todo para explicar la relación contemporánea entre las
distintas culturas.

Ahora bien, más allá de la heterogeneidad de detalles autores y áreas disciplinares que han
echado mano de la metáfora evolucionista para explicar el funcionamiento de las sociedades
humanas, algunos rasgos constantes subyacen para todos ellos:

1. El cambio es direccional y se da en una secuencia determinada, aunque, obviamente,


ninguno de los autores evolucionistas establece plazos para esos cambios.
2. Se identifican las etapas o periodos que se postulan a priori como indicadores de esa
misma evolución. Pero esta sucesión no es un mero agregado o mero cambio sino que
cada etapa contiene elementos que explican las características y la aparición misma de
etapas posteriores.
3. El cambio obedece a leyes naturales y, en ese sentido es inmanente. Es decir que no
hay ninguna invocación a agentes trascendentes o, al menos, transita todo por una
explicación secularizada.
4. El cambio es continuo, no en el sentido de omnipresente o constante, sino como una
gradación de pasos dentro de una serie única en un orden genealógico y no
meramente estructural o taxonómico.

La teoría darwiniana de la evolución

La teoría darwiniana de la evolución biológica difiere sustancialmente de la evolución social


más allá de compartir algunos aspectos generales como el cambio, y el carácter natural e
inmanente de los procesos. La matriz evolucionista darwiniana elimina –al menos en principio-
la idea de progreso, direccionalidad y pasos predeterminados en el desarrollo del mundo
natural y con ello toda una milenaria concepción teleológica de la naturaleza.
En la biología darwiniana, evolución es la adaptación a ambientes cambiantes, no progreso.
Además Darwin propone que la propia existencia de la Humanidad es aleatoria en la historia
de la vida en el planeta. Estos aspectos referidos al contenido mismo de la teoría, más el
fundamental hecho de que Darwin inaugura, definitivamente, un modo de proceder que
rehúsa la apelación a causas sobrenaturales para explicar la existencia misma de la diversidad y
de la especie humana, nos enfrenta con las consecuencias antropológicas fundamentales de la
teoría de la evolución.

Evolución y pensamiento teleológico en la biología

Puede afirmarse que la consecuencia científica, filosófica e ideológica del darwinismo ha sido
la superación, en el mundo de lo viviente, del pensamiento teleológico, es decir de la idea
según la cual todos los procesos del mundo y el mundo mismo tienden a cumplir con una
finalidad que le es propia y natural, una meta final.

La teoría de la evolución, y justamente por las características que se acaban de describir, es


incapaz de predecir, en un sentido relevante, el futuro de las distintas especies o familias de
especies y este ha sido el objeto de una crítica, ilegítima desde luego, a su cientificidad. En
segundo lugar, la escala temporal de la evolución se mide en cientos de miles o millones de
años, de modo que cualquier transformación humana en los tiempos culturales –digamos en el
orden de los cientos de años- de ningún modo puede esperar explicaciones en los tiempos
biológicos. Otra cuestión, no menor pero en general no tenida en cuenta, de las diferencias
entre evolucionismo biológico y evolucionismo social, es que la teoría de Darwin rompió con la
concepción de especie habitualmente llamada tipológica (o esencialista) para constituirse en
una concepción estadística o, más propiamente, poblacional.

El problema es bien profundo, pues la biología evolucionista, a partir de Darwin, vino a ocupar
por su propia índole teórica, un área de intersección entre las llamadas ciencias naturales, en
el sentido más estricto, y las ciencias sociales. Esta doble pertenencia de los saberes biológicos
se manifiesta en las conexiones directas o indirectas (reales, imaginarias, ideológicas o
potenciales) que los trabajos en muchas áreas de la biología establecen con las condiciones
sociales de producción, legitimación, reproducción y circulación del conocimiento y con las
prácticas y puesta en marcha de tecnologías sociales.

Clase 12

“Hay grandeza en esta concepción de que la vida, con sus diversas facultades, fue
originalmente alentada por el Creador en unas pocas formas o en una sola; y que, mientras
este planeta ha ido girando según la ley constante de la gravitación, a partir de un comienzo
tan sencillo se desarrollaron y están evolucionando infinitas formas, cada vez más bellas y
maravillosas” (Darwin, 1859 [2004, p. 480])

A menudo se ha interpretado este párrafo como una concesión de Darwin a un contexto


cultural e ideológico adverso, porque la primera frase parece conciliar evolución y creación. Sin
embargo, hay una mejor razón teórica y epistemológica: la teoría de la evolución articula dos
preguntas o problemas donde antes había sólo uno. La versión creacionista/fijista daba cuenta
tanto de la creación, por parte de dios, de la vida así como también de la diversidad. La teoría
darwiniana no dice nada acerca del origen de la vida y responde solo a la pregunta por el
origen de la diversidad. No obstante, Darwin esboza sin desarrollar la hipótesis del origen
natural de lo viviente a partir de lo no-viviente.
el argumento del DI, es completamente trivial y, en todo caso, sería solo una vaga hipótesis
para afirmar que, dado que en el mundo hay un cierto orden, es posible que el mismo surja de
algún diseñador inteligente. Se trataría de una “falacia de apelación a la ignorancia”, es decir
concluir algo sobre el desconocimiento de otra cosa; en términos algo más suaves puede
decirse que hay una suerte de sobre inferencia, es decir obtener una conclusión con elementos
completamente insuficientes. Podemos considerarla poco interesante, porque al no explicar
nada de lo contingente es inútil para seguir indagando.

Respecto a la justificación de cómo puede haber sistemas complejos, Según Thornhill & Ussery
(2000), por ejemplo, hay cuatro maneras en que se dan los cambios: en primer lugar por
acumulación serial directa (acumulación de pequeños cambios a través de las generaciones),
en segundo lugar por evolución paralela directa (modificaciones que ocurren en dos
componentes y que juntos adquieren una funcionalidad ventajosa o mayor), en tercer lugar
por eliminación de la redundancia (cuando hay una mutación en algún elemento del sistema y
pasan a tener otra función, otros que eran parte del sistema pierden su utilidad y puede que
terminen eliminándose), de modo que el análisis de la funcionalidad en una etapa posterior no
se puede comprender si no es tomando en consideración los elementos desaparecidos) y por
último por adopción de una función diferente (sistemas producidos por cualquiera de los
modos anteriores y que, en algún momento determinado, pasan a cumplir una función
diferente de la original).

Pero, además de este tipo de explicaciones, referidas básicamente a la selección natural,


algunos biólogos como por ejemplo Stuart Kauffman (1993), investigan la posibilidad de cómo
los sistemas biológicos complejos se puedan "auto-organizar" a partir de componentes
sencillos. Esto podría ser una clave para el origen de la vida.

Para explicar la tendencia a la organización compleja, “es necesario sostener una posición de
principios irreductible en favor de un programa naturalista de investigación y renunciar a
cualquier recurso a lo sobrenatural.”

Algunas consideraciones epistemológicas

Las críticas de los DDI/creacionistas a la teoría de la evolución, se basan principalmente en tres


argumentos (aislados o combinados entre sí): señalar que es “sólo”una teoría; remarcar la
ausencia de pruebas a favor y exacerbar los debates internos de la biología evolucionista como
prueba de debilidad de la teoría.

Respecto a la ausencia de pruebas, hay evidencias anatómico/funcionales que confirman la


relación existente entre estructuras, y, por tanto el origen común, como por ejemplo la
estructura ósea de los miembros superiores de los mamíferos que cumplen, sin embargo,
funciones diferentes (el ejemplo clásico del ala del murciélago, la aleta de la ballena y el brazo
humano). También hay evidencias anatómicas (series anatómicas de estructuras, sistemas,
aparatos y órganos; homologías entre estructuras y órganos; analogías entre estructuras y
órganos; estructuras y órganos rudimentarios o vestigiales y estructuras y órganos atávicos).
Existen también evidencias taxonómicas y de la embriología comparada. A nivel molecular
todos los organismos comparten las mismas relaciones entre la secuencia de ADN y la
estructura de los aminoácidos, cuyo conjunto y proporción están condicionados por el ADN.
También existe la evidencia de los fósiles que permite fechar y por tanto establecer secuencias
de organismos que cambian sus formas a medida que se acercan al presente y a formas
conocidas. El esquema de descendencia es coherente con el esquema de relación que indica la
comparación fisiológica.
Respecto al “eslabón perdido”: Esta equívoca relación entre primates y humanos aún persiste
en el recurrente uso de ilustraciones que muestran una serie de figuras que van desde un
mono (chimpancé generalmente) hasta una figura de hombre moderno pasando por varias
figuras intermedias (un mono que se va irguiendo) y que sugiere una evolución lineal y, sobre
todo progresiva, entre monos y hombres. El affaire del “hombre de Piltdown”, un cráneo
falsamente considerado ese eslabón perdido fue una de las consecuencias tragicómicas de esa
idea.

El estatus de la discusión, sistema educativo y comunicación pública de la ciencia

para finalizar, diré una vez más que se trata del intento de grupos religiosos de ganar, y en
algunos casos mantener, la presencia en el sistema educativo y en la opinión pública. Los
DDI/creacionistas intentar sostener un debate que del otro lado no tiene interlocutor, porque
los científicos y especialistas (salvo excepciones) no intervienen por no reconocerle
legitimidad. Los científicos suelen ignorarlos incluyéndolos en ese difuso conjunto que
apresuradamente denominan “pseudociencia”. Aunque queda claro que el DI/creacionismo no
reúne requisitos mínimos de cientificidad, no se trata a mi juicio, de un expediente adecuado
por varias razones: porque tal descalificación sólo desnuda una concepción epistemológica e
ingenuamente aristocrática y refiere más que nada al poder simbólico y real de la ciencia para
administrar socialmente los discursos; porque no hay (ni puede haberla) una definición
unívoca a priori sobre la racionalidad y la cientificidad; porque una caracterización
sociohistórica sobre la cientificidad de algunas posiciones está sujeta a la relatividad y
provisoriedad del caso; finalmente, y sobre todo, porque descalificar al interlocutor mediante
estas categorías más que discutibles no descalifica a sus argumentos. Al mismo tiempo, este
ausentamiento legitima, por omisión, la presencia en el espacio público (incluido el sistema
educativo) de una disputa artificial. Por ello, los científicos y especialistas, si reconocen su
responsabilidad en esos espacios, enfrentan el dilema ético-político de intervenir o no en el
debate, aunque éste sea desde el punto de vista teórico, completamente estéril.

Clase 13

La eugenesia

La eugenesia moderna posee dos requisitos de los que carecían las prácticas de selección
artificial antiguas: el fundamento científico de sus premisas básicas y la implementación de
políticas y programas de gobierno dirigidos al mejoramiento de ciertos grupos humanos a
través de promover la reproducción diferencial.

Sir Francis Galton definió a la eugenesia como la ciencia que trata de todas las influencias que
mejoran las cualidades innatas, o materia prima, de una raza y aquellas que la pueden
desarrollar hasta alcanzar la máxima superioridad.

La eugenesia clásica

La propuesta de Galton, en suma, consiste en favorecer la reproducción de determinados


individuos o grupos humanos considerados mejores e inhibir la reproducción de otros grupos o
individuos considerados inferiores o indeseables, con el objetivo de mejorar la raza/ la
especie/ el grupo y pueden resumirse sus postulados básicos de la siguiente manera:

1. las diferencias entre los individuos están determinadas hereditariamente y sólo en una
pequeña medida dependen del medio;
2. la selección natural (mecanismo fundamental por el cual, según la teoría darwiniana, se
produce la evolución de las especies) produce la eliminación de los inferiores, débiles e
incapaces, es decir los menos aptos

3. las condiciones modernas (medicina, planes de asistencia, las condiciones “cómodas” de la


vida moderna, etc.) tienden a impedir la influencia selectiva de la muerte de los menos aptos;
a partir de (3) se ha iniciado un deterioro, una degeneración en la especie humana que
continuará

4. a menos que se proceda a implementar una selección artificial (en lugar de la selección
natural ineficaz) que pueda contrarrestarla.

Eugenesia positiva y eugenesia negativa

La eugenesia negativa refiere al intento de eliminar o disminuir la frecuencia de alelos que se


juzgan perjudiciales o deletéreos para el ser humano o al menos para alguna población
particular. La eugenesia positiva, por su lado, estará definida por la implementación de
prácticas y políticas que tienen como objetivo incidir evolutivamente y se asienta sobre la
promoción de la reproducción de ciertos individuos, portadores de caracteres reconocidos
como deseables, bajo la intención de generar así un fenómeno de reproducción diferencial.

La eugenesia en el mundo

 Formulaciones de Galton (1860s)


 Eugenesia clásica (1907-1939)
 Luego de la Segunda Guerra, se pasa a propuestas más restringidas.
 En los últimos años, se dio una “eugenesia liberal” según Habermas. Creciente
desarrollo de tecnologías asociadas a la reproducción humana, sobre todo el
diagnóstico preimplantatorio. Más adelante se agrega el CRISPR.

Las tecnologías biomédicas y sociales asociadas a la eugenesia

Hay una batería de prácticas y tecnologías biomédicas y sociales típicas asociadas a la


eugenesia: el certificado médico prenupcial, control diferencial de la natalidad, esterilización
de determinados grupos (débiles mentales y/o criminales por ejemplo), aborto eugenésico,
restricciones o control de la inmigración.

Un argumento que se esgrimía contra las formas cruentas de restringir la reproducción, es


decir contra el aborto eugenésico y la castración, sostenía que se corría el riesgo de eliminar o
impedir el nacimiento de un genio. Los contraargumentos de los eugenistas son de dos tipos.
Por un lado se considera que las probabilidades son muy escasas y no vale la pena el sacrificio
a que la sociedad se ve sometida y por otro se esgrimen argumentos estadísticos -de dudosa
fiabilidad- sobre la bajísima probabilidad de que nazcan individuos geniales de padres
deficientes.

La eugenesia en Argentina

Había un reclamo fundamental y creciente en pos de la prevención, lo cual otorgaba al médico


una injerencia fundamental sobre la reproducción y sobre las prácticas sexuales, y para el caso
de los inmigrantes un reclamo sobre las restricciones a la entrada al país.

En la Argentina aunque había consenso entre las élites acerca de generar una raza de calidad
según un proyecto hegemónico sobre la necesidad de construir una nacionalidad argentina.
Pero la composición étnica sumamente heterogénea fue dando características propias y
diferenciales al movimiento eugenista con relación al problema de la raza. En efecto, uno de
los argumentos más esgrimidos por los racialistas -el de las razas puras- chocaba contra la
heterogeneidad de orígenes de la población argentina (inmigrantes de diverso origen, criollos y
algunas pocas poblaciones indígenas sobrevivientes de la persecución de la última parte del
siglo XIX), por lo que muchos discutían sobre la superioridad o calidad racial que se obtendría
de una buena mezcla, restando tan sólo establecer cuál era la más adecuada.

Las tecnologías eugenésicas

Las propuestas de los eugenistas argentinos no difieren demasiado del resto, pero también se
agregan algunos elementos relativamente novedosos. El primero refiere a que los aspectos
ambientales, entre ellos clara y fundamentalmente la educación, son importantes porque
pueden torcer el destino de degeneración de algunos individuos.

Vislumbraban a la educación, ya universal para esa época en la Argentina, como el ámbito de


intervención por excelencia, en primer lugar por considerarla como un instrumento clave para
formar la conciencia eugénica mediante la educación sexual basada en la responsabilidad
reproductiva dirigida a los jóvenes de distintos sectores sociales, pero también y
fundamentalmente, para poder clasificar a los “diversos tipos escolares y la manera de obtener
un provecho mayor del educando no pudiendo ser la acción cultural uniforme sino bajo ciertos
principios que exigen la adecuada aplicación a cada caso particular”

La fuerte creencia en que la educación, como instancia que permitiría adaptar a las masas a las
condiciones de producción existentes y darle cohesión a una población cuya diversidad estaba
dada por la fuerte inmigración europea propia de la época, se potenciaba en los miembros de
la AABEMS, al entender que tenían en sus manos, gracias a los aportes de la Biotipología, una
excelente herramienta para dar tratamiento a la diversidad, para evitar las amenazas que
representaban para estos intelectuales y políticos conservadores y nacionalistas el avance del
anarquismo y el comunismo.

Eugenesia y criminología

Los eugenistas también colaboraron con los criminólogos en el campo de la medicina legal.
Seguidores de la caracterización anatómica que realizara Lombroso de las tipologías de los
delincuentes, los criminólogos requerían de los servicios de los médicos en calidad de peritos
para la identificación de los individuos peligrosos que debían excluirse del cuerpo social. Si bien
la escuela lombrosiana fue ampliándose e introduciendo modificaciones sustanciales a las
formulaciones iniciales, inauguró un modelo de conceptualización y de detección de los
delincuentes que ha perdurado durante décadas, basado en la idea de que la criminalidad se
refleja en alguna conformación particular de lo orgánico.

La biotipología, y más allá de las disputas sobre los rasgos atávicos, en líneas generales apunta
a completar y a hacer más complejos y exhaustivos los análisis lombrosianos iniciales.

El fiscal que acusó a Simón Radowitzky (1891-1956), que había asesinado al jefe de policía
Ramón L. Falcón (1855-1909) en 1909, aseguraba en su alegato: “(…) sus caracteres
morfológicos acusan, bien acentuados, todos los estigmas del criminal. Desarrollo excesivo de
la mandíbula inferior, preeminencia de los arcos zigomáticos y superciliares, depresión de la
frente, mirada torva, ligera asimetría facial, constituyen los caracteres somáticos que acusan
en Radowitzky el tipo del delincuente.”
Eugenesia y restricciones a la inmigración

Se preferían ciertas nacionalidades por sobre otras. Era más bien preferible la inmigración
suiza, alemana, francesa, en detrimento de la inmigración rusa o turca, por asociarlos al
crimen.

Clase 14

Los tipos de reacciones son básicamente tres: los espíritus cientificistas tecnocráticos e
individualistas fantasean alegre y frívolamente –no sin el acicate de empresas con intereses
económicos- sobre la posibilidad de diseñar “hijos a medida” o “programados”; no faltan
prudentes bienintencionados que pontifican sobre la imperiosa necesidad de imponer barreras
éticas entre lo que podemos hacer (tecnológicamente) y lo que debemos (o no debemos)
hacer, como si ello fuera suficiente para delimitar el poder arrasador del mercado cuando hay
un negocio importante a la vista o la imparable actividad científica; finalmente, y sobre todo
provenientes de sectores conservadores que se oponen a toda manipulación e intervención
sobre la descendencia humana, algunos alarmistas y conspirogénicos encuentran forzadas
similitudes con el programa eugenésico de primera mitad del siglo XX, aunque ahora bajo la
denominación de eugenesia liberal.

Los diagnósticos preimplantatorios

Se trata de técnicas que permiten analizar las condiciones cromosómicas y ciertas


características genéticas en embriones obtenidos por fecundación in vitro antes de realizar la
transferencia al útero, evitando abortos espontáneos por ejemplo o alteraciones
cromosómicas graves. Como antes de esta transferencia se realiza la selección de los
embriones que no porten ciertas anomalías, algunos ven en este procedimiento un tipo de
nueva eugenesia.

CRISPR (clustered regularly interspaced palindromic repeats)

Pero en los últimos tiempos ha cobrado notoriedad una nueva tecnología denominada
inicialmente CRISPR-Cas9, que permite la edición genómica, es decir cortar la cadena de ADN
con precisión en un sector deseado y volver a unir eliminando lo cortado o introduciendo un
nuevo gen.

Entre el DPI y CRISPR hay algunas semejanzas básicas y unas diferencias fundamentales. En
primer lugar hay claramente un proceso de selección artificial, es decir realizada por actores
humanos intencionadamente y con objetivos precisos a diferencia de la selección natural, uno
de los mecanismos básicos de la evolución biológica. En el caso de DPI se seleccionan
embriones y en el caso de CRISPR se eliminan o sustituyen genes para evitar que se
reproduzcan en la generación siguiente.

Sin embargo, hay una diferencia conceptual fundamental entre DPI y CRISPR. El primero
permite seleccionar sobre “lo que hay” es decir sobre embriones que se fertilizan
artificialmente pero sobre los que no se puede hacer más que esperar, diagnosticar y descartar
algunos y transferir al útero el resto. Es tan solo una técnica de diagnóstico. En cambio CRISPR,
cuando se opera sobre las células germinales, permite modificar el ADN de la generación
siguiente y de las futuras.

Vale la pena aclarar que buena parte del marketing y el imaginario social acerca de la genética,
y más allá de las tecnologías de que se pueda disponer, se basa en un error muy común que
consiste en pensar que existe una relación biunívoca, detectable y manipulable “un gen-un
rasgo”, y sólo habría que esperar su identificación precisa específica.

El fantasma de la eugenesia

Atribuir carácter eugenésico al uso de los DPI o CRISPR implica definir a la eugenesia
meramente por su carácter selectivo, como lo hace por ejemplo D. Soutullo para quien se trata
de: “toda intervención, individual o colectiva, encaminada a la modificación de las
características genéticas de la descendencia, independientemente de la finalidad, terapéutica
o social, que persiga”7. En los casos actuales se trataría de una eugenesia “liberal” porque las
decisiones sobre la descendencia son tomadas por los padres y no por ninguna institución ni
por el Estado. Pero cabe preguntarse, más allá de lo que se piense sobre estas nuevas
tecnologías y sus consecuencias –tema sobre el que volveremos más adelante- si este
fenómeno nuevo es similar en algún sentido significativo a lo que ocurrió en la primera mitad
del siglo XX.

La eugenesia clásica se caracteriza por: El objetivo final siempre es incidir evolutivamente, es


decir modificar la composición promedio de la población para lo cual las acciones individuales
son sólo medios. El segundo aspecto que caracteriza a la eugenesia clásica fue que se ha
llevado a cabo mediante la implementación de políticas e instituciones públicas, como ya se ha
visto. En tercer lugar, como derivación de los anteriores, si bien la eugenesia también ha
desarrollado profusas campañas de concientización y educación, se ha caracterizado por ser
autoritaria y ejercerse de modo coactivo.

Como quiera que sea, la llamada “eugenesia liberal”, es un fenómeno cualitativa y


esencialmente diferente, al menos en los términos generales esbozados hasta aquí, de la
eugenesia clásica, dado que se caracteriza por la privacidad, la voluntariedad y la no
discriminación. No están apuntadas a la discriminación de grupos o sectores de la población.

Finalmente, hay algo en lo que se parecen la eugenesia clásica y la llamada eugenesia liberal: el
optimismo tecnocrático. En efecto, una misma matriz ideológica y cultural permanece
constante y es la confianza excesiva y omnipotente en que los grandes problemas humanos se
resuelven con más y más ciencia y tecnología.

La ética de la eugenesia clásica

Se trata de una ética cientificista-naturalista, y defensora del bienestar de la sociedad por


sobre los individuos como valor supremo.

Resumiendo, la ética básica de los eugenistas podría expresarse en la fórmula: es bueno


intervenir, a través de todos los recursos disponibles en la sociedad implementando políticas
públicas –aún a expensas de los intereses individuales-, para obtener una selección científica
artificial que permita la subsistencia y crecimiento de los considerados como mejores grupos
de individuos y la eliminación paulatina de los elementos considerados decadentes e
inferiores.

La ética en la eugenesia liberal actual

La defensa de la legitimidad de las acciones biomédicas sobre la descendencia se apoya, como


ya se dicho, sobre la base de los derechos individuales, porque, en el fondo, no sería más que
el ejercicio del derecho que tienen los padres de velar por el bienestar de sus hijos y no
difieren mayormente de otras decisiones como por ejemplo la elección del tipo de educación,
valores inculcados, lugar de residencia, etc. que consideran más adecuados. La regla utilizada
sería, simplemente: es correcto utilizar todos los recursos científicos y tecnológicos disponibles
para modificar mi descendencia en el sentido que yo considere mejor o ventajoso.

El problema y los límites de CRISPR

Más allá de que se siga debatiendo, las recomendaciones sobre las condiciones en las que
pueden aplicarse terapias de edición genómica, se basan en el respeto de una serie de
principios conocidos, algunos relacionados con la responsabilidad hacia el paciente, otros más
generales: En primer lugar, promover el bienestar de las personas, lo cual implica que la
edición del genoma humano debe estar destinada a promover la salud y el bienestar (por
ejemplo para eliminar enfermedades) pero minimizando el riesgo cuando se trata de
aplicaciones tempranas cuyas consecuencias no se conocen con certeza y evaluando un
equilibrio razonable entre riesgo y beneficio.

En segundo lugar, respetar el principio de atención debida para los pacientes, es decir llevar
adelante procedimientos planificados y cuidadosos que estén respaldados por pruebas
científicas fuertes.

En tercer lugar, el principio de respeto de las personas, apoyado en la igualdad moral y en el


igual valor de todos. Este respeto implica el respeto por las decisiones individuales, que nadie
puede ser tomado como medio para algún fin particular y el compromiso de no estigmatizar o
desvalorizar la discapacidad.

Cuarto, el principio de transparencia implica el intercambio de información accesible y


comprensible para los interesados: tanto en cuanto a divulgar información lo más exhaustiva y
oportunamente posible cuanto en promover una contribución de la ciudadanía en la
elaboración de políticas relacionadas con el tema.

En quinto lugar, cumplir el principio de ciencia responsable requiere manejarse con los
estándares de investigación (profesionales e internacionales) más altos disponibles en las
distintas etapas de los procedimientos.

Sexto, el principio de equidad, requiere que los beneficios (y los riesgos) sean distribuidos
equitativamente lo cual incluye, obviamente, el acceso equitativo a los beneficios de las
aplicaciones clínicas de la edición genómica.

Finalmente, el principio de la cooperación internacional, que incluye por un lado el respeto a


las diferencias de las particularidades y políticas nacionales (muchas veces incompatibles entre
sí), pero también la colaboración trasnacional de información y datos entre comunidades
científicas y autoridades del área y, en la medida de lo posible la coordinación y
estandarización de marcos y procedimientos regulatorios.

También podría gustarte