Resumen Del Resumen Epistemología
Resumen Del Resumen Epistemología
Resumen Del Resumen Epistemología
Clase 1
La ciencia como producto: la epistemología en ese caso toma el lugar de abordar la estructura
de las teorías y la relación de estas con el mundo que pretenden explicar.
La ciencia como proceso: corresponde al desarrollo de la ciencia a través del tiempo, junto con
los aspectos históricos, sociológicos, culturales, institucionales, económicos, etc. De la ciencia,
y al tipo de relación que pueda establecerse entre ese producto y la actividad misma que lo
produce.
Es de gran importancia, en este sentido, romper con la inercia y producir una reflexión crítica
sobre el papel de la ciencia en nuestras vidas que vaya más allá tanto del asombro ingenuo y
dogmático, que producen algunas formas de divulgación científica, como así también de la
denostación de la ciencia y la tecnología por parte de posiciones ecologicistas y otros
fundamentalismos.
Mitos epistemológicos
La idea de una filosofía de las ciencias general, como campo que puede dar cuenta del
fenómeno llamado ciencia. Hay problemas y soluciones generales para todos los
campos de la ciencia, lo que se basa en el mito de la ciencia unificada y la unidad
metodológica.
Concebir a la ciencia como un conjunto de enunciados, algunos de ellos con referencia
empírica directa, constituidos por un lenguaje neutro, descriptivo y meramente
informativo.
Concebir a la ciencia como un producto (el discurso científico). Ignorar la cuestión
histórica que llevó a ese producto. (contexto de descubrimiento vs contexto de
justificación)
Concebir a la ciencia como el resultado de aplicar el método científico.
El abordaje de la ciencia como aproblemático y ahistórico. La confianza tecnocrática
desmedida: todos los problemas actuales son más bien cuestión de tiempo. Si se hace
mención a la historia de la ciencia en la literatura científica es más bien para resaltar el
conocimiento acumulativo o para denostar a esos pobres antiguos que no sabían nada.
La “ciencia martillo”: los problemas que pueda traer la ciencia se dan por una mala
aplicación, los objetos tecnológicos son neutros.
Se vio la necesidad de construir una filosofía de la ciencia precisa, empírica y que recurriera a
la lógica como método de investigación de manera semejante a lo que hace la física con la
matemática. Una filosofía de la ciencia que se pareciera a la ciencia.
Giro lingüistico: basándose en el supuesto de que el conocimiento era un reflejo fiel y neutral
de lo conocido, preconizaba el estudio del lenguaje en el que se describe la realidad como la
forma más objetiva e intersubjetiva del conocimiento. Para la filosofía analítica, los problemas
filosóficos son problemas lingüísticos en el fondo.
Hacia fines del siglo XIX y principios del XX la relación S⇒O ya no es directa sino que, giro
lingüístico mediante, el lenguaje resulta la mediación única e insoslayable entre S y O, (S=L⇒O
en nuestro esquema). O sea que la relación entre el sujeto y el objeto de conocimiento está
mediada por el lenguaje.
Prestando atención a los aspectos pragmáticos del lenguaje, se llegó a la conclusión de que el
lenguaje siempre deja su impronta en el objeto conocido. El lenguaje es como un vidrio
translúcido, que permite captar lo que hay del otro lado pero dándole su propio formato.
Pretendía una formulación canónica que toda teoría pretendidamente científica debía
satisfacer. Cualquier teoría se debía construir en base a esos cánones. Esta es la utilidad que
pretendía la filosofía de la ciencia.
Características de la CH:
La concepción científica del mundo sólo reconoce oraciones de la experiencia sobre objetos de
todo tipo, y oraciones analíticas de la lógica y de la matemática.
Se expresan claramente con relación al papel que debe tener, para ellos, la filosofía: no
desarrollar tesis propias sino servir como auxiliar de la ciencia en la depuración del lenguaje y
la clarificación de las estructuras lógicas de las teorías.
Al contexto de justificación corresponde la ciencia en tanto producto, y para la CH, incluye los
aspectos lógicos y empíricos de las teorías. El contexto de descubrimiento incluye los aspectos
históricos, sociales, culturales y subjetivos que rodean a la práctica de los científicos.
Esta escisión fundamental entre contextos refuerza la idea de que lo que se pretende es que se
justifique lógicamente la validez, aceptabilidad y pertinencia de esos productos finales que son
las teorías científicas, y tal justificación se supone independiente y neutral respecto de las
prácticas que le dieron origen.
El problema de la demarcación
La originalidad de los empiristas lógicos probablemente radica -como señala Ayer (1959)- en
que hacen depender la imposibilidad de la metafísica no en la naturaleza de lo que se puede
conocer, sino en la naturaleza de lo que se puede decir.
La CH pretende dar una formulación canónica que toda teoría científica debería satisfacer. Las
características básicas de este conocimiento científico son: la objetividad, la decidibilidad, la
intersubjetividad y la racionalidad. La objetividad consiste, básicamente, en que es
independiente de los conocimientos, creencias o deseos de los sujetos. La decidibilidad se
refiere a la posibilidad de determinar de modo concluyente, para un conjunto de afirmaciones,
su verdad o falsedad. La intersubjetividad en que puede ser compartido y reconstruido por
cualquier sujeto individual. Y la racionalidad en que satisface las leyes de la lógica, es revisable
y, también, justificable. Para la CH todas estas características se consideran garantizadas de
antemano y no necesitan justificación, aunque ellas mismas justifican la aceptabilidad del
conocimiento. Como quiera que sea, el criterio de demarcación propuesto por el Círculo de
Viena inicialmente sería de tipo semántico, es decir que se apoyaría en la decidibilidad de los
enunciados y apuntaría a delimitar el ámbito de la ciencia, no ya como epistémicamente
privilegiado, sino como único ámbito de conocimiento legítimo.
Clase 3
Las teorías científicas son consideradas, por la CH, como cálculos axiomáticos empíricamente
interpretados. Las teorías científicas estarían constituidas, entonces, por conjuntos de
enunciados que son, por un lado, independientes unos de otros en cuanto a su decidibilidad, y,
por otro lado, mantienen entre sí relaciones de deducibilidad lo cual convierte al conjunto en
un sistema. Este punto de vista suele denominarse concepción enunciativa de las teorías.
Podemos distinguir también entre lenguaje teórico y lenguaje observacional (también incluye
leyes empíricas). Asimismo, las reglas de correspondencia conectan los términos teóricos con
la experiencia observable cargando así de interpretación empírica los axiomas puramente
teóricos.
Ontología de términos teóricos: está la posición realista que sostiene que son entidades de
existencia física aunque no se puedan observar, y la posición instrumentalista que sostiene que
los términos teóricos son combinaciones complejas de términos observacionales o
convenciones para facilitar la comunicación.
Una teoría nunca puede ser completamente verificada, porque sus enunciados
observacionales son infinitos. Por ello se habla más bien de grado de confirmación, que se
determina mediante la probabilidad inductiva y es progresivamente creciente a medida que
aumenta el número de verificaciones.
La distinción teórico/observacional ha sufrido una serie de críticas según dos líneas principales.
En primer lugar porque resultan problemáticas tanto la distinción misma como así también la
calidad de observable (Achinstein, 1968). Pero sobre todo, en segundo lugar, no es posible
lograr equivalentes empíricos (ni directos ni a través de reglas de correspondencia) para todos
los términos teóricos utilizados en la ciencia, lo cual resulta una impugnación insalvable para
una posición fuertemente empirista.
Fisicalismo, en general, es la tendencia a afirmar que todo se explica mediante procesos físicos
(es decir ni biológicos ni psicológicos), o a establecer una identidad entre lo psíquico y lo físico,
o a suponer que la física es el modelo de conocimiento al cual debe ajustarse cualquier saber.
Suele pensarse que hay un solo método científico que ayuda a descubrir. La CH distingue entre
ciencias formales y ciencias fácticas. Las primeras conforman sistemas axiomáticos en sentido
pleno y para las segundas se utilizaría el método inductivista. Además, las ciencias formales
utilizarían enunciados analíticos y las ciencias fácticas, enunciados sintéticos.
El método inductivista
Método inductivista:
Modelos explicativos
Clase 4
Las críticas a la CH
El gran déficit de la CH no fue tanto defender tesis equivocadas (aunque algunas lo han sido)
sino ser un análisis muy parcializado de la ciencia que ha dejado de lado aspectos relevantes.
La justificada aversión por una metafísica puramente especulativa y vacua, hacia perder de
vista que buena parte de los fundamentos de la ciencia y aun de la epistemología cargaban con
el pesado lastre de la ausencia de fundamento empírico, por ejemplo, los supuestos como la
intersubjetividad, la objetividad o la racionalidad, los cuales eran considerados como dados sin
necesidad de justificación.
A su vez, su autolimitación al análisis de las teorías una vez que habían sido construidas,
rechazando además el contexto de descubrimiento, la distanciaba de las ciencias sociales, por
la creciente evidencia de que los criterios de aceptación o abandono de las teorías eran
establecidos por las propias comunidades científicas en sus prácticas habituales y no por
criterios a priori. De ese modo la CH se alejaba cada vez más de la práctica real de los
científicos y de los problemas planteados de hecho en su actividad y se concentraba
paulatinamente en el estudio y resolución de los problemas lógicos que ella misma generaba.
Además, y lo que era más notorio e importante, muchas de las teorías científicas vigentes- por
no decir la mayoría- no satisfacían los criterios canónicos que la CH requería para su
aceptación.
El problema que surge para el empirismo radica en que si no es posible realizar una reducción
o una traducción de los términos teóricos a términos empíricos, además del problema del
pasaje inválido del nivel uno al dos (es decir de enunciados empíricos a leyes, la generalización
empírica) se agrega la imposibilidad de legitimar el uso de enunciados de nivel tres (teóricos).
Se plantea así una disyuntiva crucial: o bien se abandona la parte más interesante y fructífera
de la ciencia (las afirmaciones que contienen términos teóricos) cosa que, obviamente nadie
tomaría en serio o bien se abandona la pretensión de explicar la actividad científica desde una
teoría del conocimiento empirista ingenua.
Se pueden tener proyecciones mejores o peores, pero según este punto de vista no puede
haber criterios no lingüísticos para dilucidar la cuestión. Si los hubiera, ello significaría que se
podrían decidir en forma empírica y absoluta entre muchas hipótesis de análisis incompatibles.
Pero no se dispone de un principio de demarcación que permita distinguir lo que surge del
lenguaje propio o de las propias hipótesis analíticas y lo que surge de la propia realidad.
Palma: “Sin embargo, me interesa rescatar los dos pasos de la fructífera argumentación de
Quine – la indeterminación de la traducción y la posibilidad de establecer hipótesis de análisis
que aporten una comprensión progresiva de la nueva expresión- por igual y en forma
simultánea, por dos razones: en primer lugar porque pueden ser aplicados tanto a la
comprensión de las metáforas, como así también al problema de la relación entre otros dos
lenguajes implicados en la enseñanza: el lenguaje científico propiamente dicho y el lenguaje
utilizado para la EC; y en segundo lugar porque permiten intuir los mecanismos y procesos que
se desarrollan al formular, captar y asimilar una metáfora. En ambos casos, puede considerarse
la existencia de dos lenguajes entre los cuales es posible establecer una comprensión
progresiva que puede ser bastante adecuada pero que siempre deja un residuo intraducible.”
Comprensivismo y hermenéutica
La disolución de la CH
a) Achinstein: En realidad de ofrecer una formulación canónica de cómo deben ser las
teorías, “un análisis adecuado de las teorías debe caracterizarlas tal y como de hecho
se emplean en la ciencia”.
b) Toulmin, Hanson, Kuhn, Feyerabend, Lakatos: Creciente tendencia a la indagación del
sujeto que produce ciencia, reconociendo que en el proceso mismo, acontece la
legitimación del conocimiento producido.
c) Suppes, Sneed, Van Fraassen, Giere: La tesis básica de todas ellas es que la naturaleza,
función y estructura de las teorías se comprende mejor cuando su caracterización,
análisis o reconstrucción metateórica se centra en los modelos que determina. Para
ella, el componente más básico para la identidad de una teoría es una clase de
estructuras, y más específicamente una clase de modelos. Un modelo, en su acepción
informal mínima, es un sistema o “trozo de la realidad” constituido por entidades de
diverso tipo que realiza una serie de afirmaciones, las realiza en el sentido de que en
dicho sistema “pasa lo que las afirmaciones dicen” o, más precisamente, las
afirmaciones son verdaderas en dicho sistema. Proponen la axiomatización informal a
través de predicados conjuntistas. Finalmente, consideran engañosa la distinción
teórico/ observacional, porque encubre dos distinciones diferentes. Una entre teórico
y no teórico, en virtud de que un concepto, una función, etc., sea o no completamente
dependiente de una teoría. Otra entre observable e inobservable, en el sentido de
accesible a los sensores humanos (algunos incluyen la detección mediante
instrumentos). La aceptación de una distinción no compromete con la otra.
Clase 5
La ciencia como producto. El racionalismo crítico de Popper
Sigue respetando la distinción entre contextos y la ciencia sin sujeto, la unidad metodológica y
la preocupación por la demarcación.
La crítica a la inducción
Popper niega que la inducción sea un método válido para producir conocimiento. Resume su
crítica en el trilema de Fries:
Popper propone que los hechos relevantes no son inherentes al problema en sí, sino que se
vuelven relevantes en virtud de la hipótesis propuesta. La observación aparece así lastrada por
una “carga teórica”.
El problema de la demarcación
Si llamamos “criterio de demarcación” a aquel que nos permite diferenciar entre ciencias
empíricas y sistemas metafísicos, Popper rechaza la lógica inductiva porque no proporciona un
rasgo discriminador adecuado.
3) Toda “buena” teoría científica implica una prohibición: prohíbe que sucedan ciertas cosas.
Cuanto más prohíbe una teoría, tanto mejor es.
5) Todo genuino test de una teoría es un intento por desmentirla, por refutarla. La testabilidad
equivale a la refutabilidad. Pero hay grados de testabilidad: algunas teorías son más testables,
están más expuestas a la refutación que otras. Corren más riesgos, por decir así.
6) Los elementos de juicio confirmatorios no deben ser tomados en cuenta, excepto cuando
son el resultado de un genuino test de la teoría; es decir, cuando puede ofrecerse un intento
serio, pero infructuoso, de refutar la teoría. (En tales casos hablo de “elementos de juicio
corroboradores”.)
7) Algunas teorías genuinamente testables, después de hallarse que son falsas, siguen
contando con el sostén de sus admiradores, por ejemplo, introduciendo algún supuesto
auxiliar ad hoc, o reinterpretando ad hoc la teoría de manera que escape a la refutación.
Siempre es posible seguir tal procedimiento, pero éste rescata la teoría de la refutación sólo al
precio de destruir o, al menos, rebajar su status científico.
Tampoco establece una demarcación tajante, sino de grado. Simplemente permite diferenciar
el conocimiento científico, es decir, el que puede, en principio, ser falsado por la experiencia,
del resto. Eso supone también que una característica básica del conocimiento científico es su
provisionalidad.
Verdad y verosimilitud
Cada teoría determina el conjunto de sus posibles falsadores como el conjunto de enunciados
singulares que prohíbe o que contradicen sus consecuencias. Este conjunto constituye la base
empírica relevante para la teoría y difiere entre teorías distintas. Por ello la teoría determina,
en un cierto sentido, la experiencia.
No alcanza con una sola falsación, sino que esta debe subsumirse en una hipótesis, llamada
hipótesis falsadora. Si la teoría resulta falsada, surge de esto el germen de una nueva teoría.
Sino, resulta corroborada. Cada teoría puede tener un grado de corroboración en un momento
dado.
Supone, también, que verosimilitud y verdad son cosas distintas. Para Popper la verdad
objetiva existe, pero actúa como un ideal regulador, no como algo cognoscitivamente
determinable. Para él, lo cierto es que el conocimiento científico sólo puede acercarse más y
más a la verdad y este aproximarse es la verosimilitud.
Clase 6
Es importante llamar la atención sobre la categoría de “problema” ya que abre a una serie de
cuestiones, la mayoría de las cuales Popper no transitó. En primer lugar que es necesario que
haya alguien, un sujeto, para que algo sea visto como un problema. En el mundo no hay
problemas, sino sólo eventos que se suceden y sólo cuando alguien los ve como problemas
comienzan a serlo. En segundo lugar la historicidad de los problemas, es decir que los eventos
comienzan a ser problemas científicos en un momento dado y no antes.
El término corroboración no compromete con la verdad como definitiva y señala tan sólo el
carácter provisional de su aceptación. Las hipótesis tendrán entonces dos únicos destinos
posibles: resultar falsada algún día o seguir eternamente siendo hipótesis. Popper afirma, en
este sentido, que hay una suerte de asimetría entre la verdad y la falsedad de las hipótesis.
Modus tollendo tollens: Si hipótesis fundamental (HF) es verdadera, también será verdadera la
consecuencia observable (CO)
La CO es falsa
POR LO TANTO:
En las ciencias sociales e históricas existe un método específico que Popper llama lógica de la
situación y que permitiría construir una ciencia social objetivamente comprensiva
“independientemente de todas las ideas subjetivas o psicológicas”:
“El método del análisis situacional es, pues, un método individualista, desde luego, pero no un
método psicológico, ya que excluye programáticamente los elementos psicológicos
sustituyéndolos por elementos situacionales objetivos. Su contenido de verdad puede, no
obstante, ser muy grande, de tal modo que pueden constituir-en un estricto sentido lógico-
buenas aproximaciones a la verdad, incluso superiores a otras explicaciones contrastables con
la realidad” Popper
Para Popper las entidades sociales, como instituciones o asociaciones, son modelos abstractos,
construidos para interpretar ciertas relaciones abstractas y selectas entre los individuos. Lo
que subyace a esta posición es la creencia en que las leyes sociológicas o históricas son
imposibles o de que las declaraciones con aspecto de ley son siempre falsas, pues la sociología
y la historia se ocupan de acontecimientos singulares e individuales.
El falsacionismo complejo
Quizá la diferencia entre simple y complejo sea engañosa si se interpreta que el aumento de
complejidad involucra sólo consideraciones meramente cuantitativas cuando implica, además,
asumir una imagen de la racionalidad y práctica científicas, bastante diferente:
1. Una de las objeciones que se ha hecho es que los científicos en su práctica concreta y
real no operan según las simples y taxativas indicaciones del método hipotético
deductivo.
2. La refutación inmediata de las hipótesis y teorías no tiene en cuenta la siguiente
objeción: Las teorías científicas no se enfrentan con los hechos en forma directa, y
sobre todo, tampoco lo hacen en forma individual, sino que habitualmente
constituyen un conjunto de hipótesis. una contrastación con resultados negativos
refuta la conjunción, pero al tiempo permite alguna modificación que eluda la
refutación mediante el cambio de alguna de las hipótesis menores introduciendo
alguna hipótesis ad hoc. Esta concepción holista es también llamada tesis Duhem-
Quine.
3. Los problemas que surgen de definir lo que constituye un “hecho”, vale decir las
condiciones necesarias y suficientes en las cuales una observación puede servir para
falsar una teoría. La carga teórica de la observación no sólo efectúa un recorte de la
experiencia posible sino que al mismo tiempo opera la instauración de una perspectiva
particular. La propuesta de perspectivas diferentes puede, literalmente, elevar al rango
de ‘interesante científicamente’ un universo nuevo de ‘hechos’. La categoría de hecho
científico es histórica y esto se aprecia claramente con la irrupción de “nuevos” hechos
en la historia de la ciencia.
4. El modelo científico popperiano sería un modelo meramente lógico, basado en el
modus tollens y la ciencia aparece más racionalista de lo que efectivamente es, y ello
por no tener suficientemente en cuenta la historicidad del saber científico.
Según Lakatos, el falsacionismo dogmático es insostenible porque descansa sobre dos
supuestos falsos:
El primer supuesto es que existe una frontera natural, psicológica, entre las
proposiciones teóricas y especulativas, por una parte, y las proposiciones fácticas u
observacionales (o básicas), por la otra.
El segundo supuesto es que si una proposición satisface el criterio psicológico de ser
fáctica u observacional (o básica), entonces es cierta; se puede decir que ha sido
probada por los hechos.
Estos supuestos son complementados por un criterio de demarcación: sólo son 'científicas' las
teorías que excluyen ciertos acontecimientos observables y que, por ello, pueden ser refutadas
por los hechos. Dicho de otro modo: una teoría es científica si tiene una base empírica. Pero
ambos supuestos son falsos. La psicología testimonia contra el primero, la lógica contra el
segundo y, finalmente, la opinión metodológica testifica contra el criterio de demarcación.
Ahora bien, suponiendo este esquema básico bastante más complejo que el falsacionismo
ingenuo, si la consecuencia observable resulta refutatoria, hay básicamente dos caminos
posibles: o bien considerar sin más como falsa a la hipótesis fundamental o bien levantar la
hipótesis factorial, es decir suponer que algún factor no tenido por relevante en un principio
influyó para el fracaso. Este último camino conduce a proponer hipótesis ad hoc, es decir
realizar un cambio en alguna hipótesis menor o introducir una nueva, para salvar el conjunto
básico de hipótesis. Nótese que desde el punto de vista formal este procedimiento puede
llevarse al infinito, ya que siempre, en principio, puede introducirse una modificación
salvadora. las hipótesis ad hoc son aceptadas sólo en la medida que generen nuevas
consecuencias observables, es decir que sean también ellas falsables.
Clase 7
Hacia los años ’60 comienza a aparecer una serie de propuestas epistemológicas que
comienzan a centrar la atención en la historia de la ciencia, es decir, acentuando la relevancia
del contexto en la producción científica.
Algunas consideraciones:
Es cierto que Kuhn revaloriza el papel de la historia, pero no es una idea original
(Bachelard y Koyré ya lo habían hecho).
Puede inscribírselo en la misma tradición intelectual de la CH, más allá de sus
impugnaciones.
Kuhn suavizó algunos detalles de su pensamiento inicial, y de preocuparse por la
historia de la ciencia, pasó a atender temas lingüísticos y de la teoría del conocimiento.
Puntos básicos de la propuesta epistemológica de Kuhn:
Kuhn también describe a los paradigmas como “realizaciones universalmente reconocidas que,
durante cierto tiempo, proporcionan modelos de problemas y soluciones a una comunidad
científica”. (Kuhn, 1962-70 [1992, p. 13]). Es importante resaltar que, en la medida en que el
paradigma determina cuáles son los problemas y las normas de su resolución, el trabajo de los
científicos consiste en la articulación entre los fenómenos y el paradigma; es por eso que Kuhn
calificará a la etapa de ciencia normal (la que se realiza durante la vigencia del paradigma)
como una etapa de resolución de enigmas o también como del armado de un rompecabezas.
Esta metáfora no se refiere tanto a la dificultad y laboriosidad del científico, sino más bien al
hecho de que al encarar el armado de un rompecabezas ya se sabe de antemano como va a
quedar terminado, del mismo modo que el paradigma indica cómo debería ser el mundo,
incluso en aquellos aspectos en los cuales aún no se sabe mucho.
Los períodos en los que existe una comunidad estable que comparte un paradigma aceptado
constituyen la ciencia normal. La investigación, en estos periodos, se centra en la articulación,
desarrollo y aplicación del paradigma. Los desajustes y problemas que se producen, los
enigmas, intentan resolverse mediante las técnicas compartidas por la comunidad, pero en
ningún caso se producen cosas tales como verificaciones o falsaciones (pues el paradigma no
se pone en cuestión).
A veces, alguno de esos enigmas resulta irreductible y puede llegar a convertirse en una
anomalía, a medida que la comunidad distraiga más medios y personas para intentar
solucionarlo y las distintas técnicas de resolución paradigmáticas vayan fracasando. Para un
falsacionista ingenuo, estos hechos serían otras tantas refutaciones de la teoría, pero Kuhn
observa que, en verdad, los científicos no trabajan para refutar sus teorías, sino más bien al
contrario, para confirmarlas. Las actitudes de los científicos frente a las anomalías pueden ser
diversas: puede ocurrir que lisa y llanamente no se perciban las anomalías merced al carácter
constitutivo y determinante de la percepción del mundo de los paradigmas; puede ocurrir
también que sea minimizado el efecto refutador de tales hechos rebeldes y, finalmente, los
científicos confían en que, con el tiempo se logrará, definitivamente, ubicar las piezas en el
lugar correcto. Así, los científicos conviven en relativa armonía con las anomalías sin pensar en
abandonar el paradigma.
Puede ocurrir que la actividad científica normal logre articular adecuadamente estas anomalías
como se esperaba, lo que constituirá nuevos éxitos que consolidan y dan fuerza al paradigma
vigente; pero también puede ocurrir lo contrario, es decir que estas anomalías sean
persistentes en el tiempo y que, quizás, aparezcan nuevas. La persistencia de las anomalías o la
acumulación de ellas puede llevar, según Kuhn a una “crisis” del paradigma, aunque no hay
regla sobre la calidad y/o cantidad de anomalías que pudieran conducir a una crisis, y todo
dependerá de la ponderación que la comunidad científica haga de la cuestión. Es importante
destacar que no es la mera existencia de anomalías la que conduce a una crisis, porque de
hecho, los paradigmas conviven en cierta armonía con ellas. Lo cierto es que en algún
momento, por circunstancias históricas diversas, surge una crisis y en ese momento se rompe
la unidad de la comunidad alrededor del paradigma, una pérdida de confianza en la capacidad
del mismo para resolver las anomalías y la búsqueda de soluciones heterodoxas.
El pasaje de un paradigma a otro da lugar a lo que Kuhn llama revolución científica, proceso
más o menos extenso, que requiere no solamente que un paradigma se encuentre en una
crisis profunda sino que debe registrarse, además, la aparición de un paradigma alternativo.
El problema de la incomensurabilidad
Para la CH, las teorías científicas eran conmensurables, incluso subsumibles en otras más
abarcativas. Kuhn sostiene la tesis contraria.
En una revolución científica, ocurre una verdadera ruptura entre los marcos conceptuales de
una y otra teoría de modo tal que no hay manera de correlacionar semánticamente los
conceptos básicos de una teoría con los de la otra. Cada teoría se vuelve ininteligible para la
otra en la medida que el paradigma estructura la percepción.
Volviendo a la noción de inconmensurabilidad de ERC, debe señalarse que otro de los aspectos
que se ha criticado es que anularía el progreso de la ciencia. Sin embargo, lo que Kuhn niega
explícitamente es que el progreso de la ciencia lleve a un conocimiento más profundo de la
naturaleza de las cosas, a una mejor ontología, pero es indiscutible que hay progreso aunque
en un sentido distinto: “Las teorías científicas posteriores son mejores que las anteriores para
resolver enigmas en los medios a menudo distintos a los que se aplican.
Casi al final de ERC Kuhn llama la atención sobre el hecho de que no se ha referido en ningún
momento a la verdad científica, algo bastante llamativo para un libro de epistemología.
Propone, entonces, entender el desarrollo de las ciencias como un proceso no hacia algo (en
este caso a la verdad) sino como un proceso desde lo que conocemos.
Aplicada a las ciencias, la historiografía whig también se trata de una historia mitológica de
héroes y villanos en la cual los primeros son los que contribuyeron al estado actual de la
ciencia, mientras que los villanos son los que han seguido líneas luego abandonadas y habrían
complicado el avance de la ciencia. Subyace a este modo tradicional de hacer historia el
supuesto de que la ciencia recorre un proceso lineal y acumulativo y, señala Kuhn reserva al
historiador sólo la tarea de: “(...) determinar por qué hombre y en qué momento fue
descubierto o inventado cada hecho, ley o teoría científica contemporánea. Por otra parte,
debe describir y explicar el conjunto de errores, mitos y supersticiones que impidieron una
acumulación más rápida de los componentes del caudal científico moderno”
Pero un análisis algo más detallado de los procesos históricos muestra qué poco tienen que ver
con esta imagen ingenua y que los elementos contextuales parecen jugar papeles
preponderantes, otorgándoles cierta especificidad que no se comprende si se abordan con las
categorías contemporáneas. Más aun, estos elementos contextuales resultan siempre un
ingrediente de la formación de las creencias sostenidas por una comunidad científica. Y las
disputas entre escuelas no resultan de ningún modo de que unos fueran científicos y otros no,
o de que unos contribuyeran al avance de la ciencia y que otros lo retrasaran, sino a lo que
Kuhn denominó formas inconmensurables de ver el mundo.
Ahora bien, toda historia de la ciencia presupone ciertas apreciaciones sobre la naturaleza de
la ciencia, es decir una epistemología, lo cual implica que hay cuando menos algún esbozo de
demarcación entre lo que corresponde a la ciencia –y en tal caso a la historia de la ciencia- y lo
que queda fuera de ella.
Lakatos: En principio la historia interna está constituida por el análisis de las cuestiones
metodológicas vinculadas al cambio de teorías o a las estructuras lingüísticas de una teoría.
Por su parte la historia externa estaría constituida por elementos que, utilizando la expresión
de la CH, corresponderían al contexto de descubrimiento, tales como ideologías, prejuicios en
general, factores culturales, económicos, sociales, etc. Esta distinción entre historia interna e
historia externa, si se pone en paralelo con los contextos de descubrimiento y justificación de
la CH, puede ser considerada como una suerte de criterio de demarcación ha determinado
buena parte de la agenda epistemológica de las últimas décadas.
Clase 8
Se da a continuación una interpretación sobre cómo, en los últimos cien años, la filosofía de la
ciencia ha forzado la cuestión de los límites entre la ciencia y otras manifestaciones de la
cultura, y luego los estudios sociales de la ciencia han intentado diluirlos, y de cómo ambas
estrategias llevaron a una aporía interpretativa.
Kant: La Crítica de la Razón Pura es justamente un intento por delimitar entre los alcances del
conocimiento con fundamento empírico por un lado, y por otro lado la metafísica, en la que los
humanos se pierden cuando se aventuran más allá de la experiencia posible.
Empirismo lógico (principalmente en el Círculo de Viena): en cuya agenda aparece como tema
central el problema de la demarcación: los límites son la clave de la estrategia de comprensión.
La filosofía quedaba limitada sólo a ser una especie de auditor (y auxiliar) de la pureza de la
ciencia. Una de sus principales tareas generales era hallar un criterio canónico y a priori,
normativo, jerárquico y excluyente, que limitase clara y taxativamente entre la buena ciencia,
la ciencia legítima, y otras manifestaciones discursivas humanas3. Una ciencia que cumpliera
con los requisitos de neutralidad y objetividad; diferenciada del pensamiento puramente
especulativo y sin sustento empírico; y que pudiera desarrollarse evitando la influencia y las
determinaciones de las condiciones sociales y materiales de su producción consideradas
negativas y difusas. Pero quizá lo que caracteriza más claramente a esta versión estándar de la
filosofía de la ciencia sea el esfuerzo por hallar los límites entre lo que llamaron contexto de
descubrimiento, por un lado, y contexto de justificación por otro
Sin embargo, otra vez, el límite entre contextos que parece explicar adecuadamente las cosas,
solo esconde una serie de cuestiones más relevantes y cuya respuesta claramente se ubica en
la intersección, más que en su separación artificiosa: la relación entre la ciencia y el momento
socio-histórico. Quedarse en la cuestión anecdótica o psicológica deja sin responder la
pregunta (más importante): ¿qué relación hay, o podría haber, entre las condiciones sociales
(los prejuicios, el conocimiento disponible, la época, la cultura, las creencias instaladas, el
imaginario social, las teorías científicas establecidas, etc.) y el contenido de las teorías?
Puede decirse que hubo un gran esfuerzo del programa inicial de la filosofía de la ciencia por
desarrollar criterios para esclarecer las diferencias y especificidades de la ciencia, por
establecer límites, en suma, cuyo fracaso parcial se explica, probablemente, por su misma
rigidez y exacerbación, resultando así impotentes para explicar qué tiene de común y cómo se
relaciona la ciencia con otras prácticas humanas.
En las últimas décadas, la filosofía de las ciencias parece haber reencontrado ciertos senderos
productivos y promisorios en “filosofías especiales de la ciencia”. No se trata de capítulos o
especializaciones dentro de una filosofía general de la ciencia sino un cambio de estrategia y
objeto que evita avanzar en el estéril establecimiento de límites y se diferencian de la filosofía
de la ciencia tradicional en, al menos, tres aspectos principales. Primero, saltan el límite
artificial que ubica de un lado a “la” ciencia (en singular), una entelequia incapaz de subsumir
la multiplicidad y diversidad de prácticas que los científicos llevan adelante, más allá de ciertos
compromisos básicos acerca de la racionalidad. Segundo, la filosofía deja de ser un auditor
externo de la pureza de la ciencia tal como se la concebía a principios del siglo XX y, en cambio,
el trabajo entre el filósofo y el científico es claramente transdisciplinario. Tercero, el filósofo ya
no hace un uso estratégico de ejemplos científicos para mostrar cómo se cumplen sus tesis a
priori acerca de la ciencia, sino que debe conocer el campo científico en el cual trabaja para
dar cuenta de problemas propios del mismo.
Tanto periodistas como científicos creen que se está llegando al “fin de la ciencia” o a una
forma relativamente acabada de ella por estar cerca de hallar las leyes fundamentales de la
naturaleza (que creen que serían las de la física). se trata de visiones estrechas y reduccionistas
de las ciencias, que las ven como la suma de las explicaciones conseguidas, sin tener en cuenta
la irrupción constante de nuevos problemas, nuevos desafíos intelectuales, nuevas
dimensiones de abordaje, nuevas interdisciplinariedades, complejidades y nuevas preguntas.
Quizá una de las cuestiones más inquietantes se refiera a los límites cognitivos de la ciencia, es
decir a la existencia de zonas, aspectos o procesos de la realidad que sean incognoscibles
absolutamente. Dejando de lado el cientificismo optimista que solo acepta que es cuestión de
tiempo, complejidad o incapacidad tecnológica (momentánea) develar los secretos más
ocultos del universo, la cuestión no es menor y genera, al menos, dos preguntas.
La primera, más general, puede formularse así: ¿es posible establecer algún límite a priori para
la investigación científica, algún aspecto de la realidad que sea intrínsecamente incognoscible?
La segunda pregunta, que va en el mismo sentido, pero más precisa: ¿existe algún límite,
producto de que la ciencia que tenemos es una ciencia humana? La ciencia que tenemos no
solamente está marcada por su génesis social y cultural, sino por el hecho de que tanto el
aparato perceptual como la racionalidad de los humanos es el producto de millones –o al
menos cientos de miles- de años de una evolución particular y contingente.
Se parte del supuesto de que no todo lo que es posible realizar desde un punto de vista
tecnocientífico, es correcto desde el punto de vista ético presente o incluso con relación a las
futuras generaciones.
Límites disciplinares
Quizá una de las características más distintivas de la ciencia que conocemos es la que separa y
compartimenta el conocimiento no solamente en áreas disciplinares delimitadas por objetos
específicos sino también en subgrupos más amplios y variables.
Más allá de la diversidad taxonómica hay al menos tres cuestiones importantes que deben
tenerse en cuenta. La primera cuestión, es que esta división, esta forma de organizar y
producir conocimiento que tiene, en principio, una justificación obvia en la casi infinita
producción de conocimiento y en la creciente especialización, ha generado maravillosos e
inéditos éxitos en la historia de la Humanidad.
La tercera, consecuencia algo paradojal de las anteriores, es que esta forma de organización
exitosa ha ido mostrando con claridad creciente, no ya sus límites –obvios y conocidos-, sino
las limitaciones que tiene para resolver algunos de los dramáticos problemas globales
complejos; debilidades que llevan a esfuerzos (muchas veces estériles) por lograr integraciones
multi, inter y transdisciplinarias.
Clase 9
En primer lugar, dejaremos de lado –al menos como decisión metodológica- el problema
metafísico de “la realidad” para centrarnos en lo que los humanos llamamos conocimiento
científico de esa realidad y, sobre todo, de los múltiples modos o perspectivas que ese
conocimiento adquiere. se diferencia entre la ontología del mundo y nuestra gnoseología –es
decir, entre lo que existe y nuestro conocimiento de ello- sin siquiera suponer que el éxito de
nuestras teorías resulte de que reflejan las estructuras del mundo. Después de todo, lo que
podemos conocer y decir es el resultado de que nuestro aparato perceptual e intelectual -
propio y específico de la especie humana- se conformó a través de un proceso evolutivo
particular y contingente a lo largo de millones de años.
● Permiten operar sobre la realidad empírica e incluso, en muchos casos, predecir con una
enorme precisión, y articular explicaciones racionales aceptables.
● Son públicas (es decir no pueden reducirse a experiencias privadas o íntimas) y por tanto
aceptados intersubjetivamente (en principio, por la comunidad de especialistas).
● Son consistentes internamente (es decir no afirman “A” y “no A” dentro de un sistema
teórico) y externamente (es decir, no son contradictorias con el resto de las teorías científicas
aceptadas).
se puede caracterizar el reduccionismo como la estrategia que supone que lo que ocurre en los
niveles 2 y 3 puede explicarse adecuadamente en términos, conceptos o teorías de algún nivel
más bajo. Por ejemplo cuando se quieren explicar fenómenos biológicos a partir de sus
componentes físico-químicos, o fenómenos sociales en términos biológicos. En una fórmula un
tanto simplista pero ilustrativa: el “todo es igual a la suma de las partes”.
Emergencia de los fenómenos biológicos o por qué la biología no puede reducirse a la física
Hay una enorme cantidad de procesos biológicos emergentes con relación a los componentes
fisicoquímicos.
Emergencia de los fenómenos sociales o por qué las ciencias sociales no pueden reducirse a
la biología
Tampoco hay que olvidar que las conductas humanas (al menos las más significativas y
relevantes) son intencionales, obedecen a propósitos, intereses y valores imposibles de
explicar en otros niveles.
En la misma línea, otra característica que no se encuentra ni en los sistemas físicos ni en los
sistemas meramente biológicos es el rol fundamental de lo simbólico y, sobre todo del
lenguaje, en las agrupaciones humanas. Aunque pueda argumentarse que la comunicación (no
verbal) es una característica que se encuentra en otras especies animales y que la diferencia
con el homo sapiens es de grado, la diferencia que hace el lenguaje abstracto y conceptual es
fundamental.
Quizá valga la pena insistir en algo obvio: no es que los humanos y sus productos no se rijan o
no estén sujetos a las legalidades física, biológicas o psicológicas, sino que simplemente esas
perspectivas son o bien insuficientes o bien irrelevantes (o en el mejor de los casos subsidiarias
o complementarias) para dar cuenta de lo social.
Respecto a las líneas de estudio tales como los programas relativista y constructivista, los
estudios etnometodológicos y la retórica de la ciencia: Estas posturas tienen algunos
inconvenientes, principalmente dos. En primer lugar, no es que sus estudios sobre los
determinantes sociales en la ciencia sean inadecuados o falsos sino que toman la parte por el
todo, descuidando – o al menos sin poder explicar adecuadamente- el problema
epistemológico de la relación ciencia-realidad. En segundo lugar, al asimilar la práctica
científica a otras prácticas culturales –lo cual es perfectamente razonable e interesante-
pierden de vista lo que las ciencias tienen de específico, de cierta autonomía que surge de su
propia práctica y de sus objetivos.
La cuarta deriva solo en parte de las anteriores y es la causa de una dificultad comunicacional y
conceptual severa consistente en que el parcelamiento de los saberes no se resuelve volviendo
a sumar lo que se ha dividido, porque, justamente hay una inconmensurabilidad fundacional
derivada de que los científicos se forman académica, profesional y culturalmente a través de
diferentes lenguajes, metáforas y registros discursivos; pero también en diferentes
perspectivas de abordaje de la realidad, metodologías y formas de validar, describir y aceptar
“verdades”.
Clase 10
Según la imagen estándar, las ciencias se relacionan con el lenguaje referencialmente riguroso,
formalizado, pautado y controlado, mientras que la literatura o la retórica, por su parte, se
vinculan con la creatividad, la asociación libre, la falta de límites lógicos y formales, lo intuitivo
y sugerente.
Hay consideraciones de sobra para sospechar que las metáforas que utilizan los científicos (al
menos una gran cantidad de ellas) dicen algo por sí, y no como meras subsidiarias de otras
expresiones consideradas literales y, por tanto, tendrían funciones cognoscitivas y epistémicas
legítimas e insustituibles.
La metáfora no sustituye a una expresión considerada literal, no es una mera paráfrasis de otra
expresión, sino que introduce una novedad semántica.
Comprender una metáfora no sería descifrar un código o hacer una traducción, porque el acto
metafórico, más que dar cuenta de una semejanza o analogía preexistente, crea la semejanza
o analogía. Una metáfora se produce cuando alguien hace converger y pone en intersección
dos planos o universos de discurso ordinariamente separados, por ejemplo la mente y la
computadora. Esta inédita convergencia produce un cambio en la percepción y organización
de los hechos según una nueva lógica producto de la transferencia metafórica, pudiendo
incluso, literalmente, inaugurar nuevos hechos.
La dimensión pragmática resulta fundamental porque determina por qué una expresión
lingüística puede ser interpretada literalmente en un contexto y metafóricamente en otro o
por qué algunas metáforas (científicas o literarias) tienen éxito.
Pero, y aquí radica la gran diferencia con las metáforas literarias o de otro tipo, las ME tienen
su propia historicidad, una suerte de biografía común: rápidamente mueren como metáforas y
se literalizan o, más bien, deberíamos decir que se lexicalizan, es decir comienzan a formar
parte del arsenal lingüístico y conceptual de una teoría. Mientras que las metáforas literarias y
retóricas juegan su razón de ser en mantener la tensión metafórica viva y vigente, las ME, por
el contrario funcionan olvidando su pasado. Aunque siempre se puede reconstruir la
genealogía de una ME (una tarea para la historia de las ciencias), es decir un estudio
diacrónico, su peso epistemológico surge de un análisis sincrónico. Esto tiene, al menos, dos
consecuencias importantes que comportan otras tantas diferencias con las metáforas de otro
tipo: la primera es que la lexicalización ubica a la ME en el mismo campo de cualquier otro
lenguaje, enfrentando los problemas de la verdad, la referencia, el significado y otras
cuestiones epistemológicas (irresueltas); la segunda cuestión es que este análisis resulta un
sinsentido aplicado a las metáforas literarias, porque ellas nunca mueren (perderían su sentido
primordial y se transformarían, simplemente, en afirmaciones falsas o absurdas).
Finalmente, es necesario mencionar que una característica de las ME (también de los modelos
científicos que considero tan solo unas metáforas más pretenciosas y sobre lo cual no me
extenderé aquí) es que por un lado tienen una gran potencia explicativa, permiten una
inmediata comprensión de un fenómeno, relación o área desconocida referenciándola en otras
situaciones ya conocidas e incluso estructuran y configuran de nuevos modos el campo del
saber. Pero, además de este núcleo duro, también poseen bordes difusos (si se me permite la
metáfora) que desvían, complican o entorpecen una cabal comprensión, y que puede derivar
en equívocos o errores de distinta índole al llevarlas más allá de sus posibilidades de aplicación
sin una auditoría epistemológica previa.
Y para todos ellos (la epistemología estándar positivista y los relativistas) el uso de metáforas
ha sido visto –sea como dato positivo, sea como dato negativo- como un demérito de la
ciencia, seguramente por no poner el foco en una revalorización de las mismas desde una
óptica diferente.
podría arriesgarse una hipótesis de trabajo según la cual buena parte de los episodios de la
historia de las ciencias pueden considerarse como un tráfico de metáforas disponibles en una
época sobre las cuales la comunidad científica toma decisiones epistémicas de
aceptación/rechazo como respuesta a un conjunto limitado históricamente de preguntas y
problemas científicos.
El concepto de metáfora epistémica (ME) tiene la ventaja de que no refiere a una suerte de
‘módulo’ estándar y uniforme, identificable claramente en los distintos procesos de la historia
de las ciencias, ni una categoría a priori y rígida en la cual encajar esos procesos, sino que
adquiere variadas formas, niveles y alcances. Incluso los originales de esas metáforas
científicas proceden de campos diversos.
En primer lugar, a lo largo de la historia encontramos lo que podríamos denominar “grandes
metáforas”, como el mecanicismo o el evolucionismo (en reversiones históricas,
antropológicas, etc.)
En segundo lugar, las metáforas de interacción entre campos científicos. Por ejemplo, los
conceptos y fórmulas de la física newtoniana fueron extrapolados, con mayor o menor
rigurosidad, meticulosidad y felicidad a la economía y la sociología; el átomo como un sistema
solar en miniatura.
En tercer lugar, las metáforas provenientes de la cultura, que simplemente son obtenidas del
conocimiento común o del imaginario cultural.
4. Biología y metáforas
Sin embargo, y aunque está claro que hacemos metáforas todo el tiempo y que ellas se ubican
en todo el espectro cognitivo y comunicacional, no sabemos si esa ubicuidad procede de que
poseamos un mecanismo biológico fundamental que nos haga proclives a conocer a través de
analogías y que sea resultado de la evolución de nuestra especie. ¿Puede explicarse la
creatividad en general y la creatividad científica en particular como un procedimiento
principalmente de tipo analógico/metafórico?
Lakoff y Johnson lejos de la consideración clásica de la metáfora como parte de una función
extraordinaria o periférica del lenguaje, la conciben como un mecanismo rector de “nuestro
funcionamiento cotidiano, hasta los detalles más mundanos”. La tesis más fuerte de Lakoff y
Johnson es que la metáfora no es tan solo una propiedad de ciertos enunciados, sino que se
trata de un mecanismo cognitivo subyacente de nuestra especie.
Clase 11
El episodio de Darwin y Wallace, sirven de ejemplo a los que suelen argumentar que las ideas y
teorías científicas no son más que el resultado o el reflejo de determinaciones sociales.
Más allá de las casualidades y similitudes de las ideas de la época con las ideas de Darwin, en
ciencia no se trata solo de la idea, sino de relacionarla claramente con una amplia base
empírica, comprender su alcance, ubicarla en el contexto más amplio de los saberes acerca de
la naturaleza y vislumbrar sus posibilidades en prospectiva.
la teoría darwiniana de la evolución resulta también el punto clave de una revolución cultural y
antropológica y se ubica en el centro de una compleja y extendida trama de consecuencias
extraordinarias, refractaria a cualquier lectura simplista.
Esta polisemia no es artificial sino que responde al tratamiento de una cuestión que adquiere
múltiples dimensiones y que resulta inédita en la historia de la ciencia por sus implicancias
filosóficas y antropológicas. Y esto resulta así porque la teoría de la evolución biológica se
ubica en la trama de los saberes en un punto clave: es una teoría de las ciencias naturales,
pero resulta un fundamento insoslayable para decir algo sobre lo que somos los humanos,
nuestras conductas, nuestra forma de organizarnos y, sobre todo sobre nuestra
autoconciencia.
El evolucionismo (social)
Sea como el desarrollo de la razón, como el pasaje por los tres estadios (religioso, metafísico y
positivo) sea como la lucha de clases a través de distintos modos de producción donde
subsisten explotadores y explotados, la metáfora evolucionista aparece por detrás de distintas
ramas del saber y no solo en teorías estrictamente filosóficas o sociológicas en los estudios de
la estructura y funcionamiento de la sociedad contemporánea, sino también en los abordajes
de las culturas pasadas, y sobre todo para explicar la relación contemporánea entre las
distintas culturas.
Ahora bien, más allá de la heterogeneidad de detalles autores y áreas disciplinares que han
echado mano de la metáfora evolucionista para explicar el funcionamiento de las sociedades
humanas, algunos rasgos constantes subyacen para todos ellos:
Puede afirmarse que la consecuencia científica, filosófica e ideológica del darwinismo ha sido
la superación, en el mundo de lo viviente, del pensamiento teleológico, es decir de la idea
según la cual todos los procesos del mundo y el mundo mismo tienden a cumplir con una
finalidad que le es propia y natural, una meta final.
El problema es bien profundo, pues la biología evolucionista, a partir de Darwin, vino a ocupar
por su propia índole teórica, un área de intersección entre las llamadas ciencias naturales, en
el sentido más estricto, y las ciencias sociales. Esta doble pertenencia de los saberes biológicos
se manifiesta en las conexiones directas o indirectas (reales, imaginarias, ideológicas o
potenciales) que los trabajos en muchas áreas de la biología establecen con las condiciones
sociales de producción, legitimación, reproducción y circulación del conocimiento y con las
prácticas y puesta en marcha de tecnologías sociales.
Clase 12
“Hay grandeza en esta concepción de que la vida, con sus diversas facultades, fue
originalmente alentada por el Creador en unas pocas formas o en una sola; y que, mientras
este planeta ha ido girando según la ley constante de la gravitación, a partir de un comienzo
tan sencillo se desarrollaron y están evolucionando infinitas formas, cada vez más bellas y
maravillosas” (Darwin, 1859 [2004, p. 480])
Respecto a la justificación de cómo puede haber sistemas complejos, Según Thornhill & Ussery
(2000), por ejemplo, hay cuatro maneras en que se dan los cambios: en primer lugar por
acumulación serial directa (acumulación de pequeños cambios a través de las generaciones),
en segundo lugar por evolución paralela directa (modificaciones que ocurren en dos
componentes y que juntos adquieren una funcionalidad ventajosa o mayor), en tercer lugar
por eliminación de la redundancia (cuando hay una mutación en algún elemento del sistema y
pasan a tener otra función, otros que eran parte del sistema pierden su utilidad y puede que
terminen eliminándose), de modo que el análisis de la funcionalidad en una etapa posterior no
se puede comprender si no es tomando en consideración los elementos desaparecidos) y por
último por adopción de una función diferente (sistemas producidos por cualquiera de los
modos anteriores y que, en algún momento determinado, pasan a cumplir una función
diferente de la original).
Para explicar la tendencia a la organización compleja, “es necesario sostener una posición de
principios irreductible en favor de un programa naturalista de investigación y renunciar a
cualquier recurso a lo sobrenatural.”
para finalizar, diré una vez más que se trata del intento de grupos religiosos de ganar, y en
algunos casos mantener, la presencia en el sistema educativo y en la opinión pública. Los
DDI/creacionistas intentar sostener un debate que del otro lado no tiene interlocutor, porque
los científicos y especialistas (salvo excepciones) no intervienen por no reconocerle
legitimidad. Los científicos suelen ignorarlos incluyéndolos en ese difuso conjunto que
apresuradamente denominan “pseudociencia”. Aunque queda claro que el DI/creacionismo no
reúne requisitos mínimos de cientificidad, no se trata a mi juicio, de un expediente adecuado
por varias razones: porque tal descalificación sólo desnuda una concepción epistemológica e
ingenuamente aristocrática y refiere más que nada al poder simbólico y real de la ciencia para
administrar socialmente los discursos; porque no hay (ni puede haberla) una definición
unívoca a priori sobre la racionalidad y la cientificidad; porque una caracterización
sociohistórica sobre la cientificidad de algunas posiciones está sujeta a la relatividad y
provisoriedad del caso; finalmente, y sobre todo, porque descalificar al interlocutor mediante
estas categorías más que discutibles no descalifica a sus argumentos. Al mismo tiempo, este
ausentamiento legitima, por omisión, la presencia en el espacio público (incluido el sistema
educativo) de una disputa artificial. Por ello, los científicos y especialistas, si reconocen su
responsabilidad en esos espacios, enfrentan el dilema ético-político de intervenir o no en el
debate, aunque éste sea desde el punto de vista teórico, completamente estéril.
Clase 13
La eugenesia
La eugenesia moderna posee dos requisitos de los que carecían las prácticas de selección
artificial antiguas: el fundamento científico de sus premisas básicas y la implementación de
políticas y programas de gobierno dirigidos al mejoramiento de ciertos grupos humanos a
través de promover la reproducción diferencial.
Sir Francis Galton definió a la eugenesia como la ciencia que trata de todas las influencias que
mejoran las cualidades innatas, o materia prima, de una raza y aquellas que la pueden
desarrollar hasta alcanzar la máxima superioridad.
La eugenesia clásica
1. las diferencias entre los individuos están determinadas hereditariamente y sólo en una
pequeña medida dependen del medio;
2. la selección natural (mecanismo fundamental por el cual, según la teoría darwiniana, se
produce la evolución de las especies) produce la eliminación de los inferiores, débiles e
incapaces, es decir los menos aptos
4. a menos que se proceda a implementar una selección artificial (en lugar de la selección
natural ineficaz) que pueda contrarrestarla.
La eugenesia en el mundo
La eugenesia en Argentina
En la Argentina aunque había consenso entre las élites acerca de generar una raza de calidad
según un proyecto hegemónico sobre la necesidad de construir una nacionalidad argentina.
Pero la composición étnica sumamente heterogénea fue dando características propias y
diferenciales al movimiento eugenista con relación al problema de la raza. En efecto, uno de
los argumentos más esgrimidos por los racialistas -el de las razas puras- chocaba contra la
heterogeneidad de orígenes de la población argentina (inmigrantes de diverso origen, criollos y
algunas pocas poblaciones indígenas sobrevivientes de la persecución de la última parte del
siglo XIX), por lo que muchos discutían sobre la superioridad o calidad racial que se obtendría
de una buena mezcla, restando tan sólo establecer cuál era la más adecuada.
Las propuestas de los eugenistas argentinos no difieren demasiado del resto, pero también se
agregan algunos elementos relativamente novedosos. El primero refiere a que los aspectos
ambientales, entre ellos clara y fundamentalmente la educación, son importantes porque
pueden torcer el destino de degeneración de algunos individuos.
La fuerte creencia en que la educación, como instancia que permitiría adaptar a las masas a las
condiciones de producción existentes y darle cohesión a una población cuya diversidad estaba
dada por la fuerte inmigración europea propia de la época, se potenciaba en los miembros de
la AABEMS, al entender que tenían en sus manos, gracias a los aportes de la Biotipología, una
excelente herramienta para dar tratamiento a la diversidad, para evitar las amenazas que
representaban para estos intelectuales y políticos conservadores y nacionalistas el avance del
anarquismo y el comunismo.
Eugenesia y criminología
Los eugenistas también colaboraron con los criminólogos en el campo de la medicina legal.
Seguidores de la caracterización anatómica que realizara Lombroso de las tipologías de los
delincuentes, los criminólogos requerían de los servicios de los médicos en calidad de peritos
para la identificación de los individuos peligrosos que debían excluirse del cuerpo social. Si bien
la escuela lombrosiana fue ampliándose e introduciendo modificaciones sustanciales a las
formulaciones iniciales, inauguró un modelo de conceptualización y de detección de los
delincuentes que ha perdurado durante décadas, basado en la idea de que la criminalidad se
refleja en alguna conformación particular de lo orgánico.
La biotipología, y más allá de las disputas sobre los rasgos atávicos, en líneas generales apunta
a completar y a hacer más complejos y exhaustivos los análisis lombrosianos iniciales.
El fiscal que acusó a Simón Radowitzky (1891-1956), que había asesinado al jefe de policía
Ramón L. Falcón (1855-1909) en 1909, aseguraba en su alegato: “(…) sus caracteres
morfológicos acusan, bien acentuados, todos los estigmas del criminal. Desarrollo excesivo de
la mandíbula inferior, preeminencia de los arcos zigomáticos y superciliares, depresión de la
frente, mirada torva, ligera asimetría facial, constituyen los caracteres somáticos que acusan
en Radowitzky el tipo del delincuente.”
Eugenesia y restricciones a la inmigración
Se preferían ciertas nacionalidades por sobre otras. Era más bien preferible la inmigración
suiza, alemana, francesa, en detrimento de la inmigración rusa o turca, por asociarlos al
crimen.
Clase 14
Los tipos de reacciones son básicamente tres: los espíritus cientificistas tecnocráticos e
individualistas fantasean alegre y frívolamente –no sin el acicate de empresas con intereses
económicos- sobre la posibilidad de diseñar “hijos a medida” o “programados”; no faltan
prudentes bienintencionados que pontifican sobre la imperiosa necesidad de imponer barreras
éticas entre lo que podemos hacer (tecnológicamente) y lo que debemos (o no debemos)
hacer, como si ello fuera suficiente para delimitar el poder arrasador del mercado cuando hay
un negocio importante a la vista o la imparable actividad científica; finalmente, y sobre todo
provenientes de sectores conservadores que se oponen a toda manipulación e intervención
sobre la descendencia humana, algunos alarmistas y conspirogénicos encuentran forzadas
similitudes con el programa eugenésico de primera mitad del siglo XX, aunque ahora bajo la
denominación de eugenesia liberal.
Pero en los últimos tiempos ha cobrado notoriedad una nueva tecnología denominada
inicialmente CRISPR-Cas9, que permite la edición genómica, es decir cortar la cadena de ADN
con precisión en un sector deseado y volver a unir eliminando lo cortado o introduciendo un
nuevo gen.
Entre el DPI y CRISPR hay algunas semejanzas básicas y unas diferencias fundamentales. En
primer lugar hay claramente un proceso de selección artificial, es decir realizada por actores
humanos intencionadamente y con objetivos precisos a diferencia de la selección natural, uno
de los mecanismos básicos de la evolución biológica. En el caso de DPI se seleccionan
embriones y en el caso de CRISPR se eliminan o sustituyen genes para evitar que se
reproduzcan en la generación siguiente.
Sin embargo, hay una diferencia conceptual fundamental entre DPI y CRISPR. El primero
permite seleccionar sobre “lo que hay” es decir sobre embriones que se fertilizan
artificialmente pero sobre los que no se puede hacer más que esperar, diagnosticar y descartar
algunos y transferir al útero el resto. Es tan solo una técnica de diagnóstico. En cambio CRISPR,
cuando se opera sobre las células germinales, permite modificar el ADN de la generación
siguiente y de las futuras.
Vale la pena aclarar que buena parte del marketing y el imaginario social acerca de la genética,
y más allá de las tecnologías de que se pueda disponer, se basa en un error muy común que
consiste en pensar que existe una relación biunívoca, detectable y manipulable “un gen-un
rasgo”, y sólo habría que esperar su identificación precisa específica.
El fantasma de la eugenesia
Atribuir carácter eugenésico al uso de los DPI o CRISPR implica definir a la eugenesia
meramente por su carácter selectivo, como lo hace por ejemplo D. Soutullo para quien se trata
de: “toda intervención, individual o colectiva, encaminada a la modificación de las
características genéticas de la descendencia, independientemente de la finalidad, terapéutica
o social, que persiga”7. En los casos actuales se trataría de una eugenesia “liberal” porque las
decisiones sobre la descendencia son tomadas por los padres y no por ninguna institución ni
por el Estado. Pero cabe preguntarse, más allá de lo que se piense sobre estas nuevas
tecnologías y sus consecuencias –tema sobre el que volveremos más adelante- si este
fenómeno nuevo es similar en algún sentido significativo a lo que ocurrió en la primera mitad
del siglo XX.
Finalmente, hay algo en lo que se parecen la eugenesia clásica y la llamada eugenesia liberal: el
optimismo tecnocrático. En efecto, una misma matriz ideológica y cultural permanece
constante y es la confianza excesiva y omnipotente en que los grandes problemas humanos se
resuelven con más y más ciencia y tecnología.
Más allá de que se siga debatiendo, las recomendaciones sobre las condiciones en las que
pueden aplicarse terapias de edición genómica, se basan en el respeto de una serie de
principios conocidos, algunos relacionados con la responsabilidad hacia el paciente, otros más
generales: En primer lugar, promover el bienestar de las personas, lo cual implica que la
edición del genoma humano debe estar destinada a promover la salud y el bienestar (por
ejemplo para eliminar enfermedades) pero minimizando el riesgo cuando se trata de
aplicaciones tempranas cuyas consecuencias no se conocen con certeza y evaluando un
equilibrio razonable entre riesgo y beneficio.
En segundo lugar, respetar el principio de atención debida para los pacientes, es decir llevar
adelante procedimientos planificados y cuidadosos que estén respaldados por pruebas
científicas fuertes.
En quinto lugar, cumplir el principio de ciencia responsable requiere manejarse con los
estándares de investigación (profesionales e internacionales) más altos disponibles en las
distintas etapas de los procedimientos.
Sexto, el principio de equidad, requiere que los beneficios (y los riesgos) sean distribuidos
equitativamente lo cual incluye, obviamente, el acceso equitativo a los beneficios de las
aplicaciones clínicas de la edición genómica.