Las Cuatro Causas de La Conducta - Articulo - Killeen

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 8

Las cuatro causas de la conducta

Peter R. Killeen1

Resumen

La comprensión de un fenómeno consiste en identificar su origen, estructura, sustrato, y función, y


qué representan estos factores en algunos sistemas formales. Aristóteles proporcionó una
especificación clara de estos tipos de explicación, a la que llamó causas eficientes (disparadores),
causas formales (modelos), causas materiales (sustratos o mecanismos), y causas finales
(funciones). En este artículo, el marco de Aristóteles se aplica a un acondicionamiento y el cálculo-
versus-el debate de la asociación.

Las cuatro causas de Aristóteles

Aristóteles (1929) describe cuatro tipos de explicación. Debido a la mala traducción y la


interpretación errónea por "charlatanes eruditos" (Santayana, 1957, p. 238), sus cuatro
"PORQUÉS" fueron derogadas como un tratamiento incoherente de causalidad (Hocutt, 1974).
Aunque antiguas, las cuatro causas de Aristóteles proporcionan un marco de gran valor para la
explicación científica moderna, y en particular para la resolución del debate actual sobre el
aprendizaje.

En el marco de Aristóteles, las causas eficientes son disparadores, eventos que provocan un
"efecto". Este es el significado contemporáneo de la causa. Los filósofos como Hume, Mill y
Mackie han aclarado los criterios para la identificación de diferentes relaciones causales eficientes
(por ejemplo, la necesidad, suficiencia, eventos insuficientes pero necesarios en el contexto de los
acontecimientos de otra manera suficientes). Las causas eficientes identificar las primeras partes
de una secuencia que son esenciales para la parte final, que nos dicen lo que inicia un cambio de
estado. Jachmann y van den Assem (1996) en "análisis causal etológicas" del comportamiento de
cortejo de una avispa es un ejemplo de este significado de la causa.

Estos son los tipos más comunes de la explicación causal en uso hoy en día, ejemplificadas por la
mayoría de las neurociencias y la investigación de imágenes cerebrales. Una vez que la máquinaria
ha sido identificada, mucha gente considera que el fenómeno está explicado, ese enfoque
exclusivo en la maquinaria que se conoce como el reduccionismo.

Las causas formales son modelos

El gran logro de Newton era dar credibilidad a tales modelos ausentes de causas materiales: Para
él, no había Alternativas a la gravedad "Las hipótesis [concernientes a mecanismos subyacentes]
no son parte de mi diseño", matemático. Fue una situación difícil para Newton, como filósofo
mecánico aborrecía los resultados ocultos Newton gustosamente equipo su teoría con estos
instrumentos - causas materiales- aunque no hubo idea suficiente para mantener a los planetas
en sus órbitas.

Las causas formales son mapas lógicos. La forma favorita de Aristóteles fue el silogismo, al igual
que el físico moderno son favoritas las ecuaciones diferenciales. Tales ecuaciones describen el
cambio de un estado a otro, así como, de acuerdo con las condiciones iniciales (causas eficientes),
las ecuaciones describen la trayectoria completa de cambio.

No importa cuán exitosos sean los modelos formales, no son máquinas: las ecuaciones
matemáticas describen las trayectorias de las pelotas de béisbol y los planetas, pero estos cuerpos
no resuelven ecuaciones para proyectar sus movimientos. Los modelos formales son mudos sobre
la causa eficiente, el sustrato, y la función. Es posible especular sobre los mecanismos
subyacentes, y para generar modelos formales de ellos, pero sin datos directos sobre esos
mecanismos, los modelos son conjeturas no verificables y por lo general sujetos a cambios como
las modas ocultas que van y vienen.

Las causas finales son las explicaciones funcionales

"Para reconocer realmente a una máquina, tenemos que tener una idea de lo que se supone que
hace" (Minsky, 1967, p. 4). Preguntas como "¿para qué sirve?" o "¿Por qué hace eso?" hacen a la
llamada función (final) o causa; la supervivencia del más apto, la teoría de la óptima alimentación,
y las explicaciones intencionales en general, ofrecen respuestas pertinentes. La mayor parte de la
física moderna se puede escribir en términos de las funciones que optimizan ciertas variables,
como la energía. Todas las leyes se refieren a esa óptima causa final.

Los ejemplos más comunes son rayos de luz que siguen patrones que reducen al mínimo el paso
del tiempo, los animales se comportan de forma que se maximice la representación genética en
las generaciones venideras, y los seres humanos se comportan de maneras que maximicen los
beneficios para la población. A las causas finales se les dio un mal nombre (teleología), ya que eran
tratadas como formales, materiaes, o por causas eficientes. Una razón por la que las jirafas tienen
el cuello largo es para hacerles ver follaje alto, esta causa final no desplaza a la explicación formal
(variación y selección natural) y material (genética), ni es una causa eficiente (Lamarkianismo).
Pero ninguna de esas otras explicaciones causales tienen sentido sin la especificación de la causa
final. Los biólogos reintrodujeron las causas finales bajo el eufemismo de "mecanismos
definitivos", en referencia a las causas eficientes y materiales de una conducta como "los
mecanismos próximos."

Dos sistemas que comparten las mismas causas finales pueden tener soportes muy disímiles. Los
análisis evolutivos análogos como las alas de los insectos, aves y murciélagos proporcionan
información útil funcional (relativos, por ejemplo, las presiones evolutivas convergentes y
variedades de estrategias adecuadas para esa función), a pesar de que las alas no son homólogas
(es decir, no han evolucionado a partir de un mismo órgano en un antepasado antiguo). Los
análisis analógico-funcionales son víctimas de "la falacia analógica" sólo cuando se supone que la
similitud de la función implica similitud de eficiencia (historia evolutiva) o causa material
(fisiológica). Tales factores de confusión se puede evitar por el análisis para cada tipo de causa por
separado. Las causas eficientes son, pues, las condiciones iniciales de un cambio de estado, las
causas finales son las condiciones terminales, las causas formales son modelos de transición entre
las condiciones iniciales y terminales, las causas materiales son el sustrato sobre el que actúan
estas otras causas.

Explicación del condicionamiento

Skinner (1950) arremetió contra la causa formal ("teorizar"), material ("neuro-reduccionista") y


finales ("intencional"), e hizo científicas a las causas eficientes como "las variables de las cuales la
conducta es una función". " Él estaba preocupado por las causas complementarias que se pueden
utilizar en lugar de, junto con su análisis funcional. Pero de todos los fenómenos del
comportamiento, el condicionamiento es el menos capaz de ser comprendido sin referencia a las
cuatro causas: La capacidad de estar condicionados ha evolucionado debido a la ventaja eficiente
del aprovechamiento de las relaciones causales.

Causas finales

El Condicionamiento conforma trayectorias conductuales dentro de cortos patrones de refuerzo


(Killeen, 1989). Cuando un estímulo predice un evento biológicamente significativo (un estímulo
incondicionado, (EI)), los animales mejoran su estado físico por "asociaciones de aprendizaje"
entre los acontecimientos externos, y entre esos acontecimientos y las acciones apropiadas.

Son Nichos estables, -aquellos habitadas por la mayoría de las plantas, animales y hongos-, que ni
exigen ni apoyar el aprendizaje: los tropismos y los reflejos simples se ajustan suficientemente a
las regularidades cotidianas de la luz, la marea, y la temporada. Sin embargo, cuando el entorno
cambia, entra el papel del aprendizaje para volver a colocar la maquinaria para aprovechar las
nuevas contingencias. Los mejores aprovechadores están mejor representados en la siguiente
generación. Este es el final-final, en términos de los biólogos de acondicionamiento como causa.
Entender el aprendizaje requiere saber cuáles son las respuestas aprendidas que pueden haber
realizado en los ambientes seleccionados por ellos.

Causas eficientes

Son el prototipo de las causas, lo suficientemente importantes para la supervivencia de muchos


animales que han desarrollado sensibilidad a los mismos. Los parámetros que son indicadores de
las causas eficientes son: la contigüidad en el espacio y el tiempo, la prioridad temporal, la
regularidad de asociación, y afectan tanto a la similitud de los juicios de causalidad por los seres
humanos (Allan, 1993) y a la velocidad del condicionamiento (Miller y Matute, 1996).

Causas materiales

El sustrato del aprendizaje es el sistema nervioso, lo que proporciona mucha riqueza en los
mecanismos. El desarrollo de las explicaciones formales y eficientes del condicionamiento puede
orientar la búsqueda de mecanismos operativos neuronales. A su vez, la elucidación de esa
arquitectura neural puede guiar el modelado formal, como los modelos conexionistas paralelo-
neurales - que emulan diversas funciones cerebrales.

Cada una de las cuatro causas es un recurso para la comprensión de las otras.

Causas formales

Los modelos son subconjuntos propios de todo lo que se puede decir en un lenguaje de modelado.
Modelos asociacionistas y computacionales de aprendizaje son formulados en los idiomas de la
probabilidad y autómaticidad, respectivamente. Sus estructuras se esbozan a continuación.

Modelos Asociativos. Implicación material, la relación suficiente (si C, entonces E; simbolizado


como C → E), proporciona un modelo simplista de ambos causalidad eficiente y
acondicionamiento. Se sostiene que cada vez que C, entonces también E; falla cuando C y E.
Cuando la presencia de una señal (C, el estímulo condicionado o EC) predice con precisión un
reforzador (E, o estímulo incondicionado, EI), la fuerza de la relación C → E aumenta. La
probabilidad condicional del EI dado el CS-p (E | C)-generaliza esta relación todo-o-nada a una
probabilidad. de C y E. Los animales también son sensibles a la presencia de los EI, en la ausencia
de la EC, p (E | ~ C); sólo si esta probabilidad es cero se dice que es una causa necesaria para el
efecto. Efectos innecesarios degradan el condicionamiento, al igual que sucesos inesperados
hacen a un observador cuestionar su comprensión de una situación.

Buenos indicadores de la fuerza de aprendizaje son (a) la diferencia entre estas dos probabilidades
condicionales y (b) el diagnóstico del EC, p (E | C) / p (E), que es el grado en el que la causa (EC )
reduce la incertidumbre respecto a la ocurrencia del efecto (EI). Como es el caso para todas las
probabilidades, la medición de estos condicionales requiere de definir un contexto. Esto puede
comprender combinaciones de señales, un entorno físico y la historia de reforzamiento. El
refuerzo genera una actualización de los condicionales, la velocidad del condicionamiento
depende del peso de condicionantes anteriores. Las bases de datos de algunos condicionantes,
tales como la probabilidad de enfermarse después de experimentar un determinado sabor, a
menudo empieza poco a poco, de modo que una o dos parejas aumentan en gran medida la
probabilidad condicional y generan aversiones gustativas. Apareamientos anteriores del gusto y
de la salud, sin embargo, le dará a los condicionantes anteriores más inercia, haciendo que la
probabilidad condicional de aumente más lentamente, y posiblemente proteja al individuo de una
aversión al sabor causado por la posterior asociación de la enfermedad con gusto. Estímulos más
comunes, puede ser lentos al condicionamiento debido a una historia de exposición que no está
asociada con la enfermedad.

El teorema de Bayes proporciona un modelo formal de este proceso de actualización de las


probabilidades condicionales. Este es un ejemplo de cómo los subconjuntos de la teoría de
probabilidades puede servir como un modelo formal para la teoría de la asociación. Las teorías
asociativas continúan evolucionando a la luz de los experimentos de manipulación de las variables
contextuales, Hall (1991) proporciona una excelente historia de la restricción progresiva de los
modelos asociativos de datos.

Modelos Computacionales. Las computadoras son máquinas que se asocian con direcciones de
contenidos (es decir, ir a un archivo especificado por una dirección y obtener ya sea un dato o una
instrucción). No sólo los equipos asociados, sino las asociaciones de calcular: "Cada máquina de
estado finito es equivalente a, y puede ser 'simulada' por, alguna red neuronal" (Minsky, 1967, p
55.). Las computadoras pueden crear instancias de todos los modelos asociativos de
acondicionamiento y sus inversas. En la metáfora computacional para convertirse en un modelo,
debe ser restringido a un subconjunto propio de lo que las computadoras pueden hacer, una
manera de lograr esto es a través de la teoría de los autómatas (Hopkins y Moss, 1976). La teoría
de autómatas es una caracterización formal de arquitecturas computacionales. Una distinción
crítica entre autómatas es la memoria: autómatas finitos pueden distinguir solamente los insumos
(historias de condicionamiento) que se pueden representar en su memoria interna finita. La
representación puede ser ampliada gradualmente añadiendo una memoria externa los discos
regrabables y finitas o infinitas cintas. Estas arquitecturas amplificadas corresponden a de las
gramáticas libres de contexto de Chomsky (1959/1963), gramáticas sensibles al contexto y
máquinas universales de Turing, respectivamente. Las máquinas de Turing son modelos de la
arquitectura de un ordenador de propósito general pueden calcular todas las expresiones que son
computables en cualquier máquina. La arquitectura de una máquina de Turing es engañosamente
simple, dado su poder universal, es el acceso a una memoria potencialmente infinito "cinta" que
le da este poder. Las computadoras personales son, en principio, las máquinas de Turing,
instrumentos de silicio cuya universalidad ha desplazado a la mayoría de los instrumentos
de metal de la psicología de hace tiempo.

La distinción crucial. La memoria es también lo que divide a lo asociativo de los enfoques


computacionales. los repertorios más complejos pueden llegar a ser "automatizados" en la
práctica, la reducción de un principio de cálculo intensivo en respuesta a los intentos del niño para
atar un zapato puede evolucionar a un hábito inconsciente. La adaptación permite la formación de
automaticidad que si no, llegaría a un precio demasiado alto si no pueden dar lugar a la capacidad
de respuesta automática y rápida. En la teoría asociativa tradicional, la información se reduce a un
potencial de acción ("fuerza" de asociación entre el EC y el EI) y almacenamiento en una base de
tiempo real. Tales autómatas finitos con recuerdos limitados son inadecuados como modelos de
condicionamiento porque "la naturaleza de la representación puede cambiar el tipo de
información que contiene y puede ser influenciada por [varias operaciones post hoc]" (Hall, 1991,
p. 67). Las ratas tienen un acceso de memoria a más de la historia del medio ambiente y han
almacenado las consecuencias por simples disposiciones Bayesianas. Miller (por ejemplo,
Blaisdell, Bristol, Gunther y Miller, 1998), provee de un modelo computacional que ejemplifica tal
reducción.

Si las asociaciones tradicionales son tan simples para ser viables al modelo de condicionamiento,
de libre disposición (universales máquinas de Turing) también inteligentes para ello. Teoría de
Autómatas ofrece una gramática para los modelos que van desde simples interruptores y los
reflejos, a través de complejas asociaciones condicionales, a los sistemas adaptativos que
modifican su software a medida que aprenden. El aumento de memoria es a veces esto requiere
es interno y externo, a veces se encuentra en claves o en el mismo comportamiento (por ej. " los
gestos facilitan la producción de un discurso fluido, al afectar la facilidad o dificultad de
recuperación de palabras de la memoria léxica", Krauss, 1998, p. 58). El contexto es a menudo más
de una señal de memoria que constituye un detallado contenido direccionable para el
almacenamiento situado donde es necesario. Tal vez, más a menudo de lo que pensamos, el
medio es la memoria.

La diferencia entre los modelos asociacionista y computacional se reduce a que los


automaticismos son isomorfos, y esto se correlaciona con la reducción temprana versus la tardía,
de la información a la acción. Ahora, el reto es identificar la clase y la capacidad de los
automaticismos, que son necesarias para describir la capacidad de una especie, y la arquitectura
de las asociaciones dentro de los automaticismos de manera que basta para describir el
comportamiento de los individuos a medida que progresan a través del condicionamiento.

Comprensión y Explicación

Muchas controversias científicas no se derivan tanto de las diferencias en la comprensión de un


fenómeno como en explicación de las diferencias en la comprensión: esperando un tipo de
explicación para hacer el trabajo de otro tipo, y objetando cuando los científicos hacen lo mismo.
Centrarse exclusivamente en las causas finales sería tachado de teleológico, en causas materiales
como de reduccionistas, por causas eficientes como mecánico, y sobre las causas formales como
"teorización". Pero el respeto a la importancia de cada tipo de explicación, y la correcta posición
de las construcciones dentro apropiados dominios empíricos, resuelve muchas controversias. Por
ejemplo, las asociaciones son construcciones formales, que no se encuentran en el organismo,
sino en nuestras tablas de probabilidad o computadoras, y sólo hay que emular conexiones
formadas en el cerebro, y contingencias encontradas en la interfaz de la conducta y el medio
ambiente. Las causas finales no son causas eficientes. Sólo un tipo de explicación viable es cuando
se determinan las partes del cerebro que son activas durante el condicionamiento. El proveerse
de una explicación no reduce la necesidad de los otros tipos. Causas funcionales no son
alternativas a las causas eficientes, pero las completan.

El análisis formal requiere de un lenguaje, y los modelos deben ser un subconjunto propio de ese
idioma. El tema de la señal en el análisis formal de condicionamiento, que no es la asociación
frente a la computación, sino más bien las circunstancias de reducción de información temprana
versus tardía, y el papel del contexto, tanto como una señal de recuperación y como la memoria
misma. La teoría de la automatización proporciona un lenguaje que puede soportar subconjuntos
de máquinas adecuadas para modelar estos procesos, desde la simple asociación hasta los
repertorios humanos más complejos.

La comprensión es una bestia de cuatro patas, que avanza sólo con el progreso de cada tipo de
explicación, y se mueve con más gracia cuando esas explicaciones están coordinados. Es una
actividad humana, y es en sí misma susceptible a los análisis cuadripartitas de Aristóteles. En este
artículo, me he centrado en el análisis formal de la explicación, y las explicaciones formales de
condicionamiento. La comprensión puede ser comprendida como explicación de la conducta con
la idea de como tales causas formales se coordinan con lo material (los estados del cerebro), lo
eficiente (contextos eficaces) y lo final (evolutiva).

Lecturas recomendadas

1. Miller RR, Barnet RC, Grahame NJ. Assessment of the Rescorla-Wagner Model.
Psychological Bulletin. 1995;117:363–386. [PubMed]
2. Uttal W. Toward a new behaviorism: The case against perceptual reductionism. Erlbaum;
Mahwah, NJ: 1998.
3. Wasserman EA. Comparative cognition: Toward a general understanding of cognition in
behavior. Psychological Science. 1993;4:156–161.
4. Wasserman EA, Miller RR. What's elementary about associative learning? Annual Review
of Psychology. 1997;48:573–607.
5. Young ME. On the origin of personal causal theories. Psychonomic Bulletin & Review.
1995;2:83–104.

References

1. Allan LG. Human contingency judgments: Rule based or associative? Psychological Bulletin.
1993;114:435–448. [PubMed]
2. Aristotle In: The physics. Wick-steed PH, Cornford FM, editors. Vol. 1. Heinemann; London:
1929.
3. Blaisdell A, Bristol A, Gunther L, Miller R. Overshadowing and latent inhibition counteract
each other: Support for the comparator hypothesis. Journal of Experimental Psychology:
Animal Behavior Processes. 1998;24:335–351. [PubMed]
4. Chomsky N. On certain formal properties of grammars. In: Luce RD, Bush RR, Galanter E,
editors. Readings in mathematical psychology. Vol. 2. Wiley; New York: 1963. pp. 125–155.
Original work published 1959.
5. Hall G. Perceptual and associative learning. Clarendon Press; Oxford, England: 1991.
6. Hocutt M. Aristotle's four becauses. Philosophy. 1974;49:385–399.
7. Hopkins D, Moss B. Automata. North Holland; NewYork: 1976.
8. Jachmann F, van den Assem J. A causal ethological analysis of the courtship behavior of an
insect (the parasitic wasp Nasonia vitripennis, hym., pteromalidae) Behaviour.
1996;133:1051–1075.
9. Killeen PR. Behavior as a trajectory through a field of attractors. In: Brink JR, Haden CR,
editors. The computer and the brain: Perspectives on human and artificial intelligence.
Elsevier; Amsterdam: 1989. pp. 53–82.
10. Krauss R. Why do we gesture when we speak? Current Directions in Psychological Science.
1998;7:54–60.
11. Miller RR, Matute H. Animal analogues of causal judgment. In: Shanks DR, Medin DL,
Holyoak KJ, editors. Causal learning. Academic Press; San Diego: 1996. pp. 133–166.
12. Minsky M. Computation: Finite and infinite machines. Prentice-Hall; Englewood Cliffs, NJ:
1967.
13. Santayana G. Dialogues in limbo. University of Michigan Press; Ann Arbor: 1957.
14. Skinner BF. Are theories of learning necessary? Psychological Review. 1950;57:193–216.

También podría gustarte