Las Cuatro Causas de La Conducta - Articulo - Killeen
Las Cuatro Causas de La Conducta - Articulo - Killeen
Las Cuatro Causas de La Conducta - Articulo - Killeen
Peter R. Killeen1
Resumen
En el marco de Aristóteles, las causas eficientes son disparadores, eventos que provocan un
"efecto". Este es el significado contemporáneo de la causa. Los filósofos como Hume, Mill y
Mackie han aclarado los criterios para la identificación de diferentes relaciones causales eficientes
(por ejemplo, la necesidad, suficiencia, eventos insuficientes pero necesarios en el contexto de los
acontecimientos de otra manera suficientes). Las causas eficientes identificar las primeras partes
de una secuencia que son esenciales para la parte final, que nos dicen lo que inicia un cambio de
estado. Jachmann y van den Assem (1996) en "análisis causal etológicas" del comportamiento de
cortejo de una avispa es un ejemplo de este significado de la causa.
Estos son los tipos más comunes de la explicación causal en uso hoy en día, ejemplificadas por la
mayoría de las neurociencias y la investigación de imágenes cerebrales. Una vez que la máquinaria
ha sido identificada, mucha gente considera que el fenómeno está explicado, ese enfoque
exclusivo en la maquinaria que se conoce como el reduccionismo.
El gran logro de Newton era dar credibilidad a tales modelos ausentes de causas materiales: Para
él, no había Alternativas a la gravedad "Las hipótesis [concernientes a mecanismos subyacentes]
no son parte de mi diseño", matemático. Fue una situación difícil para Newton, como filósofo
mecánico aborrecía los resultados ocultos Newton gustosamente equipo su teoría con estos
instrumentos - causas materiales- aunque no hubo idea suficiente para mantener a los planetas
en sus órbitas.
Las causas formales son mapas lógicos. La forma favorita de Aristóteles fue el silogismo, al igual
que el físico moderno son favoritas las ecuaciones diferenciales. Tales ecuaciones describen el
cambio de un estado a otro, así como, de acuerdo con las condiciones iniciales (causas eficientes),
las ecuaciones describen la trayectoria completa de cambio.
No importa cuán exitosos sean los modelos formales, no son máquinas: las ecuaciones
matemáticas describen las trayectorias de las pelotas de béisbol y los planetas, pero estos cuerpos
no resuelven ecuaciones para proyectar sus movimientos. Los modelos formales son mudos sobre
la causa eficiente, el sustrato, y la función. Es posible especular sobre los mecanismos
subyacentes, y para generar modelos formales de ellos, pero sin datos directos sobre esos
mecanismos, los modelos son conjeturas no verificables y por lo general sujetos a cambios como
las modas ocultas que van y vienen.
"Para reconocer realmente a una máquina, tenemos que tener una idea de lo que se supone que
hace" (Minsky, 1967, p. 4). Preguntas como "¿para qué sirve?" o "¿Por qué hace eso?" hacen a la
llamada función (final) o causa; la supervivencia del más apto, la teoría de la óptima alimentación,
y las explicaciones intencionales en general, ofrecen respuestas pertinentes. La mayor parte de la
física moderna se puede escribir en términos de las funciones que optimizan ciertas variables,
como la energía. Todas las leyes se refieren a esa óptima causa final.
Los ejemplos más comunes son rayos de luz que siguen patrones que reducen al mínimo el paso
del tiempo, los animales se comportan de forma que se maximice la representación genética en
las generaciones venideras, y los seres humanos se comportan de maneras que maximicen los
beneficios para la población. A las causas finales se les dio un mal nombre (teleología), ya que eran
tratadas como formales, materiaes, o por causas eficientes. Una razón por la que las jirafas tienen
el cuello largo es para hacerles ver follaje alto, esta causa final no desplaza a la explicación formal
(variación y selección natural) y material (genética), ni es una causa eficiente (Lamarkianismo).
Pero ninguna de esas otras explicaciones causales tienen sentido sin la especificación de la causa
final. Los biólogos reintrodujeron las causas finales bajo el eufemismo de "mecanismos
definitivos", en referencia a las causas eficientes y materiales de una conducta como "los
mecanismos próximos."
Dos sistemas que comparten las mismas causas finales pueden tener soportes muy disímiles. Los
análisis evolutivos análogos como las alas de los insectos, aves y murciélagos proporcionan
información útil funcional (relativos, por ejemplo, las presiones evolutivas convergentes y
variedades de estrategias adecuadas para esa función), a pesar de que las alas no son homólogas
(es decir, no han evolucionado a partir de un mismo órgano en un antepasado antiguo). Los
análisis analógico-funcionales son víctimas de "la falacia analógica" sólo cuando se supone que la
similitud de la función implica similitud de eficiencia (historia evolutiva) o causa material
(fisiológica). Tales factores de confusión se puede evitar por el análisis para cada tipo de causa por
separado. Las causas eficientes son, pues, las condiciones iniciales de un cambio de estado, las
causas finales son las condiciones terminales, las causas formales son modelos de transición entre
las condiciones iniciales y terminales, las causas materiales son el sustrato sobre el que actúan
estas otras causas.
Causas finales
Son Nichos estables, -aquellos habitadas por la mayoría de las plantas, animales y hongos-, que ni
exigen ni apoyar el aprendizaje: los tropismos y los reflejos simples se ajustan suficientemente a
las regularidades cotidianas de la luz, la marea, y la temporada. Sin embargo, cuando el entorno
cambia, entra el papel del aprendizaje para volver a colocar la maquinaria para aprovechar las
nuevas contingencias. Los mejores aprovechadores están mejor representados en la siguiente
generación. Este es el final-final, en términos de los biólogos de acondicionamiento como causa.
Entender el aprendizaje requiere saber cuáles son las respuestas aprendidas que pueden haber
realizado en los ambientes seleccionados por ellos.
Causas eficientes
Causas materiales
El sustrato del aprendizaje es el sistema nervioso, lo que proporciona mucha riqueza en los
mecanismos. El desarrollo de las explicaciones formales y eficientes del condicionamiento puede
orientar la búsqueda de mecanismos operativos neuronales. A su vez, la elucidación de esa
arquitectura neural puede guiar el modelado formal, como los modelos conexionistas paralelo-
neurales - que emulan diversas funciones cerebrales.
Cada una de las cuatro causas es un recurso para la comprensión de las otras.
Causas formales
Los modelos son subconjuntos propios de todo lo que se puede decir en un lenguaje de modelado.
Modelos asociacionistas y computacionales de aprendizaje son formulados en los idiomas de la
probabilidad y autómaticidad, respectivamente. Sus estructuras se esbozan a continuación.
Buenos indicadores de la fuerza de aprendizaje son (a) la diferencia entre estas dos probabilidades
condicionales y (b) el diagnóstico del EC, p (E | C) / p (E), que es el grado en el que la causa (EC )
reduce la incertidumbre respecto a la ocurrencia del efecto (EI). Como es el caso para todas las
probabilidades, la medición de estos condicionales requiere de definir un contexto. Esto puede
comprender combinaciones de señales, un entorno físico y la historia de reforzamiento. El
refuerzo genera una actualización de los condicionales, la velocidad del condicionamiento
depende del peso de condicionantes anteriores. Las bases de datos de algunos condicionantes,
tales como la probabilidad de enfermarse después de experimentar un determinado sabor, a
menudo empieza poco a poco, de modo que una o dos parejas aumentan en gran medida la
probabilidad condicional y generan aversiones gustativas. Apareamientos anteriores del gusto y
de la salud, sin embargo, le dará a los condicionantes anteriores más inercia, haciendo que la
probabilidad condicional de aumente más lentamente, y posiblemente proteja al individuo de una
aversión al sabor causado por la posterior asociación de la enfermedad con gusto. Estímulos más
comunes, puede ser lentos al condicionamiento debido a una historia de exposición que no está
asociada con la enfermedad.
Modelos Computacionales. Las computadoras son máquinas que se asocian con direcciones de
contenidos (es decir, ir a un archivo especificado por una dirección y obtener ya sea un dato o una
instrucción). No sólo los equipos asociados, sino las asociaciones de calcular: "Cada máquina de
estado finito es equivalente a, y puede ser 'simulada' por, alguna red neuronal" (Minsky, 1967, p
55.). Las computadoras pueden crear instancias de todos los modelos asociativos de
acondicionamiento y sus inversas. En la metáfora computacional para convertirse en un modelo,
debe ser restringido a un subconjunto propio de lo que las computadoras pueden hacer, una
manera de lograr esto es a través de la teoría de los autómatas (Hopkins y Moss, 1976). La teoría
de autómatas es una caracterización formal de arquitecturas computacionales. Una distinción
crítica entre autómatas es la memoria: autómatas finitos pueden distinguir solamente los insumos
(historias de condicionamiento) que se pueden representar en su memoria interna finita. La
representación puede ser ampliada gradualmente añadiendo una memoria externa los discos
regrabables y finitas o infinitas cintas. Estas arquitecturas amplificadas corresponden a de las
gramáticas libres de contexto de Chomsky (1959/1963), gramáticas sensibles al contexto y
máquinas universales de Turing, respectivamente. Las máquinas de Turing son modelos de la
arquitectura de un ordenador de propósito general pueden calcular todas las expresiones que son
computables en cualquier máquina. La arquitectura de una máquina de Turing es engañosamente
simple, dado su poder universal, es el acceso a una memoria potencialmente infinito "cinta" que
le da este poder. Las computadoras personales son, en principio, las máquinas de Turing,
instrumentos de silicio cuya universalidad ha desplazado a la mayoría de los instrumentos
de metal de la psicología de hace tiempo.
Si las asociaciones tradicionales son tan simples para ser viables al modelo de condicionamiento,
de libre disposición (universales máquinas de Turing) también inteligentes para ello. Teoría de
Autómatas ofrece una gramática para los modelos que van desde simples interruptores y los
reflejos, a través de complejas asociaciones condicionales, a los sistemas adaptativos que
modifican su software a medida que aprenden. El aumento de memoria es a veces esto requiere
es interno y externo, a veces se encuentra en claves o en el mismo comportamiento (por ej. " los
gestos facilitan la producción de un discurso fluido, al afectar la facilidad o dificultad de
recuperación de palabras de la memoria léxica", Krauss, 1998, p. 58). El contexto es a menudo más
de una señal de memoria que constituye un detallado contenido direccionable para el
almacenamiento situado donde es necesario. Tal vez, más a menudo de lo que pensamos, el
medio es la memoria.
Comprensión y Explicación
El análisis formal requiere de un lenguaje, y los modelos deben ser un subconjunto propio de ese
idioma. El tema de la señal en el análisis formal de condicionamiento, que no es la asociación
frente a la computación, sino más bien las circunstancias de reducción de información temprana
versus tardía, y el papel del contexto, tanto como una señal de recuperación y como la memoria
misma. La teoría de la automatización proporciona un lenguaje que puede soportar subconjuntos
de máquinas adecuadas para modelar estos procesos, desde la simple asociación hasta los
repertorios humanos más complejos.
La comprensión es una bestia de cuatro patas, que avanza sólo con el progreso de cada tipo de
explicación, y se mueve con más gracia cuando esas explicaciones están coordinados. Es una
actividad humana, y es en sí misma susceptible a los análisis cuadripartitas de Aristóteles. En este
artículo, me he centrado en el análisis formal de la explicación, y las explicaciones formales de
condicionamiento. La comprensión puede ser comprendida como explicación de la conducta con
la idea de como tales causas formales se coordinan con lo material (los estados del cerebro), lo
eficiente (contextos eficaces) y lo final (evolutiva).
Lecturas recomendadas
1. Miller RR, Barnet RC, Grahame NJ. Assessment of the Rescorla-Wagner Model.
Psychological Bulletin. 1995;117:363–386. [PubMed]
2. Uttal W. Toward a new behaviorism: The case against perceptual reductionism. Erlbaum;
Mahwah, NJ: 1998.
3. Wasserman EA. Comparative cognition: Toward a general understanding of cognition in
behavior. Psychological Science. 1993;4:156–161.
4. Wasserman EA, Miller RR. What's elementary about associative learning? Annual Review
of Psychology. 1997;48:573–607.
5. Young ME. On the origin of personal causal theories. Psychonomic Bulletin & Review.
1995;2:83–104.
References
1. Allan LG. Human contingency judgments: Rule based or associative? Psychological Bulletin.
1993;114:435–448. [PubMed]
2. Aristotle In: The physics. Wick-steed PH, Cornford FM, editors. Vol. 1. Heinemann; London:
1929.
3. Blaisdell A, Bristol A, Gunther L, Miller R. Overshadowing and latent inhibition counteract
each other: Support for the comparator hypothesis. Journal of Experimental Psychology:
Animal Behavior Processes. 1998;24:335–351. [PubMed]
4. Chomsky N. On certain formal properties of grammars. In: Luce RD, Bush RR, Galanter E,
editors. Readings in mathematical psychology. Vol. 2. Wiley; New York: 1963. pp. 125–155.
Original work published 1959.
5. Hall G. Perceptual and associative learning. Clarendon Press; Oxford, England: 1991.
6. Hocutt M. Aristotle's four becauses. Philosophy. 1974;49:385–399.
7. Hopkins D, Moss B. Automata. North Holland; NewYork: 1976.
8. Jachmann F, van den Assem J. A causal ethological analysis of the courtship behavior of an
insect (the parasitic wasp Nasonia vitripennis, hym., pteromalidae) Behaviour.
1996;133:1051–1075.
9. Killeen PR. Behavior as a trajectory through a field of attractors. In: Brink JR, Haden CR,
editors. The computer and the brain: Perspectives on human and artificial intelligence.
Elsevier; Amsterdam: 1989. pp. 53–82.
10. Krauss R. Why do we gesture when we speak? Current Directions in Psychological Science.
1998;7:54–60.
11. Miller RR, Matute H. Animal analogues of causal judgment. In: Shanks DR, Medin DL,
Holyoak KJ, editors. Causal learning. Academic Press; San Diego: 1996. pp. 133–166.
12. Minsky M. Computation: Finite and infinite machines. Prentice-Hall; Englewood Cliffs, NJ:
1967.
13. Santayana G. Dialogues in limbo. University of Michigan Press; Ann Arbor: 1957.
14. Skinner BF. Are theories of learning necessary? Psychological Review. 1950;57:193–216.