Psicobiología de La Educación
Psicobiología de La Educación
Psicobiología de La Educación
5
Consulte nuestra página web:
www.sintesis.com
En ella encontrará el catálogo completo y
comentado
6
7
LUIS MIGUEL GARCÍA MORENO
8
9
Prefacio
1. Introducción a la psicobiología
10
3.1. Conceptos básicos de biología y genética
4.1.1. Neuronas,
5. Neurodesarrollo y cognición
11
5.1.3. Desarrollo postnatal del sistema nervioso,
6. Funcionamiento cerebral
12
7.2.3. Trastornos del sueño,
8.2. Audición
9.2. Gusto
9.3. Olfato
13
10.1. Componentes del sistema motor
12.3.2. Dislexia,
14
12.3.3. Trastorno específico del lenguaje,
Bibliografia
15
16
Escribir un libro de psicobiología para profesionales de la educación era un objetivo
largamente perseguido pero, por diversas circunstancias, reiteradamente aplazado. En un
principio la idea se fue forjando a partir de las quejas de mis alumnos por no disponer de
un texto donde pudieran encontrar reunidos los diversos contenidos que abordábamos en
las clases. Posteriormente, eran antiguos alumnos y otros profesionales de la educación
quienes mostraban su interés por un libro de estas características. Había que hacerlo.
Después viene un bloque de contenidos básicos (capítulos tercero y cuarto) en los que
refrescamos conceptos de biología, genética, neuroanatomía o neurofisiología para
familiarizar a los lectores con estructuras y procesos a los que nos vamos a referir en
capítulos posteriores. El quinto capítulo aborda el desarrollo del sistema nervioso y
cómo, en consonancia, se van adquiriendo las habilidades sensoriomotoras, cognitivas y
emocionales. Consideramos fundamental que los educadores conozcan cómo evoluciona
el sistema sobre el que intervienen cuando educan. Algo similar nos ha llevado a incluir el
capítulo seis sobre funcionamiento cerebral. La psicobiología es bastante más que el
estudio de las relaciones entre el cerebro y la conducta, algo propio de la neuropsicología,
sin embargo, de cara al trabajo diario en el aula y a las dificultades que se pueden
17
encontrar en este entorno, hemos considerado necesario resaltar este aspecto. De hecho,
en el resto de los capítulos daremos bastante relevancia a las implicaciones cerebrales en
el comportamiento normal y el alterado.
Si ya hemos dicho que este libro es fruto de una idea largamente acariciada muchas
son las personas que a lo largo de este tiempo han influido de un modo u otro en que este
proceso se vea culminado. Sería muy probable que me olvidara de alguna de ellas, pero
hay un aspecto que me hace recordar a aquellos que realmente han contribuido a que
este proyecto (y otros muchos) llegue a buen fin. En mi familia, entre mis amigos y entre
mis compañeros de profesión he tenido la gran fortuna de encontrar personas con las que
he podido compartir algo fundamental: la risa, una de las experiencias más gratificantes y
necesarias para el ser humano. Compartir con ellos (vosotros, reconoceos en estas
palabras) esos momentos en los que gracias a la risa todo parece más fácil me ha
convertido en un auténtico privilegiado. Gracias.
18
19
20
21
22
23
En los últimos años, cada vez son más las personas que, dentro y fuera del ámbito
científico, miran al cerebro cuando quieren comprender los más diversos aspectos del
comportamiento humano. Esta mirada no sólo proviene desde las disciplinas próximas
(psicología, biología, neurología...) sino desde otras menos cercanas (filosofía, ética...) e
incluso, desde campos muy diversos (economía, arte...). El ámbito de la educación no
puede ser ajeno a este interés, máxime cuando el principal destinatario de toda la
actividad que despliega es el ser humano, un ser vivo dotado de un cerebro responsable
de sus percepciones, sus movimientos, sus emociones y sus pensamientos. Es necesario
que el profesional de la educación tenga una formación que le permita comprender cómo
funciona el cerebro y, sobre todo, cómo aprende, aspecto fundamental en el proceso
educativo.
Sin embargo, comprender el funcionamiento del cerebro requiere algo más que
conocer su estructura o el modo en que funcionan sus células, las neuronas. Por este
motivo creemos que el proceso educativo, entendido como actividad esencialmente
humana y estrechamente ligada al comportamiento, debe tomar en cuenta el
conocimiento que puede aportar la psicobiología con el fin de desarrollar estrategias de
intervención más ceñidas a la realidad del educando y del marco en el que se
desenvuelve. Para poder valorar de manera correcta el interés que la psicobiología posee
para el profesional de la educación, es necesario comenzar por definir el término y acotar
de manera precisa su objeto de estudio, el comportamiento. Solo así, delimitando lo más
nítidamente posible el ámbito de la disciplina, se pueden comprender los motivos por los
que, en nuestra opinión, pedagogos, psicopedagogos, maestros, educadores sociales y, en
general, cualquier profesional educativo, deben poseer un conocimiento básico de
psicobiología para poder desarrollar plenamente su labor profesional.
24
o indirecto, tienen que ver con la conducta. El segundo matiz hace referencia al concepto
de comportamiento (utilizamos y seguiremos utilizando los términos conducta y
comportamiento como sinónimos, aunque en determinados contextos no se les considere
como tal), ya que no solo tomamos en consideración el comportamiento observable sino
también aquel que solo podemos deducir de manera indirecta o a través de
interpretaciones de respuestas observables. Por ejemplo, podemos ocupamos de
comprender y explicar el llanto como una conducta observable, pero también del estado
emocional subyacente que puede estar generado por ideas, recuerdos o interpretaciones
subjetivas de la realidad. Obviamente, el abordaje de uno y otro presentan diferencias y
peculiaridades, pero no por eso debemos descartar a ninguno; el psicobiólogo debe
abordar ambos en su intento por comprender el comportamiento humano.
25
reconstruir pieza a pieza el conocimiento que perseguimos. Así, tenemos que integrar
acercamientos moleculares, bioquímicos o neuroanatómicos, entre otros, para
comprender cómo tiene lugar una determinada conducta. Por otro lado, el
comportamiento que nos interesa es un proceso de interacción activa con el medio.
Incluso, se puede considerar la conducta como la relación entre los actos de un individuo
y los eventos que ocurren en su entorno, eventos que pueden ser previos, simultáneos o
posteriores a dichos actos (Sidman, 1991). Es decir, existe una relación recíproca entre
los actos del individuo y el contexto en que se producen estos actos. Por ejemplo, la
acción de presionar el interruptor de la luz solemos hacerla únicamente cuando entramos
en una habitación que se encuentra a oscuras.
26
progresivo acercamiento entre filosofía y ciencias naturales durante los siglos xvüi y XIX
lo que constituyó el germen de esta disciplina.
Si bien la psicobiología es una ciencia relativamente joven, el interés por los temas que
le son propios se pierde en la antigüedad más remota. Podemos encontrar vestigios en
culturas de la Antigüedad del interés por los procesos psicológicos y los mecanismos que
los sustentan. Incluso hay evidencia de que los primeros homínidos, hace un millón de
años, consideraban la cabeza como crítica para las funciones vitales, ya que se han
encontrado cráneos con fracturas que podrían interpretarse como producidas por algún
tipo de arma (Finger, 1994). También se han encontrado restos de cráneos que habían
sufrido una trepanación, quizá con motivos rituales, en lugares tan distantes como
Europa o Iberoamérica y hay evidencia escrita de prácticas médicas que afectaban al
cerebro y a ciertas dolencias relacionadas con este órgano en civilizaciones como la
egipcia o la india.
27
Los filósofos de la antigua Grecia son los primeros que tratan de conocer el mundo
que les rodea mediante explicaciones alejadas de la mística y lo sobrenatural y
progresando en su conocimiento mediante la crítica, esto es, no aceptando las ideas como
algo impuesto sino como fruto de la contrastación de hipótesis. Filósofos como Pitágoras
(580-489 a. C.) o Platón (429-348 a. C.) desarrollaron la idea de que el alma era algo
sustancial diferente del cuerpo. Por el contrario, Aristóteles (384-322 a. C.) defendía la
idea de que ambas entidades formaban una misma cosa, siendo el cuerpo el componente
material y el alma, el formal (Leahey, 2004). Hay que tener en cuenta que el concepto de
alma provenía del latín anima y hacía referencia al principio que dotaba de actividad a los
seres vivos. Pero si una dicotomía caracterizó a los filósofos de la Antigüedad en lo
referente al ser humano fue el cardiocentrismo frente al cerebrocentrismo. El
cardiocentrismo consideraba al corazón como la sede del alma y las funciones psíquicas,
dejándole al cerebro el papel de mero refrigerador sanguíneo gracias a la red de capilares
que posee; su principal exponente fue Aristóteles. Esta postura era opuesta a la defendida
por filósofos como Demócrito (460-370 a. C.) o Platón y médicos como Hipócrates
(460-370 a. C.) que pensaban que era el cerebro el que controlaba las funciones físicas,
los procesos mentales y era la sede de la inteligencia o los sentimientos (Crivellato y
Ribatti, 2007; Finger, 2000). Debido al prestigio de Aristóteles, esta concepción
cardiocéntrica perduró hasta el siglo XVI ya que filósofos como el español Miguel Servet
(1511-1553), el primero en describir la circulación sanguínea, o el médico William
Harvey (1578-1657) seguían defendiendo el cardiocentrismo y considerando a la sangre
como la esencia del alma que era distribuida por el organismo gracias al corazón. Si
Aristóteles fue el máximo representante del cardiocentrismo, los defensores del
cerebrocentrismo tuvieron en Galeno (130-200) su principal valedor. Fue médico y
anatomista que como consecuencia de uno de sus trabajos, médico de gladiadores, tuvo
la ocasión de comprobar con frecuencia las secuelas de traumatismos craneales que
sufrían sus pacientes. Asociaba la imaginación, el intelecto y la memoria con el cerebro y
afirmaba que estas funciones podían resultar afectadas por separado en casos de lesiones
cerebrales. Eran dos posiciones antagónicas fuertemente arraigadas cuyos orígenes
fueron rebasados por el protagonismo de sus defensores, pasando a convertirse en la
pugna entre aristotélicos y galénicos (Crivellato y Ribatti, 2007).
28
cuerpo no es más que un simple mecanismo que, sin alma, carece de voluntad,
consciencia o razón. Esta concepción dualista formulada por Descartes supone una
mente (alma) separada del cerebro (cuerpo) pero unidos por la glándula pineal, lo que
implica que el cerebro, como cualquier órgano corporal, puede ser objeto de estudio.
Descartes es considerado por algunos autores como el responsable de abrir el debate
cerebro-mente que todavía no está completamente cerrado (Hansotia, 2003).
Otra figura eminente es Hermann Ebbinghaus (1850-1909), que estudió las funciones
29
superiores (en su caso la memoria) mediante un método experimental riguroso tratando
de controlar todas las variables extrañas. Para ello, utilizaba largas listas de sílabas sin
sentido que debían ser memorizadas actuando él mismo como sujeto de experimentación.
Fruto de este trabajo publicó su famosa obra Über das Gedcichtnis (Sobre la memoria)
en 1885. De formación asociacionista, evitaba especular sobre los cambios cerebrales
que ocurrían durante el proceso de memorización (Finger, 1994; Leahey, 2004).
Ebbinghaus y Wundt no se conocieron pero ambos contribuyeron decisivamente al
desarrollo de la psicología experimental. Esto es algo que ya empieza a ser frecuente,
científicos que no tienen contacto entre sí indagan en la misma dirección y con
frecuencia realizan aportaciones que, en conjunto, ocasionan un avance relevante. Es la
consecuencia de un progreso científico que, libre de ataduras, eclosiona desde múltiples
orígenes.
A) Avances en neurofisiología
Una de las limitaciones en el estudio del SN era la carencia de herramientas adecuadas
para su observación, por ese motivo, el perfeccionamiento del microscopio óptico
permitió superar este problema y avanzar en el conocimiento de su estructura celular.
Así, primero Matthias J.Schleiden (1804-1881) en plantas y posteriormente Theodor
Schwann (1810-1882) en animales formularon la teoría celular, según la cual los
organismos estaban formados por células. Esta teoría fue unánimemente aceptada pero el
SN seguía siendo objeto de controversia. Los trabajos de científicos como Otto Deiters
(1834-1863) o Wilhelm His (18311904) en la diferenciación de axón y dendritas llevaría
a científicos como Joseph von Gerlach (1820-1896), Albert von KÓlliker (1817-1905) o
Camilo Golgi (1843-1926) a defender la denominada teoría reticularista que consideraba
el SN como una gran red de axones y dendritas sin solución de continuidad por donde
fluían las señales nerviosas (Finger, 2000; Goodwin, 2009). En oposición a la teoría
reticularista otros científicos defendían la teoría neuronal, según la cual, el SN estaba
formado por células individuales con unidad estructural y funcional diferenciables. Esta
30
línea era defendida por el propio His y otros como Auguste Forel (1848-1931), quien
demostró que la destrucción de algunas fibras no provocaba degeneración del tejido
próximo, lo cual no encajaba con una concepción reticularista del tejido nervioso (López
Piñero, 2006). Pero el máximo exponente de la teoría neuronal es el español Santiago
Ramón y Cajal (1852-1934), premio Nobel en 1906, quien demostró de manera
irrefutable que las neuronas eran células individuales. La escasa tradición científica de
España a finales del siglo XIX provocó numerosas dificultades a Cajal para dar a conocer
las conclusiones de sus trabajos pero gracias a His y Wilhelm von Waldeyer (1836-1921)
pudo hacerlo de manera más amplia en un congreso celebrado en Berlín en 1889, donde
el propio von KÓlliker reconoció su trabajo y reconsideró sus posiciones reticularistas
(López-Muñoz et al., 2006; López Piñero, 2006).
31
implica que la conducta y los procesos mentales en el hombre también son consecuencia
de un proceso evolutivo vinculado filogenéticamente al resto de especies animales, lo cual
supone un importante avance para los estudios comparativos y respalda los
descubrimientos realizados en animales como elementos útiles en la comprensión del
comportamiento humano. La teoría de Darwin consideraba además la adaptación al
medio como objetivo evolutivo que garantizase la supervivencia de una especie; esto, de
manera muy resumida, se refiere al hecho de que aquellos animales que mejor se
adaptasen a su entorno tenían más posibilidades de sobrevivir y transmitir sus genes (van
Wyhe, 2009). Esta idea influyó notablemente sobre la psicología posterior ya que el
comportamiento humano no se entiende desligado del entorno en el que ocurre; al fin y al
cabo, la puesta en marcha de conductas concretas suele ir encaminada a la consecución
de un objetivo (por ejemplo, encontrar comida o pareja, defender un territorio...) y aquel
individuo que desarrolle conductas más eficaces conseguirá con más facilidad dichos
objetivos. Darwin influyó notablemente sobre corrientes psicológicas como el
funcionalismo americano de William James (1842-1910) o la reflexología rusa de Iván
Sechenov (1829-1905), ambas interesadas por los aspectos observables del
comportamiento. Además, el intento de comprender el comportamiento y los procesos
mentales en el hombre a partir de los estudios de la psicología animal obtenía ahora un
respaldo científico al aceptar la continuidad filogenética entre especies.
32
rusos por su teoría acerca de los reflejos condicionados. Estudiaba la salivación en perros
y observó que estos iniciaban la secreción cuando oían acercarse al cuidador encargado
de la comida; en un primer momento pensó que se trataba de "reflejos psíquicos"
producto de la asociación de ideas, sin embargo, rechazando un acercamiento subjetivo
al problema, decidió estudiarlo desde una perspectiva estrictamente fisiológica. Ha sido
considerado como el principal fisiólogo de la primera mitad del siglo xx (Tansey, 2006).
Por su parte, Bechterev está considerado el heredero intelectual de Sechenov. Psiquiatra
de profesión, comprobó las limitaciones de la introspección en los relatos de sus
pacientes, donde se ponían de manifiesto los efectos distorsionantes de los deseos,
fantasías e ideas irracionales de los sujetos. Postuló que la psicología debía estudiar las
relaciones entre la conducta y el medio ambiente utilizando los métodos de las ciencias
naturales. Conocedor de los experimentos de Pavlov, investigó el condicionamiento
motor, que permitía el estudio de un conjunto más amplio de respuestas. En este sentido
es considerado el padre de la terapia de conducta (Cabral, 2009; Goodwin, 2009).
Una de las características del método propuesto por los reflexólogos, sobre todo por
Pavlov, es el estricto control de las variables ajenas a lo que se pretende evaluar. Esto
sólo parece posible en el laboratorio, sin embargo, va a existir una corriente que,
influenciada por estas ideas, van a tratar de explicar la conducta como un conjunto de
reflejos condicionados, es el conductismo americano. El padre indiscutible de esta
corriente es John B.Watson (1878-1958), quien, influido por el pragmatismo
funcionalista, la psicología animal y las teorías de los reflejos condicionados de Pavlov y
Bechterev, desarrolló una doctrina que ponía todo su énfasis en la objetividad
experimental. Rechazaba procesos no observables como los mentales y atacó duramente
el estructuralismo y la psicología de Wundt por dar cabida a la consciencia y a la
introspección (Leahey, 2004). Watson negaba rotundamente los procesos mentales
porque, según él, se podían predecir todos los comportamientos sin acudir a
explicaciones basadas en el funcionamiento cerebral. Esto hizo que durante el apogeo del
conductismo más estricto se marginase la investigación del comportamiento desde una
perspectiva fisiológica. Sin embargo, en posteriores revisiones del conductismo se
incluirán procesos internos que determinan la aparición de respuestas concretas ante
estímulos particulares, por lo que se vuelve a mirar hacia el cerebro como lugar donde se
producen tales procesos internos (Goodwin, 2009; Leahey, 2004). En esta línea se
encuentran psicólogos como Edwin B. Holt (1873-1946), Edward C.Tolman (1886-
1959), Carl L.Hull (1884-1952), Karl S.Lashley (1890-1958) o Burrhus F.Skinner (1904-
1990) que, sin renunciar a la ortodoxia conductista, incluyen algunas variables nuevas en
la explicación de la conducta como la experiencia anterior del sujeto, la motivación o las
consecuencias de la conducta.
33
neuropsicología, conociendo el modo en que un sujeto realiza una serie de tareas
podemos deducir información acerca de su funcionamiento cerebral. Además, las
modernas técnicas de registro de la actividad cerebral y de neuroimagen ayudan a
confirmar dicha información, lo que supone un avance considerable en el modo en que
se plantean los estudios sobre el comportamiento humano.
C) Funcionamiento cerebral
Desde que se aceptó que el cerebro era el órgano rector de la conducta y de los
procesos mentales, muchos fueron los trabajos que intentaron establecer correlaciones
entre las diferentes partes del cerebro y la conducta. El primer intento sistemático de
localizar las funciones mentales en el cerebro fue llevado a cabo por Franz J. Gall (1757-
1828) y Johann Spurzheim (1776-1832) cuya teoría recibió el nombre de Frenología
(Goodwin, 2009; Hansotia, 2003). Esta disciplina había bebido en las fuentes de la
craneometría y la craneoscopia, métodos antropológicos por excelencia que consideraban
posible obtener información sobre la personalidad o la inteligencia del sujeto a partir de
determinas características morfométricas de su cráneo. Así, la frenología afirmaba que
las diferencias anatómicas del cráneo de un individuo estaban producidas por el
crecimiento desigual de diferentes partes de su cerebro, lo que dependía del grado de
utilización de cada una de ellas; por lo tanto, las diferencias anatómicas del cráneo podían
proporcionar información sobre el perfil psicológico del individuo. Gall, que denominó
Organología a su pseudociencia, porque consideraba como órganos las diferentes partes
del cerebro, afirmaba que había podido identificar 27 facultades en diferentes partes de la
corteza cerebral humana, 19 de las cuales podían encontrarse también en animales. La
lista de facultades resulto poco afortunada con algunas denominaciones curiosas como el
"talento poético", el "sentimiento religioso", la "responsabilidad", el "republicanismo" o el
"amor fiel" (Duque-Parra, 2002; Finger, 2000; González Álvarez, 2010). La teoría
frenológica tuvo poca proyección ya que su metodología poco científica junto con
algunas propuestas poco creíbles realizadas por sus promotores hizo que cayera en el
descrédito, sin embargo, estos trabajos sirvieron de estímulo para la investigación de la
localización cerebral de las funciones mentales y consolidaron definitivamente al cerebro
como sede de la conducta y los procesos mentales.
34
más cerca de la verdad.
35
las funciones intelectuales o mnésicas estuvieran localizadas en áreas concretas del
cerebro, incluso dudaba que lo estuvieran los procesos sensoriales y motores (Finger,
1994; Goodwin, 2009). Hasta entonces, en las asignaciones funcionales a las diferentes
áreas corticales, los lóbulos frontales habían quedado fuera del reparto; unos los
consideraban áreas silenciosas y otros les asignaban los procesos asociativos, los únicos
que no habían podido ser localizados de manera concreta. Franz, que trabajaba con
pacientes neurológicos al mismo tiempo que con animales de laboratorio, sí se ocupó de
ellos para negar que albergaran la memoria, demostrando que gatos y monos con lesiones
frontales eran capaces, aunque con mayor dificultad, de aprender una tarea. En la misma
línea, Karl S.Lashley (1890-1958) discípulo y colaborador de Franz, llegó a conclusiones
similares al afirmar que la inteligencia no depende de un área concreta del cerebro y que
los deterioros intelectuales provocados por una lesión dependían más del tamaño de esta
que de su localización concreta. Siguiendo las ideas de Flourens, formuló las leyes de la
equipotencialidad y de la acción de masa, al considerar que el cerebro funcionaba de
manera integrada y que las partes intactas de un cerebro dañado podían asumir, en parte,
las funciones correspondientes al tejido perdido si bien con restricciones. En la
formulación de estas leyes, Lashley acepta cierto tipo de especialización cerebral.
36
preservadas después de la lesión.
37
complejos y uno de cuyos máximos exponentes es Michael S.Gazzaniga. El interés por
los procesos superiores también se manifiesta en los trabajos de Joaquín M.Fuster sobre
la memoria y el córtex prefrontal en primates, los de A.Damasio y N.Geschwind sobre el
lenguaje o los de Joseph L.LeDoux sobre los procesos emocionales. La memoria y el
aprendizaje son los procesos que más atención han recibido en los últimos años; quizá
por ser procesos esenciales para el ser humano y en parte, también, por la diversidad de
abordajes posibles que admiten, desde los mecanismos celulares y moleculares que
pueden subyacer a estos procesos hasta las estructuras cerebrales que están implicadas
en los diferentes tipos de aprendizaje y memoria (Squire, 2004). Al fin y al cabo, la
memoria es la base de nuestra individualidad y gracias a ella podemos adquirir
conocimiento a lo largo de nuestra vida.
La denominada Década del Cerebro, que transcurrió entre los años 1990 y 2000,
supuso una revolución en el estudio del SN en general y del cerebro en particular. En
diez años se consiguieron más avances que en toda la historia anterior, pero no solo eso,
se produjo un cambio de paradigma a la hora de estudiar el cerebro, en parte por
innovaciones tecnológicas que lo hacían más accesible, en parte por la ruptura con
prejuicios que determinaban ciertas ideas acerca de la función cerebral. El desarrollo de
nuevas técnicas de registro de la actividad cerebral y neuroimagen junto con el
perfeccionamiento de modelos computacionales han facilitado el abordaje de procesos
cognitivos a los que antes solo podíamos acceder a partir de formulaciones teóricas y
modelos cognitivos sin contraste neuropsicológico. En este sentido, la observación
estructural y funcional del cerebro se ha visto fortalecida con la posibilidad de conocer la
conectividad cerebral, algo que ha permitido avanzar en la explicación de ciertas
alteraciones, sobre todo en las etapas iniciales del desarrollo, que antes carecían de
explicación.
38
el que descansaba el conocimiento neurocientífico de la época. Desde Ramón y Cajal se
había trabajado con la idea de que, al nacer, el SN ya contaba con todas las neuronas
necesarias y que a partir de ese momento se producía una pérdida neuronal que nos
acompañaría el resto de nuestra vida. Era una afirmación difícil de aceptar, pero hoy en
día lo está plenamente y supone un nuevo modo de ver el funcionamiento cerebral
39
tipo de relación existe entre ambas disciplinas o de si una forma parte de la otra.
40
social en el que se desarrolla y, por este motivo, no es simplemente una mera transmisión
de conocimientos sino que implica un intento de inculcar un estilo de vida y un modelo
de sociedad (Savater, 1998). No es nuestro objetivo primordial definir educación sino
vincularlo con la psicobiología. Por ese motivo, vamos a recurrir a dos definiciones que
nos van a ser útiles para la argumentación que queremos desarrollar. Por un lado, José
María Asensio (1997) define la educación como"... un medio o, si se prefiere, una
estrategia de actuación cuya finalidad es la de promover adquisiciones que, en algún
sentido, se consideran necesarias para los individuos en sus respectivas sociedades"; por
su parte, García Hoz (1960) propone que se trata de:"... perfeccionamiento intencional
de las potencias específicamente humanas". Ambas definiciones, separadas cuarenta
años, remarcan el carácter intencional y planificado de la educación para distinguirlo de
aprendizajes casuales.
41
cuales, en demasiadas ocasiones, estaban determinadas por influencias culturales, cuando
no, ideológicas o políticas más que por causas científicas. Cualquier modelo educativo
que no contemple las peculiaridades del SN carece de validez empírica. Sin embargo,
esto no quiere decir que estos modelos carezcan de validez en absoluto, algunos han
demostrado su eficacia... a posteriori. Parece inevitable que así sea en el ámbito de la
educación, pero conociendo las características (incluidas sus limitaciones) del SN, es
posible realizar diseños más ajustados y con mayor probabilidad de éxito.
Hoy en día, la educación se concibe como algo más complejo que la mera adquisición
de datos y conocimientos; es, además, la etapa en la que tratamos de que los educandos
vayan perfilando su personalidad mediante la adquisición de valores y el desarrollo de
aptitudes y actitudes para alcanzar una vida satisfactoria en la adultez. El proceso
educativo tiene como objetivo un cambio de conducta intencional y planificado en
múltiples dimensiones de la persona y, por tanto, es necesario que el educador conozca
los determinantes biológicos de esa conducta sobre la que pretende influir para ejercer su
tarea con la máxima eficacia posible. Es tiempo de superar prejuicios y comprender el
comportamiento humano como lo que es, la más compleja expresión de la actividad del
SN y en ese punto radica, a nuestro entender, uno de los desafíos más inmediatos que
tiene la educación en el presente siglo. No es una tarea fácil integrar el conocimiento
psicobiológico en el ámbito educativo, especialmente porque todavía nos falta conocer
mucho sobre el funcionamiento cerebral en el entorno escolar. Si ya el conocimiento del
funcionamiento cerebral adulto presenta dificultades y todavía hay desafíos que atender,
en el ámbito escolar nos enfrentamos a un cerebro cambiante, en pleno desarrollo, lo cual
complica su estudio.
42
de Friburgo acuñó el término neurodidáctica para referirse a una disciplina que intenta
conciliar Pedagogía y neuropsicología, defendiendo la postura de que el aprendizaje debe
planificarse del modo que mejor se adapte al desarrollo cerebral. Así, el diseño de
programas educativos y estrategias de aprendizaje debe conceder más importancia al
hecho de que el aprendizaje está soportado por los procesos cerebrales y que la
adquisición de capacidades está determinada por el desarrollo cerebral (Friedrich y
Preiss, 2003). Parece claro que si queremos avanzar en modelos de aprendizaje que
tengan en consideración los avances aportados por la neuropsicología es necesario que
los profesionales de uno y otro campo se acerquen entre sí para establecer un abordaje
común del problema.
43
44
A lo largo de la historia la psicología ha realizado numerosos esfuerzos para apartarse
de especulaciones pseudocientíficas y dotar al conocimiento psicológico de una base
empírica que lo sustente. El comportamiento es un constructo muy amplio y complejo, lo
que hace que no siempre sea fácil la comprobación empírica de muchas de sus
manifestaciones, sobre todo aquellas que tienen un carácter subjetivo. Quizá, una de las
ramas que más ha contribuido a que la psicología alcance el estatus científico ha sido la
psicobiología ya que, desde los trabajos de Wundt buscando las bases fisiológicas del
comportamiento, ha tratado de utilizar una metodología rigurosa y contrastable.
Independientemente de los diferentes criterios que se utilicen para delimitar lo que es
ciencia y lo que no lo es, la utilización de una metodología rigurosa que permita
contrastar y verificar el conocimiento obtenido es una garantía científica incuestionable.
En ese sentido, no cabe duda de que la psicobiología sea una ciencia y, como toda
ciencia, avanza en el conocimiento de su objeto de estudio mediante la investigación,
sirviéndose para ello del método científico.
El conjunto de pasos que sigue un científico hasta que puede ser capaz de explicar o
describir de forma precisa un fenómeno o la relación entre dos o más fenómenos se
denomina método científico. Una de las principales características de este método es que
sus enunciados pueden ser sometidos a prueba por diferentes caminos, pero uno de los
más transitados es el método experimental. Este, también conocido como hipotético
deductivo, se basa en el control estricto de las variables que influyen sobre el fenómeno
estudiado en condiciones controladas, bien en un laboratorio o en un entorno
seminatural; obviamente, cuanto mayor sea el control que podamos ejercer sobre las
variables intervinientes, mayor fiabilidad tendrán los datos obtenidos. Este método es el
más importante en psicobiología, si bien, como consecuencia de las peculiaridades de
esta disciplina, su aplicación puede mostrar un amplio abanico de posibilidades y
adaptaciones específicas.
45
su correlato neurobiológico por lo que el siguiente paso es obtener este tipo de medidas
por los procedimientos más variados, desde técnicas histológicas en tejido nervioso de
diferentes especies hasta imágenes de la actividad cerebral humana en tiempo real. Todo
va a depender del objetivo de la investigación y de las hipótesis que se formulen.
46
la hora de garantizar una práctica acorde con directrices nacionales e internacionales que
velan por que estos procedimientos causen el mínimo sufrimiento imprescindible a los
animales. De hecho, persiguen lo que se conoce como las tres "erres" (Gluck y Bell,
2003):
47
diseñador que inicialmente la denominó "caja operante", en referencia al modelo de
aprendizaje por condicionamiento operante que describió y sobre el que realizó
numerosos experimentos (Skinner, 1938). En una configuración estándar, una de las
paredes de la caja contiene el llamado "panel inteligente" o "panel de trabajo", sobre el
que están instalados dispositivos que permiten dispensar comida o bebida, las palancas,
luces, altavoces, etc. (figura 2.1). El suelo está enrejillado para poder aplicar estímulos
eléctricos aversivos (castigo). Son cajas insonorizadas por lo que permiten la
manipulación controlada de los estímulos ambientales y la introducción o retirada a
voluntad de condiciones estimulares concretas.
Figura 2.1. Esquema básico de una caja de Skinner. En el frontal vemos el panel
inteligente con los dispositivos que permiten el suministro de estímulos y recompensas
según la conducta del animal.
48
y posteriormente analizar de manera pormenorizada la ejecución de los animales en este
tipo de pruebas, lo cual facilita mucho el trabajo del experimentador.
49
admite diferentes configuraciones según el número de brazos que se incorporen y el
paradigma que se desarrolle, aunque se ha utilizado preferentemente para evaluar
memoria espacial (Olton y Samuelson, 1976). Es relativamente fácil de aprender para los
animales y resulta muy sensible a lesiones en determinadas áreas cerebrales o a los
tratamientos con drogas. Obviamente, para que la búsqueda de comida se convierta en
una conducta motivada es preciso que el animal haya estado sometido previamente a un
periodo de deprivación en el que se le mantiene en un peso inferior a lo normal; esto
garantiza que el animal estará hambriento cuando lo sometamos a las pruebas.
Figura 2.3. Esquema de un laberinto radial de 8 brazos. El animal debe recorrer todos los
brazos sin repetir en ninguno para obtener las bolitas de comida que hay situadas en los
cebaderos de los extremos. La comida no se repone por lo que si repite una entrada ya
no obtiene recompensa. El acceso desde la plataforma central a los brazos está cerrado
con una trampilla para regular intervalos de demora entre cada entrada.
Otro laberinto que se utiliza con mucha frecuencia es la piscina circular de Monis
(Morris water maze) (figura 2.4). Consiste básicamente en una cubeta circular llena de
agua enturbiada (por ejemplo, con leche en polvo u otros productos) y con una
plataforma ligeramente sumergida que el animal debe encontrar nadando para escapar del
agua (Monis, 1984). Los animales deben guiarse por claves visuales del entorno y
50
recordar la localización de la plataforma para sucesivos ensayos; es una tarea que
aprenden con facilidad por lo que se puede realizar una evaluación bastante completa en
periodos cortos de tiempo. En este caso el reforzador es salir del agua, un medio en el
que la rata no se siente cómoda; esto supone que no se necesitan periodos de deprivación
de comida ni otro programa de reforzamiento complejo por lo que se utiliza cada vez
más en estudios de lesiones cerebrales o de administración de drogas.
A veces han surgido problemas con los reforzadores porque los animales no siempre
tienen la misma sensación de hambre (por ejemplo, después de un cierto número de
ensayos en los que el animal ha obtenido la bolita de comida, el hambre habrá
disminuido) o no todas las ratas experimentan la misma aversión al agua. Esto supone un
inconveniente que no se debe pasar por alto a la hora de diseñar los protocolos de
evaluación conductual. Un tipo de laberinto que ha resuelto en parte este problema es el
rotatorio (Cimadevilla et al., 2000). Consiste en una plataforma circular rotatoria en la
que se delimita una zona de castigo que el animal debe evitar para no recibir un shock
eléctrico en las patas (figura 2.5). Como todo el suelo de la plataforma está enrejillado, se
puede hacer que la zona de castigo permanezca estática por lo que el animal solo recibe
una leve descarga eléctrica en las patas cuando un área de la plataforma pasa por una
localización determinada. Así, el animal debe moverse constantemente para evitar la zona
de castigo y debe recordar su ubicación mediante diferentes tipos de claves tanto
espaciales como no espaciales. Admite muchas configuraciones ya que permite que la
zona de castigo y la plataforma roten simultáneamente, o bien alguna de ellas
51
permanezca fija.
Figura 2.5. Laberinto rotatorio. El animal debe evitar una zona concreta de la plataforma.
Como el suelo de la misma está enrejillado de manera homogénea, debe utilizar como
claves visuales los estímulos del entorno o, incluso, claves temporales sobre la velocidad
de giro de la plataforma.
52
podemos encontrar múltiples procedimientos con diversas especies animales.
53
elije el objeto nuevo obtiene una recompensa.
Una variante de este modelo, que se utiliza sobre todo con ratas, es el
desemparejamiento espontáneo con la muestra (Ennaceur y Aggleton, 1994; Ennaceur y
Delacour, 1988; Ennaceur y Meliani, 1992), donde en vez de comida se utiliza como
reforzador la curiosidad y la tendencia natural de estos animales a explorar los objetos
novedosos. El procedimiento básico consiste en presentar dos objetos idénticos en el
primer ensayo (uno en cada esquina del área de experimentación); en el segundo ensayo
son sustituidos por uno idéntico a la muestra y otro nuevo (figura 2.7). En condiciones
normales, el animal dedicará más tiempo a explorar el objeto nuevo.
54
espacial, es decir, la evaluación de la capacidad de orientación espacial de los animales.
Básicamente, la tarea consiste en que el animal debe recordar una posición o un
recorrido, sin embargo, se han desarrollado diversos procedimientos de diferente
complejidad en los que el animal debe alcanzar su objetivo. Se pueden utilizar laberintos
sencillos como los que tienen forma de T o de Y, pero los dos más utilizados para este
propósito han sido el laberinto radial y la piscina de Morris que hemos descrito
anteriormente.
La tarea básica en el laberinto radial es recorrer los brazos sin repetir ninguno hasta
haber visitado todos y obtenido la recompensa correspondiente. En la piscina de Morris
lo habitual es situar al animal en un punto de la piscina y dejarlo que nade hasta que
encuentre la plataforma. Este procedimiento se repite cambiando el punto de partida del
animal; en días sucesivos, se repite el procedimiento cambiando la localización de la
plataforma. Lo normal es que el animal nade directamente hacia la plataforma después de
unos pocos intentos dedicando mucho me nos tiempo a encontrarla. Para confirmar el
aprendizaje, se puede hacer un último ensayo en el que se quita la plataforma para que el
animal no pueda escapar del agua; si recuerda correctamente su ubicación, el animal
nadará únicamente en las inmediaciones del lugar donde estaba la plataforma y no la
buscará por el resto de la piscina. En todos estos procedimientos es posible introducir
variaciones.
Se han desarrollado protocolos para evaluar otras conductas como las habilidades
sensoriomotoras, conductas adictivas o procesos atencionales, además de la utilización de
modelos animales para simular trastornos mentales y poder determinar las alteraciones
neurocognitivas que pueden ir ligadas a dichos trastornos (Hitzemann, 2000). En
cualquier caso, no hay que olvidar que en todos estos procedimientos hay que ser
cuidadosos a la hora de controlar variables extrañas (emocionales, contextuales,
etológicas...) que puedan desvirtuar el parámetro que queremos evaluar. Por otro lado,
no siempre hay una aceptación científica unánime sobre el tipo de proceso cognitivo que
dicen medir los diferentes procedimientos, por lo que es frecuente encontrar
discrepancias sobre la interpretación de los datos obtenidos.
Las posibilidades conductuales son muy diversas por lo que el investigador debe
seleccionar los protocolos que mejor se adapten al tipo de evaluación que desee realizar.
También es posible diseñar tareas nuevas para evaluar aspectos específicos del
comportamiento de los animales. Esto requiere un planteamiento cuidadoso de los pasos
y tareas que se han de realizar, para lo que es necesario conocer las características de los
animales que se van a utilizar como sujetos. Por todo ello es necesario revisar
previamente la literatura existente y tomar en cuenta las aportaciones realizadas por otros
autores en experimentos anteriores.
55
El neuropsicólogo ruso A.R.Luria fue el primero en utilizar una serie de tareas de
manera sistemática para estudiar las alteraciones cognitivas y motoras en personas que
habían sufrido algún tipo de daño cerebral. La evaluación neuropsicológica (EN) consiste
en un conjunto de técnicas y procedimientos de diversa índole para obtener información
acerca del funcionamiento cerebral de una persona a partir de observaciones realizadas
sobre su comportamiento y de su nivel de ejecución en pruebas y tests específicos. En
este sentido, comparte muchos aspectos con la evaluación psicológica, pero el aspecto
diferencial de la EN es que su marco de referencia es la actividad cerebral. De hecho,
muchas pruebas tradicionalmente utilizadas en psicología también se usan en la EN, sin
embargo, la interpretación de los resultados se lleva a cabo en referencia a los circuitos
cerebrales implicados en la resolución de las tareas y a su funcionalidad.
56
las mismas pruebas, existen algunos factores que diferencian el modo en que se actúa en
uno u otro ámbito. Cuando nos referimos al ámbito clínico incluimos también aquellas
evaluaciones que se realizan en entornos educativos para determinar déficits funcionales
que ocasionen dificultades de aprendizaje, es decir, nos referimos a cualquier evaluación
que tiene como objetivo la caracterización neuropsicológica de una persona con
dificultades de cara a posibles intervenciones. En ambos casos el objetivo es obtener
información sobre la actividad cerebral a partir de observaciones y mediciones, pero el
modo en que estas observaciones y mediciones se van a llevar a cabo presenta algunas
diferencias que es necesario tomar en consideración.
Sujetos:en la EN clínica tratamos con pacientes que presentan algún tipo de disfunción
cerebral, mientras que en investigación no siempre es así ya que se puede trabajar
con sujetos normales que posean alguna característica sobre la que estemos
investigando. La relación afectiva debe ser cercana con los pacientes y neutra con
los sujetos experimentales.
57
La EN clínica y la experimental se dan la mano con frecuencia ya que se trata de dos
ámbitos que no pueden sobrevivir por separado. En cierto modo, los clínicos también
formulan hipótesis de trabajo en el abordaje de sus casos y aportan conclusiones
interesantes para el avance neuropsicológico. Por su parte, la investigación
neuropsicológica no puede obviar que trata con personas, padezcan o no algún tipo de
disfunción cerebral, y eso conlleva el establecimiento de un cierto vínculo que hay que
saber manejar para conseguir la colaboración del sujeto y su implicación en el proceso.
Conviene hacer una matización importante cuando nos referimos a la EN con niños, y
es que se trata de evaluar un cerebro en desarrollo. En el adulto, el perfil cognitivo es
más o menos estable, mientras que en el niño se va modificando de manera significativa
con el paso del tiempo. El origen de la EN infantil no está tan vinculado al ámbito clínico
como en el caso de la tradicional; surge también del interés por comprender los
problemas cerebrales subyacentes en algunos niños que mostraban dificultades a la hora
de adquirir determinadas habilidades a lo largo del desarrollo. Los objetivos pueden ser
los mismos que en la EN tradicional pero hay que determinar también el momento
evolutivo en el que se encuentra el cerebro que estamos evaluando para constatar si se
corresponde con su desarrollo cronológico o si sufre alguna desviación.
-Pruebas de rastreo cognitivo. Suelen ser tests fáciles de aplicar que consumen poco
tiempo y que nos pueden dar información acerca del funcionamiento cognitivo en
general. También se conocen como pruebas de cribado cognitivo ya que permiten
discernir con facilidad un estatus normal del patológico. El problema es su baja
especificidad, por lo que únicamente sirven para determinar si un paciente necesita
una evaluación neuropsicológica más amplia. El ejemplo más conocido de este tipo
de pruebas es el Mini Mental State Examination (MMSE).
58
-Baterías y pruebas específicas. Existen también conjuntos de pruebas cuyo objetivo
es la valoración de un proceso cognitivo en particular. A veces, una batería general
nos proporciona información insuficiente sobre un proceso cognitivo o tenemos
especial interés en realizar una evaluación más profunda de ese proceso; este tipo
de pruebas son las adecuadas, por ejemplo la Wechsler Memory Scale IV (WMS-
IV). También podemos acudir a configurar nuestro propio protocolo de evaluación
seleccionando aquellas pruebas que consideramos más adecuadas y que no siempre
pertenecen a baterías estandarizadas. Por ejemplo, el test de Stroop para me
dircapacidad inhibitoria, las torres de Hanoi o Londres, para planificación y
mantenimiento de objetivos, o el test de símbolos y dígitos (SDMT) y el test d2
para evaluar atención.
-Escalas y cuestionarios. Son los más adecuados para valorar el nivel de adaptación a
la vida diaria de los sujetos y las alteraciones conductuales, emocionales o de
personalidad que puedan presentar como consecuencia de su cuadro clínico. Para
ello existen escalas y cuestionarios que, bien de forma autoinformada por el propio
paciente, o cumplimentada por personas cercanas de su entorno, nos van a
proporcionar esta información. Existen numerosas herramientas para este fin como
el Cuestionario Disejecutivo (DEX) que forma parte de la batería BADS
(Behavioral Assessment of the Disexecutive Syndrome), la Frontal System
Behavioral Scale (FrSBe) u otras escalas que proceden de otros ámbitos pero con
utilidad neuropsicológica como el State-Trait Anxiety Inventory (STAI) para evaluar
ansiedad o el Beck Depression Inventory (BDI) para depresión.
Cuando hablamos de técnicas que permiten el estudio tanto de la estructura del sistema
nervioso como de su actividad, nos estamos refiriendo a un abanico de ellas que abarca
desde técnicas moleculares que permiten, por ejemplo, determinar la presencia o la
actividad de neurotransmisores y sus receptores hasta técnicas de neuroimagen que
proporcionan información acerca de la estructura del cerebro o de la activación
diferencial de sus circuitos en humanos vivos. En este apartado vamos a referimos de
manera especial a las últimas ya que el ámbito educativo en el que nos movemos así lo
aconseja por ser las más utilizadas en la mayoría de investigaciones relacionadas en este
campo.
59
2.2.1. Técnicas estructurales
El objetivo de estas técnicas es proporcionar información acerca de las características
estructurales del tejido nervioso de tal manera que puedan ser correlacionadas con
aspectos conductuales. La configuración macroscópica del SN es bastante conocida pero
todavía queda un desafío vigente que es conocer la conectividad neuronal hasta sus
últimas consecuencias. Conocemos bastante acerca de las "autovías" nerviosas pero
todavía existen lagunas de conocimiento acerca del complejo entramado de circuitos
nerviosos en regiones cerebrales sobre todo. El microscopio óptico y posteriormente el
electrónico han constituido herramientas de incalculable valor para la visualización de
estas intrincadas conexiones mediante el uso de sustancias "marcadas" que viajan por los
axones y a las que es posible seguir el rastro. De este modo se ha ido conociendo el
cableado nervioso (sobre todo en modelos animales) para poder entender la participación
de los diferentes circuitos en cada proceso cognitivo. Sin embargo, donde realmente se
ha producido un avance espectacular es en el desarrollo de técnicas de neuroimagen que
permiten observar el cerebro humano en vivo sin que los sujetos sufran agresión alguna.
Gracias a esta tecnología no es necesario esperar al fallecimiento del paciente para la
observación de su cerebro.
La tomografía axial computarizada (TAC) es una técnica que consiste en hacer pasar
haces de rayos X a través del cuerpo del sujeto. Según su constitución los tejidos
absorberán mayor o menor cantidad de partículas de estos rayos (igual que las
radiografías convencionales). Así, el hueso es el que absorbe más cantidad y por eso, en
una TAC de la cabeza, el cráneo aparece de color blanco mientras que el líquido es el
que menos y por eso los ventrículos cerebrales aparecen en negro; el resto de tejido
aparece en diferentes tonos de gris. Es útil para detectar malformaciones, tumores,
hemorragias u otras alteraciones cerebrales importantes por lo que es utilizado
frecuentemente en el ámbito clínico, sin embargo, no se usa en investigación porque los
pacientes se ven expuestos a pequeñas dosis de radiación y la técnica proporciona muy
poca discriminación de los tejidos blandos. La técnica que sí proporciona una buena
discriminación de las estructuras cerebrales es la resonancia magnética nuclear o
simplemente resonancia magnética (RM). Esta técnica aprovecha las características
electromagnéticas de algunos componentes celulares para medir la energía que despiden
en determinadas situaciones. Concretamente, si generamos un campo magnético en tomo
al cerebro, los átomos de hidrógeno presentes en las moléculas de agua de las células se
alinean en la dirección del campo generado. Entonces, al aplicar una onda de
radiofrecuencia cambia la orientación de dichos átomos mientras está presente dicha
estimulación y vuelven a su alineación inicial al desaparecer la misma. Al producirse estos
cambios, se genera energía que es detectada por el aparato de resonancia y utilizada para
formar imágenes de los diferentes tejidos (figura 2.8).
La primera ventaja de esta técnica con respecto a la TAC es que proporciona imágenes
con una resolución mucho mayor que permite diferenciar bastante bien las estructuras
60
cerebrales. Además, es una técnica inocua para los sujetos, pues no genera radiación, por
lo que se puede utilizar con frecuencia (salvo por su elevado coste).
Tanto la TAC como la RM nos permiten diferenciar sustancia gris y sustancia blanca,
sin embargo, para comprender de un modo más completo el funcionamiento cerebral no
solo necesitamos información sobre los centros de procesamiento sino también sobre las
conexiones neuronales entre esos centros. Una aplicación reciente desarrollada a partir de
la resonancia magnética es la tractografía realizada a partir de imágenes por tensor de
difusión (TDI). Esta técnica aprovecha el movimiento de difusión de las moléculas de
agua en el interior de las neuronas para poder cartografiar los tractos nerviosos y así
apreciar su orientación y su integridad morfológica. En el soma de las neuronas las
moléculas de agua se pueden mover en todas direcciones (isotropía), mientras que en los
axones esto no es posible por su configuración cilíndrica, por lo que predominan los
desplazamientos longitudinales a lo largo del axón (anisotropía). La difusión isotrópica
predomina en la sustancia gris y la anisotrópica en la sustancia blanca. De esta manera,
podemos observar el estado de las conexiones cerebrales en sujetos normales o en
aquellos que presentan cualquier tipo de disfunción, lo cual ha proporcionado importante
información sobre la base neurológica de trastornos como la esquizofrenia, el autismo o
la dislexia.
Estas técnicas proporcionan información neuroanatómica, algo que por sí mismo posee
poca utilidad para el psicobiólogo. Por ese motivo, la verdadera utilidad radica en su
utilización junto a pruebas neuropsicológicas que permitan correlacionar el rendimiento
neurocognitivo con las características morfológicas del cerebro de los sujetos. Esto hace
61
que su mayor aplicación sea en el diagnóstico de patologías cerebrales o en el estudio de
diferencias morfológicas cerebrales entre sujetos.
Las técnicas de supresión son las de mayor tradición en psicobiología y tienen como
objetivo la supresión de la actividad nerviosa en una región más o menos extensa del
sistema nervioso para observar los efectos que dicha supresión tiene sobre la conducta.
Para la localización precisa de la zona que queremos inactivar es preciso el uso del
estereotáxico, un aparato que mediante un sistema de tres ejes de coordenadas y con la
ayuda de mapas específicos del cerebro del animal (el más conocido, Paxinos y Watson,
1998) nos permite determinar la posición en el espacio de la región que nos interesa. Una
vez situado el animal en el estereotáxico, podemos inactivar una zona de su cerebro
mediante una lesión eléctrica o química localizada. Una de las formas más habituales de
hacerlo son las lesiones electrolíticas que consisten en hacer pasar una corriente eléctrica
continua por un electrodo situado en la zona deseada. Es un método rápido y sencillo, sin
embargo, tiene el inconveniente de que la lesión afecta a los cuerpos celulares situados en
esa zona pero también a los axones de otras células que pasan por ella, lo que ocasiona
daños inespecíficos que resultan difíciles de controlar e interpretar. Una alternativa son
las lesiones químicas, en las que se inyecta una sustancia tóxica mediante una
micropipeta (en vez del microelectrodo). Estas lesiones tienen la ventaja de ser mucho
más específicas ya que destruyen las neuronas de una región determinada sin afectar a
los axones que la atraviesan (Bures et al., 1983).
62
Hay otros procedimientos para provocar supresión de la actividad nerviosa como por
ejemplo la aspiración de tejido, la ablación o el enfriamiento. Cuando la región que se
pretende lesionar es un área de fácil acceso (corteza cerebral, cerebelo...) se puede
recurrir a la succión del tejido mediante un sistema de vacío conectado a una cánula para
aspirar el tejido que queremos lesionar. La ablación implica la sección de fibras nerviosas
impidiendo el paso de las señales enviadas por las neuronas correspondientes sin
provocar daños de importancia en el tejido circundante. Por último, podemos inactivar
temporalmente una región determinada mediante enfriamiento, si hacemos descender la
temperatura por debajo de los 25 °C. Esto no provoca daños permanentes ni
desencadena actividad neural compensatoria debido al corto periodo de tiempo que dura
el efecto.
63
mediante un microelectrodo se puede registrar la actividad de neuronas individuales. Los
registros pueden ser intracelulares o extracelulares, aunque los primeros presentan
mayores inconvenientes, también proporcionan una información más específica sobre la
actividad de la célula. También es posible el registro de poblaciones neuronales si la
región objeto de estudio es suficientemente homogénea ya que los datos así obtenidos
solo pueden ser interpretados en términos de excitación o inhibición. Esta técnica permite
el registro de actividad neuronal en animales conscientes para correlacionar la actividad
con el tipo de conducta que el animal está ejecutando (Bryant et al., 2009), lo cual ha
permitido la realización de muchos estudios sobre memoria y aprendizaje en diversos
modelos animales.
Pero las técnicas de registro que más popularidad han alcanzado son las que permiten
el registro de la actividad nerviosa en seres humanos vivos. El registro de la actividad
nerviosa de diferentes estructuras para correlacionarlo con procesos conductuales es un
procedimiento que se viene realizando en psicobiología desde que Hans Berger realizara
en 1929 el primer EEG (Gil, 1999). Tienen la ventaja de que son métodos no invasivos,
aunque también se pueden realizar registros intracraneales. Las cuatro técnicas más
representativas son, además del EEG, la magneto encefalo grafía (MEG), la tomografia
por emisión de positrones (TEM) y la imagen por resonancia magnética funcional
(IRMf). Las dos primeras se pueden considerar como técnicas magnetoeléctricas,
mientras que las últimas como técnicas hemodinámicas (véase una descripción más
detallada en Martín-Loeches, 2001), aquellas porque registran la actividad eléctrica o los
campos magnéticos generados por la actividad de las neuronas y estas porque registran
los cambios en el metabolismo de las neuronas como consecuencia de su activación.
64
señales es necesario presentar un mismo estímulo un número suficiente de veces
seguidas mientras se realiza el registro. Existe el inconveniente de que se producen
interferencias provocadas por la actividad electroencefalográfica de fondo (la actividad
espontánea de las neuronas que no están respondiendo al estímulo que presentamos),
pero al promediar las señales, aquella que está provocada por el estímulo tiene una
latencia fija y sobresale sobre las señales de "ruido" que tienen latencia variable. Es decir,
suponemos que la actividad de fondo, al ser aleatoria, presenta valores positivos y
negativos por lo que al promediarlas tienden a anularse, mientras que la señal producida
por el estímulo tendrá siempre el mismo valor y destacará sobre las demás.
La MEG es una técnica más reciente y en plena expansión por las posibilidades que
ofrece. En este caso, se utilizan unos detectores específicos que no necesitan situarse
sobre el cuero cabelludo para registrar campos magnéticos muy débiles generados por la
actividad neuronal. Estos campos tienen la ventaja de que no presentan las interferencias
craneales que aparecen en el EEG ya que las ondas electromagnéticas pueden atravesar
el cuero cabelludo sin distorsión alguna. Por el contrario, tiene la desventaja de que
requiere instalaciones costosas y complejas ya que el registro debe efectuarse en
habitaciones aisladas de campos magnéticos externos y los detectores necesitan un
complejo sistema de refrigeración por helio líquido. No obstante, es una técnica muy
apreciada porque proporciona una resolución temporal y espacial bastante buena.
El cerebro es el órgano del cuerpo que consume más energía por lo que su actividad
metabólica es alta. Además esta actividad metabólica fluctúa en función del trabajo que
realizan las neuronas, es decir, cuando una neurona está activada consume más oxígeno
y más glucosa, lo que supone un mayor aporte sanguíneo mientras dura esa actividad. La
TEP permite obtener imágenes tridimensionales de diversas áreas cerebrales cuando las
neuronas están activadas. Para ello es necesario inyectar moléculas que llevan
incorporado un marcador radioactivo (por ejemplo, glucosa marcada con 18Fluor,
15Oxígeno o con "Carbono) que luego son detectadas por un dispositivo (escáner)
adecuado. El procedimiento es costoso ya que los isótopos radioactivos utilizados tienen
una vida media muy corta, por lo que deben ser producidas en el sitio y en el momento
en el que se va a efectuar el registro. Sin embargo, proporciona información bastante
fiable sobre diferentes parámetros vinculados a la actividad neuronal.
65
científica extraordinaria ya que la resolución espacial es muy buena y la resolución
temporal es superior a la del TEP aunque menor que la del electroencefalograma o la de
la magnetoencefalografía.
66
El ámbito educativo ha sido uno de los más receptivos a estas falsas creencias. Resulta
curioso observar cómo se intenta dotar de "respetabilidad" a determinadas propuestas
educativas simplemente por el hecho de añadirles el respaldo (presunto) de la
neuroropsicología. El asunto es más grave cuando lo que se pretende tiene un trasfondo
comercial y se intentan vender modelos educativos "científicamente comprobados" sin
proporcionar las supuestas evidencias científicas que los avalan. Por desgracia, cuentan
con la ventaja de que la mayoría de los maestros y educadores no han recibido una
formación neuropsicológica que les permita analizar de forma crítica dichas propuestas.
En muchas ocasiones, estos neuromitos no son nociones erróneas sobre el
funcionamiento cerebral sino que son afirmaciones que se han formulado inicialmente
dentro de un contexto fundamentado pero que después han sido reformuladas una y otra
vez apartándose del planteamiento original e incrementando la distorsión de la idea hasta
que llega un momento en que no se parece nada al planteamiento original. Muchos de los
neuromitos que han calado profundamente entre los educadores se han forjado a partir
de verdades a medias sobre el funcionamiento cerebral, lo que hace que pueda ser más
fácil atribuirles esta neurocredibilidad.
A veces resulta curioso cómo los neuromitos han calado tan profundamente entre los
67
profesionales de la educación, cómo han llegado a extenderse del modo que lo han hecho
y, sobre todo, cómo han llegado algunos a institucionalizarse de manera que han sido
argumentos de trabajo en múltiples intervenciones. Stephen Stich (1993) sugiere cuatro
posibles causas por las que esta neuromitología ha calado en diversos ámbitos, en
especial en el educativo:
-Encaje forzado de ideas científicas: distorsión de las ideas para que encajen en un
argumentarlo previamente establecido. En muchas ocasiones es más fácil vender
una simplificación poco realista que tener que lidiar con la complejidad que supone
la realidad.
Los educadores no poseen una formación neuropsicológica que les permita filtrar estas
falsas creencias y la comunicación bidireccional entre ellos y los neuropsicólogos no es lo
suficientemente fluida para prevenir el contagio de los neuromitos. Sin embargo, la
mayoría de los educadores están interesados en el conocimiento del cerebro y en las
implicaciones que las peculiaridades funcionales del mismo tienen para el proceso
educativo. Estos dos factores les convierten en presa fácil de pseudocientíficos y demás
individuos que aprovechando su buena intención tratan de convencerles de estas ideas.
Incrementar la formación neuropsicológica de los educadores o aportar fluidez al diálogo
recíproco con los neuropsicólogos es una solución pero probablemente tardará tiempo en
llegar. Mientras tanto, Paul Howard-Jones (2010) propone tres preguntas cuyas
respuestas nos pueden ayudar a diferenciar los hechos científicos de los neuromitos.
68
-¿Dónde se han publicado esos principios y su evaluación educativa?
Aquellas investigaciones que entran dentro del enfoque neuropsicológico son las que
están más cerca de la investigación neuroeducativa (Howard-Jones, 2010) y son el
puente fundamental para conectar ambos campos de conocimiento. Sin embargo, no toda
la investigación que se hace en neuroropsicología tiene utilidad en el ámbito educativo, ya
que se requiere un enfoque más aplicado que saque partido a los conocimientos básicos
acerca del funcionamiento cerebral. Algo similar ocurre en el sentido contrario, los
estudios que se realizan en el ámbito educativo adolecen de una base neuropsicológica
que respalde empíricamente sus resultados con referencias al sistema responsable de lo
investigado. Quizá por ello es necesario plantear nuevas propuestas que busquen
establecer puentes entre ambas disciplinas y realizar una investigación que integre
aspectos básicos y aplicados.
69
utilizarse de manera indiscriminada y, aunque seamos capaces de diferenciar la idea
subyacente en ambos casos, surgen dificultades a la hora de objetivar ambos conceptos
de cara al planteamiento de evaluaciones integradas. También se debe considerar la
adaptación de la metodología utilizada para evaluar a los sujetos que participan en los
estudios. En este sentido, la investigación neuroeducativa se nutre de técnicas y
procedimientos habituales en psicobiología como ya hemos expuesto, sin embargo, hay
que considerar algunos de los problemas que plantean este tipo de pruebas, por ejemplo,
la escasa validez ecológica de muchas pruebas neuropsicológicas o el hecho de que
muchas de ellas provienen del ámbito clínico y a causa del efecto techo no siempre
permiten discriminar adecuadamente diferencias de rendimiento entre grupos de estudio
que no presenten un deterioro cognitivo significativo. Por último, es fundamental que los
diseños de investigación estén ligados a la actividad práctica en el aula y tengan por
objetivo la resolución de problemas habituales que faciliten la labor pedagógica. Esto no
significa renunciar a la investigación básica que nos va a seguir proporcionando
conocimiento acerca del funcionamiento del sistema nervioso y que nos permitirá diseñar
estudios aplicados. El objetivo es equilibrar ambos campos, básico y aplicado,
fortaleciendo los puentes entre ambos para que, si bien el conocimiento básico ayuda a
formular estudios aplicados, el conocimiento aplicado también pueda orientar las futuras
líneas de la investigación neuropsicológica básica.
70
salir del laboratorio y acercarse a las aulas. La psicobiología ha aportado conocimientos
sustanciales sobre los mecanismos neurales del aprendizaje pero todavía no hemos
encontrado la manera de operativizar ese conocimiento de manera efectiva para que se
traduzca en mejores modelos educativos o, al menos, en estrategias puntuales de
intervención que puedan mitigar algunas de las dificultades con las que se encuentran a
diario los profesionales de la educación. Para ello es necesario incrementar el diálogo
entre ambas disciplinas con el fin de compartir proyectos en una dirección conjunta
aportando la experiencia recíproca tanto a la hora de establecer objetivos como de
diseñar las investigaciones. Solo así hay camino por delante.
71
72
En el ámbito educativo es donde con más frecuencia surge la controversia entre
herencia y ambiente, entre natura y nurtura. ¿Se hereda la inteligencia o se adquiere con
la educación?, ¿si se hereda, por qué los hermanos gemelos no son exactamente igual de
inteligentes?, ¿si se adquiere con la educación, por qué no todos los niños aprenden al
mismo ritmo y alcanzan los mismos logros? Parece que hay un poco de todo, parte se
hereda y parte se adquiere, pero ¿cómo podemos determinar qué parte hay de lo uno y
qué parte de lo otro? Son preguntas para las que todavía no hay respuestas definitivas y
según de qué disciplina provengan, la balanza se inclina en una u otra dirección.
En este capítulo vamos a ver una serie de conceptos básicos relativos a la transmisión
de los caracteres hereditarios, pero también revisaremos conceptos de biología y genética
molecular, lo estrictamente imprescindible para poder comprender cómo se transmiten los
caracteres y, lo que quizá más interesa en educación, qué caracteres son transmisibles y,
por el contrario, qué habilidades o características pueden ser adquiridas mediante
aprendizaje. En realidad, se trata solamente de proporcionar una información básica que
le sirva al lector de referencia para clarificar algunos aspectos fundamentales. Antes de
arriesgamos a dar por conocida esta información o confiar en su buena memoria, hemos
considerado más oportuno facilitársela en unas pocas páginas.
73
El núcleo es la estructura más voluminosa en el interior celular y está separado del
citoplasma por la membrana nuclear. Contiene los cromosomas, aunque estos solo son
visibles durante la división celular ya que el resto del tiempo solo podemos ver una
maraña de hebras muy finas que se denomina cromatina. En el citoplasma de la célula
también hay otros orgánulos como el retículo endoplásmico que junto con los ribosomas
participa en la síntesis de proteínas; el aparato de Golgi, que interviene en el
procesamiento y empaquetamiento de proteínas para su transporte y distribución; las
mitocondrias que aportan la energía que necesita la célula para llevar a cabo sus procesos
o los lisosomas que se encargan de eliminar residuos mediante un proceso de degradación
enzimática.
El ciclo celular es el periodo que transcurre entre la génesis de una célula y su división
para dar lugar a dos células hijas. Cuando se forma una célula se produce un periodo de
crecimiento inicial en el que ocurren procesos metabólicos necesarios para el
funcionamiento celular y, entre ellos, quizá el más importante, la replicación del material
genético (los cromosomas, largas cadenas de ácido desoxirribonucleico, ADN) para que
puedan heredarlo las células hijas. La especie humana tiene 46 cromosomas agrupados
en 23 pares (cromosomas homólogos) de los cuales 22 son autosomas y un par son
gonosomas o cromosomas sexuales (XX para la mujer y XY para el hombre). El número
de cromosomas no está directamente relacionado con el grado evolutivo de la especie ya
que podemos ver que, por ejemplo, la rata tiene 21 pares, el perro 39, la mosca 4 o el
chimpancé 24. El hecho de tener los cromosomas por pares es debido a que recibimos un
juego completo de cada progenitor. Después de la fase de crecimiento y con el material
genético ya duplicado se inicia la división celular, proceso que se denomina mitosis y por
el cual, de una célula diploide surgen otras dos células diploides. Una célula diploide es la
que posee un número duplicado de cromosomas, es decir, en el caso de la especie
humana 23 pares. Hay un tipo de células denominadas haploides que tiene la mitad de
cromosomas, 23 unidades, son los gametos o células reproductoras, espermatozoides en
el varón y óvulos en la hembra. La mitosis es un proceso biológico continuo pero por
conveniencia operativa se ha dividido en varias fases que se pueden ver resumidas en el
cuadro 3.1.
Cuadro 3.1. Esquema resumen de las fases del ciclo celular haciendo hincapié en la
mitosis
74
Para la formación de las células haploides la división celular se denomina meiosis e
incluye algunos procesos específicos que conviene resaltar. Podríamos simplificar la
explicación diciendo que ocurren dos divisiones celulares consecutivas (similares a la
mitosis) pero sin que haya duplicación del material genético entre una y otra división. La
meiosis es el proceso por el cual de una célula diploide se obtienen cuatro células
haploides. En la profase de la primera división meiósica los cromosomas homólogos se
unen formando lo que se conoce como tétradas (cuatro cromátidas, cada cromosoma
está duplicado y posee dos) o bivalentes. Esto ocasiona un fenómeno de
entrecruzamiento por el que ambos cromosomas homólogos intercambian algunos genes.
Esto significa que, por ejemplo, el cromosoma 11 que hemos recibido del padre va a
tener ahora algunos genes procedentes del cromosoma 11 de la madre y viceversa. Es lo
que se conoce como recombinación génica. En la anafase de la primera división meiósica
los bivalentes se separan y se desplazan a cada uno de los polos de la célula. Así, al final
de la primera división meiósica tenemos dos células hijas con 23 cromosomas pero con
su ADN duplicado. En la segunda división meiósica se rompen los centrómeros de los
cromosomas para que vaya una cromátida a cada célula resultante. Una vez que se han
obtenido las células haploides, experimentan una serie de transformaciones para
convertirse en óvulos en la mujer o espermatozoides en el hombre.
75
las proteínas y los ácidos nucleicos (ácido ribonucleico y ácido desoxirribonucleico) por la
relevancia que tienen a la hora de entender cómo se produce la conservación y la
transmisión de los caracteres hereditarios de padres a hijos.
Las proteínas son el principal componente celular y están formadas por cadenas de
aminoácidos, moléculas más pequeñas formadas básicamente por carbono, hidrógeno,
nitrógeno y oxígeno. Debido a que pueden asumir múltiples funciones, resultan decisivas
para el funcionamiento celular y orgánico. Así, podemos encontrar proteínas que
cumplen funciones estructurales como por ejemplo las que participan en la configuración
de la membrana celular. También las hay con funciones de tipo defensivo
(inmunoglobulinas), de transporte (hemoglobina), hormonales (insulina) o enzimáticas.
Estas últimas merecen una atención especial ya que actúan como catalizadores celulares,
es decir, se encargan de acelerar y facilitar las reacciones químicas que ocurren en el
interior de la célula. La ausencia o mal funcionamiento de alguna de ellas puede alterar
las cadenas metabólicas y ocasionar alteraciones orgánicas, algunas de ellas con
repercusiones importantes en el desarrollo cognitivo de la persona.
Los ácidos nucleicos son grandes cadenas de nucleótidos, moléculas que están
formadas por tres componentes, un fosfato, un azúcar y una base nitrogenada. La
molécula de azúcar puede ser de dos tipos, ribosa (en el ácido ribonucleico, ARN) y
desoxirribosa (ácido desoxirribonucleico, ADN), que se diferencia de la anterior por tener
un átomo de oxígeno menos. Por su parte, las bases nitrogenadas pueden ser de cinco
tipos, adenina, guanina y citosina que están presentes tanto en el ARN como en el ADN,
el uracilo, solo presente en el ARN y la timina, solo presente en el ADN. Estas bases nos
van a permitir identificar a los nucleótidos cuando hablemos de emparejamientos, de
secuencias de ADN o ARN o de código genético (figura 3.1). Estructuralmente, el ADN
está formado por una doble cadena de nucleótidos que se enlazan a través de las bases
nitrogenadas pero siguiendo una pauta fija: un nucleótido que contenga una base adenina
siempre se emparej ará con otro que tenga una base timina y uno que tenga una base
guanina solo se emparejará con otro que tenga citosina, es lo que se conoce como
principio de complementariedad. Las cadenas de nucleótidos así emparejados adoptan
una configuración de doble hélice, es decir, la doble cadena gira en tomo a un hipotético
eje central (imaginemos una escalera de caracol). Por su parte, el ARN está formado por
una única cadena de nucleótidos en los que, además de poseer un azúcar ribosa, la base
timina no aparece y lo hace la base uracilo. El ARN puede ser de muchos tipos, como
por ejemplo el ARN mensajero, donde se copia parte de la información contenida en el
ADN para ser descodificada en el citoplasma para formar proteínas. También está el
ARN ribosómico, localizado en los ribosomas, que son los orgánulos celulares que "leen"
el mensaje del ARNm o el ARN de transferencia que se encarga de localizar en el
citoplasma y transportar los aminoácidos necesarios para formar la proteína.
76
Figura 3.1. Moléculas de ADN y ARN.
77
celular. Ya hemos dicho que en un momento de la interfase se produce su replicación, es
decir, se realiza una copia lo más exacta posible de la molécula para que cada célula hija
tenga la misma información genética. Esto ocurre de una manera aparentemente sencilla.
Primero, la doble cadena de ADN se abre como si fuera una cremallera por efecto de
ciertas enzimas que rompen los enlaces de hidrógeno que unen las bases de los
nucleótidos. Por este procedimiento quedan libres los nucleótidos que forman cada
cadena simple y a ellos se van acoplando nuevos nucleótidos según el principio de
complementariedad, es decir, a uno que contenga una base guanina se le acoplará otro
con una base citosina, y a uno que tenga adenina otro que tenga timina. De esta manera,
se van reconstruyendo dos copias exactas de la doble cadena original. Una vez
completado el proceso tenemos todo el ADN duplicado, por eso vemos a los
cromosomas como si fueran una "X", ya que ambas cromátidas permanecen unidas por
los centrómeros hasta el momento de la división celular.
Cuando la célula necesita fabricar una proteína tiene que guiarse por la información
contenida en el ADN, pero la proteína se fabrica en el citoplasma y la información está
dentro del núcleo. El primer paso por tanto es copiar la información necesaria en una
molécula que pueda salir del núcleo y dirigirse a los ribosomas, los orgánulos que se
ocupan de la fabricación de las proteínas. Esta molécula es el ARN mensajero (ARNm).
La información necesaria se encuentra en un fragmento de ADN (gen) así que, la doble
cadena se abre parcialmente y sobre ese fragmento se van acoplando nucleótidos
(siempre según el principio de complementariedad) para formar una cadena simple, la
molécula de ARNm. Es lo que se denomina transcripción. En este caso, en vez de timina
encontramos nucleótidos con uracilo emparejados con los nucleótidos de adenina del
ADN. Una vez que se completa la molécula de ARNm, esta se suelta y sale del núcleo
hacia los ribosomas. Estos, que también contienen moléculas de ARN, en este caso
ribosómico, "leen" o "traducen" la secuencia del ARNm y van colocando los aminoácidos
necesarios para formar la proteína. Para ello, interviene el tercer tipo de ARN, el de
transferencia, que captura los aminoácidos necesarios por el citoplasma y los lleva hasta
los ribosomas para su correcta colocación.
Pero ¿cómo sabe el ribosoma qué aminoácido debe colocar'? 0, dicho de otra manera,
¿cómo está escrita la información en la molécula de ARNm? Gracias a lo que se
denomina código genético, cuya base o elemento fundamental es una secuencia de tres
nucleótidos, el codón (en el ARN) o triplete (en el ADN). La molécula de ADN es una
larga cadena de nucleótidos y la proteína una cadena de aminoácidos, pues bien, cada
tres nucleótidos del ADN codifican un aminoácido, de tal manera que cada triplete sería
como una letra que vamos colocando para formar una palabra, la proteína. Por eso, si
cambiamos un solo triplete o modificamos su posición tendríamos una proteína distinta,
igual que si cambiamos una letra tendríamos otra palabra (figura 3.2). Este lenguaje o
código es universal, es decir, es el mismo para todos los seres vivos con raras
excepciones. El mensaje no contiene superposiciones, de manera que cada nucleótido
78
solo pertenece a un triplete y, por último, un triplete codifica un aminoácido pero un
aminoácido puede ser codificado por varios tripletes. Por ejemplo, el codón GGU
(Guanina-Guanina-Uracilo) codifica el aminoácido Glicina, pero este, además, puede ser
codificado también por los codones GGC, GGA y GGG. A partir de esta aparente
simplicidad, Francis Crick, uno de los descubridores de la estructura del ADN junto a
James Watson, propuso el denominado dogma central de la biología al describir el flujo
de la información genética desde el ADN hasta las proteínas pasando por el ARN. Al
margen de algunas excepciones debidas a virus capaces de duplicar ARN o realizar una
transcripción inversa del ARN al ADN, esta idea se ha mantenido vigente durante mucho
tiempo.
Sabemos ya que todas las células del organismo, a excepción de los gametos, tienen el
mismo material genético. Resulta sorprendente entonces que con la misma dotación
genética tengan funciones tan diferentes. Esto es debido a que dentro de cada célula solo
se expresa una pequeña porción del ADN y dicha porción es diferente de unas células a
otras. Durante la diferenciación celular se establecen unos patrones de expresión génica
que son los responsables de las características diferenciales de unas y otras células. Se
han identificado diversos componentes bioquímicos que regulan la expresión génica en
cada célula y que pueden verse afectados de manera muy diversa. Cuando hablamos de
control epigenético nos referimos a los mecanismos por los que se puede modificar la
79
activación de un gen sin modificar la estructura del ADN. Lo más importante es que
estos patrones pueden verse afectados a lo largo de la vida por influencias ambientales
internas y externas, es decir, el estilo de vida o determinadas experiencias pueden
modificar la expresividad de los genes y, por tanto, nuestro aspecto, nuestra salud y
nuestro comportamiento (Tammen et al., 2012).
80
subyacen a los procesos de memoria y aprendizaje (Lubin, 2011; Sultan y Day, 2011),
algo que nos ayudaría a avanzar en el desarrollo de estrategias educativas.
81
genotipo. Además, la amplitud del concepto choca directamente con aquellas posiciones
ambientalistas que no admiten que se considere como fenotipo aspectos como la
inteligencia o, en general, la conducta humana. Es un tema controvertido.
1.Ley de la uniformidad. Mendel utilizaba lo que él denominó líneas puras, lo que hoy
conocemos como homocigotos, es decir, semillas cuyos alelos para un determinado
rasgo eran idénticos. Así observó que cuando cruzaba semillas amarillas y verdes, el
resultado eran guisantes de color amarillo, no apareciendo ninguno verde en la
primera generación de frutos, es decir el carácter verde había desaparecido (figura
3.3). Denominó dominante al rasgo que aparecía (amarillo) y recesivo al que
permanecía oculto (verde). Así demostró que cuando se cruzan dos líneas puras
que difieren en un determinado carácter, todos los individuos de la primera
generación presentan el mismo fenotipo, independientemente de la dirección de
cruce (l.a ley). Es decir, aunque cruzó guisantes amarillos y verdes, todos los
guisantes hijos tenían color amarillo a pesar de que uno de sus alelos codificaba el
color verde. Esto significa que los alelos dominantes se expresan en el fenotipo
siempre que están presentes en el genotipo.
82
Figura 3.3. Cuadro de Punnet para la primera ley de Mendel (representamos con
mayúsculas los alelos dominantes y con minúsculas los recesivos. El cuadro central nos
muestra las cuatro posibles combinaciones entre los alelos de los progenitores (AA y vv).
La segunda y la tercera ley pueden representarse mediante cuadros similares cruzando
Av y Av (2.a ley) o introduciendo un segundo rasgo como la textura del fruto (liso: LL o
rugoso: rr).
83
concreto puede ser el resultado tanto de una homocigosis (fenotipo amarillo, AA y
fenotipo verde, vv) como de una heterocigosis (fenotipo amarillo, Av).
84
qué manera se produce la transmisión hereditaria de ciertos rasgos para poder hacer un
pronóstico o determinar las probabilidades de heredar una patología. Una alteración
puede transmitirse por un solo gen o por un conjunto de ellos, en el primer caso
hablamos de herencia monogénica, unifactorial o mendeliana, mientras que en el segundo
se trata de herencia poligénica o multifactorial. Según algunas estimaciones, el 50% de los
trastornos que cursan con retraso mental son de origen genético. Por este motivo, es
importante conocer la base genética de ciertos trastornos que dificultan el aprendizaje y la
posibilidad de un desarrollo neurocognitivo y emocional pleno.
85
86
Figura 3.4. Ejemplos de herencia recesiva. 1) Autosómica. Dos ejemplos según sean
portadores uno o ambos progenitores. Es indistinto que el progenitor afectado o portador
sea el padre o la madre. II) Herencia recesiva ligada al cromosoma X.Solo los varones
padecen la enfermedad mientras que las mujeres son portadoras. Se han sombreado los
genotipos que expresan el rasgo patológico.
Los varones solo tienen un cromosoma X que lo reciben siempre de la madre, por lo
que los alelos recesivos de ese cromosoma X no tienen homólogos dominantes que
inhiban su expresividad y su presencia es suficiente para que expresen la enfermedad.
Así, en el caso de un alelo dominante en el cromosoma X del padre, todas sus hijas
expresarán el rasgo y padecerán la enfermedad mientras que los hijos resultarán sanos. Si
esto ocurre en un cromosoma X de la madre, la descendencia resultará afectada al 50%
independientemente de si son hijos o hijas. En el caso de un alelo recesivo el panorama
cambia radicalmente ya que ahora solo podrán padecer la enfermedad los hijos mientras
que las hijas serían portadoras tanto si el alelo patógeno procede del padre como si
procede de la madre. Esto es porque si es el padre el portador solo lo transmite a sus
hijas, que recibirán un alelo dominante de la madre y solo serán portadoras. Si es la
madre la portadora, sus hijas también lo serán, pero la mitad de sus hijos, los que reciban
el alelo patógeno, padecerán la enfermedad porque el cromosoma Y no tiene alelos
dominantes para ese gen. Los ejemplos más conocidos de este tipo de enfermedades son
87
la hemofilia A, que ocasiona problemas de coagulación sanguínea, y el daltonismo,
incapacidad para discriminar los colores.
88
forma de abortos espontáneos antes incluso de que se manifiesten los primeros signos del
embarazo.
89
excepciones o de nuevas evidencias acerca de cómo las influencias ambientales pueden
modificar la expresividad de los genes.
Francis Galton (1822-1911), científico peculiar que se interesó por las diferencias
individuales y trató de justificarlas a través de la genética, es considerado por muchos
como el padre de la genética de la conducta. Su postura claramente innatista le llevó a
proponer la eugenesia como medio para mejorar la especie humana al defender que la
genialidad estaba en los genes minimizando los efectos del entorno. Utilizó métodos
estadísticos para analizar las diferencias entre pobla ciones y defendió la utilidad de los
estudios con gemelos o grupos familiares para una mejor comprensión de la transmisión
y distribución de los rasgos heredables. Si hiciéramos caso a sus postulados y a otros
similares, algunos no tan lejanos en el tiempo, cualquier intervención educativa más allá
de la instrucción reglada carecería de sentido porque los "intelectualmente torpes" serían
incapaces de progresar. Por ese motivo, habría que centrar todo el esfuerzo y todos los
recursos en los genéticamente privilegiados.
90
más receptores que otro para una determinada hormona, que muestra mayores niveles de
un neurotransmisor en determinada región del cerebro o que tiene mayor densidad
sináptica en un área cerebral. Es decir, encontramos una infraestructura predispuesta para
manifestar unas conductas u otras, pero sin olvidar que hemos ido desde los genes a los
sistemas y que, ya desde la etapa embrionaria, la configuración de estos sistemas ha
estado sometida a influencias epigenéticas. Pero entonces, ¿existe un gen o conjunto de
ellos responsables de la inteligencia? Quizá podríamos zanjar el problema aludiendo a la
complejidad conceptual del término y a la dificultad de operativizar sus manifestaciones,
ya que, al fin y al cabo, sigue habiendo problemas para llegar a una definición adecuada
que suscite el consenso necesario. Igual ocurre al hablar de personalidad o
psicopatología, otros dos campos en los que se buscan explicaciones genéticas con más
ahínco y desde hace más tiempo. La personalidad es un constructo sujeto a modelos
teóricos no compartidos de manera unánime por el ámbito científico y determinadas
psicopatologías deben ser revisadas en su categorización clínica a la luz, precisamente, de
nuevos descubrimientos genéticos que cuestionan algunos aspectos de las clasificaciones
clínicas más usuales.
¿Significa esto que no se puede abordar el tema de manera científica? Por supuesto
que no. Claro que se puede y por diferentes caminos con el único denominador común
de la metodología científica. Al fin y al cabo, lo que hacía Mendel era lo que se conoce
como crianza selectiva o selección artificial, algo que en agricultura y ganadería se
practica desde hace siglos. Actualmente, en vez de ir a ciegas hay medios técnicos y
métodos más eficaces para acortar el proceso. Pensemos, por ejemplo, en un tipo de
crianza selectiva que se realiza con animales de laboratorio, las cepas endogámicas o
consanguíneas (inbred strains). Por ejemplo, desde hace mucho tiempo se suelen crear
cepas endogámicas de ratas que muestren diferentes grados de preferencia por el alcohol
(Li y Lumeng, 1984). Esto se consigue dejando a un primer grupo de ratas que beba
alcohol libremente durante su estabulación para después separar y cruzar entre sí, por un
lado, a las que más hayan bebido y, por otro, a las que menos. Después, se repite el
proceso con las dos camadas resultantes y se vuelven a segregar los grupos extremos de
mayor y menor preferencia por el alcohol, y así sucesivamente. Después de un cierto
número de repeticiones (7-8) tenemos dos grupos de animales con un genotipo similar
que solo difiere en la preferencia por el alcohol. ¿Significa esto que hemos criado dos
grupos de ratas que solo difieren en el gen o genes que determinan la preferencia por el
alcohol? Puede ser una afirmación atrevida sin conocer el genotipo de cada grupo, solo
los gemelos monocigóticos tienen el mismo genotipo, pero es posible pensar en un alto
grado de afinidad genética entre ambos grupos con una clara discrepancia en el factor de
segregación. Retomando el argumento anterior acerca de la configuración de sistemas y
su funcionalidad, se demostró que dos grupos de animales procedentes de cepas
endogámicas con alta y baja preferencia por el alcohol mostraban diferentes niveles de
los neurotransmisores dopamina y serotonina en ciertas áreas cerebrales (Gongwer et al.,
1989).
91
Este procedimiento que hemos descrito puede servir de ayuda para comprender un
componente genético del alcoholismo, pero este problema es más complejo y tendríamos
que tener en cuenta muchos más aspectos tanto genéticos como ambientales. Pero sí
podemos afirmar, al menos, que es un factor que influye. ¿Podemos llevar esto a un
entorno más cercano a la educación? Tan cercano como el aprendizaje. Son ya clásicos
los estudios de Edward C.Tolman (1886-1959) y su discípulo Robert C.Tryon (1901-
1967) que crearon cepas endogámicas en función de la capacidad de aprender recorridos
en un laberinto. Fueron segregando los animales en función de la eficacia con que
alcanzaban la recompensa de comida después de recorrer un laberinto, para lo que
consideraban el número de errores cometidos en cada intento por los animales. Así
crearon dos grupos de animales genéticamente similares pero que diferían
significativamente en su habilidad para resolver un laberinto (ratas "listas" y "tontas").
Las nuevas camadas de las cepas "listas" aprendían más rápidamente los recorridos en el
laberinto que los animales de las cepas "tontas". A todas luces, parece que esto
demostraba una clara influencia genética en la capacidad de aprendizaje de los animales.
Pero un brillante trabajo realizado por Cooper y Zubek (1958) demostró la importancia
del ambiente en el que se desarrollan los individuos. Tomaron ratas "listas" y "tontas" y
las criaron en tres tipos distintos de entorno, uno convencional, otro empobrecido
(semiaislamiento) y un tercero enriquecido con múltiples artilugios y accesorios en la
jaula. Cuando llegaron a la adultez fueron evaluadas en la prueba de laberintos siguiendo
el procedimiento de Tolman y Tryon y considerando los errores que cometía cada grupo
según su entorno de crianza. Los animales criados en un entorno convencional
obtuvieron unos resultados previsibles y acorde con los obtenidos anteriormente, los
animales del grupo listo cometieron muchos menos errores que los del otro grupo. Pero,
sorprendentemente, los animales criados en un ambiente empobrecido no mostraron
apenas diferencias en el número de errores, es decir, los dos grupos realizaron bastante
mal la tarea. En cuanto a los animales criados en un ambiente enriquecido, también
mostraron resultados sorprendentes ya que ambos grupos realizaron muy bien la tarea,
con muy pocas diferencias en cuanto al número de errores. Recientemente, se han
llevado a cabo otros trabajos con planteamientos similares que ponen de manifiesto que
la dotación genética y las influencias ambientales están estrechamente ligadas
(Champagne y Mashoodh, 2009).
92
la extrapolación a otras poblaciones arrojar datos inexactos (Wray y Visscher, 2008).
Pensemos que, en una sociedad como la nuestra en el siglo XXI, este concepto hay que
asumirlo con mucha cautela. Además, suele haber un error bastante común al interpretar
este concepto ya que no hace referencia a qué porcentaje de un determinado rasgo es
genético o ambiental. Por ejemplo, una heredabilidad de 0,8 para un rasgo concreto
significa que las diferencias existentes en ese rasgo entre los miembros de una población
se explican, en un 80%, por factores genéticos. Retomando el trabajo de Cooper y Zubek
podríamos decir que la heredabilidad del rasgo "capacidad para aprender recorridos en
laberintos" sería cercana a 1 en la población de ratas criadas en los entornos
convencional y empobrecido, puesto que el ambiente durante su desarrollo era
prácticamente uniforme. Sin embargo, no podemos afirmar con ese dato que dicho rasgo
dependa fundamentalmente del genotipo ya que se demostró el potencial de aprendizaje
de los animales criados en un entorno enriquecido.
Uno de los campos más interesantes para investigar el componente genético de las
diferencias individuales en una población proviene de los estudios con gemelos criados en
el mismo o diferente entorno. Frente a los trabajos clásicos que exploraban estas
diferencias en un mismo entorno para determinar la influencia genética, trabajos con
gemelos monocigóticos criados en entornos distintos (adopciones) permitían partir de un
mismo genotipo para explicar las diferencias individuales en función del ambiente. Uno
de los más clásicos es el estudio Minnesota con gemelos criados en ambientes separados
(Bouchard et al., 1990). En este estudio participaron más de cien parejas de gemelos
criados en entornos separados, los cuales, durante una semana se sometieron a multitud
de pruebas médicas y psicológicas. Tenían edades comprendidas entre los 19 y los 68
años y fueron separados a edades tempranas, por lo que su periodo de instrucción
académica lo realizaron en entornos diferentes. Según el estudio, la heredabilidad del
rasgo inteligencia (medida con el WAIS) estaba en torno 0,7 para los gemelos
monocigóticos, obteniendo valores inferiores cuando se trataba de habilidades cognitivas
más concretas, como velocidad de procesamiento (0,56) o habilidades espaciales (0,36).
Los datos sobre la heredabilidad de ciertos rasgos pueden ser tremendamente diversos en
función de la metodología utilizada y la población estudiada (ver tabla en Pásaro y
Fernández, 2005). Precisamente la diversidad de valores nos lleva a considerar como
meros referentes los datos proporcionados ya que, si a las peculiaridades del
procedimiento para estimar la heredabilidad le añadimos el cuestionamiento de las
herramientas utilizadas para determinar el valor de los rasgos medidos, estamos
asumiendo un nivel de incertidumbre demasiado alto como para considerar los resultados
concluyentes.
93
como una expresión fenotípica pero debemos abandonar viejas creencias como la
inmutabilidad del genotipo o el determinismo genético de los rasgos. Hay muchos
factores ambientales que modifican la expresión genética por lo que el estilo de vida, el
entrenamiento, en una palabra, la educación, puede modificar esa expresividad y
reconfigurar el fenotipo conductual en la dirección adecuada.
94
95
En este capítulo nos vamos a ocupar de las células que componen el sistema nervioso
(SN) y de su estructura. La primera parte del mismo se ocupará de las características
morfológicas de las neuronas y células gliales y de los mecanismos que permiten la
comunicación neuronal. Después abordaremos la anatomía macroscópica del SN,
primero mediante una panorámica general del mismo para posteriormente ir mostrando
de un modo más detallado las diferentes estructuras.
4.1.1. Neuronas
Santiago Ramón y Cajal (1852-1934) demostró que las neuronas son células
individuales que se comunican entre sí pero que no mantienen contacto físico entre ellas.
La confirmación de este hecho, que eran células individuales y no compo nentes de un
tejido reticular, fue lo que le valió el premio Nobel en 1906. Las neuronas pueden ser de
múltiples formas pero todas tienen unas características estructurales comunes. Están
recubiertas por una membrana con unas características especiales que resultan
fundamentales para que por ella se puedan propagar las señales nerviosas y pasar de una
célula a otras. Todas las neuronas están formadas por un cuerpo celular o soma y por
dos tipos de prolongaciones, las dendritas y el axón (figura 4.1). Es en el soma donde se
encuentra el núcleo con el ADN y donde tienen lugar los procesos metabólicos que
permiten la supervivencia de la célula; es decir, el soma es el centro trófico de la célula y
cualquier prolongación que se separa de él degenera y muere.
96
Figura 4.1. Neurona donde se pueden apreciar el soma y las prolongaciones, las vainas
de mielina que recubren el axón a intervalos regulares y la dirección en la que se propaga
el impulso nervioso.
Las dendritas son prolongaciones numerosas que emergen del soma y que se ramifican
como las ramas de un árbol; de hecho, dendrita viene del término griego dendron que
significa árbol. Constituyen la zona de la neurona donde se recibe la mayor parte de las
señales de entrada, es decir, los contactos procedentes de otras células (aunque hablemos
de contacto no lo es en sentido estricto ya que las neuronas están separadas entre sí por
minúsculas hendiduras; ya volveremos sobre ello más adelante cuando hablemos de
comunicación interneuronal). Estas regiones donde se reciben las señales de otras
neuronas se denominan sinapsis y a la transmisión de información entre a las neuronas en
es estos lugares, transmi Sión sináptica. La densidad de ramificaciones dendríticas va a
determinar mayor o menor conectividad en esa neurona ya que una mayor extensión
permitiría un número mayor de contactos sinápticos procedentes de otras células.
Además, en algunas ramificaciones surgen las espinas dendríticas, unos pequeños
abultamientos en los que se producen las sinapsis. El número de espinas dendríticas e
incluso la profusión de ramificaciones dendríticas puede variar como consecuencia del
grado de activación de esa neurona. Es lo que se conoce como plasticidad neuronal y es
la base del aprendizaje ya que somos capaces de aprender porque nuestros circuitos
nerviosos son capaces de cambiar (Fu et al., 2012).
El axón es una prolongación única (cada neurona tiene un solo axón) que emerge
también del soma en un lugar que se denomina cono axónico; tiene estructura cilíndrica
97
y, al contrario que las dendritas, no suele tener ramificaciones salvo en el extremo final.
Estas ramificaciones terminan en un abultamiento que se denomina botón terminal o
terminal sináptico pues es donde se almacenan las sustancias químicas que la neurona
utiliza para enviar mensajes a otras células. El axón es el elemento de la neurona que
conduce la señal de salida, que propaga el impulso nervioso y transmite el mensaje a
otras células gracias a los contactos sinápticos que establece con sus botones terminales.
Muchos axones están recubiertos a intervalos regulares por una sustancia de tipo graso, la
mielina, que contribuye a que la propagación del impulso nervioso se realice con más
rapidez.
Básicamente, la neurona es una célula como otra cualquiera, sin embargo, posee la
capacidad de procesar información. Cada neurona recibe un conjunto de señales de
entrada formado por cientos e incluso miles de contactos sinápticos procedentes de otras
neuronas (en el soma y las dendritas); en función de las características de ese conjunto
de señales (contactos excitatorios o inhibitorios, la intensidad de unos y otros, la
localización topográfica de los contactos...) la neurona genera las señales de salida
(propagando el impulso nervioso por el axón) que transmite a otras células a través de las
sinapsis. Las neuronas se comunican entre sí mediante señales eléctricas y moléculas
químicas, los neurotransmisores (NT), que son liberados por los terminales (botones)
sinápticos y se acoplan a receptores específicos que hay en la siguiente neurona
provocando una pequeña señal eléctrica. Esta señal eléctrica (junto con otras miles que
recibe la neurona) se propaga por la membrana de la neurona y cuando llega al terminal
sináptico del axón provoca la liberación de nuevos NT, continuando así el proceso de
propagación de las señales y, por tanto, de la información. Hay muchos NT identificados
en el SN y algunos de los más conocidos son la acetilcolina, la dopamina, la serotonina o
la norepinefrina (también se la conoce como noradrenalina).
Los astrocitos son las células gliales de mayor tamaño y las más numerosas. Cumplen
funciones como la de soporte estructural de las neuronas, participar en la cicatrización y
reparación del tejido nervioso dañado, en el suministro de nutrientes a la neurona, en el
mantenimiento de la barrera hematoencefálica o en la regulación de la transmisión
sináptica entre neuronas. También se sabe que estas células responden a los impulsos
nerviosos de las neuronas y participan activamente en la plasticidad sináptica, lo que lleva
98
a pensar que podrían tener un papel regulador en las funciones corticales superiores
(Araque el al., 2001). Se podría decir que si bien las neuronas son las que procesan
información, no podrían hacerlo sin los astrocitos. Los oligodendrocitos son células que
proporcionan la cubierta de mielina a los axones del sistema nervioso central (SNC). La
mielina es un recubrimiento graso que aísla a intervalos regulares los axones para facilitar
la conducción del impulso nervioso. La cubierta de mielina no es continua sino que se
interrumpe en unas zonas en las que el axón queda descubierto (figura 4.1) y que se
denominan nódulos de Ranvier. En el sistema nervioso periférico (SNP), la mielina la
proporciona las células de Schwann que realizan además algunas funciones similares a las
de las células gliales del SNC, como actuar de soporte o eliminar residuos de axones
dañados. Una función importante de las células de Schwann es que, cuando se dañan los
axones, y después de limpiar los residuos, forman una especie de canales cilíndricos para
guiar el crecimiento de nuevos brotes axonales desde la parte que queda unida al soma
neuronal hasta sus dianas anteriores, algo que contribuye a la recuperación funcional.
99
pugna por entrar al interior de la neurona pero no puede ya que los canales por donde
podría hacerlo están cerrados. En el caso del potasio, existe una cierta permeabilidad que
permite que algunas moléculas puedan salir al exterior por la fuerza de difusión, sin
embargo, como tiene carga positiva, la presión electrostática vuelve a meterlas. Además
hay otro mecanismo que contribuye a mantener la diferencia de potencial, las bombas de
sodio potasio (bomba Na+/ K). Estas proteínas mueven Na' hacia el exterior de la
neurona al tiempo que introducen K, con lo que además de mantener el potencial de
membrana son fundamentales para restablecerlo cuando se modifica en respuesta a un
estímulo.
100
apertura de canales Na' se extienda y se generalice en la zona. El PA es una señal de
salida que la neurona utiliza para comunicarse con otras células y tiene que haber un
mecanismo por el que dicha neurona transmita información acerca de señales de
diferente intensidad; esto lo hace modificando la frecuencia a la que genera potenciales
de acción. Si la neurona recibe impulsos intensos generará un mayor número de
potenciales por unidad de tiempo (digamos, segundos) que si tiene que responder a
estímulos menos intensos.
El PA es un fenómeno local que tiene lugar en el axón, pero como sabemos, hay
axones que pueden medir hasta un metro de longitud. Esto implica que el PA tiene que
desplazarse a lo largo del axón para llegar a los botones terminales y provocar la
liberación del NT. En condiciones naturales, el PA se inicia en el cono axónico, el lugar
donde se une el axón al soma neuronal y se propaga por todo el axón hasta los botones
terminales donde provoca la liberación de los NT. Esto ocurre porque la señal inicial sirve
de estímulo para las zonas vecinas.
101
no se desencadena si la despolarización no supera el umbral mínimo de excitación, pero
una vez alcanzado lo hace en toda su intensidad.
Los canales Na' son dependientes de voltaje, es decir, una pequeña señal eléctrica
produce su apertura. Por este motivo, la señal inicial en el cono axónico (que es un
voltaje) abre los canales de sodio de las regiones vecinas generando un nuevo PA, el cual,
a su vez, abre otros canales generando un nuevo potencial y así sucesivamente. El PA
viaja en una sola dirección ya que el voltaje generado en un punto puede servir para abrir
los canales que están por delante pero no los que están por detrás porque esa zona se
encuentra en periodo refractario. Es la zona donde acaba de producirse un PA y no
responde a estímulos (o lo hace solo ante estímulos más intensos, pero el PA siempre
tiene la misma intensidad) por lo que solo se abrirán los canales situados por delante;
cuando la zona activada recupera el potencial de reposo, la señal ya se ha alejado
demasiado como para poder abrir los canales de esa zona.
Este tipo de conducción puede resultar extremadamente lenta sobre todo en axones
muy grandes y sabemos por experiencia que la propagación del impulso nervioso puede
alcanzar velocidades altas. La mielina es la que permite a algunos axones transmitir el
impulso a mayor velocidad. Cuando se produce un PA en el cono axónico, el flujo de
iones Na' se mueve por el interior del axón ya que los canales Na' dependientes de
voltaje se concentran en los nódulos de Ranvier, la región descubierta de la mielina. Este
flujo permite el desplazamiento rápido de la señal por el interior pero perdiendo
intensidad, es decir, si todo el axón estuviera recubierto de mielina el potencial terminaría
por extinguirse. No obstante, el potencial llega al siguiente nódulo con intensidad
suficiente para superar el umbral de excitación y provocar un nuevo PA regenerando la
señal en su totalidad. Este proceso implica que los potenciales solo se producen en los
nódulos, es como si fueran saltando de un nódulo a otro, por eso se denomina
conducción saltatoria.
102
cono axónico una despolarización suficientemente intensa como para desencadenar un
PA. Sin embargo, lo mismo ocurre con los PPI, también suman sus efectos, lo que
disminuye la posibilidad de que la neurona responda mediante un PA. Este proceso,
conocido como integración neuronal, es el que va a determinar que, ante un conjunto de
señales de entrada, la neurona responda generando un PA o permanezca callada
(inhibida). Simplificando el proceso, podemos considerar la integración neuronal como el
resultado de sumar los PPE y restar los PPI que recibe una neurona para, según la
intensidad de la señal resultante, generar una respuesta o no.
En resumen, una neurona recibe un conjunto de señales de entrada (PPE y PPI) como
consecuencia de la activación de contactos sinápticos procedentes de otras neuronas. Si
predominan los potenciales excitatorios, llegará una despolarización al cono axónico con
intensidad suficiente para superar el umbral de disparo y generar un PA. Este potencial se
desplazará con la misma intensidad a lo largo de todo el axón hasta los botones
terminales sinápticos donde provocará la liberación de moléculas de NT. Estos NT se
acoplarán en los receptores situados en la membrana del soma y las dendritas de otras
neuronas provocando la apertura de canales para que el flujo de iones provoque nuevos
PPE y PPI y el proceso se repita en estas neuronas. Por supuesto que la neurofisiología
es algo más complicada y este proceso tiene muchos matices y excepciones, pero
básicamente, este es el modo en el que se comunican las neuronas a falta de explicar
cómo es el proceso de transmisión sináptica.
103
liberación y se adhieran a la membrana, liberando el NT mediante un proceso que se
conoce como exocitosis. Una vez que los NT han sido liberados pueden seguir tres rutas,
acoplarse a los receptores de la neurona postsináptica y modificar la permeabilidad de su
membrana, ser inactivados por enzimas específicos o ser recaptados por la propia
neurona presináptica a través de autorreceptores (figura 4.3).
Figura 4.3. Esquema de una sinapsis. El botón terminal libera los NT que atraviesan la
104
hendidura sináptica para acoplarse a los receptores. El exceso de NT puede ser
inactivado por enzimas o recaptado por la propia neurona que lo ha liberado.
También los NT pueden ser de diferentes tipos. Por ejemplo, aminoácidos como el
glutamato o GABA, aminas biógenas como la dopamina o la serotonina, o neuropéptidos,
como los opiáceos endógenos. Algunos NT tienen efectos excitadores (glutamato) o
inhibidores (GABA) pero otros pueden provocar ambos efectos (acetilcolina),
dependiendo del tipo de receptor al que se acoplen. A veces, de manera excesivamente
simplista se suele relacionar a determinados NT con funciones específicas, lo cual, a
pesar de poseer algo de verdad, no es del todo cierto. Podemos oír hablar de la
acetilcolina como el NT de la memoria, la serotonina del estado de ánimo, la dopamina
del placer... Pero todo depende de en qué regiones del SN actúen estos NT y qué tipo de
receptores resulten activados. Por ejemplo, es cierto que la acetilcolina juega un papel
importante en el funcionamiento del hipocampo y por tanto es necesario para la
memoria, pero también es el NT de la motricidad. La dopamina también está relacionada
con el Parkinson o la esquizofrenia y la serotonina con el apetito o la agresividad.
Tenemos que ser cautos cuando escuchemos este tipo de afirmaciones porque puede
llevamos al error de simplificar la bioquímica del cerebro.
105
equivalente periférico de los núcleos funcionales del cerebro. El SNP tiene un
componente somático y otro autónomo o visceral (SNA), dentro del cual se pueden
diferenciar dos divisiones, simpática y parasimpática.
106
El SN adulto es el resultado de las transformaciones que experimenta el tubo neural
durante el periodo embrionario pero, como su nombre indica, es un tubo que está hueco
en su interior y contiene líquido cefalorraquídeo. Esto significa que dicho líquido recubre
el SN por el exterior del mismo, en el espacio subaracnoideo, pero también rellena sus
huecos internos. En el interior hay unas cavidades comunicadas entre sí que se
denominan ventrículos cerebrales. Hay cuatro ventrículos, uno en cada hemisferio
cerebral, otro en la línea media a nivel del diencéfalo y un cuarto, también en la línea
media, entre el cerebelo y la protuberancia en el tronco del encéfalo. El líquido
cefalorraquídeo proporciona un elemento protector más, ya que actúa como un
amortiguador para golpes o erosiones puesto que podríamos decir que el SNC "flota" en
él.
107
entonces nuestro corazón late más deprisa, respiramos agitadamente, la sangre fluye
intensamente hacia nuestros músculos, sudamos y experimentamos otros efectos no tan
evidentes. Todo ello es consecuencia de la actividad del sistema simpático. Por el
contrario, la división parasimpática es la que entra en juego en los momentos de
relajación y tranquilidad activando mecanismos para la recuperación energética y
restableciendo los niveles que se han visto alterados tras el esfuerzo.
Para facilitar el estudio del SNC vamos a seguir una progresión de complejidad
creciente tanto estructural como funcional. Así, empezaremos por la médula espinal, el
tronco del encéfalo, el cerebelo y el prosencéfalo, la región más voluminosa, donde
distinguiremos entre diencéfalo y telencéfalo (figura 4.5).
108
Figura 4.5. Vista sagital de las principales divisiones del SNC.
La medula espinal es una estructura casi cilíndrica alojada en la columna vertebral por
donde ascienden los axones de las neuronas sensoriales que llevan información hacia el
cerebro y descienden los axones motores que llevan órdenes a los músculos y vísceras.
Si realizamos un corte transversal podemos ver la sustancia gris en el centro con forma
de H o de mariposa y rodeada de la sustancia blanca (figura 4.6). En la sustancia gris se
encuentran los somas neuronales y pequeñas intemeuronas sin mielina que hacen de
relevo en las vías medulares. En la sustancia blanca es donde se localizan los axones
mielinizados que ascienden (sensoriales) o descienden (motores) del cerebro. La médula
no tiene la misma longitud que la columna vertebral, es más corta, de hecho, termina
aproximadamente al nivel de la primera vértebra lumbar. Por debajo de ese nivel
podemos ver las raíces nerviosas que salen por los agujeros intervertebrales inferiores y
que, por su apariencia, se conoce como cola de caballo.
109
Figura 4.6. Sección transversal de la médula espinal donde se puede observar la sustancia
gris en el centro y la sustancia blanca alrededor. También se ven las raíces dorsales y
ventrales que forman los nervios raquídeos y cómo las neuronas sensoriales y motoras
viajan por el mismo nervio.
Los nervios espinales o raquídeos están unidos a la médula por dos raíces, una por la
parte anterior (raíz ventral) que contiene axones motores o eferentes y otra por la parte
posterior (dorsal) que contiene axones sensoriales o aferentes. Aquí ya podemos observar
parte de la organización del SN, la información llega al SNC por las raíces dorsales y las
órdenes salen por las raíces ventrales, es decir, por la región posterior sensorial, región
anterior motora (figura 4.6). Cuando notamos un pisotón, la señal de dolor entra en
nuestra médula por las raíces dorsales e, inmediatamente, por las raíces ventrales salen
las señales que van a producir una contracción de los músculos que nos permita retirar el
pie.
Ya dentro del cráneo se encuentra el tronco del encéfalo, una región en la que
podemos identificar el bulbo raquídeo, la protuberancia o puente y el mesencéfalo. En el
bulbo se encuentran núcleos de la formación reticular que se ocupan de funciones
cardiovasculares y respiratorias, por lo que su lesión puede ocasionar la muerte. La
formación reticular está formada por un conjunto de pequeños núcleos funcionales que
se extienden por todo el tronco del encéfalo y que además de las mencionadas, también
participan en el control del tono muscular y los movimientos, en la regulación del sueño o
110
en los estados de activación y atencionales entre otras funciones. Se la denomina reticular
porque las neuronas que forman estos núcleos no están tan compactadas como en otras
regiones cerebrales y esto le da un aspecto de red.
El cerebelo recibe este nombre porque en algunos aspectos se asemeja al cerebro; por
ejemplo, tiene dos lóbulos, unos núcleos internos de sustancia gris y una corteza
cerebelosa surcada de pliegues que guardan una ligera semejanza con las
circunvoluciones de la corteza cerebral. Tradicionalmente se le ha vinculado con
procesos motores, concretamente contribuyendo al equilibrio y al tono muscular y
proporcionando precisión, ritmo y coordinación a los movimientos voluntarios.
Actualmente existe numerosa evidencia clínica que vincula al cerebelo con procesos
cognitivos, si bien no se conocen los mecanismos mediante los cuales interviene, como la
memoria, el lenguaje o las funciones ejecutivas (Tirapu-Ustárroz et al., 2011); sin
embargo, los datos que soportan estas afirmaciones no terminan de ser convincentes y
dejan muchos aspectos sin clarificar (Konczaka y Timmann, 2007) por lo que hay que
seguir investigando en esa dirección.
Si seguimos ascendiendo por el SNC, nos encontramos el diencéfalo por encima del
tronco del encéfalo y en torno al tercer ventrículo. Las dos estructuras principales del
diencéfalo son el tálamo y el hipotálamo, aunque también se incluyen otras dos regiones
que son el epitálamo y el subtálamo (figura 4.7). El tálamo se sitúa prácticamente en el
centro del diencéfalo y tiene forma ovoide; simula por forma y tamaño a una aceituna.
No es una masa homogénea, pues una banda de sustancia blanca en forma de Y que lo
divide en tres porciones: anterior, medial y lateral. En cada una de estas divisiones se
pueden identificar numerosos núcleos diferenciables anatómica (tipo de neuronas,
compactación...) y funcionalmente (origen y destino de sus conexiones). Una de las
principales funciones del tálamo es la de estación de relevo de las vías sensoriales, ya que
todas, salvo la olfativa, proyectan desde el receptor al tálamo y de ahí a las áreas
corticales correspondientes. Pero el tálamo es algo más que una mera estación de relevo
porque las conexiones con la corteza cerebral son bidireccionales y parece que juega un
papel fundamental a la hora de regular los flujos de información a la corteza. También
111
forma parte de circuitos motores que incluyen a la corteza cerebral y a otras estructuras
como los ganglios basales o el cerebelo y está implicado en procesos de activación
generalizada de la corteza cerebral.
112
conductas que son fundamentales para la supervivencia del individuo y de la especie,
como las de ataque o huida, la alimentación o la reproducción.
Y por fin llegamos al telencéfalo, la parte más voluminosa del SNC. No siempre queda
clara la diferencia entre encéfalo y cerebro; a veces se utiliza el término cerebro para
referirse al telencéfalo y otras para incluir también al diencéfalo. Sí está claro que por
encéfalo entendemos toda la masa que está dentro de la cavidad craneana, pero el
concepto de cerebro (a veces por la denominación anglosajona brain, que se usa
indistintamente) puede prestarse a confusión por ese motivo. En nuestro caso,
consideraremos como cerebro al telencéfalo y el diencéfalo juntos.
El telencéfalo (figura 4.8) está formado por los dos hemisferios cerebrales que están
separados por la hendidura interhemisférica. Cada uno de estos hemisferios controla las
sensaciones y los movimientos del lado contrario del cuerpo y están unidos por millones
de fibras nerviosas (axones) que forman el cuerpo calloso. Están recubiertos por una
delgada capa de sustancia gris, la corteza cerebral que en humanos tiene numerosos
pliegues como consecuencia de su expansión. Así, el cerebro humano presenta ese
aspecto característico que todos conocemos plagado de surcos o cisuras (hendiduras) y
circunvoluciones o giros (elevaciones). En lo más interno de los hemisferios cerebrales se
encuentra una serie de estructuras cerebrales, denominadas a veces de manera genérica
internas o subcorticales, como la amígdala o los ganglios basales, separadas (o
comunicadas) con la corteza cerebral por las fibras que conforman la sustancia blanca
cerebral.
113
Figura 4.8. Vista lateral del cerebro. El telencéfalo está formado por los hemisferios
cerebrales donde se aprecian los surcos y circunvoluciones así como los cuatro lóbulos
cerebrales. En su interior se localizan estructuras subcorticales como los ganglios basales.
114
con estructuras subcorticales, es el hipocampo, una región fundamental para los procesos
de memoria y aprendizaje y sobre la que hablaremos en más ocasiones (figura 4.9).
Figura 4.9. Ganglios basales y amígdala. Se indica la posición del tálamo para que sirva
de referencia anatómica.
Como ya hemos apuntado, entre las estructuras subcorticales y la corteza cerebral nos
encontramos los millones de fibras nerviosas que forman la sustancia blanca. Estas fibras
pueden ser de tres tipos: de asociación, de proyección y comisurales. Las fibras de
asociación son axones que comunican regiones corticales del mismo hemisferio cerebral;
pueden ser cortas o largas, según las áreas conectadas estén próximas o más alejadas.
Las fibras de proyección están formadas por los axones que comunican la corteza
cerebral con otras estructuras, no solo del telencéfalo sino también del resto del SNC.
Por último, las fibras comisurales son las que comunican ambos hemisferios entre sí, es
decir, permiten la intercomunicación entre áreas de ambos hemisferios para su trabajo
conjunto. La más importante es el cuerpo calloso, formada por millones de axones y que
es el principal, pero no el único, paso de fibras de un hemisferio a otro, por lo que si se
secciona, se produce lo que se denomina cerebro escindido (Split brain) e impide que
115
ambos hemisferios intercambien información.
La corteza cerebral es la capa de sustancia gris que recubre los hemisferios cerebrales
y el soporte neurológico de los procesos superiores. En tomo a dos tercios de su
superficie total queda dentro de los surcos, lo que nos da una idea de cómo ha sido su
desarrollo evolutivo en las especies más próximas a la humana. En el ser humano, la
mayor parte de la superficie hemisférica está formada por un tipo de corteza más
evolucionada (neocórtex) con seis capas de células y que se denomina isocórtex. Hay una
pequeña porción de corteza más antigua, el alocórtex, que tiene una organización más
simple con sólo tres o cuatro capas y es la que encontramos en el hipocampo y la corteza
olfatoria. Aparte de la cisura interhemisférica o longitudinal que separa ambos
hemisferios, hay otras dos cisuras importantes que nos ayudan a dividir cada hemisferio
en cuatro lóbulos. La cisura central o de Rolando separa el lóbulo frontal rostralmente del
parietal; la cisura lateral o de Silvio delimita el lóbulo temporal y en la parte posterior se
encuentra el lóbulo occipital, zona del cerebro donde radica la visión. La cisura central
separa dos circunvoluciones fácilmente identificables, la precentral (por delante,
rostralmente), donde se localiza la corteza motora primaria, esto es, desde donde salen
los axones que bajan hasta la médula para producir los movimientos, y las circunvolución
poscentral (por detrás, caudalmente) en la que radica la corteza somatosensorial primaria,
la zona donde se procesan las sensaciones corporales.
Hemos hecho una revisión rápida y superficial de las principales estructuras del SN
aludiendo someramente a sus implicaciones funcionales. En el resto de los capítulos
tendremos ocasión de volver sobre estas estructuras a medida que vayamos avanzando
en la comprensión del funcionamiento del SN y cómo ocurren los procesos que nos
permiten aprender, comunicamos, experimentar emociones o tomar decisiones acerca de
nuestra vida.
116
117
No hace falta más que mirar a nuestro alrededor para damos cuenta de que existe una
gran variedad de especies de animales diferentes; son el resultado de miles de millones de
años de evolución. El ser humano es una de esas especies y, como las demás, tenemos
una serie de ancestros que nos ayudan a saber algo acerca de cómo hemos llegado a ser
lo que somos. La filogenia es el estudio de la evolución de los organismos y una de las
cosas que nos enseña es que estos comparten ciertos atributos en mayor o menor medida
según la proximidad evolutiva que exista entre ellos.
118
con más limitaciones que las primeras; de una de estas capas (ectodermo) va a surgir el
futuro SN. Podemos considerar que el auténtico desarrollo nervioso comienza entre los
14 y los 21 días de gestación, cuando un grupo de células del ectodermo forman la placa
neural, la cual, posteriormente forma el tubo neural. Este tubo neural, formado por
plegamiento de la placa neural (como si enrollásemos una hoja de papel), está abierto por
ambos extremos; en tomo al día 23 de gestación, estos agujeros del tubo neural (poros
neurales) se cierran, proceso importante ya que si lo hacen de manera defectuosa pueden
provocar anencefalia (cierre defectuoso del poro rostral) o espina bífida (cierre
defectuoso del poro caudal). Cuando se produce el cierre del tubo, parte del tejido queda
por fuera formando la cresta neural; el tubo neural es el origen del SNC, del que nos
ocuparemos en el capítulo, y la cresta neural lo es del SNP. La estructura de tubo
persiste en el SN adulto ya que la cavidad interna dará lugar a los ventrículos cerebrales y
al conducto raquídeo.
Como consecuencia de la proliferación celular, las paredes del tubo neural empiezan a
engrosar, sin embargo, la proliferación no es homogénea y esto hace que el
engrosamiento sea diferente en unas zonas u otras. En tomo a la cuarta semana de
gestación, en la parte más rostral del tubo neural se van diferenciando tres abultamientos
(vesículas) denominadas prosencéfalo, mesencéfalo y rombencéfalo, que van marcando
lo que van a ser las principales divisiones anatómicas del SNC adulto (Jessell y Sanes,
2000). La parte más caudal del tubo crece de un modo más uniforme y dará lugar a la
médula espinal. Más adelante, en la quinta semana, el prosencéfalo se divide en dos
nuevas vesículas, el telencéfalo y el diencéfalo, mientras que el rombencéfalo lo hace en
mielencéfalo y metencéfalo.
Al mismo tiempo que en las paredes del tubo neural van diferenciándose las vesículas,
el tubo neural se va plegando y adquiriendo la forma del cerebro adulto. El telencéfalo,
de donde surgen los hemisferios cerebrales, es la parte del tubo neural que experimenta
un mayor desarrollo; pero para poder ocupar un volumen mayor en un espacio cerrado
como es el cráneo, realiza un crecimiento envolvente, es decir, crece en varias
direcciones. Esto provoca que el telencéfalo "oculte" a otras estructuras situadas
caudalmente como el diencéfalo y parte del tronco del encéfalo y el cerebelo (figura 5.1).
En la séptima semana de desarrollo embrionario la apariencia del tubo neural ya es
similar a la del SNC adulto, sin embargo todavía no se aprecia uno de sus rasgos más
característico, los surcos y circunvoluciones de la corteza cerebral que proporcionan a los
hemisferios cerebrales su conocido aspecto, algo que ocurre en torno a los siete meses de
gestación cuando el cerebro y demás estructuras nerviosas poseen un aspecto similar al
adulto.
119
Figura 5.1. Tubo neural y SNC adulto donde puede verse cómo va evolucionando aquel
y aparece la configuración adulta del encéfalo y la médula espinal.
120
neural, veríamos esta glía radial como los radios de la rueda de una bicicleta. Una vez
que las neuronas inmaduras han alcanzado sus destinos y se han agrupado en ellos se
activan genes que serán los que determinen en qué tipo de célula se convierten. La
mayor parte de la neurogénesis se ha completado en tomo al quinto mes de embarazo,
pero no olvidemos que este proceso ocurre durante toda la vida (Eriksson et al., 1998);
en este caso nos referimos a lo que podemos llamar la neurogénesis básica o
configuracional. Sin embargo, la migración y la diferenciación celular continúan. Estos
procesos no ocurren de manera uniforme en todo el cerebro por lo que, mientras en unas
zonas se produce la proliferación de neuroblastos, en otras pueden estar ya migrando o
iniciando la maduración (figura 5.2).
121
principales vías neurales están ya configuradas (Stiles y Jemigan, 2010), sin embargo, el
crecimiento de axones y dendritas y el establecimiento de contactos sinápticos en esta
fase va a ir configurando los incipientes circuitos neurales de un modo provisional a falta
de un posterior refinamiento (Tau y Peterson, 2010). El número de sinapsis crece
considerablemente y en pocas semanas se establecen billones de estos contactos; sin
embargo, luego se produce un curioso fenómeno, empiezan a morir neuronas y
desciende de manera importante el número de sinapsis, como si sobraran.
Efectivamente, parece que sobran; venimos al mundo con muchas más neuronas y
contactos sinápticos de los que necesitamos por lo que se hace una selección posterior.
En los primeros meses de vida se produce una cierta competencia entre las neuronas para
atraer contactos sinápticos procedentes de otras neuronas de tal manera que solo aquellas
que consiguen un cierto grado de conectividad sobreviven. Las neuronas que no forman
parte de una red neural activa van muriendo y los contactos sinápticos que no resultan
activados de manera regular van desapareciendo. Inicialmente, el establecimiento de
conexiones entre las neuronas procura proporcionar un número suficiente de ellos para
una configuración adecuada de los circuitos neuronales, sin embargo, a medida que estos
circuitos se van perfilando, algunas vías y contactos sinápticos no resultan necesarios y
pueden ser perjudiciales para el correcto funcionamiento del circuito. Es una muerte
celular programada genéticamente que sirve para eliminar neuronas que han establecido
conexiones no funcionales y, en general, para configurar los circuitos de un modo
funcionalmente óptimo. Buss y Oppenheim (2004) sugieren que, además de contribuir a
la configuración adecuada de los circuitos, esta muerte celular también es un mecanismo
para corregir errores en la proliferación y migración neuronal.
Los diferentes procesos celulares que tienen lugar durante la configuración del SN
determinan que el volumen de sustancia gris (cuerpos neuronales y prolongaciones
dendríticas) y el de sustancia blanca (axones mielinizados) tengan una evolución desigual
a lo largo del desarrollo cerebral. En el caso de la sustancia gris hay un primer periodo de
crecimiento, coincidiendo con la neurogénesis y la arborización dendrítica, hasta alcanzar
un nivel máximo para después empezar a decrecer como consecuencia de la apoptosis y
la poda sináptica. En el caso de la sustancia blanca el patrón de crecimiento es más o
menos constante y se mantiene hasta muy avanzada la edad adulta; es un crecimiento
más regular ya que implica la formación progresiva de las vainas de mielina en aquellos
122
circuitos nerviosos que están madurando.
123
controversia. Existen diferentes posturas sobre la conveniencia-necesidad-utilidad de la
estimulación temprana (a veces, sobreestimulación) para asegurar una adecuada
conectividad sináptica en las redes neuronales del cerebro. Está clara la idea de que un
bebé necesita estimulación, pero también es probable que tampoco sea conveniente en
exceso, algo que podría tener efectos contrarios a los que se persiguen. Lo que es seguro
es que la deprivación sensorial, la falta de estímulos en esta etapa inicial sí tiene efectos
negativos sobre el desarrollo cerebral como ya se ha puesto de manifiesto en numerosas
ocasiones, tanto en el laboratorio como, por desgracia, en la vida real.
124
entorno. Sabemos que hay una programación genética aparentemente precisa para el
desarrollo del SN, sin embargo, el conocimiento actual de diferentes mecanismos
epigenéticos que influyen sobre la expresión de los genes nos lleva a considerar las
influencias ambientales ya desde el mismo momento de la fecundación. Cuando
hablamos de ambiente durante el desarrollo nos estamos refiriendo a las condiciones y
características del entorno durante todo el proceso, es decir, incluida la etapa prenatal.
Durante el embarazo, el feto está sometido a las influencias de múltiples factores:
nutrición, toxinas, equilibrio bioquímico u hormonas. A pesar de que la madre ejerce una
potente protección sobre el feto, esta no es completa y la carencia de determinados
nutrientes, la presencia de toxinas y el exceso o defecto de determinadas moléculas
pueden ocasionar alteraciones y desviaciones en el curso normal del desarrollo nervioso.
También son conocidos los trabajos realizados por el matrimonio Margaret y Harry
Harlow (1970) que criaron monos modificando las condiciones sociales en las que se
desarrollaban. Sometieron a las crías a diferentes periodos de aislamiento que podían
comenzar en el momento del nacimiento o semanas más tarde y cuya duración también
era variable. La privación del contacto físico y sensorial con la madre o con otros
congéneres ocasionaba en las crías importantes alteraciones emocionales y conductuales,
siendo más graves cuando el aislamiento se iniciaba en el nacimiento y cuando la
duración del mismo era mayor. En la mayoría de los casos, los comportamientos que
manifestaban los animales se podían considerar equivalentes a los de seres humanos con
trastornos mentales (depresión, esquizofrenia...) poniendo de manifiesto la importancia
del contacto social en la infancia. Una de las causas de este tipo de alteraciones puede ser
una mielinización defectuosa y, por tanto, una mala configuración de algunos circuitos
nerviosos. El aislamiento social durante dos semanas después del destete en una muestra
de ratones ocasionó una reducción en el número de oligodendrocitos en la corteza
125
prefrontal que no se recuperó después de la reinserción en el grupo (Makinodan et al.,
2012). Este descenso de los oligodendrocitos provocó una mielinización insuficiente en
los circuitos prefrontales, lo que se tradujo en alteraciones comportamentales. Los
defectos en la mielinización de diferentes áreas corticales se ha relacionado en humanos
con alteraciones del estado de ánimo y esquizofrenia (Fields, 2008). Además, podemos
comprobar que niños que han sufrido situaciones de semiaislamiento durante su infancia
(por ejemplo, algunos casos de adopciones) también muestran frecuentes dificultades
emocionales y cognitivas, aunque se hayan integrado en familias a edades tempranas.
La plasticidad durante las etapas iniciales del desarrollo puede promover importantes
remodelaciones de las conexiones sinápticas mediante el crecimiento de axones y
dendritas (Eysel, 2008). Por el contrario, el SN adulto posee una menor capacidad de
modificación de sus conexiones, pero aún así, todavía la mantiene durante toda la vida
aunque más restringida a los contactos sinápticos y, en algunos casos, a las
ramificaciones dendríticas y axonales. La plasticidad sináptica es la base del aprendizaje y
la memoria. El hipocampo es una estructura estrechamente vinculada a los procesos de
aprendizaje y memoria (lo veremos con detalle en el capítulo 11) y es también uno de los
lugares donde primero se describieron mecanismos de plasticidad inducidos de una forma
experimental. En 1973, Timothy V.Bliss y Terje Lomo hicieron un importante
descubrimiento en los circuitos del hipocampo. Pusieron de manifiesto que una breve
estimulación eléctrica de alta frecuencia (muchos impulsos por segundo) en un grupo de
neuronas producía un aumento de larga duración de la potencia de las sinapsis
estimuladas por estas. A este incremento de la fuerza sináptica lo denominaron
126
potenciación a largo plazo (LTP, del inglés long-term potentiation). Básicamente es una
huella de memoria; el cambio en la fuerza de las conexiones sinápticas permanece un
tiempo que puede ser de días o semanas, como un indicio de la estimulación ejercida. La
LTP implica la interacción entre diferentes sinapsis que recibe una neurona determinada.
Así, cuando las sinapsis débiles y fuertes de una misma neurona son estimuladas al
mismo tiempo, las débiles se fortalecen. Esto es lo que Hebb (1949) sugirió veinticinco
años antes como base para el aprendizaje a largo plazo. La plasticidad es una
característica de las neuronas gracias a la cual pueden adaptarse a las agresiones o
responder a la experiencia. Así, los contactos sinápticos pueden guardar un registro, en
forma de cambio estructural o funcional, del tipo y la frecuencia de una estimulación que
forme parte del procesamiento cerebral de una experiencia. Estamos ante la huella
fisiológica de la memoria.
Hasta hace pocos años, la neurociencia ha trabajado con la idea generalizada de que en
el SN adulto no aparecen nuevas neuronas. Sin embargo, hoy ya nadie alberga dudas de
que en ciertas regiones del cerebro adulto puede haber neurogénesis durante toda la vida.
Desde los primeros indicios en la década de los sesenta hasta la actualidad, se han
aportado numerosas evidencias de que en el cerebro adulto se forman nuevas neuronas y
de que se integran en circuitos funcionales. La neurogénesis no ocurre de forma
generalizada en todo el cerebro, sino que está restringida a zonas muy concretas. Una de
las regiones en las que se ha demostrado esta neurogénesis es el giro dentado, una parte
del hipocampo. La otra región es el bulbo olfatorio, sin embargo, se sospecha que existe
neurogénesis en otras regiones cerebrales aunque de manera más restringida y ligada
sobre todo al daño cerebral (Gould, 2007). También se ha comprobado que la
neurogénesis es sensible a efectos fisiológicos y patológicos en todas sus fases, es decir,
desde la formación de la nueva neurona hasta su integración en un circuito funcional
(Zhao et al., 2008). Esto significa que hay factores ambientales que pueden condicionar
su ocurrencia y efectividad funcional. Por ejemplo, la actividad física actúa potenciando
la neurogénesis, mientras que el envejecimiento supone una ralentización progresiva.
Además se ha demostrado que también se ve reforzada por la experiencia y durante el
aprendizaje inducido (Ming y Song, 201 1), un argumento más para confirmar cómo el
estilo de vida, las experiencias y el entorno condicionan el funcionamiento cerebral.
127
correspondiente no tiene lugar, no se producirán las modificaciones oportunas en los
circuitos nerviosos y no habrá aprendizaje. ¿Realmente la naturaleza es tan radical? ¿Qué
entendemos por periodo crítico?
En este caso se considera periodo crítico a una "ventana temporal" en el desarrollo del
cerebro durante la cual es posible adquirir una determinada habilidad. Pero este concepto
implica que dicho aprendizaje solo puede adquirirse durante ese periodo, es decir, una
vez que se cierra esa ventana, no hay posibilidad alguna de adquirir esas habilidades. Por
otro lado, también habría que con siderar que un aprendizaje adquirido durante ese
periodo crítico no podría ser modificado ni revertido (u olvidado) una vez que finaliza el
mismo, ya que el cerebro habría perdido la capacidad de realizar ajustes en esos circuitos
nerviosos. Visto así, parecen unas restricciones excesivas que no son lo que solemos
encontrar cuando estudiamos el aprendizaje a lo largo del ciclo vital. Siempre se toma
como ejemplo el caso del lenguaje, si no hay la estimulación adecuada en el momento
oportuno, este no se desarrolla. Y hay casos que lo documentan. Sin embargo, hay que
hacer varias consideraciones antes de dar por buenos los mencionados casos.
Es muy frecuente acudir a casos extremos, como es el caso de niños criados sin la
presencia humana (el mito de Tarzán), para justificar la idea de los periodos críticos. Uno
de los más conocidos por su proximidad temporal es el de Genie (nombre ficticio), una
niña a la que sus padres, ambos con las capacidades mentales mermadas, mantuvieron
encerrada y privada del contacto humano hasta que fue rescatada a los 11 años por los
servicios sociales. Las condiciones de aislamiento de Genie se vieron incrementadas por
los problemas de malnutrición, falta de higiene, entorno insalubre y restricción motora (la
mantenían atada a una silla) que tuvo que soportar. Como es de suponer, era incapaz de
hablar, mantenía posturas anormales, mostraba episodios agresivos o de pánico y
rechazaba comunicarse con la mayoría de las personas. Poco tiempo después de ser
rescatada, el aspecto y el estado mental de la niña mejoró considerablemente (en
comparación a su estado previo, una ducha suponía un paso de gigante para la pobre
niña) volviéndose un poco más comunicativa y aceptando mejor a sus cuidadores. Genie
aprendió algunos rudimentos lingüísticos pero fue incapaz de alcanzar un nivel
equiparable al de un adulto. Claro, para los defensores de los periodos críticos, la
inoperancia lingüística de la niña fue la prueba fundamental de sus argumentos; los
detractores de esta idea, se agarraron a las habilidades que pudo adquirir. Quizá para
evitar posturas radicales que los estudios cognitivo-conductuales desmontan fácilmente,
se acude al término más amable y menos radical de periodos sensibles, momentos del
desarrollo en los que ciertos circuitos nerviosos están en las condiciones óptimas para
reaccionar ante un tipo específico de estimulación.
128
adquiridas que resultan adaptativas para una especie y necesarias para su supervivencia;
por eso, la mera exposición a un entorno natural propio de esa especie es suficiente para
incidir sobre los circuitos cerebrales adecuados y propiciar su adquisición. Ese entorno
natural se considera suficiente y necesario para que la ocurrencia de determinadas
experiencias propias del mismo contribuya a la normal organización de los circuitos
neuronales. Si falta esa expe riencia, los circuitos se configuran de un modo diferente en
función de la estimulación que reciban. Cualquier niño que se desarrolle en un entorno
hablante aprenderá a hablar sin dificultad salvo que su SN esté congénitamente mal
configurado; otra cosa será si desarrolla un vocabulario más o menos amplio, un acento u
otro o un dominio mayor o menor de los recursos lingüísticos para comunicarse.
También utilizó el término aprendizaje dependiente de la experiencia (EDL, del inglés
Experience Dependent Learning) para referirse a la adquisición de otras habilidades que
no son fundamentales para la supervivencia y que dependen del contexto concreto en el
que el sujeto se desarrolla, por ejemplo, el aprendizaje de la lectura depende de un
entrenamiento específico que puede tener lugar en un intervalo temporal mucho más
amplio, solo requiere práctica regular.
129
lenguaje defectuoso, pero sí lo suficientemente eficaz como para poder comunicarse.
Ya sabemos que no todas las áreas cerebrales tienen el mismo ritmo de maduración.
Esto significa que un circuito no puede madurar hasta que no lo hace el inmediatamente
anterior en la jerarquía funcional, es decir, aquel de donde recibe la mayoría de las
aferencias (Hensch, 2004). Teniendo en cuenta que no existe una organización secuencial
estricta en las vías de procesamiento, esto supone que la maduración cerebral que da
soporte al funcionamiento sensoriomotor y cognitivo depende de múltiples circuitos, cada
uno de ellos con un calendario de maduración propio. Según de qué proceso hablemos,
los supuestos periodos críticos no son intervalos temporales cerrados (a veces ni siquiera
en los procesos más básicos) por eso es preferible hablar de periodos sensibles del
desarrollo. Esto es especialmente aplicable al ámbito educativo donde tenemos que lidiar
con la adquisición de múltiples habilidades aparentemente sencillas pero que están
soportadas por la actividad sincrónica de múltiples circuitos nerviosos interconectados.
130
si se les hubiera permitido realizar un mayor número de ensayos de una tarea, habrían
mejorado su ejecución. En las etapas preverbales surge el problema de que no siempre
podemos determinar si una habilidad está adquirida, tenemos que deducirlo.
Figura 5.3. Etapas del desarrollo propuestas por Piaget y periodos en los que se ha
documentado un desarrollo cerebral acelerado.
Se han publicado numerosos calendarios del desarrollo cognitivo en niños, así que no
vamos a añadir uno más, pero sí vamos a hacer algunas consideraciones al respecto en
tres dominios fundamentales para el proceso educativo, la motricidad, el lenguaje y la
memoria.
A) Motricidad
Los recién nacidos exhiben movimientos complejos que son autogenerados pero
desorganizados, que no tienen un objetivo concreto (flexión de las articulaciones o
reflejos como el de succión, chupeteo o prensión). Por ejemplo, los movimientos
oculares sacádicos se originan de manera refleja y se dirigen hacia estímulos externos sin
control interno; esto está en relación con el proceso de maduración cerebral ya que las
áreas corticales somatosensoriales lo hacen antes que las áreas visuales asociativas. En
torno a los tres meses, ya ha progresado bastante la mielinización en áreas asociativas y
el niño empieza a ejercer un cierto control inhibitorio sobre actos reflejos, a realizar
movimientos intencionados de cabeza y ojos, y conductas de alcance y agarre de objetos
(Goodkin, 1980). Aproximadamente a los seis meses aparece la transferencia mano-
131
mano, la capacidad de pasarse un objeto de una mano a otra, lo cual implica una mayor
coordinación funcional entre circuitos sensoriales, motores y asociativos. Esto nos
muestra cómo la mielinización, criterio de maduración, está estrechamente relacionada
con el progreso en habilidades de cualquier tipo.
En los dos primeros años el niño esboza la mayoría de las habilidades motoras básicas:
control de la postura y el equilibrio, marcha, manejo de las manos para manipular objetos
de manera eficiente o la realización simultánea de dos actos motores. El desarrollo motor
posterior es un perfeccionamiento de habilidades básicas que, en función de la práctica se
van a adquirir antes o después. Se trata de una progresión más o menos regular hasta
adquirir el patrón psicomotor del adulto; la posterior adquisición de destrezas motoras va
a depender de la práctica y la repetición, es decir, del entrenamiento. Aprender a montar
en bicicleta, a jugar al futbol o al tenis, a hacer malabares o a lanzar dardos, van a ser
consecuencia directa de las horas de práctica que dedique a ello. Además, el desarrollo
motor implica su integración con otras capacidades para dar lugar a conductas complejas
como las habilidades visomotoras.
B) Lenguaje
Para comprender cómo se adquiere el lenguaje hay que considerar que se trata de un
sistema complejo de comunicación mediante símbolos y sonidos que utilizamos para
transmitir ideas, pensamientos o significados. Al tratarse de un sistema complejo hay que
suponer que su base neuronal también lo sea, bastante más de lo que reflejan algunos
modelos explicativos.
El niño al nacer reacciona positivamente a la voz humana; en los primeros seis meses
se produce un intercambio vocal cada vez más rico porque el niño interacciona y emite
balbuceos y sonidos en respuesta al habla de los otros. Pero el desarrollo del lenguaje
implica funciones primarias y secundarias, las primeras se adquieren con facilidad si hay
estimulación adecuada (percepción y producción del habla); las segundas (lectura y
escritura) requieren práctica y repetición como ya vimos al hablar de periodos críticos. Y
es que no es lo mismo la percepción del habla que el procesamiento lingüístico complejo,
aunque sea la base sobre la que este se asienta (Kuhl, 2000). La experiencia y la práctica
van a contribuir al incremento de la especialización de diferentes áreas y la interconexión
entre ellas para el desarrollo de habilidades lingüísticas más complejas (Booth, 2007).
Igual que en el desarrollo motor, las habilidades lingüísticas básicas se adquieren relati
vamente pronto y, a partir de ahí, se produce un incremento del vocabulario y de la
habilidad para utilizar los recursos lingüísticos en la comunicación, papel en el que
también intervienen circuitos prefrontales. Todo ello, nuevamente, demuestra cómo la
progresiva maduración de circuitos cerebrales requiere de la estimulación adecuada para
alcanzar una configuración óptima.
C) Memoria
132
Si en el caso de la motricidad o del lenguaje es fácil comprobar el nivel en el que se
encuentra el niño, no ocurre lo mismo con la memoria. Con frecuencia se trata de
evaluar la memoria partiendo de modelos cognitivos consolidados para adultos pero que
en niños pueden no ser del todo equiparables. Aunque la tradicional disociación entre
memoria explícita (recuerdo de hechos y conocimiento) e implícita (aprendizaje de
habilidades y rutinas) puede tomarse como referencia, quizá en niños hay que considerar
algunos matices ya que, por ejemplo, carece de la base de conocimiento del adulto y
muchos de los estímulos que se le presentan le resultan nuevos.
La memoria implícita sigue diferentes procesos y rutas por tratarse de habilidades más
heterogéneas. Este tipo de habilidades suelen adquirirse pronto y, al contrario que la
memoria explícita, hay poca mejoría en los siguientes años. En un estudio realizado para
confirmar este punto se evaluó a niños a los tres años en una tarea de primming
perceptivo (implícita) y otra de reconocimiento (explícita), comprobando que a los tres
años realizaban mejor la tarea de primming que la de reconocimiento. Dos años después
se comprobó que la ejecución en la tarea de reconocimiento había mejorado
considerablemente pero en la de primming seguía en los mismos niveles que en la
evaluación anterior (Bachevalier y Mishkin, 1984). La memoria explícita requiere la
maduración de diferentes circuitos del lóbulo temporal medial y de la corteza prefrontal,
pero la memoria implícita está soportada por circuitos más primarios cuya maduración es
más temprana.
Una última consideración. Aparte de los tres dominios referidos, es frecuente observar
que algunos estudios estiman que el desarrollo neurocognitivo culmina antes de llegar a la
133
adolescencia y que en esa etapa solo hay desórdenes hormonales, búsqueda de
sensaciones, sexo, alcohol y problemas escolares. Nada más alejado de la realidad si
consideramos que la cognición es algo más que lenguaje y memoria. Una de las
características del desarrollo neurocognitivo en la adolescencia es la capacidad, o
habilidad, para dirigir la conducta hacia un objetivo, algo para lo que es necesario inhibir
acciones o pensamientos inapropiados y rechazar gratificaciones inmediatas que
comprometen el logro final (Casey et al, 2005). Algunos científicos aceptan que el
desarrollo cognitivo es básicamente una consecuencia del incremento en la eficiencia y
velocidad del procesamiento de la información, mientras que otros consideran que el
desarrollo (o adquisición) de la capacidad de inhibición es un elemento fundamental para
alcanzar determinadas habilidades cognitivas de orden superior (Casey et al. 2008). Ya
hemos comentado que los circuitos prefrontales son los que se mielinizan, y por tanto
maduran, más tarde y son los responsables del funcionamiento ejecutivo (toma de
decisiones, planificación o inhibición conductual, por ejemplo). El proceso de
mielinización de las fibras que conectan la corteza prefrontal con la corteza parietal
correlaciona positivamente con el incremento de la capacidad de autocontrol en
adolescentes con respecto a niños (Nagy et al., 2004) ya que hay menor mielinización y
menor autocontrol cuando son más jóvenes. La conducta dirigida a un objetivo, algo que
se identifica con el comportamiento adulto, requiere control de impulsos y aplazamiento
de gratificaciones para conseguir resultados óptimos en ese camino. La impulsividad
intrínseca disminuye con la edad durante la adolescencia (aunque no lo parezca), algo
relacionado con la progresiva maduración de los circuitos prefrontales. Sin embargo,
existen otros factores que determinan por qué no todos los adolescentes controlan igual
su impulsividad y adquieren el autocontrol necesario para conseguir determinadas metas.
Factores emocionales y sociales sobre todo, pero veremos algo de todo ello en los
últimos capítulos.
134
alteraciones no pueden conocerse hasta que llega la etapa evolutiva correspondiente, pero
sí podemos hacernos una idea a partir de las características del daño ocasionado. Hay
dos aspectos clave en la determinación de los efectos de cualquier evento sobre el
desarrollo, el momento de la incidencia y la duración de la exposición. En general, la
incidencia en una etapa temprana del desarrollo y un mayor tiempo de exposición
suponen peor pronóstico evolutivo del daño ocasionado.
Una dotación genética anómala puede ser la primera causa de un TND. Las formas en
que se puede manifestar una dotación genética anómala son diversas, pero básicamente
podría tratarse de que un gen esté defectuoso y no cumpla adecuadamente su función o
de la presencia de alelos "patológicos" que puedan contribuir al desarrollo de algún tipo
de alteración. Como vimos anteriormente, también puede estar alterada la dotación
cromosómica, en cuyo caso hablaríamos de multitud de genes afectados. Estas
alteraciones cromosómicas pueden ser numéricas (síndrome de Down, síndrome de
Tumer...) o estructurales (Cri du chat, deleción de un fragmento en el cromosoma 5;
síndrome de Angelman, deleción de un fragmento del cromosoma 15). En todos estos
casos, nos encontramos con una configuración anómala de los circuitos nerviosos (y de
otros tejidos del organismo) cuyas manifestaciones serán variables pero con un alto grado
de superposición, es decir, un mismo síntoma o manifestación clínica puede observarse
en diferentes síndromes.
135
células gliales que proporcionan la mielina en el SN central, son muy sensibles a los
efectos adversos de otras drogas, de malnutrición durante el embarazo, de ciertas toxinas,
hipoxia o prematuridad, todo lo cual puede alterar la formación de mielina y llegar a
producir, según el momento en el que ocurra, parálisis cerebral o retraso mental (Back et
al., 2001).
La adolescencia parece una etapa segura para el desarrollo cerebral; muchas funciones
cognitivas se han adquirido y se manifiestan correctamente, el desarrollo social es
evidente y el rendimiento académico parece depender más de otros factores. Sin
embargo, el cerebro adolescente todavía posee áreas en desarrollo. La corteza prefrontal
no ha culminado su maduración y es la responsable de nuestra forma de ser, de las
decisiones que tomamos, de las metas que nos fijamos o del modo en que nos adaptamos
a nuestra sociedad. Es una etapa en la que culmina la poda sináptica y la mielinización en
estos circuitos, procesos que pueden verse afectados de formas diversas. El consumo de
sustancias, sobre todo el alcohol, afecta a la manera en que se configuran los circuitos
prefrontales y además de alteraciones cognitivas (García-Moreno et al., 2008; Sanhueza
et al., 2011), también puede ocasionar otras más sutiles que tienen que ver con una
merma generalizada de las capacidades y una reducción del potencial futuro del
adolescente. La capacidad de organización o de aprender y diseñar estrategias para
desarrollar una labor profesional, para tomar decisiones fundamentales para el futuro o
para relacionamos de un modo positivo con los demás pueden quedar alteradas. Es un
136
aspecto que resulta difícil de valorar porque no tenemos el elemento de comparación, es
decir, no podemos determinar dónde habría llegado un individuo o qué habría conseguido
si no hubiera consumido alcohol en exceso durante la adolescencia. No obstante, sí
parece que se compromete el desarrollo de estas funciones.
Por último, hay un aspecto que no siempre se toma en consideración pero que cada
vez está adquiriendo más relevancia sobre todo para la valoración de riesgos o para el
control de efectos sociosanitarios. Se trata de la neurotoxicidad diferida de latencia larga,
es decir, el potencial de ciertos agentes neurotóxicos para inducir alteraciones nerviosas
(o en cualquier otro sistema del organismo) mucho tiempo después de que haya cesado la
exposición. Estos efectos pueden manifestarse en dos direcciones, por un lado,
retrasando la normal adquisición de ciertas funciones o en forma de amenaza latente,
esto es, las alteraciones anatómicas y funcionales pueden permanecer enmascaradas o
atenuadas como consecuencia de la plasticidad neuronal durante el desarrollo y provocar
posteriores secuelas sensoriomotoras, cognitivas o emocionales difícilmente achacables a
la agresión temprana. Un ejemplo es la intoxicación por un contaminante ambiental, el
metilo de mercurio o metil-mercurio, que ocasiona neurotoxicidad diferida caracterizada
por alteraciones motoras y deterioro sensorial (Rice, 1996). Hay otros ejemplos no tan
evidentes (ver Rice y Barone, 2000) y sometidos a cuestionamiento sobre todo por las
dificultades metodológicas que supone establecer relaciones causa efecto entre eventos
tan distantes en el tiempo. Hay modelos animales que sí justifican estas asociaciones pero
no siempre son equiparables los protocolos experimentales a la exposición natural. No
obstante, es un tema recurrente que debe ser tenido en consideración de cara al control
de ciertos agentes potencialmente peligrosos para el desarrollo humano.
137
138
La psicobiología es mucho más que el estudio de la estructura y el funcionamiento del
cerebro, sin embargo, el conocimiento de estos contenidos es fundamental para
comprender los correlatos biológicos más inmediatos de la conducta humana. Unas
nociones básicas de cómo el cerebro procesa información facilitará el aprendizaje a la
hora de abordar los procesos sensoriomotores, cognitivos y emocionales. Para mantener
la nomenclatura adoptada en el capítulo 4, seguiremos considerando cerebro al
telencéfalo y al diencéfalo. No hay que olvidar que suele considerarse como tal al tejido
nervioso que está dentro del cráneo pero la inclusión explícita de las estructuras del
tronco del encéfalo no siempre queda clara. Ya hemos conocido de manera superficial su
anatomía pero en este capítulo queremos profundizar un poco más en sus características
funcionales, sobre todo en aspectos básicos del funcionamiento de los circuitos cerebrales
porque en los capítulos siguientes nos iremos sumergiendo en la participación de dichos
circuitos en procesos más complejos.
A veces resulta difícil imaginar la complejidad del cerebro humano, cuesta trabajo
comprender que toda esa funcionalidad es el resultado de la actividad de millones de
neuronas y de células gliales que conforman algo menos de kilo y medio de grasa y agua.
Más extraordinario resulta ser conscientes de que procesos tan complejos como la
memoria, el razonamiento o las emociones son el resultado de la actividad de complejas
redes de neuronas interconectadas entre sí. A modo de ejemplo, veamos algunos datos
que pueden ser motivo tanto de sorpresa como de reflexión (tomados de Viaje al
universo neuronal, 2007; Madrid, FECYT).
-El cerebro representa en tomo al 2% del peso corporal pero consume alrededor del
20% de toda la energía corporal.
-El número de neuronas en el cerebro, por término medio, es de cien mil millones (es
decir, 1011). Esto se traduce en 1014 contactos sinápticos.
-El número de células gliales puede oscilar entre 10 y 50 veces el número de neuronas.
-Si extendemos la corteza cerebral, alcanza una superficie de 2.500 cm2 con un
espesor que varía desde 1,3 a 4,5 mm.
139
-Si pusiéramos en fila todos los axones mielinizados del SN, alcanzaríamos una
longitud de entre 150.000 a 180.000 kilómetros; daría 14 veces la vuelta al mundo.
140
fue necesario establecer otro indicador que permitiese la comparación entre especies
(antes que aceptar la derrota). El cociente de encefalización (CE) relaciona el tamaño del
cerebro con el tamaño corporal pero no es un simple porcentaje volumétrico. Esta es la
fórmula para su cálculo:
Esta fórmula, propuesta por Jerison (1973), compara el tamaño real del cerebro con el
tamaño esperable en un animal prototípico de esa especie. De manera convencional,
toma como referencia un mamífero promedio, en este caso el gato, que tiene asignado un
CE = 1; para el resto de las especies se establece el peso promedio tanto del cerebro
como del cuerpo y se aplica la fórmula. Entonces, el CE nos indica la distancia positiva o
negativa con respecto al mamífero promedio, el gato. De este modo, valores superiores a
1 indican un cerebro mayor de lo esperado, mientras que valores inferiores a 1 significan
que el cerebro de esa especie es más pequeño de lo esperado. Así, frente a un CE = 7,3
del ser humano, otros animales como el chimpancé están algo más lejos con 2,48 pero
con un cerebro mayor de lo esperado igual que el delfín (4,5), el elefante (1,3) o el perro
(1,2). En el lado contrario, especies con un cerebro menor de lo esperado estarían la rata
(0,4), la oveja (0,8), el caballo (0,9) o la ballena (0,37). No podemos interpretar estos
datos en términos de animales inteligentes frente a animales estúpidos; el éxito evolutivo
depende de la capacidad de adaptación al medio y las estrategias que desarrollan las
diferentes especies para hacerlo no siempre dependen de tener un cerebro más grande.
141
localizadas en los lóbulos frontales y parietales.
La corteza cerebral, sobre todo una parte filogenéticamente más nueva que se conoce
como neocórtex, es el sustrato neurobiológico de los procesos mentales humanos. Su
curso evolutivo es más heterogéneo que el observado en el resto de estructuras
cerebrales y aunque en la corteza cerebral de los mamíferos podemos encontrar una
división funcional básica más o menos similar para todas las especies, se han incorporado
modificaciones que han ido diferenciando unas especies de otras. Así, las áreas visuales
se encuentran en el lóbulo occipital, las auditivas en el temporal o las motoras en el
frontal, pero en las especies más simples la organización estructural y funcional de estas
regiones es bastante homogénea, mientras que en animales con un repertorio conductual
más complejo cada lóbulo puede dividirse a su vez en numerosas subáreas. Durante la
evolución, algunas áreas funcionales de la corteza cerebral han incrementado su tamaño
pero, además, han aparecido nuevas áreas que no tienen correlato filogenético en
especies inferiores (Felleman y Van Essen, 1991). Por ejemplo, la región visual del gato
tiene unas 12 subáreas diferenciadas mientras que en el ser humano se han identificado
hasta 30. Esta subdivisión implica que cada una de estas subáreas se ocupa de una
función concreta dentro del procesamiento visual, por lo que el crecimiento de la corteza
cerebral humana no solo afecta al tamaño sino también a la complejidad funcional. Por
otro lado, las áreas de Broca y Wernicke del cerebro humano no tienen un correlato ni
anatómico ni mucho menos funcional en el cerebro de roedores (Rakic, 2009). Esto
significa que el proceso evolutivo en la corteza cerebral no solo implica incremento del
número de neuronas sino también una nueva configuración de sus conexiones. Además,
podemos observar el proceso contrario, áreas que reducen su tamaño y que,
sospechamos, han unificado subáreas. Esto puede apreciarse comparando la evolución
del tamaño y complejidad de las áreas olfativas y visuales en los mamíferos, que han
seguido una progresión inversa; a medida que aumenta la corteza visual disminuyen las
áreas olfativas, consecuencia de una progresiva dependencia de la visión en detrimento
del olfato para sobrevivir y adaptarse. Por ejemplo, se puede observar en la escala
evolutiva de los mamíferos comparando la capacidad olfativa y visual entre perros y
chimpancés.
El desarrollo de la corteza cerebral está en la base de las grandes diferencias que nos
separan de las especies más próximas. El desarrollo de la agricultura y la cría de
animales, la lectura, la escritura o la pintura suponen un salto cualitativo y cuantitativo
extraordinario que ha ocurrido hace menos de 10.000 años. La revolución tecnológica se
inició hace unos 500 años y en las últimas décadas la creatividad humana, para bien y
para mal, parece no conocer límites. Todo ello es gracias a la capacidad operativa de
unos pocos centímetros cúbicos de neuronas y células gliales que se conectan entre sí y
conforman la corteza cerebral humana.
142
En el capítulo 4 conocimos a grandes rasgos la organización del SNC diferenciando en
los hemisferios cerebrales entre la corteza cerebral, las estructuras subcorticales y sus
conexiones a través de las fibras que conforman la sustancia blanca. A lo largo de los
siguientes capítulos haremos referencia a estas estructuras en relación con sus
implicaciones funcionales, por eso creemos oportuno ampliar un poco la descripción de
las mismas.
143
Figura 6.1. Formación hipocámpica y sus conexiones. En la parte superior se muestra el
esquema de las dos capas neuronales y en la inferior el diagrama de conexiones básicas.
La amígdala es una masa de sustancia gris situada en la porción mediodorsal del lóbulo
temporal, por delante del hipocampo. También en este caso está formada por diferentes
grupos de núcleos. Por un lado, el grupo corticomedial en el que se suele incluir el núcleo
central de la amígdala y, por otro, el grupo basolateral más grande y mejor diferenciado
en humanos (figura 6.2). El grupo corticomedial es filogenéticamente más antiguo y
mantiene conexiones con el bulbo olfatorio y otras estructuras troncoencefálicas. El
grupo basolateral está mucho más desarrollado, es filogenéticamente más reciente y
mantiene amplias conexiones con el tálamo y la corteza cerebral. Ambos grupos
nucleares proyectan al núcleo central, el cual mantiene importantes conexiones recíprocas
con el hipotálamo. Sabiendo que la amígdala juega un papel fundamental en el
comportamien to emocional, esto permite comprender cómo determinadas emociones
(por ejemplo, el miedo) provocan respuestas neurovegetativas (taquicardia, boca seca,
respiración agitada...) propiciadas por el hipotálamo.
144
Figura 6.2. Esquema básico de las principales conexiones en la amígdala. BL: grupo
basolateral; C: núcleo central; CM: grupo corticomedial.
145
hacemos una idea del bucle funcional que implica a estos tres componentes (Corteza
cerebral, tálamo y ganglios basales) y al que aludiremos más adelante.
Figura 6.3. Esquema básico de las principales conexiones en los ganglios banales. GPe:
globo pálido externo; GPi: globo pálido interno; NC: núcleo caudado; PTM: putamen;
SN: sustancia nigra; Sub: núcleo subtalámico.
Con frecuencia, en diferentes textos se suele llamar de maneras diversas a las mismas
regiones corticales, algo que complica la comprensión a aquellos que no están
familiarizados con las diferentes nomenclaturas. Por ejemplo, se puede utilizar una
denominación topográfica (circunvolución precentral, situada por delante del surco
central), citoarquitectónica (corteza agranular), eponímica (área 4 de Brodmann) o
funcional (corteza motora primaria) para referirse a la misma región cortical. Una de las
representaciones más populares de la corteza cerebral se la debemos al neurólogo alemán
Korbinian Brodmann (1868-1918), quien en 1909 publicó una monografía en la que
describió 43 áreas corticales atendiendo fundamentalmente a criterios citoarquitectónicos
(Zilles y Amunts, 2010) (figura 6.4). Este mapa cortical sigue siendo utilizado como
146
medio de referencia para las localizaciones corticales, aunque ha experimentado algunas
actualizaciones necesarias que, entre otras cosas, han aumentado el número de áreas y
han cartografiado con más detalle las zonas situadas en el interior de los surcos, una
porción cortical cuya extensión supone dos tercios del total.
147
Figura 6.4. Áreas citoarquitectónicas de Brodmann.
-Límbicas y paralímbicas: forman una especie de anillo que separa las estructuras más
primitivas del SNC de las más nuevas, por ejemplo, las áreas de Brodmann
comprendidas entre la 23 y la 33 (23B, 24B, etc.).
-Corteza de asociación unimodal: estas regiones se localizan junto a las áreas primarias
y las neuronas que las conforman responden preferentemente, y a veces
exclusivamente, a impulsos de una única modalidad sensorial, ya que reciben
aferencias de las áreas primarias respectivas. Por ejemplo, 18B y 19B son áreas
asociativas visuales, 42B es auditiva y 5B es somatosensorial. En el caso de la
corteza motora hay que considerar que las proyecciones van en sentido contrario,
ya que la corteza primaria no se caracteriza por recibir aferencias sino por emitir
eferencias. En este sentido, podemos considerar corteza motora de asociación
unimodal las regiones 6B y 44B de donde parten la mayoría de las señales que
recibe la corteza motora primaria.
148
heteromodales 9B y IOB en el lóbulo frontal, 39B y 40B en lóbulo parietal o 21B y
37B en el lóbulo temporal.
Desde siempre se han realizado intentos por establecer una correlación más o menos
fiable entre función y estructura cerebral con el fin de construir una cartografía funcional
del cerebro que nos permita conocer mejor la conducta. Ya hemos hecho referencia a
este asunto pero consideramos oportuno reiterarlo después de las alusiones que hemos
hecho a la correspondencia entre áreas de Brodmann y atribuciones funcionales, sobre
todo sensoriomotoras. En próximos capítulos nos referiremos de manera más detallada a
estos procesos e intentaremos precisar qué tipo de correspondencia hay en realidad.
149
programar una conducta y llevarla a cabo de manera eficaz. La alta densidad de
intemeuronas que posee la corteza cerebral permite la integración de señales diferentes e,
incluso, las relaciona con otras procedentes de receptores internos o con lo almacenado
en nuestra memoria. Cuando oigo sonar el teléfono y veo quién me llama, reconozco a la
persona, experimento una emoción y decido pulsar o no la tecla para contestar.
La mayor parte de las neuronas del neocórtex son piramidales con funciones
excitatorias (70-80%) mientras que las demás son interneuronas con diferentes
características morfológicas o fisiológicas; muchas de estas interneuronas corticales son
inhibitorias (Markram et al., 2004). Las vías excitatorias que conforman los axones de las
neuronas piramidales pueden ser de dos tipos, pequeños axones que sinaptan cerca del
lugar donde se encuentra el soma de la neurona y proyecciones a larga distancia bien a
otras áreas corticales o a otras estructuras fuera de la corteza cerebral. Por su parte, las
interneuronas configuran circuitos locales con funciones principalmente inhibidoras que
contribuyen a dotar de cierta sincronía a esa red local, al menos en algunas regiones
(Klausberger y Somogyi, 2008). Se establece un cierto equilibrio entre actividad
excitatoria e inhibitoria en la corteza cerebral de manera que cuando se producen
desajustes pueden aparecer problemas funcionales. Al fin y al cabo, la actividad
inhibitoria sirve para modular la excitabilidad de un sistema y, podríamos decir, controlar
sobrecargas o picos de hiperactividad que no solo alteran la funcionalidad sino también la
adecuada estructura de un circuito. Prueba de esto es que en multitud de trastornos
psiquiátricos y neurológicos como la epilepsia, la esquizofrenia o el autismo, se pueden
encontrar pruebas de este desequilibrio (Marín, 2012). La mayor parte de las conexiones
en la corteza cerebral se producen en las proximidades de la propia neurona y son una
considerable minoría las que se establecen a larga distancia. Durante el desarrollo se
configuran primero las redes locales y más tarde lo hacen las conexiones de larga
distancia entre estas redes locales, permitiendo así un mayor grado de interrelación entre
los diferentes canales de procesamiento.
Tanto las conexiones de larga distancia como los circuitos locales tienen un carácter
señalizador, es decir, las señales que envía una neurona se dirigen a otro grupo de células
concretas y vinculadas de algún modo dentro de una red compartida. Estas conexiones
pueden ser excitatorias porque utilizan el neurotransmisor glutamato o inhibitorias las que
utilizan GABA. Están consideradas como el principal sustrato neuroanatómico para el
procesamiento de la información. Pero además, existen otros circuitos de carácter
modulador que tienen su origen en regiones troncoencefálicas principalmente y cuyas
proyecciones se expanden por amplias regiones de la corteza cerebral, por eso se las
denomina también proyecciones divergentes. Estas proyecciones utilizan
neurotransmisores como la dopamina, la serotonina o la norepinefrina y sus principales
dianas en la corteza cerebral son las neuronas GABA de los circuitos locales. Como ya
hemos comentado, estas interneuronas inhibidoras son las que modulan la actividad de
los circuitos corticales y su actividad resulta modulada a su vez por las aferencias
150
troncoencefálicas, algo que se conoce como modulación extrínseca (Bacci et al., 2005).
En resumen, las neuronas excitatorias generan señales en bruto, las neuronas GABA
refinan y modelan esas señales y las aferencias troncoencefálicas modulan el entorno
para que esta actividad ocurra en unas condiciones determinadas.
151
desde las áreas primarias a las asociativas. No hay que confundir este tipo de conexiones
con los circuitos de retroalimentación, en los que son axones de las neuronas del propio
circuito los que proyectando sobre esas mismas neuronas modulan la actividad del
circuito de una manera intrínseca. Por el contrario, las proyecciones top-down son vías
procedentes de centros superiores que regulan el procesamiento de la información en los
niveles inferiores. Esto es una constante no solo en la corteza cerebral sino en el resto de
circuitos del SN. Por ejemplo, en los sistemas sensoriales veremos que existen estas
proyecciones y su papel tiene que ver con la selección de estímulos relevantes y con la
integración perceptiva; por ejemplo, las proyecciones corticales al tálamo regulan el flujo
de información sensorial que permite pasar hacia la corteza dando prioridad a aquellos
estímulos que se consideran relevantes para la tarea que se esté llevando a cabo en ese
momento. En el caso de las áreas motoras, hay que considerar que el flujo de
información transcurre en sentido contrario, es decir, de las áreas asociativas al área
primaria, pero también existe esta retroalimentación que permite el ajuste preciso de los
actos motores, algo que veremos en detalle en el capítulo correspondiente.
152
hemisférica.
153
un mayor grado de mielinización (Hutsler y Galuske, 2003). Esto pone de manifiesto que
las asimetrías microscópicas afectan tanto a la sustancia gris como a la blanca y no
siempre de manera proporcionada. En el caso de las áreas lingüísticas, las asimetrías se
observan desde el nacimiento, pero con la edad se van haciendo más pronunciadas, algo
que puede explicarse por una mayor mielinización de estos circuitos en el HI que de sus
homólogos en el HD.
No siempre es fácil segregar los componentes que son soportados por un hemisferio u
otro dentro de un proceso cognitivo complejo. Es frecuente recurrir a la observación de
los efectos ocasionados por una lesión cerebral y a partir de ahí sacar conclusiones
acerca de la lateralización de funciones cognitivas complejas según la localización del
daño. Nuevamente, las conclusiones más contrastadas hacen referencia a las alteraciones
lingüísticas derivadas de lesiones en el HI. Pero hay un tipo de pacientes que ha aportado
bastante información sobre las asimetrías funcionales y también sobre el modo en que los
154
hemisferios trabajan conjuntamente, son los pacientes con cerebro dividido o
comisurotomizados que sufren una desconexión entre ambos hemisferios cerebrales. Una
comisurotomía es la resección quirúrgica de las fibras que comunican ambos hemisferios
(comisurales), especialmente el cuerpo calloso. Este es un procedimiento que se aplica en
ocasiones para aliviar la sintomatología epiléptica en pacientes que no responden
adecuadamente a otros tratamientos menos agresivos.
La resección del cuerpo calloso provoca que cada hemisferio solo pueda percibir los
estímulos que se encuentran en el campo visual del lado contrario o recibir señales
únicamente del lado contrario del cuerpo. Ahora, cada hemisferio tiene sus propias
sensaciones, percepciones, emociones y recuerdos que no puede compartir con el otro.
Uno de los científicos que más ha estudiado a estos pacientes es Michael S.Gazzaniga,
de la Universidad de California. Para este propósito, presentaba diferentes estímulos en
un campo visual u otro de los pacientes comisurotomizados y luego les pedía que
verbalizasen lo que habían visto (Gazzaniga, 1964 y 1969). Comprobó que el paciente
podía nombrar los objetos presentados en el campo visual derecho porque eran
procesados en el hemisferio lingüístico, pero no podían hacerlo con los objetos
presentados en el campo visual izquierdo (procesados en HD), sin embargo, si se le pedía
que eligiera un objeto entre varios, cogía con la mano izquierda el que se le había
mostrado (figura 6.5). En el caso de presentar estímulos verbales, el sujeto solo podía
leer lo que se le presentaba a su HI ya que el HD no reconocía los símbolos como letras.
155
Figura 6.5. Un paciente comisurotomizado no puede utilizar ambos hemisferios de
manera coordinada. En A, el paciente puede nombrar el objeto presentado en su campo
visual derecho pero no el presentado en su campo visual izquierdo; sin embargo, puede
cogerlo con la mano izquierda movida por el HD. En B, si presentamos estímulos
verbales, el HD no los reconoce como letras y palabras.
156
poblaciones neuronales ocasionando su muerte; esto puede ocurrir por ruptura de
un vaso sanguíneo (hemorrágico) o por obstrucción (isquémico). La ruptura de un
vaso sanguíneo puede estar ocasionada por diversos motivos pero uno de los más
frecuentes es la ruptura de un aneurisma, un debilitamiento de la pared del vaso que
hace que este se hinche como un globo por la presión de la sangre hasta que se
rompe. Un coágulo o la acumulación de colesterol pueden ser la causa de la
obstrucción de un vaso impidiendo el flujo sanguíneo. Según el calibre de los vasos
afectados y la región que irrigan las consecuencias del ictus serán más o menos
graves, pero en cualquier caso, es frecuente que queden secuelas que afecten al
rendimiento cognitivo de estos pacientes.
-Otros. Diferentes situaciones clínicas pueden derivar en daño cerebral, por ejemplo,
tumores cerebrales, infecciones, anoxias (la privación de oxígeno al cerebro puede
ocurrir en cualquier momento, no solo durante el parto) o envenenamientos. Las
zonas lesionadas pueden estar más o menos localizadas y las consecuencias
neuropsicológicas ser muy variables en función de la extensión y localización de la
zona afectada.
Cuesta trabajo asociar este tipo de trastornos a la etapa infantil, pero por desgracia es
posible que ocurran. Bien es cierto que la incidencia es mucho menor que en la población
adulta, pero la prevalencia de algunos de estos problemas es considerable. No obstante,
lo que sí es frecuente encontrarnos en la infancia son las consecuencias de un desarrollo
anómalo del cerebro, algo a lo que ya nos hemos referido en el capítulo anterior. En
cualquier caso, a la hora de diseñar intervenciones es necesario conocer el origen ya que
las implicaciones para la rehabilitación e integración son importantes.
157
158
Los organismos necesitan un medio interno estable, independiente de los cambios que
puedan producirse en su entorno, que facilite el adecuado desarrollo de todos los
procesos biológicos necesarios para la supervivencia. Las células son auténticos
laboratorios bioquímicos en permanente actividad, la cual ocurre de manera óptima
cuando se dan unas ciertas condiciones en el interior del cuerpo. Un regulador fisiológico
es un mecanismo que mantiene constantes las características de un medio interno frente
a la variabilidad externa. Para conseguir este estado óptimo el organismo recurre a
diversos reguladores fisiológicos que aseguran la estabilidad de ese medio interno, por
ejemplo, manteniendo la temperatura corporal o los niveles de agua y sales dentro de
unos límites estrechos. El término homeostasis fue acuñado por Walter B.Cannon (1871-
1945) en la década de los veinte para referirse a esa estabilidad del medio interno
necesaria para el correcto funcionamiento celular y que el organismo se esfuerza por
mantener. Los mecanismos encargados de ello no siempre son capaces por sí mismos de
asegurar esta homeostasis interna y por ello propician conductas encaminadas a ayudar
en este propósito (la disminución del nivel de glucosa o del agua corporal hace que
experimentemos hambre y sed, lo que nos lleva a buscar comida y agua). Es como si
tuviéramos un termostato interno que pone en marcha estas conductas cuando ciertos
parámetros internos se sitúan por encima o por debajo de los niveles adecuados. Los
sistemas de los que se sirve el organismo son diversos pero las hormonas juegan un papel
fundamental, por eso iniciaremos este capítulo hablando del sistema endocrino.
159
que secretan hormonas como es el caso de ciertos núcleos hipotalámicos, la hipófisis o la
glándula pineal; en el resto del cuerpo se localizan glándulas como el tiroides, el páncreas
o las suprarrenales. Hay también otros órganos que, a pesar de que no los consideramos
glándulas en sentido estricto, también pueden liberar hormonas como es el caso del
hígado, los riñones o el intestino.
160
glándulas endocrinas. En realidad, como está conectada al hipotálamo es este el que
regula su actividad, el cual, salvo porque está constituido por neuronas y células gliales,
podría ser considerado como la auténtica glándula de glándulas. No obstante, hay
neuronas hipotalámicas que pueden liberar hormonas al torrente sanguíneo
(neurosecrección) y también se han identificado receptores para hormonas en diferentes
estructuras del SN.
La hipófisis consta de dos partes diferenciadas, una formada por tejido glandular
(anterior, adenohipófisis) y la otra por tejido neural (posterior, neurohipófisis). La
adenohipófisis se comunica con el hipotálamo a través de una red de capilares sanguíneos
muy localizada, el sistema porta hipofisario. Es en estos capilares donde las neuronas
hipotalámicas secretan los factores de liberación que van a actuar sobre las células
hipofisarias. Por su parte, la neurohipófisis recibe proyecciones neuronales del
hipotálamo que liberan hormonas a la circulación sanguínea general. El hipotálamo
secreta diferentes hormonas; dos de ellas (oxitocina y vasopresina), vía neurohipófisis,
actúan directamente sobre los órganos diana y las otras, que se denominan factores de
liberación hipotalámicos, estimulan la liberación de otras hormonas y otros factores de
liberación hipofisarios por parte de la adenohipófisis. Estos factores hipofisarios van a las
glándulas periféricas para provocar la liberación de sus respectivas hormonas (figura 7.1).
Tanto el hipotálamo como la hipófisis necesitan información para controlar
adecuadamente los niveles circulantes de cada hormona. Es el propio sistema el que se
autorregula ya que las moléculas secretadas por las glándulas influyen sobre la hipófisis y
el hipotálamo para detener la secreción de factores de liberación.
161
Figura 7.1. Esquema resumido del sistema neuroendocrino (modificado de Abril et al.,
201 1).
162
memoria de trabajo y fluctuaciones del estado de ánimo con brotes de agresividad.
Los estrógenos contribuyen al desarrollo del fenotipo femenino aunque el factor inicial
163
sea la ausencia de andrógenos. Son necesarios para el correcto desarrollo de este fenotipo
y la aparición de los caracteres sexuales secundarios femeninos en la pubertad. La
presencia de testosterona (andrógeno) durante el desarrollo embrionario hace que el
embrión se diferencie como varón (fenotipo masculino) provocando el desarrollo de los
genitales y órganos reproductores masculinos. Durante el desarrollo puberal, los
andrógenos son responsables de los caracteres sexuales secundarios masculinos y del
inicio de la espermatogénesis. Tanto los estrógenos como los andrógenos pueden incidir
sobre diferentes circuitos cerebrales durante el desarrollo, modificando su configuración
(dimorfismo cerebral), o en la etapa adulta provocando manifestaciones cognitivas,
conductuales y emocionales diferentes, lo que se conoce como dimorfismo conductual,
es decir, diferencias en el comportamiento como consecuencia del sexo.
No toda la actividad endocrina depende de estos tres ejes, hay otras hormonas que
también juegan un papel importante en la conducta. Por ejemplo, las neuronas de los
núcleos paraventricular y supraóptico del hipotálamo liberan oxitocina y vasopresina en
los capilares de la neurohipófisis desde donde pasan a la circulación sanguínea. La
primera juega un papel importante en la conducta reproductora, ya que interviene en la
fecundación, el parto y la lactancia. Se la relaciona con el establecimiento de vínculos
afectivos, ya que se ha comprobado en modelos animales que los niveles de oxitocina
correlacionan con la conducta maternal, de manera que aquellos animales que muestran
unos valores más altos se ocupan de sus crías en mayor medida que los que tienen
niveles más bajos. La vasopresina es conocida también como hormona antidiurética
porque su acción incrementa la retención de líquido por parte de las células para regular
sus niveles en el organismo, por lo que está relacionada con funciones que contribuyen a
la homeostasis. También se la ha relacionado, en machos, con la conducta de apego y el
establecimiento de vínculos. La adenohipófisis también libera hormonas como la
164
prolactina, que contribuye a la producción de leche en la madre después del parto, y la
hormona del crecimiento (HC) que, como su nombre indica, contribuye al crecimiento de
huesos y tejidos especialmente durante el desarrollo. La glándula pineal secreta
melatonina, que participa en el control de los ritmos circadianos (un día) como el sueño-
vigilia y también en la maduración sexual durante la pubertad. Por último, la médula
suprarrenal (la porción que está envuelta por la corteza suprarrenal) libera adrenalina y
noradrenalina en respuesta a las señales procedentes de la división simpática de SNA, es
decir, cuando se requiere una respuesta exigente por parte del organismo, generalmente
en situaciones de estrés.
165
y que la presencia excesiva o la ausencia de ellas puede inducir una configuración
determinada feminizando o masculinizando el cerebro. Es una etapa del desarrollo en la
que pueden ocurrir tanto efectos estructurales como activacionales, ya que hay circuitos
nerviosos todavía en proceso de maduración. Es decir, el dimorfismo sexual no solo se
produce en el periodo embrionario, según esté presente o no el cromosoma Y, sino que
puede continuar en la adolescencia (Giedd et al., 1997) completando la configuración
cerebral en coherencia o no con los caracteres sexuales genéticos primarios.
También las hormonas tiroideas son importantes para el desarrollo cerebral y pueden
ejercer sus efectos tanto en el periodo prenatal como en la etapa postnatal; incluso
pequeñas modificaciones durante las etapas iniciales del embarazo pueden provocar
alteraciones aunque los niveles de estas hormonas sean normales después en el
nacimiento (Gilbert y Lasley, 2013). El exceso o el defecto de hormonas tiroideas puede
ocasionar alteraciones estructurales irreversibles en la configuración de diferentes
circuitos nerviosos ya que afectan a la proliferación, migración, sinaptogénesis y
mielinización de las neuronas (Hora y Heuer, 2010), aunque los mecanismos bioquímicos
y moleculares implicados son todavía objeto de controversia. El hipotiroidismo,
congénito o adquirido, es una causa importante de deterioro cognitivo. Se ha observado
que en personas mayores con deterioro cognitivo es frecuente encontrar hipotiroidismo
subclínico, es decir, niveles bajos de alguna o varias hormonas del eje HPT, que no
manifiesta los signos propios de este cuadro clínico pero que puede estar interfiriendo en
diferentes sistemas, entre ellos, el SNC (Volpato et al., 2002; Hogervorst et al., 2008). En
la actualidad, en la mayoría de las sociedades con un sistema sanitario razonablemente
avanzado, a todos los bebés recién nacidos se les practican varias pruebas clínicas para
detectar diferentes trastornos congénitos, entre ellos el hipotiroidismo. Antes de que esta
práctica se generalizara, el hipotiroidismo congénito provocaba alteraciones del desarrollo
que derivaban en un tipo de retraso mental que se conocía con el nombre de cretinismo.
Estos niños presentaban un nivel intelectual por debajo de lo normal, dificultades severas
de aprendizaje y alteraciones de la motricidad (Dattani y Brook, 1996).
Afortunadamente, hoy es raro (insisto, depende en qué sociedades) encontrar niños con
este tipo de alteración hormonal y, en el peor de los casos, el diagnóstico y la
intervención temprana pueden proporcionarles un desarrollo y una integración
prácticamente normales.
Ya hemos comentado que las situaciones de estrés ponen en marcha el eje HPA, cuya
actividad se inicia en los núcleos del hipotálamo y culmina en la corteza suprarrenal con
la liberación masiva de glucocorticoides. En la respuesta al estrés pueden diferenciarse
dos fases, una primera que se pone en marcha de manera inmediata como consecuencia
de la activación de la división simpática del SNA y hace que la médula suprarrenal libere
adrenalina y noradrenalina preparando al cuerpo para una respuesta adecuada. Es en la
segunda fase cuando entra en juego el sistema HPA secretando cortisol, algo que ocurre
de un modo más lento puesto que puede tardar varios minutos en alcanzar la
166
concentración máxima y bastante más en manifestar sus efectos conductuales (Sapolsky
et al., 2000). Es un mecanismo que permite la adaptación progresiva a los estímulos
estresantes de cara al futuro. Así, la exposición repetida a un mismo estímulo estresante
puede reducir la respuesta del sistema HPA (como si hubiera una habituación al
estímulo), sin embargo provoca una mayor sensibilidad a estímulos estresantes nuevos,
incrementando la reactividad de este sistema (Armario et al., 2008). Como ya hemos
dicho, el cortisol contribuye a que el organismo disponga de energía para realizar el
esfuerzo que supone afrontar la situación de estrés, sin embargo, también incide sobre
estructuras cerebrales que poseen una alta densidad de receptores como las áreas
prefrontales, el hipocampo o la amígdala, que por tanto son muy sensibles a sus efectos
(Ulrich-Lai y Herman, 2009). Esto demuestra la importancia de estas hormonas en los
procesos de memoria y aprendizaje.
Para terminar, no podemos dejar de referirnos al peligro que suponen los denominados
disruptores endocrinos, moléculas que alteran el funcionamiento hormonal y que
podemos encontrar ampliamente distribuidos en nuestro entorno, en aditivos
alimentarios, en pesticidas, en plásticos y en otros muchos elementos. Hay evidencia
empírica en modelos animales de que pueden afectar a procesos en los que intervienen
hormonas, como la reproducción, la actividad del sistema inmunitario o la memoria y
otros procesos cognitivos; la cuestión es si afectan de igual manera a los humanos
(Waring y Harris, 2009). En el caso de los procesos de memoria y aprendizaje hay
estudios que demuestran los efectos negativos de estos componentes sobre diferentes
especies animales, incluidos los humanos (Jacobson y Jacobson, 1996; Ryan y
Vandenbergh, 2006; Schantz y Widholm, 2001). Sin embargo, han sido cuestionados,
entre otros motivos, por el hecho de que la dosis utilizada en los estudios de laboratorio
es muy superior a la que podemos encontrar en nuestro entorno. Sin embargo, en estos
estudios la dosis se suele suministrar de una sola vez mientras que en la vida cotidiana la
exposición continuada puede ir ocasionando un efecto acumulativo, por lo que dosis
mucho menores pueden llegar a producir concentraciones considerables en el organismo.
Es un tema controvertido por los intereses económicos que lleva implícitos y todavía es
necesaria mucha más investigación, pero es indudable que la precaución frente a este tipo
167
de sustancias es una conducta de lo más inteligente.
Las ondas que podemos registrar con el EEG se clasifican según su intensidad
(amplitud) y frecuencia (ciclos por segundo, hertzios - Hz). Esto permite deducir qué
partes de la corteza cerebral están más o menos activas según las ondas tengan una
mayor o menor frecuencia, respectivamente. Así, por ejemplo, en la vigilia predomina un
patrón de ondas de baja amplitud y alta frecuencia (ondas beta), mientras que en el
168
sueño profundo predominan ondas lentas de mayor amplitud (ondas delta). Según esto
las fases del sueño quedarían así:
-Vigilia. Combinación de ondas alfa (8-12 Hz) y beta (13-30 Hz). Patrón poco
sincronizado de ondas de baja amplitud y alta frecuencia.
-Fases 1 y 2 de sueño. Patrón más sincronizado con ondas theta (4-8 Hz). Aparecen
esporádicamente algunos signos EEG prototípicos (sobre todo en fase 2) y que
permiten confirmar la entrada en esta fase de sueño.
-Fases 3 y 4 de sueño. Patrón predominante de ondas delta (0,5-2 Hz) sobre todo en
fase 4. A este periodo se le conoce como sueño profundo o de ondas lentas.
-Fase REM. Patrón similar a la vigilia con pérdida de tono muscular, ya que si no fuera
así, reproduciríamos los patrones de actividad cortical activados (saldríamos
corriendo o saltando). Se produce un incremento de la actividad y del metabolismo
cerebral, hay activación genital y es cuando tenemosunos sueños más intensos y
realistas (como si los estuviéramos viviendo).
El ciclo completo dura en torno a 90-100 minutos y se repite 3-5 veces cada noche
(figura 7.3). Obviamente no solemos despertamos cada 90-100 minutos ni la sucesión de
estas fases ocurre siempre de manera sistemática en cada ciclo. Suele haber un
alternancia de sueño REM y NO-REM y en este último una fluctuación entre fases. El
adormecimiento o somnolencia que indica el final de la vigilia da paso a la fase 1 de
sueño para después ir adquiriendo más profundidad hasta llegar a la fase 4. Después hay
un ascenso (pérdida de profundidad del sueño) que culmina con una fase REM para
después volver a adquirir profundidad, y así sucesivamente.
169
Figura 7.3. Ejemplo de un ciclo de sueño con sus diferentes fases.
El total de sueño REM en una noche puede suponer en tomo a un 20% del tiempo
total de sueño, una sola fase REM puede durar entre 20 y 40 minutos y suelen tener
mayor duración al final de la noche que al comienzo. La mayor parte del sueño profundo
o de ondas lentas ocurre en la primera parte de la noche, siendo menos profundo a
medida que avanza el periodo de sueño. Este ciclo de sueño y la duración total del
mismo varían a lo largo de la vida; los recién nacidos duermen mucho más que los
adultos y en la vejez disminuye el tiempo total de sueño, afectando especialmente al de
ondas lentas. Además, la proporción de sueño REM en la infancia es mucho mayor que
en la edad adulta y la vejez. Un recién nacido duerme mucho tiempo y solo suele
despertarse para comer, cuando está incómodo por suciedad o sufre algún dolor; poco a
poco, va incrementando el tiempo de la vigilia no asociada a necesidades. Bien, pues
prácticamente la mitad de su sueño es sueño REM, porcentaje que va disminuyendo a lo
largo de la vida hasta que en la vejez no supera el 15%.
170
activado mientras que en la fase NO-REM está inhibido y se incrementa la liberación de
somatotropina, la hormona del crecimiento (Boro y Wagner, 2009). Durante el sueño
NO-REM hay un cierto grado de tono muscular mientras que en la fase REM se produce
una desconexión troncoencefálica que impide que las señales generadas por la actividad
cortical alcancen las vías medulares y así evitar contracciones musculares y movimientos.
Por eso es durante el sueño de ondas lentas cuando se habla en sueños o cuando se dan
los casos de sonambulismo. También existen diferencias respecto a la actividad onírica;
siempre se había pensado que los sueños ocurrían durante la fase REM (por la activación
cortical presente), pero hoy se sabe que también soñamos durante el sueño de ondas
lentas. Si se despierta a una persona durante la fase REM y se le pregunta por sus sueños
dará todo lujo de detalles y describirá su sueño como una historia, con una estructura
narrativa organizada. Por el contrario, durante el sueño de ondas lentas los sujetos
describen sensaciones e impresiones pero sin que sean capaces de narrar lo que estaban
soñando. En la fase REM se pueden tener sueños muy agradables pero también
pesadillas, sin embargo, los terrores nocturnos ocurren durante el sueño de ondas lentas.
Parece que hay dos tipos de mecanismos que podrían intervenir conjuntamente para
determinar el momento y la duración del sueño en cada persona (ver Ramos Platón,
2005). Por un lado, mecanismos que controlan los ritmos biológicos (de los que
hablaremos más adelante) determinarían el momento en el que experimentamos la
necesidad de dormir (ciclo sueño-vigilia). Por otro lado, intervendrían mecanismos
homeostáticos que determinarían la cantidad de sueño que necesitamos en función del
estado fisiológico del organismo (vigilia prolongada, esfuerzo mental, modificaciones
hormonales...), es decir, ni siquiera en una misma persona las necesidades de sueño son
171
estables y constantes. Pero además, se conocen algunos casos curiosos de personas que
pueden mantener un estado fisiológico y cognitivo normal durmiendo menos tiempo
todavía, hasta situaciones extremas (menos de dos horas al día). Parecen casos
excepcionales que no se pueden tomar en consideración para responder a la pregunta de
cuánto tiempo necesita dormir una persona por término medio para vivir saludablemente.
Resulta difícil computar objetivamente el tiempo total de sueño incluso en los
laboratorios adecuados para ello porque a lo largo del día pueden darse lo que se
denominan microsueños (unos pocos segundos) que pueden actuar como compensación
a la reducción del tiempo de sueño nocturno; salvando las distancias, algo similar ocurre
en personas mayores que se quejan de que duermen mal por la noche y durante el día
suelen dar "cabezadas" con frecuencia. En una persona que necesita pocas horas de
sueño, estos breves episodios pueden ser suficientes para reducir la horas de sueño
efectivo en el periodo nocturno.
Por el contrario, los circuitos responsables del sueño los vamos a localizar
preferentemente en el hipotálamo. Si reflexionamos sobre ello podemos pensar que como
el sueño tiene propiedades homeostáticas, es lógico que sea el hipotálamo, como gestor
fundamental de la homeostasis, uno de sus principales inductores. Una región del
hipotálamo, el área preóptica, está formada por neuronas inhibidoras que reducen o
bloquean la actividad de los circuitos anteriores produciendo una disminución del arousal
y por tanto somnolencia (Uschakov et al., 2007). Esta inhibición es recíproca, ya que las
neuronas del área preóptica también reciben aferencias inhibidoras de los circuitos
172
troncoencefálicos responsables de la vigilia. Así, cuando predomina la activación
hipotalámica experimentamos somnolencia y cuando predomina la actividad
troncoencefálica estamos despiertos. Algo similar ocurre con el sueño REM y NO-REM,
dos centros troncoencefálicos llamados REM-ON y REM-OFF se inhiben mutuamente
(Saper et al., 2005), de manera que, cuando predomina la actividad de REM-ON, la
persona entra en esta fase de sueño. Además, este centro REM-ON es el responsable de,
por ejemplo, la paralización que experimentamos durante esta fase de sueño. Este
mecanismo de inhibición recíproca implica que ambos circuitos no puedan ejercer sus
efectos simultáneamente; igual que no podemos estar despiertos y dormidos a la vez no
podemos estar en fase REM y NO-REM al mismo tiempo.
Ya conocemos entonces los centros nerviosos que provocan el sueño y la vigilia pero
¿qué determina la activación dominante de uno u otro? El reloj biológico nos dice cuándo
hay que dormir, pero también, independientemente de ese reloj, si llevamos mucho
tiempo despiertos tenemos sueño aunque sean las doce del mediodía. Una pista la
proporciona la orexina, un péptido liberado por un pequeño grupo de neuronas del
hipotálamo lateral que se proyectan a amplias regiones cerebrales y a la formación
reticular. La demostración de que pacientes con narcolepsia presentaban carencia de
orexina llevó a incrementar la investigación en esta dirección hasta demostrar su papel en
la regulación del sueño y la vigilia (Sakurai, 2005; Ohno y Sakurai, 2008). Otra sustancia
que se libera a lo largo de la vigilia, cuando las neuronas cerebrales están activas, es la
adenosina, que actúa también como un potente regulador del ciclo sueño-vigilia (Basheer
et al., 2004) ya que su acumulación ralentiza la actividad neuronal (después de un
esfuerzo mental prolongado nuestra capacidad cognitiva disminuye) e induce
somnolencia. Durante el sueño, la concentración de adenosina se reduce, especialmente
en el tronco del encéfalo, y el cerebro recupera su capacidad de procesamiento.
Curiosamente, la adenosina igual que la orexina también está relacionada con el
metabolismo energético (Porkka-Heiskanen y Kalinchuk, 2011), lo cual nos ayuda a
entender por qué después de una comida copiosa experimentamos somnolencia. Por
supuesto, hemos descrito aquí algunos de los circuitos más relevantes en la regulación del
ciclo sueño-vigilia, pero de forma muy simplificada ya que conforman una red de
conexiones mucho más amplia entre ellos y con otras estructuras nerviosas que permite
comprender todos los pormenores de este proceso.
173
del día (siestas, cabezadas...), es posible que dichas quejas estén enmascarando otro tipo
de problemas relacionados con la ansiedad u otros trastornos. Además, el ciclo sueño-
vigilia es susceptible de sufrir alteraciones como consecuencia de múltiples factores, uno
de los más frecuentes es el estrés y otro, aunque parezca paradójico, la propia
medicación para dormir que puede favorecer el desarrollo de tolerancia e incrementar las
dificultades para conciliar el sueño.
Una de las causas más frecuentes de alteraciones del sueño en población normal es la
apnea obstructiva del sueño (AOS), trastorno en el que el paciente deja de respirar unos
instantes cuando está dormido y esto hace que se despierte. Está provocada por una
obstrucción parcial o total de las vías aéreas superiores provocando una especie de
espasmo respiratorio cuando el paciente consigue respirar de nuevo. En la mayoría de los
casos el paciente no es consciente de estos episodios, que se repiten varias veces durante
el sueño, y después durante el día sufre una marcada somnolencia que interfiere en su
actividad cotidiana y en su rendimiento cognitivo. Este trastorno afecta más a los
hombres que a las mujeres y la edad, el tabaquismo y la obesidad incrementan su
prevalencia. La AOS se puede considerar como el extremo de una serie de trastornos de
la respiración durante el sueño que afectan a la calidad y cantidad de este. En el extremo
contrario podemos situar a los ronquidos, una dificultad respiratoria que se considera más
una molestia para los demás que un problema para quienes los padecen. Sin embargo, es
un trastorno bastante habitual que supone una alteración del sueño y que tiene
consecuencias negativas especialmente en niños. Mientras que la AOS en niños tiene una
prevalencia entre el 2 y el 4%, los ronquidos afectan a un 16% de la población infantil
(Halbower y Mahone, 2009).
174
Parece que el sueño permite descansar al cerebro y recuperarse. La presencia de
actividad delta (ondas lentas) indica que la corteza cerebral está poco activada, lo que
lleva a suponer que se trata de un periodo de recuperación neuronal. Es obvio pensar que
si no se permite ese periodo de recuperación funcional de los circuitos cerebrales darán
muestras de mal funcionamiento. A pesar de que los datos de diferentes estudios no
siempre presentan conclusiones definitivas, sí parece que la privación de sueño o sus
alteraciones afectan en mayor o menor medida a la mayoría de conductas y procesos
cognitivos estudiados (Killgore, 2010). Sí es cierto que unos procesos resultan más
afectados que otros, igual que hay diferentes necesidades de sueño y diferentes
alteraciones del mismo. Además de los cuadros clínicos a que nos hemos referido
anteriormente, cuando hablamos de alteraciones del sueño también hay que tomar en
consideración múltiples situaciones cuya consecuencia es un menor tiempo o una menor
calidad de sueño, como el sueño fragmentado con múltiples despertares a lo largo de la
noche, la privación total de sueño o solo de sueño REM (esto en laboratorios de sueño
de modo experimental) o cualquier otra situación con consecuencias similares, por
ejemplo los turnos rotatorios en el trabajo. Además, este tipo de situaciones afecta al
funcionamiento diario en la escuela o en el trabajo, es causa frecuente de accidentes
laborales y de tráfico y ya se consideran como un importante problema de salud pública
(Durmer y Dinges, 2005; Phillip y Akerstedt, 2006) por lo que deben ser tomados en
consideración desde edades tempranas.
175
Existen bastantes estudios que demuestran que las alteraciones del sueño en niños y
adolescentes afectan a su rutina diaria y comprometen su funcionamiento cognitivo (ver
Beebe, 2011), llegando incluso a la aparición de indicios de daño neuronal (Halbower et
al., 2006). Si atendemos a los trastornos de la respiración durante el sueño, por ser los
más frecuentes, podemos encontrarnos que una buena parte de ellos no motivan
consultas médicas por no considerarse relevantes clínicamente a pesar de que afectan de
manera importante a la calidad de vida del niño. Diferentes estudios sobre el
funcionamiento cognitivo de niños con este tipo de alteraciones han encontrado efectos
negativos relevantes sobre su rendimiento en atención, velocidad de procesamiento,
habilidades visoespaciales, memoria y aprendizaje o funcionamiento ejecutivo y también
sobre su nivel intelectual (Halbower y Mahone, 2009; Karpinski et al., 2008; Mitchell y
Kelly, 2006). Además, también muestran cambios conductuales y emocionales,
depresión, agresividad, impulsividad, problemas de autoestima y, en general, un deterioro
significativo de su calidad de vida (Rosen et al., 2002; Ohayon, 2003). Todo esto nos
ratifica en la idea de que durante el desarrollo infantil es necesario tomar en
consideración la calidad y cantidad de sueño, no solo de cara al rendimiento académico
sino también de cara al desarrollo personal y emocional adecuado de estos niños. En el
caso de adolescentes es todavía más preocupante porque estas dificultades se añaden a la
reducción crónica de sueño como consecuencia de su habitual costumbre de permanecer
despiertos hasta altas horas de la madrugada, bien participando en redes sociales o con
cualquier otra actividad recreativa en Internet.
176
exclusivamente del ciclo díanoche para organizar nuestra conducta. La modificación
artificial de este ciclo provoca adaptaciones de nuestro reloj biológico. La luz es el
principal sincronizador que ayuda al reloj interno del organismo a regularse, por eso,
cuando se produce una desincronización entre las señales externas y la actividad del reloj
interno hay un periodo en el que se experimentan ciertas alteraciones fisiológicas (por
ejemplo, el jet lag) mientras el reloj biológico se adapta al nuevo ciclo díanoche.
Pero el NSQ no es el único reloj biológico del organismo. El cerebro posee una
glándula de larga tradición neuroanatómica, la glándula pineal (GP), que, aunque no se
haya podido demostrar que sea la sede del alma como postulaba Descartes, al menos
sabemos que cumple ciertas funciones en la regulación estacional (Macchi y Bruce,
2004). Determinados animales están mucho más sujetos que los seres humanos a las
conductas estacionales (por ejemplo, la época de celo en hembras), las cuales parecen
estar reguladas por la GP. Esta glándula secreta melatonina, una hormona que es más
abundante por la noche, especialmente durante el inicio, y que disminuye su liberación
durante el día. Además, la GP también muestra diferentes tasas de liberación de
melatonina según la época del año ya que responde a cambios en los ciclos de
luminosidad (día-noche) y así "calcula" en qué época del año estamos. En algunos
animales (ciertos batracios y reptiles), la delgadez del cráneo permite que la mayor o
menor claridad exterior incida directamente sobre un tipo de fotorreceptores que hay en
la GP, pero en mamíferos esto no es posible, así que recibe conexiones de otras
estructuras, especialmente del NSQ. De este modo, interviene también en el control
177
circadiano aunque el papel que desempeñan ambas estructuras, NSQ y GP, presenta
alguna controversia sobre cómo se produce esta regulación (Turek y Gillette, 2004).
178
En condiciones normales, el LI y el líquido intracelular tienen la misma concentración
de sal, decimos que es isotópico. Esto es necesario para que la activi dad de la célula
progrese sin problemas, ya que las variaciones de estas concentraciones pueden afectar a
procesos diversos. Las células intercambian moléculas con su entorno y ese intercambio
depende, entre otros factores, de la concentración molecular a ambos lados de la
membrana celular. Cuando se modifica la concentración del soluto dentro o fuera de las
células, entra o sale agua para igualar esa concentración, es lo que se conoce como
presión osmótica. Las modificaciones en el nivel del líquido o en la concentración del
mismo van a dar lugar a la sed. No hace falta explicar qué es la sed, todos la hemos
experimentado en algún momento y por diversas circunstancias (calor, comida salada...),
sin embargo, hay dos tipos de sed, provocadas ambas por causas diferentes.
-Sed hipovolémica: tiene lugar cuando se produce una pérdida de agua y soluto al
mismo tiempo, por ejemplo cuando se sufre una hemorragia, vómitos o diarrea (en
las películas de guerra, los heridos suelen pedir agua). En este caso, la
concentración del medio interno y externo no varía. Los receptores que detectan la
disminución del volumen de líquido se localizan fundamentalmente en el corazón y
los riñones.
179
hambruna; era una obesidad beneficiosa. Cuando la cantidad de alimento disponible es
abundante y estable, el ser humano empieza a reducir el tiempo que ocupa en su
consecución y lo dedica a otras actividades. Sin embargo, conservamos algunos hábitos
filogenéticos que hacen que, en sociedades desarrolladas, dediquemos mucho tiempo a
ingerir grandes cantidades de alimento que no son necesarias porque tenemos asegurada
su disponibilidad futura. Así surge un problema frecuente en estas sociedades, la
obesidad. Actualmente, el sobrepeso y la obesidad son problemas sanitarios que afectan a
una población cada vez más joven.
Los mecanismos que regulan las sensaciones de hambre y saciedad y que propician la
conducta encaminada a la obtención de alimentos son más complicados que los que
regulan el equilibrio de agua y sal. Quizá porque la supervivencia depende de la ingesta
de alimentos y la evolución no se arriesga a que un aspecto tan determinante dependa de
un único mecanismo que puede resultar alterado o suprimido por múltiples causas.
Además, en este caso se trata de regular el equilibrio de muchos elementos ya que
mediante la alimentación obtenemos la energía que necesitan las células para su
funcionamiento pero también los nutrientes necesarios para los procesos metabólicos.
180
intermedio sea irregular, experimentamos hambre a las horas señaladas. Regulamos la
sensación de hambre según lo apetitoso o no de la comida, pero estimando este
parámetro en función de criterios no nutricionales, sino experiencias anteriores o el valor
de incentivo que atribuyamos a cada alimento. Existen diversos tipos de señales para
indicarle al cerebro la necesidad de ingerir alimentos. Desde el sistema digestivo,
especialmente el estómago y el inicio del intestino delgado, se liberan una serie de
hormonas que transmiten al cerebro la sensación de hambre o de saciedad (Patel y
Ebenezer, 2008; Stengel et al., 2010). Niveles altos de grelina, una hormona relacionada
con la sensación de hambre, impulsa a comer mientras que otras como la
colecistoquinina (CCK) o la leptina generan señales de saciedad que hacen finalizar esa
conducta. Pero no son las únicas, recordemos por ejemplo que la adenosina y la orexina
también están relacionadas con el metabolismo energético. Sin embargo, ya hemos dicho
que en humanos además hay que contemplar otros factores además de los homeostáticos
puesto que no solo comemos para regular los niveles de energía.
Fisiológicamente, hay más mecanismos que controlan la sensación de hambre que los
que controlan la de saciedad (es más probable morir de inanición que de un atracón), por
ese motivo hay una circuitería cerebral más compleja para ocuparse del hambre. Las
señales fisiológicas homeostáticas son las que actúan inicialmente para generar la
sensación de hambre, sin embargo, también intervienen señales ambientales que
compiten con aquellas y que suelen imponerse; ya hemos dicho que comemos sin
hambre en bastantes ocasiones. Además de los circuitos hipotalámicos, se han
identificados otras regiones como el hipocampo, la amígdala o la corteza prefrontal que
poseen receptores para las hormonas antes referidas (Figlewicz y Sipols, 2010;
Petrovich, 2013) y que pueden determinar las sensaciones de hambre (sin necesidades
energéticas) o saciedad (en condiciones de hiponutrición). Estos circuitos están
incorporando factores motivacionales para considerar la comida como una recompensa o
como un estímulo aversivo y actuar en consecuencia. Pensemos que en las sociedades
181
modernas la comida está considerada en muchos aspectos como placer más que como
necesidad, y gracias a ello, ha surgido toda una industria gastronómica.
Esta situación nos obliga a pagar un alto precio: los problemas alimenticios por exceso
(obesidad) o por defecto (anorexia) se han convertido en una preocupación sanitaria de
primer orden. La desregulación de los mecanismos implicados puede llevar a una persona
a estas situaciones. La obesidad solo se considera clínicamente en ocasiones muy
puntuales, dejando el sobrepeso como un simple problema de imagen. Por su parte, la
anorexia nerviosa o la bulimia sí tienen esta consideración pero todavía hay mucho
camino que recorrer para conocer mejor estos trastornos y diseñar intervenciones
eficaces que ayuden a quienes los padecen. Una adecuada educación nutricional (en el
colegio y en la familia) desde etapas tempranas puede ser un paso inicial, pero no debe
ser el único ya que hay factores emocionales relacionados con la autoestima y la
autopercepción y presiones sociales y mediáticas que tienen que ser tomadas en cuenta.
182
183
Para que el cerebro pueda organizar la conducta de manera eficiente es necesario que
posea información actualizada de lo que ocurre en nuestro entorno y del estado de
nuestro cuerpo. De esta tarea se encargan los sentidos. Nos relacionamos con el mundo
que nos rodea a través de ellos. Vemos, oímos, tocamos... y todo ello es enviado al
cerebro para que podamos actuar de manera eficaz. Efectivamente, es nuestro cerebro el
que ve y oye, sin embargo no tiene ninguna ventana abierta al exterior, por lo que tiene
que interpretar las señales que recibe. Las sensaciones son el resultado de la acción del
estímulo sobre el órgano sensorial, sin embargo, la percepción es el resultado de la
elaboración e interpretación del estímulo que hace el cerebro basándose en el
conocimiento que posee, en lo que recuerda del significado del estímulo o en las
expectativas acerca de lo que espera percibir, llegando incluso a reconstruir un estímulo a
partir de los elementos percibidos (figura 8.1). Es por tanto, a través de las sensaciones
que experimentamos con nuestros sentidos como nuestro cerebro realiza una
representación del mundo real, lo que convierte al proceso perceptivo algo más que una
mera acumulación de sensaciones.
Todo lo que nos rodea es materia y energía; los sistemas sensoriales se han ido
especializando en detectar parte de esa energía. La visión o la audición solo pueden
responder a una pequeña franja del espectro electromagnético o a una limitada gama de
frecuencias sonoras. Esto significa que la realidad que nosotros percibimos está
determinada por las posibilidades de nuestros receptores. ¿Cómo veríamos la naturaleza
si pudiéramos ver las ondas ultravioletas o infrarrojas? ¿Cómo escucharíamos a Mozart o
a Queen si pudiéramos oír los ultrasonidos? Otros animales sí pueden percibir ondas
ultravioletas como las abejas o ultrasonidos como los perros o los delfines, pero eso no
significa necesariamente que tengan acceso a un espectro perceptivo superior al ser
humano, no, simplemente diferente. No existe una realidad absoluta ahí fuera, son
nuestros sistemas sensoriales y nuestro cerebro los que, respondiendo a determinadas
señales, reconstruyen lo mejor posible el entorno para interactuar con él.
184
Figura 8.1. Ilusión de Kanizsa y animal parcialmente oculto. A la izquierda no hay
dibujado ningún triangulo blanco y a la derecha resulta muy fácil para el cerebro
completar la imagen y saber de qué animal se trata.
185
energía se transforma en potenciales de acción; diferentes tipos de energía, ya que los
órganos de los sentidos son receptores especializados que pueden responder a la energía
lumínica (retina), mecánica (audición, tacto) o a moléculas químicas (gusto y olfato). Los
potenciales nerviosos son iguales para cualquier circuito sensorial, sin embargo, la
representación que forma nuestro cerebro de esas señales es distinta. A pesar de todo, los
sistemas sensoriales comparten algunos atributos más. Por ejemplo, todas las vías
sensoriales, a excepción de la olfativa, establecen relevo en núcleos talámicos antes de
llegar a la corteza cerebral y en dicha corteza suele haber una cierta organización
topográfica referida a los campos perceptivos.
En este capítulo nos vamos a ocupar únicamente de los sistemas visual y auditivo, a
los que dedicaremos más tiempo por su especial relevancia para los seres humanos.
Ambos sistemas se complementan a pesar de las diferencias obvias. El sistema visual
procesa de manera óptima en la dimensión espacial, mientras que el auditivo lo hace en la
temporal. Cuando vemos una escena no solo identificamos los diferentes componentes
de la misma sino que también procesamos las relaciones espaciales entre ellos; por su
parte, el sistema auditivo puede procesar de manera óptima secuencias de estímulos y
detectar cualquier pequeña variación de las mismas. El sistema visual es integrador ya
que procesa los componentes del estímulo para formar la representación visual
(pensemos en los colores como mezcla de longitudes de onda) mientras que el sistema
auditivo descompone las frecuencias del estímulo percibido para identificar la fuente que
lo produce.
Parece claro que los seres humanos dependemos en gran medida de la información
visual para interactuar con nuestro entorno y eso se traduce en una mayor porción de
tejido cerebral a su disposición. También tenemos buena capacidad auditiva para detectar
y discriminar sonidos, gracias a un desarrollo de la corteza auditiva proporcionalmente
186
superior al observado en otras especies de animales. Esta habilidad es relevante para el
desarrollo del lenguaje y la comunicación verbal, pero también para otro tipo de
interacciones con nuestro entorno ya que vista y oído se complementan. Por ejemplo, la
visión nos permite detectar rápidamente los componentes de una escena, pero el sonido
nos puede ayudar a detectar aquellos que permanecen ocultos. También en el ámbito
social, cuando nos relacionamos con alguien es importante saber escuchar y expresarse
para intercambiar información o ideas, pero la información visual es un complemento
básico para dotar de contenido y significado a muchos de los mensajes verbales. En
cualquier caso, son dos sistemas que resultan fundamentales para el aprendizaje y, por
tanto, son la base de la mayoría de los procedimientos utilizados en la educación.
Figura 8.2. Representación del espectro electromagnético. El espectro visible para el ojo
humano se sitúa entre 380 y 760 nanómetros.
187
y el cristalino; el primero es un músculo circular cuya abertura central es la pupila, el
lugar por donde accede la luz al interior del ojo y que modifica su apertura según el grado
de luminosidad. El cristalino actúa como una lente permitiendo que la luz incida
adecuadamente sobre la retina, para lo que puede modificar su grosor gracias a los
músculos ciliares, es lo que se conoce como acomodación visual.
La retina contiene los receptores para la visión, conos y bastones, y es ahí donde se
inicia el proceso visual. En realidad, la retina es tejido nervioso, por eso está organizada
en capas celulares: la capa más interna la forman los fotorreceptores, después hay una
capa de neuronas bipolares y por último una de neuronas ganglionares cuyos axones
conforman el nervio óptico. Las células de la retina están organizadas en conexiones casi
lineales y convergentes de manera que varios receptores proyectan a una neurona bipolar
y varias bipolares proyectan a una ganglionar (figura 8.3). Hay otros tipos de células que
establecen conexiones transversales entre las líneas anteriormente descritas, son las
amacrinas y las horizontales. La fóvea es la región de la retina situada en la zona central
y donde la visión es más precisa, mientras que el punto ciego o papila óptica es donde
convergen los axones de las neuronas ganglionares y el inicio del nervio óptico, por lo
que no hay fotorreceptores. Sería lógico pensar que si hay una zona de la retina que no
contiene receptores para la visión, no veríamos una parte de nuestro campo visual; sin
embargo no es así gracias a los movimientos sacádicos (sacudidas) que hacen que
nuestros ojos se muevan bruscamente de un lado a otro del campo visual. Gracias a estos
movimientos hacemos un barrido constante de nuestro campo visual, realizando breves
paradas (fijaciones) en diversos puntos del mismo para reconstruir la totalidad, algo
necesario, por ejemplo, en la lectura (Heinzle et al., 2010). Los movimientos sacádicos
tienen múltiples funciones visuales, como por ejemplo corregir errores de la mirada o
relacionar e integrar diferentes estímulos de una escena visual. Hay otro tipo de
movimientos, microsacádicos, que son más breves y, aunque hay discrepancias al
respecto, parece que los sacádicos cumplen sus funciones durante la conducta
exploratoria y los microsacádicos durante la fijación (Martínez-Conde et al., 2013).
Hay tres tipos de conos que responden a diferentes longitudes de onda; esto es debido
a que poseen tres variantes de un pigmento, la opsina, que reaccionan de manera
diferente mostrando cada una mayor sensibilidad a las longitudes de onda corta (azul),
media (verde) y larga (rojo). El gen relacionado con el desarrollo de los conos sensibles a
las longitudes de onda largas está localizado en el cromosoma X y se han descrito casos
de heterocigosis en mujeres, lo que algunos consideran como la existencia de un cuarto
cono. Aunque hay varios casos descritos de esta heterocigosis no había pruebas de que
dicha dotación implicara una ventaja en la percepción del color. Sin embargo, se ha
descrito un caso de tetracromía en una mujer que puede percibir una gama de colores
muy superior a la media (Jordan et al., 2010). Por su parte, los bastones contribuyen a
percibir los contrastes luz-oscuridad por lo que son muy efectivos para ver en
condiciones de baja luminosidad. A veces, para discriminar contrastes de baja
188
luminosidad los conos resultan ineficaces y hay que recurrir a los bastones. Podemos ver
un ejemplo cualquier noche despejada en la que sean apreciables las estrellas en el cielo.
A veces, queremos ver una poco brillante y parece que se oculta cuando la miramos de
frente (como si fuera vergonzosa), pero si desplazamos nuestro foco visual unos pocos
grados reaparece; esto es porque hacemos que la luz que refleja incida sobre los bastones
de la periferia de la retina, en vez de sobre los conos de la fóvea.
Los axones de las neuronas ganglionares forman el nervio óptico que se dirige al
cerebro. Sin embargo, antes de entrar en el cerebro propiamente dicho está el quiasma
óptico, el lugar donde las fibras del nervio óptico se bifurcan de modo que, parte de ellas
van al hemisferio cerebral del mismo lado y la otra parte al hemisferio contrario. Solo
decusan, es decir, solo cambian de lado los axones procedentes de la mitad de la retina
189
medial, la que está más cerca de la nariz, mientras que los axones de la mitad lateral o
temporal (cerca del hueso temporal) se dirigen al hemisferio del mismo lado. El resultado
es que las dos mitades izquierdas de ambas retinas proyectan al HD y las dos mitades
derechas al HI (figura 8.4); así, cada mitad del campo visual se procesa en el hemisferio
contrario.
La mayor parte de los axones del nervio óptico se dirigen al núcleo geniculado lateral
(NGL) del tálamo y de ahí a la corteza cerebral. Esta vía se conoce como vía
geniculoestriada, haciendo referencia al relevo talámico y a la corteza visual primaria
(V1), llamada estriada por el aspecto que presenta bajo ciertas tinciones para su
observación al microscopio. Sin embargo, no es la única vía visual que existe en el SN
humano ya que hay otras de carácter secundario.
190
Figura 8.4. Esquema de la vía óptica donde se aprecia la decusación de las porciones
mediales del nervio óptico. Ambos ojos reciben la luz reflejada por ambos estímulos,
pero la organización de la vía hace que cada uno de ellos se procese en el hemisferio
contrario.
Desde la retina parten axones con destinos diversos como el pretectum, el núcleo
óptico accesorio o el núcleo supraquiasmático del hipotálamo, que tiene que ver con el
ajuste del organismo a los ciclos de luz-oscuridad. También se ha identificado la
191
denominada vía tectopulvinar que se dirige hacia el tectum y posteriormente al núcleo
pulvinar talámico desde donde proyecta a la corteza visual asociativa parietotemporal.
Tanto esta como la vía geniculoestriada confluyen en la corteza visual de asociación,
pero la tectopulvinar no pasa por VI, lo que nos permite comprender el fenómeno de
visión ciega del que hablaremos más adelante. La vía geniculoestriada es
filogenéticamente más reciente e incluye aproximadamente al 90% de los axones que
salen de la retina, está considerada como la vía visual principal y ha sido la más estudiada
hasta ahora. Por su parte, las otras vías participan en funciones más primarias y
automáticas como la contracción de la pupila, la acomodación del cristalino, los
movimientos oculares o las respuestas de orientación y localización espacial de los
estímulos percibidos. Son vías filogenéticamente más antiguas y rápidas que nos
permiten reaccionar de manera rápida y automática ante estímulos inesperados, como
por ejemplo un movimiento en nuestra periferia visual.
Después del relevo sináptico en el NGL, los axones de la vía GS (radiaciones ópticas)
llegan a la corteza visual primaria localizada en el polo caudal del lóbulo occipital. Esta
región cortical no es la única que se ocupa del procesamiento visual ya que podemos
identificar otras muchas áreas visuales más tanto en el lóbulo occipital como en el parietal
y en el temporal. Las proyecciones que llegan a VI son retinotópicas, es decir,
reproducen con bastante fidelidad la topografía de la retina. Dos estímulos que incidan
sobre dos regiones contiguas de la retina van a ser procesadas en dos regiones contiguas
de la corteza V1. Esta región es funcionalmente heterogénea ya que es donde se realiza
un primer análisis de las características más elementales del estímulo que luego se
completará para la percepción de la forma, el color y el movimiento en otras áreas de
procesamiento visual posterior. Las otras áreas visuales se denominan corteza
extraestriada y abarca regiones occipitales, parietales y temporales donde podemos
encontrar áreas visuales que responden a atributos específicos de la imagen visual.
192
incide sobre la periferia; por el contrario, las células centro OFF responden de manera
inversa (figura 8.5). Esta forma de responder es especialmente útil para percibir los
bordes y los contornos de los objetos del campo visual. A fin y al cabo, los contornos
vienen definidos, entre otros aspectos, por una diferencia de luminosidad entre dos áreas
y marcan la ruptura de una continuidad estimular. El modo de respuesta de estas células
produce un incremento de los contrastes a causa de la excitación/inhibición que se
produce en células contiguas. En la naturaleza es fundamental percibir los contornos
para, entre otras cosas, poder identificar los objetos y diferenciar unos de otros o poder
apreciar la perspectiva (aquí también interviene la comparación de tamaño que realiza el
cerebro entre el apreciado y el esperado).
Figura 8.5. Células ON y OFF y su tasa de disparo según donde incida la luz. Cuando
incide sobre la mayor parte de su campo receptivo, las neuronas no modifican su
respuesta.
193
con una inclinación de 100, otras de 20° y así sucesivamente. Estas neuronas,
denominadas células simples, también funcionan como células on-off, solo que en este
caso sus campos receptivos son rectangulares y responden de manera óptima cuando la
luz incide sobre una franja del mismo y no sobre la totalidad. El tipo de respuesta de
estas células resulta de la integración de las señales generadas por las neuronas del NGL,
lo que supone elevar el nivel de complejidad de las señales procesadas. Otro tipo de
neuronas en la corteza estriada son las células complejas, con campos receptores más
grandes que las células simples y que responden a la orientación de líneas y bordes pero,
en este caso, siempre que el estímulo incida en cualquier parte de su campo receptivo.
Integran las señales procedentes de las células simples antes de enviar sus señales a un
tercer tipo de neuronas, las células hipercomplejas, que también responden
preferentemente a la orientación de líneas pero con la peculiaridad de que son capaces de
detectar los extremos de las líneas (el comienzo y el final) gracias a una región inhibidora
en su campo perceptivo. En resumen, el procesamiento de la información en la corteza
visual primaria consiste en la integración progresiva de señales simples, permitiendo la
construcción de una representación visual compleja a partir del procesamiento de sus
características más elementales.
194
proyecciones retrógradas para afinar su funcionamiento.
Figura 8.6. Vista de algunas de las áreas visuales en un corte sagital del encéfalo
(izquierda). Corrientes occipitoparietal (dorsal) y occipitotemporal (ventral) de las
proyecciones visuales (derecha).
195
También V2 se ocupa del procesamiento preliminar de forma, color y movimiento,
pero además es responsable de la disparidad binocular, proceso que resulta fundamental
para la percepción de la profundidad. De V1 y V2 surgen dos nuevas vías de
procesamiento, las denominadas corrientes ventral (occipitotemporal) y dorsal
(occipitoparietal) respectivamente (figura 8.6). La vía ventral progresa hacia la corteza
temporal y nos permite identificar las características del estímulo y reconocerlo, por eso
se le denomina también vía del qué; por su parte, la corriente dorsal, que se adentra en la
corteza parietal, nos permite percibir la ubicación de los estímulos en el espacio y
programar la coordinación visomotora para el movimiento, por eso se la denomina
también vía del cómo o del dónde.
Si avanzamos por la vía ventral nos encontramos regiones corticales que se ocupan del
procesamiento de atributos más específicos de la imagen visual, co mo la región V4 para
el color o V5 para el movimiento. Como hemos dicho, una buena parte de la corteza
cerebral se dedica al procesamiento visual ya que la percepción de las imágenes es algo
más que un mero registro de experiencias visuales y requiere de la integración de las
mismas en redes más amplias que almacenan otras representaciones visuales. Esto lo
podemos apreciar fácilmente con la constancia del objeto, es decir, con la facilidad que
tenemos para reconocer un objeto aunque lo veamos desde posiciones distintas y con
diferentes ángulos de rotación. Para ello, necesitamos comparar lo percibido en un
momento determinado con las representaciones de ese mismo estímulo que tenemos en
nuestra memoria. Cuando percibimos un estímulo por primera vez formamos una
representación simple del mismo que irá ganando complejidad a medida que la
vinculamos con nuevas experiencias visuales. Por su parte, la vía dorsal está más
relacionada con la localización del objeto en el espacio y con los movimientos oculares y
conductas motoras dirigidas a un objeto, por ejemplo, para cogerlo con la mano.
Podemos simplificar diciendo que los circuitos de la vía ventral nos permiten identificar
los estímulos y los de la vía dorsal guiar nuestra conducta en relación con ellos.
196
significativamente la visión. En todos estos casos va a resultar afectado un lado del
campo visual o ambos, según la lesión se localice en un hemisferio cerebral o en ambos.
En el caso de los escotomas, si las lesiones en la corteza estriada son pequeñas, pueden
pasar desapercibidos como consecuencia de los movimientos sacádicos y de la
reconstrucción que hace el cerebro del espacio visual cuando hay discontinuidad en sus
componentes.
Otro tipo de alteraciones de la percepción visual tienen que ver con el reconocimiento
de lo que se está viendo, son las agnosias. Cuando percibimos un estímulo hacemos algo
más que verlo; identificamos su forma y color, su ubicación y si se mueve o permanece
estático, le asignamos un significado y lo vinculamos con representaciones mentales que
tenemos almacenadas en nuestro cerebro. Una agnosia visual es una dificultad en el
reconocimiento de estímulos visuales sin que haya alteraciones de la sensibilidad y
agudeza visuales u otras alteraciones atencionales, lingüísticas o mentales que pudieran
justificar este déficit. La persona que la padece puede ver correctamente el estímulo pero
es incapaz de reconocerlo aunque puede apreciar otros atributos como el tamaño, la
posición o el movimiento. Según las características del trastorno, la incapacidad puede
ser mayor o menor ya que hay casos en los que el sujeto puede proporcionar alguna
información sobre el objeto, su uso o su similitud con otros aunque no pueda
denominarlo. Esto ha llevado a que se establezcan subcategorías (agnosia perceptiva,
asociativa...) pero sin consenso unánime a la hora de definirlas y caracterizarlas.
Un tipo de agnosia bastante peculiar es la que impide al sujeto reconocer los rostros, es
la prosopagnosia, ocasionada por una lesión en el área fusiforme, una porción de corteza
197
cerebral situada en la base del lóbulo temporal. En este trastomo el sujeto no puede
reconocer los rostros y por tanto tiene dificultades para identificar a su dueño, teniendo
que valerse de indicios indirectos ligados al rostro como señales, cicatrices, gafas o barba
y ligados a la persona, como el habla, la forma de andar o cualquier otra peculiaridad
física. Se plantea entonces una duda con respecto al reconocimiento visual de estímulos
¿Existen áreas diferenciadas para reconocer diferentes categorías de estímulos? ¿Si hay
un área para el reconocimiento de rostros, hay otras para el reconocimiento de plantas,
animales, herramientas o edificios? Las respuestas a estas cuestiones son, en parte,
contradictorias. Por un lado, parece que el reconocimiento de rostros y el de otros
objetos no son procesos equiparables por la especial relevancia evolutiva que tiene para
los humanos el reconocimiento de rostros. No en vano, durante las primeras semanas de
vida el bebé prefiere mirar rostros que otros estímulos. Además, determinadas lesiones
apoyan la idea de que existen conexiones más complejas en las regiones de
reconocimiento facial que almacenan representaciones referidas a información semántica,
afectiva e, incluso, biográfica asociada al rostro (Fox et al., 2008). Las evidencias a favor
o en contra de si se produce un almacenamiento modular de las categorías de estímulos
en el cerebro no son concluyentes ya que, si bien se han encontrado casos en los que una
lesión afecta de manera selectiva a una categoría, y estudios con neuroimagen que
parecen apoyar esta idea, no hay consenso a la hora de tipificar las categorías ni el grado
de especificidad de las mismas (Gale y Laws, 2006; Gerlach, 2009; Gerlach et al., 2006;
Wolk et al., 2005). Así, en algunos casos se diferencia únicamente entre estímulos
animados (equivalente a seres vivos, con su relevancia evolutiva correspondiente) o
inanimados, mientras que en otros se apuesta por categorías más específicas.
Diferentes lesiones a lo largo de la vía ventral pueden ocasionar otros tipos de agnosias
visuales como la acromatopsia y la acinetopsia. La primera implica una pérdida de la
visión del color como consecuencia de una lesión en la región V4 y que no debe ser
confundida con la acromatopsia periférica, ocasionada por alteraciones en los
fotorreceptores. El sujeto que la padece ve el mundo en diferentes tonos de gris, como
una película en blanco y negro. En la acinetopsia, la lesión se localiza en V5 y el sujeto es
incapaz de percibir el movimiento, es como si viera una sucesión de imágenes estáticas,
de fotografiar, lo que le ocasiona dificultades en su vida cotidiana. Por ejemplo, no puede
calcular la velocidad a la que se acerca un vehículo cuando va a cruzar una calle ya que
desaparece y aparece en su campo visual a diferente distancia pero sin que pueda percibir
la continuidad, o tiene problemas para llenar un vaso de agua porque puede ver cómo el
nivel del agua alcanza diferentes alturas sin poder calcular cuándo se acerca al borde. En
alguna ocasión habremos experimentado el efecto de una luz estroboscópica (iluminación
mediante destellos) sobre una rueda girando o sobre un chorro de agua y nos parece que
no se mueven (o gira al revés en el caso de la rueda).
198
implica dificultades para fijar la atención visual o para alcanzar objetos guiándose por la
vista, lo que se conoce como ataxia visomotora. Suele llevar asociado simultagnosia, un
trastorno por el que el sujeto es incapaz de ver más de un objeto a la vez, es como si, en
una escena compleja, solo pudiera dirigir su atención a un estímulo cada vez. Esta
situación puede detectarse fácilmente con pruebas como el test de figuras superpuestas
de Poppelreuter o el de dibujos mezclados de Lila Ghent (figura 8.7), en los que el
paciente tiene que detectar los contornos que identifican a cada figura.
Todas estas alteraciones suelen presentarse dentro de un marco clínico más amplio y
pueden ser consecuencia de un daño unilateral o bilateral y afectar a todo o parte del
campo visual. Por desgracia, la mayor parte de lo que sabemos sobre ellas se ha obtenido
a partir de estudios con pacientes que han sufrido algún tipo de daño cerebral que no
suele circunscribirse a localizaciones tan concretas como las que hemos referido.
Actualmente, las técnicas de neuroimagen proporcionan información complementaria en
sujetos sanos pero también, conociendo las características técnicas del proceso de
obtención de las imágenes, hay que ser cautelosos a la hora de atribuir localizaciones
estrictas y olvidar que estamos hablando de circuitos estrechamente interconectados.
199
Figura 8.7. Imágenes del test de Poppelreuter (A) y del de Lila Ghent (B y C). Para
confirmar que la dificultad perceptiva solo aparece ante la superposición de estímulos, en
el segundo el sujeto debe identificar los estímulos mezclados y por separado.
200
8.2. Audición
Al igual que las imágenes visuales, el sonido es una creación de nuestro cerebro en
respuesta a determinados cambios en la energía que nos rodea. Por ese motivo,
responderíamos que no a la clásica pregunta: ¿si un árbol se cae en medio del bosque y
no hay ninguna persona en las cercanías, hace ruido? Si eso ocurriera, la caída del árbol
en medio del bosque produce una serie de cambios en la presión del aire circundante
haciendo que las moléculas del mismo se agrupen o separen (vibren) de forma cíclica.
Solamente si estas vibraciones llegan hasta nuestros oídos y estimulan el tímpano
iniciarían un proceso complejo mediante el cual nuestro cerebro experimentaría una
sensación que denominamos sonido. La vibración de las partículas se puede representar
gráficamente mediante ondas a lo largo de un continuo temporal (figura 8.8) y reflejar las
tres características físicas del sonido, la frecuencia (número de ciclos por unidad de
tiempo) la amplitud de la onda y la complejidad de la misma. El correlato psicológico de
estas tres propiedades físicas, es decir, las características perceptivas que le atribuimos al
percibir el sonido son el tono (frecuencia), el volumen (amplitud) y el timbre
(complejidad).
Figura 8.8. Representación gráfica de una onda sonora. Arriba: características de la onda.
La onda representa un tono puro, la complejidad deriva de la superposición de diversas
ondas simultáneas. Abajo: Agrupamiento o expansión de las moléculas de aire como
consecuencia de la vibración de un objeto.
201
La frecuencia de un sonido se mide en ciclos por segundo y se expresa en hercios (Hz;
1 Hz es un ciclo por segundo). Las frecuencias bajas las percibimos como sonidos graves
y las altas, como agudos. Cada especie posee un espectro receptivo ligeramente distinto;
el oído humano es capaz de percibir frecuencias entre 20 y 20.000 Hz, el del perro entre
20 y 65.000 Hz, el del gato desde 45 a 64.000 Hz o el caso del murciélago que puede
percibir sonidos entre 2.000 y 110.000 Hz. El espectro audible en seres humanos puede
variar de una persona a otra y se va reduciendo con la edad a medida que los
componentes del sistema auditivo se van deteriorando. Los sonidos que están por debajo
o por encima del espectro audible humano los denominamos infrasonidos y ultrasonidos,
respectivamente. Por su parte, la amplitud de la onda sonora (el volumen) se mide en
decibelios (dB). Por ejemplo, el habla normal (conversación) puede alcanzar los 40-50
dB, el ruido de una aspiradora unos 70-90 dB o la música en una discoteca por encima
de los 110 dB. El timbre de un sonido es lo que nos permite identificarlo y diferenciarlo;
gracias al timbre distinguimos el sonido de una guitarra del de una trompeta o la voz de
dos personas. Los tonos puros son muy raros como tales en la naturaleza y todos los
sonidos que escuchamos están formados por superposición de frecuencias que dan como
resultado el timbre característico que los diferencia. Los sonidos en la naturaleza son,
pues, la conjunción de dos o más tonos puros en combinaciones prácticamente infinitas.
202
Figura 8.9. Esquema de las vías auditivas. En trazo continuo se han representado las
proyecciones principales.
203
la oliva y de ahí a los colículos inferiores. Por último, los axones alcanzan el núcleo
geniculado medial (NGM) del tálamo antes de llegar a las áreas auditivas de la corteza
cerebral (figura 8.9). La corteza auditiva incluye varias áreas que responden de manera
específica a diferentes atributos del estímulo sonoro (Shamma, 2001). Las vías auditivas
no están totalmente contralateralizadas ya que llegan proyecciones a la corteza del mismo
lado aunque las más importantes sí estén cruzadas. Así, cada hemisferio cerebral recibe
proyecciones de ambos oídos aunque son más potentes las procedentes del lado contrario
(Lipschutz et al., 2002).
En el NGM se diferencian dos regiones, una ventral que proyecta sus axones a la
corteza auditiva primaria (Al) y otra dorsal que proyecta a las áreas auditivas secundarias.
El área Al está situada en la circunvolución temporal superior (circunvolución de Heschl)
ocupando la parte media de la misma (figura 8.10). Está rodeada por las áreas auditivas
secundarias (Morosan et al., 2001), denominadas áreas del cinturón (rodea a Al) y del
paracinturón, entre las que se incluye parte del área de Wernicke.
204
Figura 8.10. Localización de las áreas corticales para la audición incluida el área de
Wernicke.
Una vez que el sonido ha sido detectado por nuestro sistema auditivo, el objetivo de
procesamiento es doble: por un lado, identificar la fuente que produce dicho sonido y,
por otro, localizar la ubicación de dicha fuente. En este sentido, parece que también
existen dos rutas, una para la identificación del sonido (ventral, temporal) y otra para la
localización del mismo (dorsal, parietal). Es decir, hablaríamos de dos rutas de
procesamiento, una que se adentra hacia porciones rostroventrales del lóbulo temporal y
otra hacia la corteza parietal (Barrett y Hall, 2006; Warren y Griffiths, 2003). La corteza
Al responde preferentemente a los atributos más elementales del estímulo sonoro (Hart et
al., 2002), mientras que la corteza asociativa se encarga de las características más
complejas, que suelen ser resultado de la conjugación de componentes más elementales
(Talavage et al., 2000; Zatorre y Belin, 2001). En primates, las neuronas del área
auditiva secundaria responden mejor a vocalizaciones de sus congéneres que a tonos
puros, señal de que se han desarrollado para integrar componentes básicos de los
estímulos sonoros (Poremba y Mishkin, 2007). Esta especificidad para reconocer los
sonidos emitidos por los propios congéneres puede tener una importante relevancia
evolutiva ocasionando un cableado más rico en los circuitos que se ocupan de ello, ya
que también se ha confirmado en humanos pero no se ha observado lo mismo para otras
categorías de sonidos (Joly et al., 2012; Sharda y Singh, 2012).
205
izquierdo. Por último, como se ha podido deducir, ambos procesos resultan inútiles
cuando la fuente sonora se ubica en un punto situado delante o detrás del sujeto. Para
ello, hay un tercer recurso evolutivo: la forma y colocación de los pabellones auriculares.
Percibimos con sutiles diferencias en el timbre los sonidos situados delante o detrás de
nosotros como consecuencia de que la forma de las orejas y su colocación producen
leves distorsiones de las ondas sonoras. El procesamiento de estas señales comienza ya
en los núcleos del tronco del encéfalo (May, 2000) y es la corteza auditiva de asociación
la que ubica con bastante precisión la fuente sonora en el espacio.
206
En la corteza auditiva hay circuitos especializados en responder a estímulos verbales y
musicales. De forma bastante generalizada se ha mantenido la creencia de que la
comprensión y producción del habla radica en el HI y la de la música en el HD. Sin
embargo, en el cerebro las cosas nunca son así de simples. Con técnicas de neuroimagen
se ha demostrado que Al responde bilateralmente a cualquier tipo de estímulo sonoro y
que ambos hemisferios se activan tanto con estímulos verbales como musicales
(Schirmer et al., 2012) con patrones de activación bastante similares. Sí es cierto que el
HI es dominante para el habla en la mayoría de los sujetos, pero eso no significa que el
HD permanezca al margen. Por ejemplo, es importante para percibir los componentes
prosódicos del habla (entonación, acento...) o los pragmáticos (significado en función del
contexto) y cuando resulta dañado, el paciente tiene dificultades para ello (Nicholson et
al., 2003; Holtgraves, 2012). Por su parte, el HI también participa en algunos aspectos
del procesamiento musical como el reconocimiento del timbre, el procesamiento
sintáctico musical o el acceso a las representaciones de memoria semántica para los
contenidos musicales (Koelsch y Siebel, 2005; Sammler et al., 2011). No obstante, una
de las explicaciones más plausible es la de que existe efectivamente una asimetría
hemisférica para el habla y la música, izquierda y derecha respectivamente, pero que
ambos hemisferios contribuyen de algún modo teniendo en cuenta las características
físicas de ambos tipos de estímulos (Dehaene-Lambertz et al., 2010; Zatorre et al.,
2002). En cualquier caso, parece claro que no existe una lateralización radical para el
habla y la música sino una posible distribución de tareas de procesamiento en las que sí
se da una cierta dominancia hemisférica.
207
alcanzar en el ámbito musical. Por supuesto que la plasticidad del SN no es igual en
cualquier edad y que el entrenamiento en etapas tempranas, como en otros ámbitos,
resulta mucho más efectivo. Un estudio reciente ha comprobado que el procesamiento
verbal no activa las mismas áreas cerebrales en músicos profesionales que en otros
sujetos que no lo son. Utilizando ERP comprobaron que la presentación de palabras o
notas musicales activaba regiones bilaterales en el cerebro de los músicos, mientras que
en los controles, la activación ante las palabras era claramente izquierda (Proverbio et al.,
2013), lo que suponía una reorganización de los circuitos verbales en el cerebro de los
músicos.
208
poco frecuentes, de ahí que en clínica no se encuentren muchos casos de sordera cortical
pura, que sería una forma de anacusia completa. El NGL talámico proyecta también a la
corteza auditiva secundaria, por lo que se hace difícil detectar los déficits. Además, ya
hemos dicho que las proyecciones auditivas no están completamente lateralizadas. Por
estos motivos, en el caso de la hemianacusia es necesario recurrir a pruebas de escucha
dicótica para su correcta detección. Como ya vimos, las pruebas de escucha dicótica
consisten en presentar simultáneamente dos estímulos auditivos distintos, uno en cada
oído, y determinar en qué medida son percibidos por el sujeto en lo referido a intensidad,
velocidad y discriminación. Generalmente, cuando hay lesiones en la corteza auditiva
primaria no se pierde la capacidad auditiva por completo pero sí pueden aparecer
dificultades para detectar, localizar e identificar los sonidos.
Uno de los trastornos auditivos que más relevancia tiene para el ámbito educativo es el
trastorno de procesamiento auditivo central (TPAC) ocasionado por algún tipo de
disfunción en la corteza auditiva. La definición del trastorno, y su diagnóstico, todavía se
presta a interpretaciones y valoraciones diversas. Timothy D.Griffiths, define el
procesamiento auditivo como la eficacia y la efectividad con que el SN utiliza la
información auditiva (Griffiths, 2002); una definición sumamente amplia que no permite
objetivar de manera concisa las posibles alteraciones de dicho procesamiento. Podemos
tomar como referencia la definición que propone la American Speech-Language-Hearing
Association (ASHA, 2005) al definir el TPAC como las dificultades en el procesamiento
perceptivo de la información auditiva en el SNC que se ponen de manifiesto por una
pobre ejecución en una o varias de las habilidades perceptivas auditivas como la
discriminación y localización de la fuente sonora, el reconocimiento de patrones
auditivos, la integración y discriminación temporal de las secuencias de sonidos o el
procesamiento de sonidos simultáneos, entre otras. Para facilitar su identificación y poder
actuar en consecuencia, Munar et al. (2008) resumen los principales síntomas de este
trastorno:
Aunque se trata de un trastorno derivado de una disfunción del SNC, puede estar
causado por determinadas alteraciones periféricas como las otitis de repetición (Moore et
209
al., 2003) y persistir después de haber resuelto estas alteraciones. Los niños que padecen
este trastorno muestran dificultades auditivas en cualquier ambiente (Smoski et al.,
1992), aunque son más evidentes en ambientes ruidosos como sucede en el aula con
frecuencia. Esto puede ser debido a que estos niños tienen más dificultades en ignorar
sonidos irrelevantes (Elliott et al., 2007), lo cual afecta no solo a la capacidad atencional
sino también al modo en que procesan la información auditiva. La relevancia educativa
de este trastorno radica en que es la causa de un buen número de problemas de
aprendizaje, sobre todo los relacionados con el lenguaje (Dlouha, 2003; Dlouha et al.,
2007). Se estima que entre un dos y un cinco por ciento de los niños en edad escolar lo
padecen, pero entre niños disléxicos el porcentaje puede multiplicarse por diez. Esto nos
da una idea de la importancia que tiene detectar indicios para un diagnóstico temprano
preciso que permita poner en marcha intervenciones adecuadas.
Las lesiones corticales localizadas en áreas auditivas secundarias son las responsables
de las agnosias auditivas que, al igual que hemos visto para el sistema visual, hacen
referencia a dificultades en el reconocimiento auditivo de las fuentes sonoras en ausencia
de trastornos que afecten a la detección acústica y que pudieran explicarlas. Así, por
ejemplo, la agnosia auditiva pura hace referencia a la incapacidad de reconocer sonidos
familiares del entorno. No se incluyen en este trastorno los sonidos lingüísticos y
musicales que tienen sus propias categorías. Es el caso de la agnosia musical, que se
refiere a la pérdida de la capacidad de reconocer sonidos musicales o de la amusia,
distinta de la anterior, y que tiene que ver con la pérdida de alguna capacidad musical. Es
decir, este trastorno no se refiere al reconocimiento de estímulos musicales sino a la
capacidad de reconocer aspectos como la tonalidad o el timbre o de hacer música, leerla
o interpretarla.
210
211
Hemos visto en el capítulo anterior que los seres humanos disponemos de receptores
apropiados para detectar y analizar la energía que nos rodea. Además, disponemos de
otros tipos de receptores que pueden detectar e identificar la materia a nuestro alrededor.
Es de estos últimos de los que vamos a tratar en este capítulo. Nos vamos a ocupar de la
sensibilidad somatoestésica, es decir, de las sensaciones corporales, y de manera
relacionada del modo en que nuestro cerebro recrea un mapa de nuestro cuerpo y, por
extensión, del espacio que nos rodea. También abordaremos los denominados sentidos
químicos, gusto y olfato, que deben su nombre a que detectan las moléculas que hay en
el aire o en los alimentos que ingerimos.
212
9.1.1. Receptores y vías somatosensoriales
Las sensaciones somáticas son las sensaciones del cuerpo y tienen su origen en
multitud de receptores distribuidos por todo el organismo pero con una presencia más
determinante en la piel. La piel es el órgano más grande del cuerpo y resulta fundamental
para la supervivencia ya que nos protege y aísla del entorno y regula la temperatura
corporal. Hay dos tipos de piel, vellosa y lampiña. La piel lampiña, también llamada
glabra, es la que carece de vello y se refiere únicamente a las yemas de los dedos, las
palmas de manos y pies o los labios ya que el resto, aunque en algunos sujetos varíe la
distribución y cantidad de vello cutáneo, se considera piel vellosa. La piel está formada
por dos capas, la epidermis más externa y en contacto con el exterior y la dermis, por
debajo de la anterior y donde se localizan la mayoría de los receptores somáticos. Hay
una mayor densidad de receptores en la piel lampiña por lo que es la que utilizamos
generalmente para realizar discriminaciones táctiles precisas; reconocemos mejor un
objeto con la yema de los dedos que con el dorso de la mano y tenemos más cosquillas
en la planta del pie que en el empeine.
Existen varios tipos de receptores cutáneos; terminaciones nerviosas libres, que son las
terminaciones dendríticas de una neurona sensorial, terminaciones nerviosas
encapsuladas, recubiertas por una especie de cápsula de tejido y por último, también
podemos encontrar un receptor específico que sinapta con una neurona. Las
terminaciones nerviosas libres se localizan por toda la piel y responden a estímulos
térmicos y nociceptivos (nocivos, dañinos, producen dolor). Estas neuronas pueden tener
grandes axones mielinizados o axones más pequeños amielínicos; los primeros son los
responsables de la sensación de dolor agudo (un pinchazo, una quemadura...) mientras
que los amielínicos transmiten la sensación de dolor crónico, mantenido (el que persiste
después del daño inicial). Las sensaciones térmicas están mediadas por ambos tipos de
neuronas, que, en realidad, responden a modificaciones de la temperatura, no a valores
absolutos. Por eso, la sensación térmica es relativa, algo que podemos comprobar con un
ejemplo muy conocido: metemos simultáneamente una mano en agua caliente y la otra
en agua fría, después ponemos ambas en agua a temperatura ambiente para comprobar
que la percibimos como fría en una mano y como caliente en la otra.
Las sensaciones táctiles son percibidas por diferentes receptores: los corpúsculos de
Pacini, Meissner y Ruffini y los discos de Merkel. Responden a la presión (fuerte o
suave) y a la vibración, por lo que permiten discriminar la textura o la dureza de un
objeto y si se mueve o permanece estático. La distribución de los receptores en la piel es
desigual, por lo que diferentes partes del cuerpo no muestran la misma sensibilidad a
según qué estímulos. Por ejemplo, tenemos mucha más sensibilidad táctil en las yemas
de los dedos que en la piel de la espalda. No solo ocurre con los receptores táctiles; si
queremos hacer un experimento rápido, probemos a pellizcar la piel del codo con fuerza
durante cinco segundos; después, hagamos lo mismo en la de la cara interna del brazo
cerca de la axila; la sensación que experimentamos es diferente y es probable que
213
tengamos dificultades para aguantar los cinco segundos. Los campos receptivos de la piel
se organizan en parcelas que se denominan dermatomas. Cada uno de estos dermatomas
está inervado por un par de nervios espinales (las ramas homónimas derecha e izquierda)
por lo que podemos hacer un mapa de la piel del cuerpo denominando a cada parcela
según el nervio que la controla (Ti, T2... L1, L2...). La piel de la cara está inervada por
el nervio trigémino, un nervio craneal que, al fin y al cabo, guarda similitudes con los
espinales.
214
somatosensoriales están cruzadas pero la decusación de unas y otras ocurre a diferente
nivel, lo que ocasiona esta afectación en lesiones parciales de la médula. Las
proyecciones procedentes de la cara son transmitidas por el nervio trigémino (V par
craneal). Estas proyecciones alcanzan el tálamo, núcleo ventral posterior, donde se
incorporan a las demás para alcanzar la corteza somatosensorial primaria.
215
Figura 9.1. Localización de la corteza somatosensorial en la circunvolución postcentral y
otras regiones relacionadas con el procesamiento de la información somática.
216
-Área 3b: receptores cutáneos de adaptación lenta.
217
Figura 9.2. Homúnculo sensorial y esquema de las cuatro franjas corticales identificadas
en la circunvolución postcentral. Prácticamente podríamos registrar un homúnculo en
cada una de ellas. Las regiones del cuerpo que tienen mayor sensibilidad táctil ocupan un
área cortical proporcionalmente mayor.
218
cerebral. Al fin y al cabo, la información que el sistema somatosensorial proporciona al
cerebro está en la base, no solo del reconocimiento táctil de los estímulos, sino también
del movimiento o las emociones.
219
necesario.
Ya hemos dicho que los receptores para el dolor lo constituyen las terminaciones
nerviosas libres y las fibras mielínicas y amielínicas que conducen las señales a diferente
velocidad. Sin embargo, estas sensaciones son más complejas que el simple contacto de
un objeto sobre la piel y por eso son varios los circuitos que, de un modo u otro,
contribuyen a transmitir la señal nociceptiva y a formar la experiencia del dolor en el
cerebro. En primer lugar, en esas terminaciones libres se han identificado tres tipos de
receptores; mecánicos, que responden a la deformación y rotura del tejido, térmicos, a la
elevación de la temperatura y polimodales, que reaccionan a diferentes tipos de
estímulos. Luego, estas neuronas alcanzan el cerebro a través de las vías anterolaterales
que ya hemos descrito. Pero también hay vías descendentes que modulan e, incluso,
inhiben la señal de dolor.
A nivel cortical no se ha podido identificar una región donde se proyecten las señales
dolorosas de manera clara. No podemos localizar con certeza la ubicación de la "corteza
dolorosa" ni siquiera en las regiones SI y SII. Aunque en estas regiones se ha registrado
activación simultánea como consecuencia de un estímulo doloroso (Kanda et al., 2000),
hay evidencia clínica de que la lesión de amplias regiones de la corteza somatosensorial
no anula la percepción del dolor. Un estudio con neuroimagen funcional (Bingel et al.,
2004) mostró una cierta organización somatotópica en SI y SII para estímulos dolorosos
(solo manos y pies) utilizando un tipo de láser a fin de evitar la estimulación táctil que,
obviamente, hubiera activado las neuronas corticales de las regiones correspondientes.
Resulta complicado hacer un mapa cortical del dolor porque estos estímulos activan
numerosas áreas corticales además de SI y SII; áreas como la ínsula, el cíngulo anterior,
córtex parietal, premotor y motor suplementario o regiones prefrontales (ver una revisión
en Apkarian et al., 2005). Y es que la propia sensación dolorosa genera una
representación compleja que incorpora un componente puramente sensorial pero también
una dimensión afectiva relacionada con el malestar emocional que genera el dolor. En
este sentido, Donald D.Price (2000) propone un circuito que contempla estas dos
dimensiones, más una tercera que tendría que ver con la representación emocional a
largo plazo en función de nuestras expectativas en relación con el dolor (figura 9.3). Así,
las vías medulares que alcanzan el tálamo y la corteza somatosensorial serían
responsables de la dimensión sensorial del dolor. Las proyecciones talámicas al cíngulo
anterior y las aferencias que recibe de la corteza somatosensorial a través de la ínsula se
ocuparían de la dimensión afectiva relacionada con el malestar emocional que genera el
dolor. Por último, los circuitos de la corteza prefrontal que reciben proyecciones del
cíngulo serían los responsables de la representación emocional a largo plazo, que
consideraría el dolor como una amenaza futura que condicionaría la toma de decisiones y
la libre planificación de la conducta.
220
Figura 9.3. Esquema del circuito propuesto por Price (2000) para explicar la dimensión
afectiva a corto y largo plazo del dolor.
El dolor es bueno porque nos avisa de que algo no está bien, pero una vez que ya
sabemos eso y hemos tomado las medidas oportunas, si el dolor persiste se convierte en
una molestia importante. El dolor produce conductas de evitación y alejamiento al tiempo
que propicia el reposo y la autoprotección. Sin embargo, hay actividades biológicamente
importantes cuya supresión o aplazamiento pueden complicar la supervivencia del
individuo. Pensemos, por ejemplo, que la búsqueda de alimento por parte de cualquier
animal se viera interrumpida porque experimenta dolor o que tuviera que luchar por la
comida o una pareja y al primer rasguño evitara al competidor cediéndole los derechos;
tendría pocas probabilidades de sobrevivir y perpetuar sus genes. Si vamos a ejemplos
más cercanos, todos hemos visto por televisión (o en persona) situaciones en las que un
sujeto sufre una aparatosa caída o es volteado por un toro y se levanta como si no
hubiera pasado nada. ¿Es qué no le ha dolido el golpe? Como se suele decir
coloquialmente, esos golpes duelen más tarde, en frío. Lo que ocurre es que el SN ha
desarrollado diversos mecanismos para generar una respuesta de analgesia en
determinadas situaciones para permitir que el sujeto pueda mantener su conducta. Según
parece hay más vías descendentes implicadas en la modulación del dolor y la analgesia
que vías ascendentes que lleven las señales nociceptivas al cerebro.
221
objeto puntiagudo; inmediatamente, tratamos de atenuar el dolor frotando la zona donde
nos hemos golpeado ¡Y funciona! Melzack y Wall (1965) propusieron la teoría de la
compuerta o de la puerta de control del dolor para explicar este fenómeno. Describen un
circuito en el asta posterior de la médula espinal en el que las fibras que transmiten
sensaciones dolorosas y las que transmiten sensaciones táctiles sinaptan con las neuronas
de proyección que ascienden hasta el tálamo. En una región concreta del asta posterior
de la médula, la sustancia gelatinosa, hay intemeuronas inhibidoras que juegan un papel
relevante en la transmisión del dolor. Estas intemeuronas pueden inhibir la señal dolorosa
cuando activamos las vías que transmiten la sensibilidad táctil de la misma zona. Frotar el
área donde nos hemos golpeado estimula las neuronas táctiles, las cuales, además de
enviar las señales a través de neuronas ascendentes al cerebro, activan a las
interneuronas inhibidoras que actúan sobre las fibras dolorosas disminuyendo la
intensidad de su señal.
Para añadir complicación a la percepción del dolor hay que considerar, primero, que
existen diferencias individuales para la sensibilidad nociceptiva y, segundo, que el dolor
puede ser modulado por aspectos como la atención o los estados emocionales. Una de las
situaciones más estudiadas es la analgesia inducida por estrés, algo fácilmente observable
en escenas como las que hemos referido antes (caídas, golpes...) o en los relatos de, por
ejemplo, soldados que en plena batalla sufren una herida y no parecen darse cuenta de
ello hasta que no disminuye la intensidad del enfrentamiento. En este caso, parece que
hay varias áreas cerebrales implicadas que proyectarían a los circuitos medulares a través
de las neuronas de la SGP (Yilmaz et al., 2010). Más curioso es el hecho de que la
atención o el estado de ánimo puedan modificar la percepción del dolor. Es frecuente no
experimentar una sensación de dolor mientras no nos hemos dado cuenta de qué la
222
provoca (no sabemos cómo nos hemos hecho una herida pero una vez que somos
conscientes, cuesta trabajo dejar de prestarle atención). Algo similar ocurre con el estado
de ánimo, un ánimo positivo nos permite afrontar mejor el dolor mientras que estados
depresivos nos llevan a una mayor sensibilidad nociceptiva haciendo que el daño nos
parezca insoportable. Los mecanismos cerebrales que subyacen a estos fenómenos
implican prácticamente a los mismos circuitos aunque también se incluyen aquí
estructuras del sistema de recompensa cerebral (SRC), ya que la relación entre dopamina
y analgesia ha sido probada en diversos estudios (Villemure y Bushnell, 2002). Sin
embargo, no hay todavía consenso sobre el papel que juegan los diferentes circuitos en el
resultado final. Mientras esto se clarifica, habrá que seguir afrontando el dolor con actitud
positiva y no prestarle atención.
En tomo a los 24 meses de vida, los niños son capaces de reconocerse en un espejo o
manifestar emociones como la vergüenza, una clara señal de que son conscientes de sí
mismos como una entidad diferenciada del resto del mundo. Sin embargo, esto no
significa que antes de esa edad no exista ninguna consciencia del propio cuerpo. Hay
indicios que nos permiten comprobar que el niño tiene un sentido implícito de su propio
cuerpo diferenciado del resto. Por ejemplo, un recién nacido reacciona con el reflejo de
succión cuando le acercamos un dedo a los labios y no lo hace cuando se toca él mismo
accidentalmente. Este sentido básico y primitivo de su propia corporeidad se irá haciendo
progresivamente explícito hasta alcanzar una dimensión pública y social a medida que
maduren ciertos circuitos prefrontales (Rochat, 2010). Parece que la consciencia del
propio cuerpo no ocurre de manera intrínseca, sino que se va desarrollando en relación
223
con el entorno tanto físico como social, es decir, mediante un proceso de aprendizaje.
Los bebés aprenden progresivamente a percibir su propio cuerpo como entidad
diferenciada de los demás a base de interacciones gratificantes tanto para el niño como
para sus padres, como es el caso de los juegos cara a cara, ocultaciones (cucu, tras...) o
el contacto físico intencionado.
Manos Tsakiris, propone un modelo neurocognitivo para explicar cómo tiene lugar en
el cerebro la sensación del propio cuerpo (body-ownership), es decir, por qué somos
conscientes de que nuestro cuerpo es nuestro (Tsakiris, 2010). Basa su modelo en tres
ideas fundamentales:
-Existe una representación previa del cuerpo (primitiva) almacenada en nuestro cerebro
que permite distinguir nuestro cuerpo del mundo exterior (idea básica de nuestro
cuerpo y sus fronteras). Esta representación implicaría a circuitos temporoparietales
del HD.
224
consiste en hacer creer a una persona que una mano de goma es su propia mano. Para
ello, colocamos al sujeto con ambas manos apoyadas sobre la mesa, pero una de ellas la
ocultamos de su vista con una mampara; en la supuesta posición que le correspondería,
colocamos una mano de goma tapada con ropa de manera que simule ser la propia mano
del sujeto. Estimulamos suavemente y de manera simultánea ambas manos, la real
(oculta a la vista del sujeto) y la de goma. Esto hace que el sujeto llegue a considerar la
mano de goma como propia, algo que queda patente cuando simulamos golpearla y
vemos como el sujeto experimenta un sobresalto. Para que esta ilusión ocurra es
necesario que la mano de goma esté colocada en una posición y postura anatómicamente
congruentes, ya que, si ponemos la mano en una postura anatómicamente imposible, por
ejemplo, en ángulo de 900 con respecto al brazo o a una distancia impropia, aunque
estimulemos de manera adecuada la ilusión no se produce.
225
encima o debajo de la mesa). A este respecto, la información cinestésica y propioceptiva
es fundamental para integrar postura y movimiento y es la CPP la responsable de
actualizar constantemente la representación corporal en el espacio (Bolognini y Maravita,
2007) para optimizar el movimiento y las interacciones con los objetos del entorno
(esquivar la mesa).
También necesitamos formar una representación de las relaciones existentes entre los
objetos que hay en el espacio y nuestro cuerpo, lo cual nos permitiría saber si un objeto
está o no al alcance de la mano o planificar movimientos dependiendo de si vamos
cargados o no. Por ejemplo, realizamos movimientos ligeramente diferentes al cruzar una
puerta si vamos descargados o con maletas en las manos ya que calculamos su tamaño
como una extensión de nuestro cuerpo. Para establecer estas relaciones entre los objetos
y el cuerpo, el cerebro recurre a dos tipos de estrategias (Neggers et al., 2006). Por un
lado, circuitos de la corteza parietal estiman la distancia que hay entre los objetos y el
propio cuerpo (estrategia egocéntrica); por otro lado, circuitos localizados en el lóbulo
temporal, incluido el hipocampo, se encargan de calcular las distancias entre los objetos
independientemente del observador (estrategia alocéntrica). La integración de ambas
estrategias, con participación de la corteza prefrontal, permite la reconstrucción del
espacio y de los objetos que nos rodean.
9.2. Gusto
El sentido del gusto permite que los animales sean capaces de diferenciar los alimentos
comestibles de los tóxicos y actuar en consecuencia. La capacidad para discriminar
estímulos gustativos es muy reducida si la comparamos con el resto de los sentidos; solo
se han identificado cinco tipos de receptores para el gusto. Algo diferente es cuando
hablamos de los sabores, que son muchos pero que resultan de la activación combinada
de estos receptores más el componente olfativo de los alimentos (con los resfriados todo
parece más insípido). Supone un salto cualitativo importante ya que los seres humanos
no dependemos del gusto para identificar los alimentos comestibles (confiamos en los
controles sanitarios y en las etiquetas) y hemos desarrollado toda una cultura
gastronómica, cultural y social en torno a los sabores.
Las sustancias químicas que componen los alimentos tienen que disolverse en la saliva
para poder alcanzar las papilas y llegar hasta los receptores gustativos, por eso, con la
lengua seca cuesta más apreciar el sabor de los alimentos. Los receptores para el gusto
son células especializadas que se agrupan formando los botones gustativos, los cuales se
encuentran en número variable en el interior de las papilas (es frecuente, por error,
considerar las papilas como receptores para el gusto). En cada botón gustativo puede
haber entre 50 y 100 células receptoras que se regeneran cada 10 días aproximadamente
(ver Scott, 2005). Aunque somos capaces de discriminar muchísimos sabores solo se han
identificado cinco tipos de receptores para el gusto: dulce, ácido, salado, amargo y
umami. El umami se ha incorporado recientemente al demostrarse claramente su
226
presencia. Su nombre proviene del japonés y se traduciría como sabor delicioso (el
jamón ibérico contiene umami). Es un receptor que responde al aminoácido glutamato y
de manera menos específica a otros aminoácidos. Evolutivamente, el sabor dulce y el
umami son indicadores de sustancias nutritivas y agradables al paladar, mientras que el
sabor amargo lo es de alimentos en mal estado o tóxicos. Podríamos decir que hay tres
tipos de células gustativas que responden de manera específica a estos sabores (Scott,
2004). ¿Qué ocurre entonces con los estímulos salados y ácidos o agrios? No se han
identificado receptores específicos para estos estímulos ya que los tres mencionados no
responden a ellos. Parece que los estímulos ácidos y agrios abren directamente canales
fónicos en las células receptoras (Bigiani et al., 2003; Miyamoto et al., 2000). Una
especulación evolutiva sostiene que estos estímulos permiten al animal detectar sales
minerales necesarias para mantener el equilibrio homeostático del organismo y reponer
las pérdidas.
Está muy asentada la creencia errónea de que las sensaciones gustativas se localizan en
partes diferentes de la lengua. Así, el dulce se localizaría en la parte anterior de la lengua,
el ácido y el salado en los lados o el amargo en la parte posterior. Es fácil demostrar el
error si acercamos un poquito de sal a la punta de la lengua. Se puede experimentar
cualquier sabor en toda la superficie de la lengua (Smith y Margolskee, 2001). Se ha
comprobado que los receptores gustativos pueden responder a distintas moléculas
químicas; por eso, los diferentes sabores parecen ser más el resultado de una
combinación de patrones de actividad de los receptores que de la activación específica de
un grupo de ellos (Verhagen, 2007; Verhagen y Engelen, 2006). Células gustativas
localizadas en varios botones gustativos diferentes proyectan de manera convergente
hacia neuronas bipolares. Las sensaciones gustativas son conducidas al cerebro a través
de varios nervios; el VII par craneal (facial), que transmite las sensaciones gustativas de
la parte anterior de la lengua y del paladar blando; el nervio glosofaríngeo (IX par) desde
las regiones posterior y lateral y el nervio neumogástrico o vago (X par), que transmite
señales gustativas desde la laringe y la epiglotis (Scott, 2005). Estas fibras convergen en
el núcleo del trato solitario del tronco del encéfalo, el cual proyecta al núcleo talámico
ventral posterolateral y, desde ahí, a la corteza gustativa primaria localizada en el
opérculo frontal y la ínsula.
La corteza gustativa primaria responde no solo ante estímulos de esta modalidad sino
también ante la temperatura, la textura e incluso estímulos olfativos (De Araujo y Rolls,
2004; Small et al., 2004). Un área gustativa secundaria se ha localizado en la corteza
orbitofrontal y podría estar relacionada con la valoración emocional que guía nuestra
conducta alimentaria y la selección de alimentos. La corteza orbitofrontal integra
información gustativa y olfatoria pero también otras características de los alimentos como
la temperatura o la textura (Kadohisa et al., 2004), lo que significa que podría ser una
región crítica para determinar si un alimento es agradable al paladar o no. Según esto,
parece que la corteza gustativa primaria procesaría la identificación y la intensidad de los
227
sabores y la corteza secundaria los aspectos emocionales vinculados al sabor de los
alimentos. Además, regiones como el hipotálamo y la amígdala reciben aferencias
gustativas desde otros relevos gustativos en el tronco del encéfalo. Esto ha llevado a
proponer la existencia de dos vías gustativas diferenciadas pero relacionadas, una que se
ocuparía del procesamiento gustativo en sí y otra de tipo emocional relacionada con el
refuerzo o la aversión que evocan los alimentos (Sewards, 2004; Yamamoto et al.,
1994). Además, para añadir complejidad al circuito, se ha confirmado algo recurrente en
los sistemas sensoriales: hay proyecciones top-down desde áreas corticales a los relevos
gustativos iniciales (Hayama y Ogawa, 2001). Como decíamos al principio del capítulo,
el gusto es algo más que la mera activación neuronal ante cinco grupos de moléculas y es
un sistema estrechamente implicado en conductas motivadas tanto en los seres humanos
como en otros animales.
9.3. Olfato
Los receptores para el olfato se encuentran en el epitelio olfativo, una región de unos 2-3
cm2 situada en la parte superior de la cavidad nasal. Está compuesto por tres tipos de
células, receptoras, de sostén y basales. Las células receptoras contienen cilios que se
hallan inmersos en la mucosa que recubre el epitelio; esto significa que las moléculas
odoríferas deben atravesar este moco para alcanzar el epitelio y que, si varían sus
condiciones, puede variar la capacidad olfatoria (pensemos en el resfriado). El segundo
tipo de células son de sostén, aíslan las neuronas receptoras unas de otras e intervienen
en la constitución de moco y en la protección del epitelio ante agresiones externas. Por
último, las células basales se localizan en la base de la mucosa configurando la estructura
por donde emergen las otras células (Doty, 2001). En el epitelio olfativo, las moléculas
olorosas se acoplan a los receptores de las neuronas sensoriales cuyos axones proyectan
a los glomérulos del bulbo olfatorio para establecer sinapsis con células mitrales, un tipo
de neuronas denominadas así por la forma de su soma y que se localizan en esta región.
Los glomérulos son agrupaciones de dendritas de las células mitrales y terminales
axónicos estrechamente interconectados que se distribuyen por todo el bulbo olfatorio.
Las células receptoras del epitelio olfativo son neuronas bipolares cuyos axones forman
el nervio olfatorio. Poseen la capacidad de regenerarse, por lo que en el epitelio olfativo
podemos encontrar células jóvenes, células adultas y células muertas en cualquier
momento del desarrollo. Esto es porque al ser células expuestas al exterior, son
especialmente vulnerables a agentes infecciosos y tóxicos. El bulbo olfatorio es uno de
los lugares donde se produce neurogénesis durante toda la vida, continuamente están
apareciendo nuevas neuronas que son necesarias para la integridad de este sistema. Entre
otras funciones, se ha podido demostrar su papel en el mantenimiento de los circuitos del
bulbo olfatorio ya que reemplazan a las neuronas que van muriendo. Pero además,
parecen jugar un papel relevante en procesos de memoria y aprendizaje olfativo (Lazarini
y Lledo, 2011).
228
Los axones de las células receptoras forman fibras olfativas que atravesando la placa
cribiforme, un hueso perforado de la base del cráneo, proyectan al bulbo olfatorio. En el
bulbo olfatorio están los glomérulos, a donde llegan los axones de las células receptoras
para establecer sinapsis con otro tipo de neuronas, las células mitrales. Los axones de
estas células forman el tracto olfatorio y se dirigen a diversas regiones como el núcleo
olfatorio anterior, la amígdala, la corteza piriforme y la corteza entorrinal, todas ellas
consideradas conjuntamente como la corteza olfativa primaria y localizadas en el lóbulo
temporal medial y en la base del frontal (Doty, 2001; Gottfried, 2010). Desde esta
corteza primaria, las proyecciones se dirigen a la corteza orbitofrontal y a otras regiones
como el hipotálamo, la corteza perirrinal y el hipocampo. Ya vimos que el sistema
olfativo no establece relevo en el tálamo antes de llegar a la corteza cerebral. En este
caso, existe una vía secundaria que se dirige al núcleo dorsomedial del tálamo y de ahí a
la corteza orbitofrontal, en la misma zona donde se reciben las aferencias de la corteza
olfativa primaria (Price y Slotnick, 1983; Doty, 2001). Parece que el tálamo no estaría
implicado en tareas de detección olfatoria, pero sí en la identificación de estímulos o en
las sensaciones agradables producidas por ciertos olores (Sela et al., 2009). Las
conexiones olfatorias con áreas prefrontales y límbicas ponen de manifiesto el valor de
este sistema sensorial en las conductas emocionales.
Stevenson y Wilson (2007) acuñaron el término "objetos olfativos" para referirse tanto
al olor en sí como a la fuente que lo produce, y de esta manera poder simplificar el
concepto estimular que tan escurridizo es en este sistema sensorial. En nuestro entorno
podemos percibir gran cantidad de olores como consecuencia de las infinitas posibles
mezclas de partículas olorosas que pueden alcanzar los receptores olfativos. Según los
trabajos de Leslie M.Kay y su equipo, las propiedades físicas de estas mezclas y un
cierto grado de solapamiento de la acción de unas partículas sobre otras a la hora de
estimular los receptores, hace que el sistema olfativo elabore una configuración
perceptiva de carácter más global en vez de percepciones olfativas elementales (Kay et
al., 2005). Esto significa que, ya desde los primeros niveles perceptivos, se elaboran una
especie de patrones olfativos que luego darán lugar a las correspondientes
representaciones corticales para esos olores. Pero es que además, la acción de un "objeto
olfativo" sobre los receptores de la nariz puede cambiar ligeramente en función de
factores como la temperatura o la humedad del aire, los cuales pueden modificar las
características físicas de las partículas volátiles y ocasionar diferencias perceptivas en la
sensación olfativa. También en este caso existen proyecciones desde la corteza piriforme
hacia el bulbo olfativo (Markopoulos et al., 2012; Oswald y Urban, 2012), las cuales no
solo modulan las señales olfativas ascendentes, sino que también podrían participar en
funciones de "reseteado olfativo". Se ocuparían de eliminar rastros olfativos previos y así
preparar al epitelio para una nueva estimulación. Quizá esto ayude a comprender por qué
el olfato es un sentido que se adapta tan rápidamente a los olores; pensemos en lo que
ocurre cuando entramos en una estancia con un olor determinado y cómo, a los pocos
minutos, no detectamos ese olor con la misma intensidad. El sistema olfativo tiene una
229
burra capacidad para detectar cambios olfativos y para ello necesita borrar rápidamente la
estimulación anterior.
230
231
El movimiento es la expresión del funcionamiento de muchos circuitos del SN y el
componente del comportamiento más fácil de estudiar y describir porque es observable.
Otra cosa es comprender los mecanismos neurales que subyacen a los movimientos y
acciones, ahí nos vamos a encontrar con más dificultades como consecuencia de las
lagunas de conocimiento que persisten todavía. Es conveniente diferenciar entre
movimientos y acciones, considerando los primeros como actividad muscular simple o
básica (flexión de un dedo, giro de cuello...) y las segundas como conductas motoras más
o menos complejas que sirven a un propósito e integran varios movimientos. Cuando
hablamos de actividad motora en general pensamos en actos sencillos o más complicados
pero sin paramos a analizar toda la complejidad intrínseca que conlleva la realización
precisa de los mismos. Solamente pensemos en la actividad sensorial (por ejemplo, visual
o somatoestésica) que desplegamos junto a un acto motor cuyo objetivo es alcanzar un
objeto.
232
dos láminas de tejido que se denominan discos Z; en su interior hay dos tipos de
filamentos, unos delgados formados por una proteína llamada activa y que están
adheridos al disco Z y otros gruesos de miosina intercalados entre los anteriores. Cuando
llega un impulso nervioso a la fibra muscular, los filamentos de activa y miosina se
desplazan unos sobre otros (existen unas moléculas adherentes que actúan como ganchos
tirando de los filamentos) y así se acorta la longitud del sarcómero. Como esto ocurre
simultáneamente en muchos de ellos, se produce una contracción de las fibras
musculares.
Una unidad motora está formada por una motoneurona y el conjunto de fibras
musculares que inerva. Las unidades motoras que se ocupan de movimientos finos y
precisos están formadas por una neurona y pocas fibras musculares, mientras que las
unidades motoras con muchas fibras musculares proporcionan mucha menos versatilidad
a los músculos. Por ejemplo, las unidades motoras de los músculos que mueven los ojos
poseen entre 3 y 6 fibras motoras, mientras que en el tronco o las piernas podemos
encontrar unidades motoras formadas por varios cientos de fibras musculares cada una.
Según esto, hablamos de proporción o tasa de inervación (el cociente entre el número de
neuronas aferentes y el de fibras musculares); así, en músculos donde predominan
unidades motoras de pocas fibras, la tasa de inervación es alta (dedos de las manos)
mientras que en el músculo donde predominan unidades motoras con muchas fibras, la
tasa es baja (espalda). Las fibras musculares pueden ser rápidas o lentas, las primeras se
contraen rápidamente pero dura poco tiempo porque se "fatigan" fácilmente al cabo de
unas pocas estimulaciones (por ejemplo, las de los músculos de los ojos); las lentas, por
el contrario, experimentan una contracción más lenta pero son mucho más resistentes y
pueden responder durante mucho más tiempo (las de los músculos implicados en el tono
postural y la marcha).
233
Figura 10.1. Esquema de una miofibrilla y ampliación de un sarcómero (A). Cuando llega
el impulso nervioso, los filamentos se desplazan y el sarcómero se acorta (B).
234
Figura 10.2. Esquema de las estructuras que forman parte del sistema motor. En
diferentes tonos de sombreado aquellas que intervienen directamente en la transmisión de
las órdenes motoras. La línea discontinua hace referencia a distintos grados de
modulación de las señales motoras.
Otras estructuras como el cerebelo o los ganglios basales actúan modulando las señales
corticales para proporcionar coordinación, sincronía y la fuerza adecuada al movimiento
ejecutado. También hay que tomar en consideración la intervención de núcleos del
tálamo y del hipotálamo a la hora de propiciar y regular el componente motor de ciertas
conductas, por ejemplo, durante una crisis de ansiedad.
235
ejecutarla, la corteza motora.
236
Figura 10.3. Áreas corticales implicadas en la motricidad.
Las neuronas de M1 envían señales descendentes hacia los núcleos del tronco del
encéfalo y de la médula espinal (ver Lemon, 2008) desde donde salen moto neuronas a
los músculos. El principal grupo de axones descendentes se denomina fascículo
corticoespinal, por dirigirse a la médula espinal. La mayor parte de ellos decusan a la
237
altura del bulbo raquídeo, en la decusación de las pirámides bulbares; por eso este
fascículo recibe también el nombre de piramidal, aunque parte de las fibras no decusan
en esta zona. El tronco del encéfalo recibe proyecciones corticales y desde varios de sus
núcleos emergen fascículos motores descendentes (Kuypers, 1981) como el tectoespinal
(desde el colículo superior o tectum), el rubroespinal (desde el núcleo rojo), el
vestibuloespinal (desde los núcleos vestibulares) o el reticuloespinal (desde núcleos de la
formación reticular). Algunas de estas vías descienden por la porción lateral de la médula
y se les relaciona principalmente con los movimientos voluntarios de las extremidades,
mientras que otras lo hacen por la porción ventromedial y se les relaciona con la postura,
el equilibrio o la marcha. Algunos estudios recientes cuestionan esta segregación
funcional tan marcada y consideran que ciertas vías pueden tener implicaciones
funcionales más complejas (Lemon, 2008). Muchas de estas investigaciones se han
realizado con modelos animales y se ha comprobado que existen diferencias en cuanto a
la configuración de las proyecciones motoras; esto nos permite pensar que puede haber
mecanismos adaptativos que hayan contribuido a esas diferencias; por ejemplo, la
bipedestación en algunos vertebrados requiere una cierta reasignación de los circuitos
encargados de la postura y el equilibrio.
En el tronco del encéfalo hay varios núcleos que controlan la motricidad de la cabeza,
enviando sus axones a través de los nervios craneales hacia los músculos de la cara o los
ojos. Los centros motores del tronco del encéfalo están implicados es funciones como la
respiración, la masticación o el habla. La médula espinal es el destino de las fibras
motoras descendentes donde sinaptan con las motoneuronas que se dirigen a los
músculos. Pero la médula es algo más que una mera autopista neuronal por donde suben
y bajan señales nerviosas ya que, aparte de los circuitos locales en el mismo nivel o en
diferentes niveles medulares (mediante interneuronas), las propias motoneuronas
muestran diferentes patrones de actividad que podrían estar relacionados con diferencias
funcionales (Zhu et al., 2012). Además, incluso hay respuestas motoras, los reflejos, que
pueden ocurrir en ausencia de control superior en animales a los que se les ha
desconectado la médula del cerebro o en personas que han sufrido una lesión medular.
238
implicadas en acciones instintivas como la risa, el grito o posturas y movimientos
defensivos. (Wise y Shadmehr, 2002). Es posible que los GPM localizados en la médula
estén implicados en otro tipo de actor motor ya que, por ejemplo, se le atribuye una
participación mayor en la regulación de movimientos complejos (Bizzi et al., 2000)
gracias a, entre otros factores, las redes de interneuronas medulares que regulan los
circuitos ascendentes y descendentes. Hay muchos estudios que demuestran la existencia
de estos circuitos en mamíferos, pero no hay evidencia contundente de su presencia en el
SNC humano. No obstante, hay datos suficientes para suponer que en humanos, al
menos la locomoción está regulada por este tipo de redes (Duysens y van de Crommert,
1998; Dietz, 2003).
El sistema motor cuenta además con otras estructuras que juegan un papel
fundamental para entender el resultado final de los actos motores y cuya lesión altera
significativamente la capacidad de realizar movimientos eficaces y precisos, son los
ganglios basales y el cerebelo. Como ya sabemos, los ganglios basales son un conjunto de
estructuras subcorticales (núcleo caudado, putamen, núcleo pálido...) estrechamente
interconectadas entre sí y con la corteza motora que además mantienen conexiones con
otros núcleos como la sustancia negra del tronco del encéfalo y el núcleo subtalámico.
Las conexiones entre estos centros siguen un patrón más o menos regular ya que la
corteza proyecta al estriado (caudado y putamen), de aquí al núcleo pálido y, este
proyecta al tálamo, el cual envía conexiones de vuelta a la corteza. Se les han atribuido
muchas funciones, entre otras, la de intervenir en la preparación de los movimientos, en
la automatización de los mismos, en la adaptación a situaciones nuevas o en conductas
que proporcionan consecuencias positivas (Brooks, 1995). Su papel preciso sigue siendo
objeto de controversia ya que los resultados, tanto clínicos como experimentales, son
objeto de diferentes interpretaciones. También, desde el ámbito clínico, se les ha
atribuido una función básicamente inhibidora sobre movimientos innecesarios, ya que el
daño en estas estructuras se manifiesta por la presencia de movimientos involuntarios y
otras alteraciones del tono muscular y de la postura. Esto es lo que ocurre en trastornos
como el de Huntington, la enfermedad de Parkinson o el síndrome de Tourette. Sin
embargo, actualmente hay pruebas evidentes de que sus funciones van más allá y con
una complejidad mayor porque las alteraciones en estos circuitos pueden provocar tanto
hiperquinesia como hipoquinesia (Gittis y Kreitzer, 2012). También parecen estar
relacionados con la formación de hábitos (Yin y Knowlton, 2006), es decir, la
automatización de conductas que inicialmente se ejecutan dirigidas a un objetivo pero
que la repetición convierte en automatismos (por ejemplo, accionar el interruptor de la
luz al entrar en una habitación a oscuras). Esto es una forma de aprendizaje, y es que a
los ganglios basales también se les atribuye una cierta implicación en procesos de
aprendizaje motor, al igual que el cerebelo, y de otras modalidades (Doga, 2000). No
obstante, queda todavía mucho que aclarar sobre su participación y la función (o
funciones) que desempeñan estos circuitos.
239
El cerebelo también es una estructura importante del sistema motor y participa en
aspectos muy básicos como el equilibrio o la postura (áreas mediales) y en otros más
complejos como los movimientos intencionados de precisión (áreas laterales). También
se le han atribuido diferentes funciones en la motricidad, como por ejemplo, corrección,
ajuste, determinación de velocidad u orientación de los movimientos o la adquisición de
habilidades motoras (Ito, 2000). En el ámbito clínico, al cerebelo se le implica en
funciones como la iniciación o detención del movimiento, en los movimientos oculares o,
de modo más general, en proporcionar precisión y sincronía a los movimientos, ya que
su lesión no impide la motricidad pero hace que esta se realice de manera imprecisa y
descoordinada. Así, pueden aparecer dificultades para, por ejemplo, agarrar un objeto
pequeño, calcular correctamente la distancia de un objeto que se quiere alcanzar o
coordinar actividades bimanuales. El cerebelo juega un papel importante en el
aprendizaje de habilidades motoras ya que recibe aferencias de la corteza motora, de los
núcleos troncoencefálicos y de los receptores musculares, por lo que puede valorar si un
movimiento ha alcanzado su objetivo o no (por ejemplo, cuando lanzamos un dardo y no
acertamos en el centro de la diana) y corregirlo. Los trabajos de David Marr (1969)
sobre la corteza cerebelosa dieron pie a James S.Albus (1971) a formular la teoría de que
la plasticidad de determinadas conexiones sinápticas en la corteza cerebelosa era la
responsables de lo anterior. El cerebelo compara la información del movimiento realizado
con el movimiento previsto y efectúa las correcciones necesarias que traslada a la corteza
motora para que las incorpore al siguiente intento. Actualmente, con técnicas de
neuroimagen funcional, se ha comprobado que el cerebelo sí se activa cuando el
resultado de una acción no es el previsto (Fautrelle et al., 2011). Por el contrario, su
implicación en los mecanismos de corrección para los intentos sucesivos no están tan
claros pero no se puede descartar de manera radical la explicación que aporta la teoría de
Marr-Albus (Ito, 2000).
240
función de combinaciones y secuencias de estos patrones de actividad básica. Algunos
patrones serán universales (caminar, agarrar objetos, mover los ojos en el campo visual..
.); otros serán más específicos y adquiridos solo por algunas personas (tocar el violín,
tejer...), lo que nos plantea la posible diferenciación entre acciones adaptativas y acciones
idiosincrásicas.
Pero los reflejos de manera aislada no pueden guiar la motricidad de un animal, por
eso se integran en procesos motores más complejos. Por ejemplo, los reflejos
contribuyen al mantenimiento de la postura junto con la actividad de los circuitos que
controlan el tono muscular o el equilibrio. Pensemos en la locomoción; un bebé
manifiesta el reflejo de marcha (si lo sostenemos para que sus pies rocen una cinta
andadora, mueve las piernas como si caminara) pero es incapaz de desplazarse porque
no ha integrado ese reflejo en un patrón más complejo que incluye el control del
equilibrio, la fuerza necesaria y adecuada para sostener el cuerpo y la coordinación de
todo ello durante una trayectoria, procesos en los que intervienen los circuitos superiores
(Windhorst, 2009). Con el aprendizaje posterior será capaz de ello y además también
será capaz de correr, saltar o evitar obstáculos eficazmente, señal de que ha adquirido un
patrón motor complejo a partir de la integración de movimientos o patrones más
sencillos.
241
Figura 10.4. Esquema de un reflejo monosináptico y otro polisináptico.
242
Nuestra corteza motora almacena multitud de patrones motores que se han ido
adquiriendo mediante aprendizaje sobre la base de respuestas motoras primarias
(reflejos). Un patrón motor se puede entender como una secuencia rítmica y repetitiva de
actividad en las neuronas motoras corticales que tiene lugar durante un acto motor real o
imaginado. De manera similar a cómo construimos representaciones perceptivas a partir
de la integración de múltiples detalles, también las representaciones motoras se
configuran a partir de movimientos simples. Los patrones motores no son acciones
cerradas sino que codifican aspectos generales del movimiento que luego aplicamos en
cada situación ajustándolos a las características de la misma. El almacenamiento de estos
patrones nos permite ejecutar multitud de habilidades motoras de manera prácticamente
automática, lo cual libera recursos cerebrales para atender a otros estímulos o ejecutar
otros procesos cognitivos simultáneamente. Pensemos en un niño pequeño que está
aprendiendo a caminar; necesita poner toda su atención en mantener el equilibrio, en
adaptar el balanceo de su cuerpo o en alternar adecuadamente los movimientos de
piernas. Después de un tiempo de práctica, es capaz de integrar todas estas habilidades al
tiempo que habla, juega o planea otras acciones.
Vemos que una acción voluntaria requiere una planificación, a partir de información
sensorial y propioceptiva, que pone en marcha diferentes patrones motores aprendidos
que podemos ajustar según la situación. Pero para comprender completamente cómo se
243
lleva a cabo una acción voluntaria es importante insistir en el papel que juegan los
circuitos parietales y las aferencias somatosensoriales que llegan a la corteza motora y
prefrontal (Desmurget y Sirigu, 2009; Rushworth et al., 2003). La planificación y
ejecución de un acto motor requiere constante información acerca de la posición de
brazos y piernas, algo de lo que se ocupan los circuitos parietales que contienen una
representación del propio cuerpo y de su posición en el espacio además de información
actualizada sobre el estado de músculos y tendones. También posee representaciones del
espacio que nos rodea y de la posición relativa de los objetos en el mismo. Todo ello,
junto con la información sensorial (sobre todo visual) es utilizado en la planificación de
los movimientos. Pero esta habilidad también es el resultado de un proceso de
aprendizaje. Un estudio con niños de entre 7 y 13 años (Kinga et al., 2010) demostró
que en edades tempranas utilizan preferentemente la información visual para planificar
sus movimientos mientras que en edades más avanzadas utilizan la información
propioceptiva somatosensorial. Esto es consecuencia de la mejora en la utilización de
información somatosensorial que permite una progresiva independencia de los recursos
visuales para destinarlos a otras necesidades.
En el entorno educativo uno de los cuadros que supone el mayor desafío rehabilitador
es la parálisis cerebral (PC). Consiste en una alteración del sistema motor producida por
244
una lesión cerebral ocurrida cuando el cerebro está aún en desarrollo y que afecta a la
postura y a la motricidad. No se trata de un trastorno progresivo, aunque por ocurrir
durante el desarrollo cerebral, la sintomatología podría hacer que lo pareciera en los
primeros años postnatales. Como el cerebro está en desarrollo no se puede determinar el
alcance de la discapacidad sino que, a medida que van creciendo estos niños, se va
valorando si alcanzan o no los hitos del desarrollo motor en el momento en que deberían
hacerlo. El daño cerebral puede ocurrir durante el periodo prenatal, en el postnatal
temprano o durante el parto, siendo una de las causas más frecuentes la anoxia. Los
niños con PC tienen dificultades en el control del movimiento y la postura, alteraciones
del tono muscular y una serie de trastornos sensoriales, cognitivos y comportamentales
que, en mayor o menor medida, pueden acompañar a aquellos (Rosenbaum et al., 2007).
Es fundamental resaltar que la PC no implica retraso mental. Es cierto que las
dificultades sensoriales o cognitivas (cuando están presentes, que no ocurre siempre)
pueden lastrar su desarrollo intelectual, pero estos niños, con sus dificultades motoras o
de otro tipo, son perfectamente educables e, incluso, bastantes de ellos pueden
desarrollar un nivel intelectual y académico considerable.
245
cognitivo (por ejemplo, parálisis, debilidad, deficiencia sensorial o trastorno mental) que
pueda explicar el déficit. Se considera que el movimiento alterado debe ser voluntario,
aprendido y con un propósito (se descartan así automatismos) y la dificultad se puede
manifestar de diferentes maneras, el paciente puede ser incapaz de realizar un
movimiento siguiendo órdenes verbales, imitar un movimiento observado, utilizar un
objeto o simular que lo utiliza (CalvoMerino, 2008). El paciente no puede realizar un
movimiento que antes de una lesión cerebral sí podía y sabía hacer, por ejemplo, le
pedimos que simule pasarse un peine por la cabeza y es incapaz de hacerlo. Sin embargo,
a veces resulta difícil comprobar el déficit ya que en algunos casos, estos pacientes son
capaces de realizar ese movimiento de manera automática; si le ponemos frente a un
espejo con un peine en la mano, probablemente se lo pasaría por la cabeza. Y es que hay
diferentes tipos de apraxia. Los intentos por clasificarlos han sido poco fructíferos porque
no hay un consenso generalizado a la hora de establecer los criterios de clasificación, ya
que las manifestaciones clínicas pueden ser muy variopintas y a las mencionadas se
pueden sumar, por ejemplo, la incapacidad de simular el uso de herramientas, relacionar
objetos que participen en un acto motor (una pelota y una raqueta) u ordenar viñetas que
representen una acción con sentido. Tampoco es fácil delimitar una región cortical que
explique las dificultades de un paciente apráxico ya que se han identificado diferentes
áreas, tanto anteriores como posteriores, cuya lesión ocasiona algún tipo de dificultad de
estas características (Goldenberg y Karnath, 2006).
246
247
El proceso educativo es una sucesión de aprendizajes cognitivos, motores y
emocionales que van a contribuir a la formación de un individuo autónomo e
independiente en una sociedad determinada. Por ese motivo, comprender el proceso de
aprendizaje y la importancia de la memoria como soporte del mismo es fundamental en
el ámbito educativo. El cerebro está diseñado para aprender. Filogenéticamente, surge de
la necesidad de almacenar información para no tener que ensayar patrones de conducta
una y otra vez como comprobar si un alimento es comestible o si otro ser vivo es un
potencial depredador. En un mundo complejo, solo un sistema que permita almacenar y
clasificar información de manera eficaz permitirá al individuo optimizar su conducta e
incrementar sus probabilidades de sobrevivir.
248
farmacológico al que se veía sometido. Para paliar esta situación, cuando tenía 27 años
se sometió a la extirpación bilateral de la porción medial de ambos lóbulos temporales,
afectando al hipocampo. Como consecuencia de esta intervención, padeció una severa
amnesia anterógrada, es decir, una severa incapacidad para recordar acontecimientos
ocurridos con posterioridad a la operación. Conservaba una memoria aceptable para
sucesos ocurridos antes de la operación, sobre todo aquellos que se remontaban a su
infancia y Juventud, pero era incapaz de formar nuevos recuerdos, no podía retener la
información por períodos duraderos de tiempo. Brenda Milner fue quien realizó la mayor
parte de las exploraciones neuropsicológicas poniendo de manifiesto la relación entre la
memoria y las estructuras mediales del lóbulo temporal (Scoville y Milner, 1957). Los
datos aportados sobre H. M. y la implicación del hipocampo en la memoria fueron
fundamentales a la hora de acotar el estudio neurocientífico de este proceso cognitivo.
A partir de estudios con pacientes que sufrían lesiones similares a las de H. M. se puso
de manifiesto que cuando las lesiones eran unilaterales o la porción de hipocampo
afectado era menor, no aparecía una amnesia tan severa. Además, H. M. era capaz de
recordar acontecimientos de su niñez y podía aprender determinadas tareas perceptivas y
motoras (escritura en espejo, puzles...), aunque no recordara haber realizado esas tareas
antes. Esto puso de manifiesto que no toda la capacidad de memoria, y por tanto de
aprendizaje, resultaba afectada como consecuencia de la extirpación del lóbulo temporal
por lo que debían existir otros tipos de aprendizaje o formas de memorizar. En los
párrafos siguientes abordaremos los diferentes tipos de aprendizaje y los sistemas de
memoria que los soportan. No deja de ser una organización algo artificial en aras de
facilitar su estudio ya que, por un lado, las fronteras no están claras entre unos tipos y
otros, y por otro lado, resultan casi indisolubles aprendizaje y memoria. Por ese motivo,
la clasificación de tipos de aprendizaje se basa más en manifestaciones conductuales
mientras que el estudio de los sistemas de memoria tiene una tradición neuropsicológica
basada en la sintomatología clínica de pacientes con daño cerebral.
249
elementales pero también podemos acudir a ejemplos más cotidianos. Es probable que en
alguna ocasión, si hemos cambiado de domicilio, hayamos tenido dificultades para
conciliar el sueño como consecuencia de ruidos que no nos resultan familiares; al cabo de
pocos días, nos hemos acostumbrado a esos ruidos, nos hemos habituado, reduciendo la
respuesta de sobresalto que nos producían los primeros días. La respuesta de
sensibilización es un poco más compleja. Se trata de una intensificación de la respuesta a
un estímulo cuando previamente se ha experimentado otro estímulo nocivo o aversivo.
Por ejemplo, la pérdida de un ser querido en un accidente de tráfico puede sensibilizamos
hacia noticias similares y responder de un modo emocionalmente más intenso que como
lo hacíamos antes. Hemos recurrido a ejemplos que implican una complejidad cognitiva
mayor de la que poseen en realidad estos procesos, que son meras respuestas reflejas, en
aras a una mejor comprensión de ambos conceptos.
En el caso del aprendizaje asociativo podemos hacer más subdivisiones, ya que las
relaciones entre elementos pueden adoptar múltiples configuraciones:
250
deducido implícitamente aunque las apliquen de manera incorrecta (he decido, por
he dicho).
A partir de las observaciones realizadas en pacientes con lesión cerebral parecía quedar
clara la idea de que la memoria tampoco es un proceso unitario sino que existen diversos
sistemas que van a servir de soporte a los diferentes tipos de aprendizaje. En estos
pacientes se veía de manera recurrente que podían presentar alteraciones para un tipo de
recuerdo mientras permanecía intacto otro; por este motivo se empezó a hablar de
sistemas de memoria. Si bien fue el caso HM el que propició esta distinción, existían
antecedentes ya que T.A.Ribot (1839-1916) en 1881 afirmó que las funciones superiores
de memoria eran competencia de la corteza cerebral mientras que la memoria automática
lo era del tronco cerebral.
Existen varias dicotomías de la memoria para diferenciar aquella que se altera en las
lesiones del lóbulo temporal medial de la que permanece indemne. La división entre
sistemas de memoria más unánimemente aceptada es la que establece un sistema de
memoria explícita y otro de memoria implícita que también se pueden denominar como
memoria declarativa y no declarativa (Graf y Schacter, 1985; Squire, 1992). La primera
es una memoria referida a hechos y acontecimientos (conocimiento en general) que opera
conscientemente, puede ser compartida mediante enunciados declarativos (de ahí su
nombre) y es el soporte para el aprendizaje relacional. La segunda se adquiere con la
práctica y la repetición y tiene que ver con la adquisición de habilidades, destrezas y
rutinas. Solo podemos observar sus efectos mediante la mejora en la ejecución de las
tareas entrenadas motivo por el que también se la denomina memoria no declarativa. La
memoria explícita se adquiere con relativa facilidad pero es inestable y está sujeta a
múltiples interferencias. Por el contrario, la memoria implícita se adquiere lentamente con
la práctica y la repetición, pero es más resistente y estable durante largos periodos de
tiempo. Como ya hemos apuntado, estas distinciones no se pueden considerar en sentido
estricto ya que es difícil establecer una frontera claramente diferenciada en la
intervención de ambos sistemas a la hora de afrontar cualquier tarea. Existe un alto grado
de interrelación y, en la mayoría de los aprendizajes, se manifiestan ambos en mayor o
menor medida. Pensemos por ejemplo cuando aprendemos a conducir un vehículo; al
tiempo que adquirimos destrezas sensoriomotoras somos conscientes del momento en
que esto ocurre y almacenamos información explícita acerca de ello. Todavía podemos
hacer una división más dentro de la memoria explícita entre memoria episódica y
semántica (Tulving, 1972). La memoria semántica se refiere al conocimiento general de
hechos y conceptos, información genérica acerca del mundo que no está vinculada a
251
coordenadas espaciotemporales de ningún tipo. Por ejemplo, sabemos que un león es un
mamífero y que un paraguas nos protege de la lluvia. Por el contrario, la memoria
episódica está formada por el conjunto de recuerdos referidos a acontecimientos
ocurridos en algún momento y lugar de la vida del individuo, por eso a veces se
denomina memoria autobiográfica.
252
visual demostrando que tanto las áreas primarias como las asociativas son fundamentales
para el aprendizaje de discriminación de estímulos (Kumano y Uka, 2013; Pourtois et al.,
2008). No obstante, también hay estudios que demuestran la participación de la corteza
sensorial auditiva en el aprendizaje discriminativo con estímulos auditivos (Berlau y
Weinberger, 2008; Weinberger, 1998). El aprendizaje perceptivo incorpora elementos
automatizados o semiconscientes, como es el priming, una especie de facilitación
perceptiva hacia estímulos previamente experimentados en contextos diferentes que está
soportado por la corteza sensorial correspondiente y que implica la activación de una
representación neural previamente adquirida. Es decir, la exposición a una determinada
palabra (forma escrita o fonológica) en un momento dado activa la representación
formada previamente en el cerebro (aprendizaje perceptivo) o, si se trata de un estímulo
desconocido, establece un esbozo de una nueva representación neural. Esta activación
reciente podría, de algún modo, "colocar" a dicha representación con cierta ventaja para
reactivarse cuando se presenta una parte del estímulo en un ensayo posterior. Por
ejemplo, vemos la palabra PREMIO en una lista previa y luego, en un ensayo posterior
en el que debemos completar palabras, aparece PRE. A la hora de generar elementos que
cumplan el criterio de la tarea, sería más probable que evoquemos una representación
activada recientemente (PREMIO) que otras que, cumpliendo también el criterio, no
hayan sido activadas en un periodo de tiempo mayor (PRETEXTO, PRESA...). Este
fenómeno ha alcanzado mucha relevancia por estar preservado en pacientes que han
sufrido lesiones en el lóbulo temporal medial (LTM), pero al fin y al cabo, parece que es
el componente más automatizado del aprendizaje perceptivo que no siempre requiere un
procesamiento consciente, algo obvio si tenemos en cuenta el valor adaptativo que ha
tenido, a lo largo de la evolución, la automatización del aprendizaje perceptivo para la
supervivencia.
253
ante un estímulo inocuo que ha sido condicionado por el procedimiento anterior (por
ejemplo, las fobias), se ha demostrado que la participación de la amígdala es fundamental
(Cahill et al., 1999; Maren, 1999). En ambos tipos de condicionamiento, tanto la lesión
del cerebelo como la de la amígdala suprimen la aparición de la respuesta condicionada
pero no afecta a la respuesta incondicionada, lo que demuestra su papel esencial en este
tipo de aprendizajes.
254
activarían aquellas áreas más directamente implicadas en la ejecución de la tarea para,
progresivamente, dar paso a circuitos que se encargarían de una cierta automatización de
la misma.
Aunque hay discrepancias y los casos clínicos no son numerosos, hay evidencias de
que existen circuitos neurales separados para la memoria semántica y la episódica. Las
estructuras temporales son cruciales en ambos tipos de memoria, sin embargo, también
ciertas regiones dentro del lóbulo frontal juegan un papel importante en la memoria
episódica. También es muy conocido el caso K. C., un paciente que sufrió un
traumatismo craneoencefálico (TCE) como consecuencia de un accidente de moto
255
(Rosenbaum et al., 2000). Después del accidente sufría una importante amnesia
retrógrada y anterógrada para acontecimientos autobiográficos, mientras que el
conocimiento semántico y el aprendizaje implícito estaban conservados. Las lesiones
afectaban al LTM pero también a regiones corticales. Algo similar ocurrió con el paciente
M.L., también sufrió un TCE al ser atropellado por un coche cuando montaba en
bicicleta (Levine et al., 1998). En este caso, se localizaron lesiones en la región ventral
del lóbulo frontal, afectando al fascículo uncinado que comunica regiones frontales y
temporales. Aunque los pacientes con daño selectivo en el lóbulo prefrontal no presentan
una amnesia profunda, sí tienen una gran dificultad para recordar cuándo y dónde han
ocurrido acontecimientos recientes, o para recordar el orden temporal de una serie de
acontecimientos. Pueden presentar lo que se denomina amnesia de fuente o de origen
(del inglés, source amnesia) en la cual los pacientes pueden adquirir nueva información
pero cometen errores al recordar cuándo o dónde la han aprendido.
Tanto las estructuras mediales del lóbulo temporal como las diencefálicas no
constituyen el depósito definitivo de los recuerdos sino que formarían parte de un circuito
encargado de consolidar la memoria explícita, esto es, de pasar la información de un
almacén temporal inestable a otro más estable a largo plazo. Estos recuerdos se
almacenarían en las áreas corticales que participan en su codificación después de haber
pasado por el mencionado circuito. Hay bastantes evidencias de que la memoria se
almacena en redes ampliamente distribuidas de neuronas corticales que pueden solaparse
(formar parte de diferentes redes o recuerdos) y configurarse de infinitas maneras, lo que
le proporciona a cada individuo su memoria personal y única (Frankland y Bontempi,
2005; Fuster, 1997 y 2000a; McClelland et al., 1995). Por este motivo, ni Franz ni
Lashley pudieron encontrar la huella de memoria en el cerebro, porque casi todo el
cerebro es la huella.
256
al curso temporal de la memoria.
Uno de los aspectos que queda fuera de toda duda es el de que no existen dos
almacenes separados para la memoria a corto y a largo plazo. Parece poco probable que
en nuestro cerebro existan circuitos cerebrales distintos para almacenar una misma
representación mental, por un lado de manera inestable y por otro como un recuerdo casi
permanente. ¿Se necesita un circuito neural para codificar el concepto "manzana" y otro
para el recuerdo de la manzana que me he comido hace unas horas y que, seguro,
olvidaré dentro de unos días? No parece probable ni útil en términos neuropsicológicos.
Una representación mental es una red neural, un conjunto de neuronas interconectadas
entre sí que codifican desde un estímulo sencillo hasta un recuerdo complejo. La red
neural que codifica "manzana" se integra en otra mayor que puede soportar el recuerdo
de la manzana que me he comido hace horas o de la fábula de Guillermo Tell. El circuito
de memoria más sencillo es una red de neuronas interconectadas que codifica un
estímulo simple (Fuster, 1997); la primera vez que vemos una manzana (que
experimentamos visualmente una manzana), un grupo de neuronas refuerzan sus
contactos sinápticos entre sí de manera que cada vez que se activen experimentaremos
nuevamente una representación mental de la manzana. Esta red de memoria se va a ir
asociando con otras redes para formar memorias más complejas, pero lo que queremos
resaltar es que, cada vez que en la evocación de cualquier recuerdo se incluya una
manzana, las neuronas de esta red van a resultar activadas.
Si no hay dos almacenes diferenciados, ¿qué es lo que determina que dicha red neural
se active en forma de recuerdo a corto plazo o de recuerdo a largo plazo? O dicho de
otra manera, ¿cuándo esa red pasa de codificar un recuerdo inestable y susceptible de
sufrir interferencias a codificar otro más estable, resistente y duradero? Quizá si
volvemos al caso H. M. podamos encontrar algún indicio de todo ello. Siempre se ha
hecho hincapié en la amnesia anterógrada que padecía como consecuencia de la
operación, pero no se daba tanta importancia a su amnesia retrógrada. H. M. padecía una
amnesia retrógrada que podía remontarse hasta unos 11 años antes de la operación, en
los cuales había perdido la mayor parte de los recuerdos episódicos. Esto solo puede
significar que la región cerebral extirpada contenía neuronas (circuitos) que estaban
implicados en la conservación de esos recuerdos. Pero volviendo a la reflexión anterior,
no parece probable que existan en el cerebro dos almacenes de memoria, uno para
recuerdos de los últimos 11 años y otro para recuerdos anteriores (H. M. conservaba
recuerdos de su infancia y juventud), máxime cuando en otros pacientes con lesiones
similares que afectan al LTM el periodo de amnesia retrógrada es diferente. La única
explicación es que esos recuerdos estaban todavía en fase de consolidación, es decir, se
conservan en estos circuitos cerebrales de un modo precario a la espera de ser
almacenados de un modo más estable. Lo que sí sabemos es que la participación del
hipocampo y el LTM en este proceso está fuera de duda (Squire y ZolaMorgan, 1988),
entonces parece que estas áreas son responsables, inicialmente, de la conservación y
257
recuperación de recuerdos pero, con el paso del tiempo, estos pasan a depender de otras
regiones (Frankland y Bontempi, 2005). Las diferencias en la amnesia retrógrada que se
pueden observar en estos pacientes dependerán por tanto de la magnitud de la lesión en
el LTM.
Parece claro que la MCP y la MLP comparten sustrato neural en buena medida y que
existe algún mecanismo por el cual se activan diferencialmente (o no) según estemos
evocando información adquirida recientemente o antigua. Donald Hebb (1949) ya
propuso que la MCP era consecuencia de la reverberación de los impulsos nerviosos a
través de las fibras recurrentes que poseen los circuitos neuronales, es decir, una vez que
ha desaparecido el impulso que inicia la activación de un circuito, las neuronas siguen
disparando (reverberación) ya que la activa ción mediante las fibras recurrentes sirve de
reestimulación. Esto hace que la representación mental del estímulo permanezca un
tiempo después de que este haya desaparecido. Por su parte, Fuster (2000a) considera
que la MCP requiere la activación de circuitos más amplios que los propuestos por Hebb.
No obstante, sugiere que es posible que estas neuronas reverberantes establezcan
conexiones sinápticas con otras dentro de una red ya existente y sean aquellas las que
activen la red de memoria correspondiente. Esta activación persistente en el tiempo
pondría en marcha la maquinaria genética de las neuronas implicadas para, mediante
síntesis de proteínas, producir cambios estructurales más estables que constituirían la
base de la MLP (Kandel, 2001). De esta manera, podemos considerar que la MCP sería
la consecuencia de una activación mantenida en una red de neuronas (la representación
mental del recuerdo) mientras que la MLP estaría soportada por los cambios
estructurales que experimentarían esas mismas neuronas.
258
posterior más lenta dependiente de la corteza entorrinal, lo cual explicaría por qué las
lesiones localizadas del hipocampo provocan una alteración de la memoria menos severa
que la ocasionada por lesiones que incluyan las regiones adyacentes.
259
considerando que la primera consiste en el mero almacenamiento temporal de
información y la segunda implicaría almacenamiento y manipulación de información.
Además, reconoce que la MT conlleva la activación de múltiples áreas cerebrales en las
que se almacena MLP. Este tipo de memoria se refiere a la retención de información
durante un corto periodo de tiempo, la cual se usa para mantenerla actualizada y operar
con ella y con otra disponible en los almacenes a largo plazo en actividades cognitivas
básicas como la comprensión, el razonamiento o la resolución de problemas. El término
fue propuesto inicialmente por Baddeley y Hitch (1974) para describir un modelo en el
que interactuaban tres componentes, el ejecutivo central, el bucle fonológico (BF) y la
agenda visuoespacial (AV). El BF opera con todo lo referido al lenguaje, no solo verbal
sino también la identificación y el reconocimiento de signos y gestos; la AV sería una
forma de memoria visual que además posee una cierta capacidad operativa con
componentes espaciales (por ejemplo, recomponer mentalmente las relaciones espaciales
entre los elementos de una escena). El ejecutivo central sería el responsable de gestionar
los recursos aportados por los dos componentes anteriores y, entre otras funciones, se
ocuparía de centrar la atención en uno o varios estímulos según las necesidades de la
tarea o poder cambiar de tarea con facilidad si la situación lo requiere (Baddeley, 2012).
Posteriormente, se le añadiría un cuarto componente, el buffer episódico (Baddeley,
2000), que no sería otra cosa que un almacén de memoria intermedia que relacionaría la
memoria de trabajo con los almacenes de MLP. Como se puede deducir de la propuesta
original y las sucesivas revisiones, la memoria de trabajo, más que memoria en sentido
estricto, es un proceso que utiliza la capacidad de memoria del sistema para realizar otras
tareas, puesto que opera con información que acabamos de procesar pero también con
otra procedente de nuestros almacenes a largo plazo. Tiene por tanto un componente
ejecutivo que hace que actualmente se considere dentro de las funciones ejecutivas más
que de la memoria en sí (figura 11.2).
260
Figura 11.1. Modelo de consolidación propuesto por Frankland y Bontempi (2005). A)
La activación de los circuitos corticales es consecuencia de la activación hipocámpica.
Progresivamente y mientras se mantiene la activación hipocámpica, los circuitos
corticales fortalecen sus conexiones y dependen menos del hipocampo. B) La corteza
prefrontal va sustituyendo progresivamente al hipocampo como responsable de la
activación de los circuitos corticales que soportan la memoria, al tiempo que inhibe el
control hipocámpico sobre los mismos.
261
Figura 11.2. Modelo actualizado de memoria de trabajo (adaptado de Baddeley, 2012).
262
los que sirven como referencia para justificar el papel que diferentes circuitos cerebrales
juegan en la memoria. Sin embargo, el problema surge cuando intentamos crear un
modelo homogéneo que integre todos ellos para poder llegar a conclusiones definitivas.
Por un lado, los pacientes amnésicos suelen tener conservada la capacidad de memoria a
corto plazo, lo que indica que subyace un problema de consolidación, una incapacidad
mayor o menor para convertir información inestable en estable. Por otro lado, sí parece
claro que la memoria explícita resulta mucho más vulnerable que la implícita ya que
desde H. M. la mayoría de los estudios realizados se centran en la alteración de este tipo
de memoria. Recordemos que la memoria explícita es el soporte de la capacidad para
aprender relaciones complejas entre elementos, incluyendo diferentes modalidades
sensoriales, patrones de acción o estados internos del organismo (aprendizaje relacional).
Esto no ocurre en el caso de la memoria implícita donde se trata de fortalecer contactos
sinápticos en vías neurales concretas que participan en la conducta que se está
aprendiendo.
263
memoria semántica razonablemente buenas, pero una severa incapacidad para formar
nuevos recuerdos episódicos (Narbona y Crespo, 2002; Temple y Richardson, 2004). Se
han descrito varios casos de niños y niñas que, como consecuencia de alteraciones
diversas, padecían una amnesia anterógrada severa de inicio temprano que les impedía
almacenar información episódica nueva pero que sí podían adquirir, en grado variable,
nuevos conocimientos semánticos. Este tipo de trastorno pone de manifiesto que la
adquisición del conocimiento semántico y episódico en las etapas iniciales del desarrollo
ocurre por caminos diferentes (Brizzolara et al., 2003; Gardiner et al., 2008; Temple y
Richardson, 2004; Vicari et al., 2007;). Probablemente habrá más diferencias en el
procesamiento de recuerdos semánticos y episódicos de lo que cabría suponer, o quizá
estamos dando un enfoque erróneo al estudio de estos sistemas. Al fin y al cabo, todo
recuerdo semántico empieza siendo episódico; la primera vez que aprendimos lo que era
una manzana codificamos esta información como memoria episódica, sin embargo, a
nadie le interesa ni necesita saber cuándo y en qué contexto lo aprendió, por lo que esos
detalles se suelen olvidar salvo que tengan un especial significado para el sujeto. Con
cualquier concepto, a medida que lo vemos, oímos, hablamos sobre él o lo imaginamos,
vamos olvidando cuándo lo adquirimos por primera vez (sería horrible que recordáramos
todas y cada una de las manzanas que nos hemos comido en la vida) y queda únicamente
el conocimiento del concepto, eso sí, asociado a otros dentro de lo que consideramos las
redes neurales del conocimiento semántico.
264
de la memoria como una grabadora fiel de experiencias está muy alejada de la realidad.
Nos muestra las pérdidas de memoria ocasionadas por el paso del tiempo (qué duro es
que te saluden y no reconozcas a la persona que lo hace), las derivadas de la falta de
atención que demuestran que un material mal codificado será recuperado con dificultad,
los bloqueos que nos impiden el acceso a un dato que "sé que lo sé" o cómo se puede
inducir a una persona a estar segura de haber experimentado algo que no ha ocurrido.
Una de estas distorsiones que aparece con frecuencia son los falsos recuerdos, es
decir, el creer reconocer un estímulo o situación que se experimenta por primera vez.
Una serie de experimentos clásicos pusieron esto de manifiesto al evaluar a los sujetos
con listas de palabras para comprobar la precisión de su recuerdo (Roediger y
McDermott, 1995). Por ejemplo, si utilizamos una lista con palabras como música,
canto, melodía, cuna, voz, letra, ritmo, nana, tono, sonata, ópera, guitarra, armonía,
festival y villancico, después de un intervalo de demora y al solicitar a los sujetos que
digan todas las palabras que recuerden, es frecuente que incluyan la palabra canción. Un
ejemplo claro de que los sujetos dan por hecho que han escuchado dicha palabra, cuando
en realidad lo han supuesto en función de la categoría semántica de las otras. Otro tipo
de distorsión de la memoria son las fabulaciones, en las que el sujeto "falsifica" los
recuerdos inintencionadamente porque no es consciente de la mentira y el recuerdo que
genera puede variar desde una leve distorsión hasta la historia más inverosímil
(Kopelman et al., 1997). Parece que la fabulación es consecuencia de la ansiedad que
experimenta el sujeto por sus dificultades mnemotécnicas y trata de completar su
recuerdo con información o datos coherentes desde su propia perspectiva, pero a veces,
totalmente inconsistentes con los parámetros espaciotemporales de la historia. En este
tipo de alteraciones de la memoria es frecuente encontrar afectadas regiones prefrontales
(Tumer et al., 2008a; Turner et al., 2008b), además del LTM. Parece que mientras los
circuitos corticohipocámpicos participan en la codificación, almacenamiento y
recuperación, las regiones prefrontales participarían además en la supervisión del proceso
(Bunge et al., 2004; Cruse y Wilding, 2009), gestionando los recursos y dotando de
sentido a los resultados. Todo esto pone de manifiesto nuevamente que la memoria es un
proceso estrechamente imbricado en la cognición tanto perceptiva como ejecutiva y que
las lesiones cerebrales que afectan a cualquier circuito cerebral van a provocar algún tipo
de distorsión o alteración de la memoria.
265
habilidades. Así, en condiciones normales, los niños adquieren las habilidades necesarias
para el control de la postura y la coordinación de movimientos, la orientación espacial, la
percepción global de una escena y de los detalles significativos para su comprensión, el
uso de estrategias cognitivas para interactuar socialmente de manera adecuada y para
abordar actividades cotidianas, etc. Sin embargo, si esto no se adquiere en las etapas
evolutivas adecuadas, apare cen dificultades que han sido clasificadas y denominadas de
diferente manera, que se han asociado a otros trastornos o se han catalogado de modo
residual, pero que recientemente se están agrupando bajo la denominación de trastornos
del aprendizaje procedimental (TAP), propuesta por Juan Narbona y colaboradores
(CrespoEguílaz y Narbona, 2009; Narbona et al., 2011). Este trastorno se caracteriza
básicamente por una alteración de la memoria implícita que impide el aprendizaje gradual
de hábitos cognitivos, rutinas motoras y habilidades de integración perceptiva
automatizada que permiten la reducción de recursos atencionales en la ejecución de
múltiples tareas. El problema que subyace a la hora de tipificar y diferenciar
adecuadamente este grupo de trastornos es el enorme solapamiento de sus
manifestaciones clínicas, cognitivas y conductuales que se ha disfrazado bajo el paraguas
de la comorbilidad (Jongmans et al., 2003). Sin embargo, los trastornos que han
alcanzado una cierta entidad independiente prestan especial atención a los problemas
lingüísticos en detrimento de las alteraciones motóricas o de otro tipo y que también son
fundamentales para el desarrollo del individuo. Para cubrir este vacío han surgido
denominaciones como trastorno de la coordinación motora, dispraxia del desarrollo,
trastorno del aprendizaje no verbal o síndrome del HD, entre otras (Acosta, 2000;
Crespo-Eguílaz y Narbona, 2009; Rigau-Ratera et al., 2004). Sin embargo, de acuerdo
con Narbona y su grupo, parece más apropiado el concepto de TAP porque incluye toda
una serie de manifestaciones que las anteriores denominaciones no contemplan o no
precisan por ser muy genéricas.
266
y conductuales. Pero otra característica de estos niños son las dificultades de integración
visomotora (Bonifacci, 2004) prueba de que existe algún tipo de disfunción en las áreas
occipitoparietales responsables de este proceso. Podemos admitir (y las técnicas de
tractografía cerebral podrán ayudamos) que, sin llegar a sufrir un daño cerebral evidente,
es posible que la existencia de problemas de conectividad o de configuración de los
circuitos nerviosos responsables del aprendizaje implícito podrían ser la causa que
explique el TAP.
267
268
El lenguaje es una de las capacidades humanas que más atención ha recibido desde el
ámbito de la psicología, la pedagogía y la neurociencia porque se trata de un proceso
único entre los seres vivos. Sistemas de comunicación hay muchos y muchas especies de
animales han desarrollado los suyos propios para comunicarse, aunque sea de forma
rudimentaria, pero un lenguaje como el humano con el potencial y la versatilidad que este
tiene, solo el homo sapiens lo ha alcanzado. El lenguaje es la base de la conducta social.
No tiene sentido desarrollar un sistema de comunicación entre individuos aislados; el
lenguaje surge precisamente cuando los primeros homínidos forman grupos y necesitan
intercambiar información. El ser humano es un ser social por naturaleza y el lenguaje es
la herramienta que nos permite la socialización y la interacción con los demás miembros
de nuestra especie. El lenguaje ha permitido a los seres humanos convivir en grupos
organizados con reglas favoreciendo su desarrollo al economizar recursos en el
abastecimiento de alimentos y en la autoprotección. También ha permitido generar
conocimiento, acumularlo, compartirlo y transmitirlo de generación en generación
mediante la educación, facilitando el aprendizaje de los más jóvenes al no tener que
experimentar todos y cada uno de los aprendizajes necesarios para la convivencia en sus
respectivas sociedades.
269
La existencia de esa base común de naturaleza genética nos lleva a pensar que el
lenguaje no puede haber surgido de manera repentina y espontánea en el homo sapiens
sin que haya antecedentes evolutivos, a pesar de que no hay ninguna otra especie que lo
posea con las mismas características que los humanos. Si comparamos especies próximas
a la humana en términos evolutivos, por ejemplo chimpancés, gorilas u orangutanes,
podemos observar que ningún individuo de estas especies es capaz de desarrollar el
lenguaje, a pesar de que se les adiestre de manera intensiva o, incluso, se desarrollen en
un entorno similar al de los humanos. Es cierto que muchas especies tienen su propio
sistema de comunicación, pero ninguna de ellas llega a desarrollar el grado de maestría
que ha alcanzado la especie humana. El lenguaje animal suele ser muy reducido y con
esquemas estereotipados para organizar el grupo o identificar a sus miembros, para
mantener la estructura del grupo y las jerarquías sociales, para proferir amenazas y para
algunas situaciones más muy determinadas por la especie de que se trate (por ejemplo,
los gritos de las mangostas para avisar a la colonia del tipo de depredador que se acerca,
si es por el aire o por tierra). Por su parte, el lenguaje humano posee múltiples
componentes que le dotan de complejidad (fonológico, sintáctico...), puede actualizarse
continuamente (nuevas expresiones según las necesidades del entomo) y permite expresar
ideas, sentimientos o intenciones.
A pesar de todas estas diferencias con otros animales, el lenguaje humano podría ser la
consecuencia de un proceso evolutivo ocurrido a partir de las vocalizaciones que se
pueden observar en ciertas especies; los primates poseen un amplio rango de
vocalizaciones que utilizan entre ellos para comunicarse. Aboitiz el al. (2006) proponen
que los circuitos audiovocales encontrados en el cerebro de primates son homólogos a los
existentes para el lenguaje en el cerebro humano. Partiendo de la definición operativa de
la memoria de trabajo, afirman que estos circuitos servían inicialmente para la retención
de las vocalizaciones (gritos) de otros congéneres, los cuales, como consecuencia de la
repetición, fueron adquiriendo cierto significado elemental. A medida que estas
vocalizaciones fueron adquiriendo mayor complejidad, los circuitos de memoria fueron
expandiéndose y desarrollaron la capacidad de retener un número cada vez mayor de
vocalizaciones; en consecuencia, emergió de manera progresiva la capacidad de combinar
estas vocalizaciones en secuencias más complejas. Es decir, el lenguaje habría
evolucionado en el cerebro humano como un proceso de memoria que permite codificar
y almacenar secuencias de sonidos y combinarlas de manera compleja.
Con frecuencia se recurre al estudio del canto de los pájaros para encontrar
homologías con el lenguaje humano. Al fin y al cabo, al igual que los humanos, estos
pájaros realizan vocalizaciones complejas y son capaces de combinar notas simples en
secuencias de complejidad creciente hasta formar lo que podríamos llamar una canción.
También pueden aprender patrones acústicos complejos de un modo similar al que se
produce durante el desarrollo del habla en humanos, para lo cual poseen circuitos
cerebrales análogos (Bolhuis et al., 2010). Sin embargo, no podemos establecer estas
270
comparaciones porque el habla no es más que una parte, importante eso sí, de la
capacidad lingüística del ser humano. La capacidad sintáctica del lenguaje humano o la
categorización semántica de las palabras, por no hablar del uso que hacemos del lenguaje
en función del contexto, marcan las diferencias con el canto de los pájaros, que como
hemos mencionado anteriormente es el resultado de conductas estereotipadas en mayor o
menor grado y al servicio de determinadas exigencias ambientales concretas.
Las ideas de un origen motor o vocálico del lenguaje humano no son las únicas que
han surgido para explicar cómo pudo surgir el lenguaje humano. Existen muchas teorías
que tratan de hacerlo, algunas con planteamientos excesivamente simplistas (Ardila,
2006) e, incluso, teorías que se acercan a la idea de una aparición cuasi repentina y
espontánea de los circuitos cerebrales necesarios para el lenguaje. Este es el caso de la
idea propuesta por Steven Pinker (1994), quien sugiere que pudo producirse una
renovación de los circuitos cerebrales de ancestros primates que inicialmente no tenían
una función vocal además de la incorporación de algunos circuitos nuevos. Parece que
los estudios sobre vocalizaciones en primates aportan evidencias más fiables a favor de
las hipótesis evolutivas. Un estudio con técnicas de neuroimagen, que comparó la
activación cerebral en monos y humanos ante vocalizaciones específicas de la especie y
271
del habla humana (Gil da Costa el al., 2006), encontró que en los animales se activaban
áreas cerebrales homólogas a las regiones de Broca y Wernicke del cerebro humano.
272
Figura 12.1. Localización cortical de las áreas de Broca y Wernicke.
-Fonético o fonológico. Referido a los sonidos del habla. Cada lenguaje está
compuesto por un número determinado de sonidos de entre todos los que el sistema
fonoarticulatorio puede producir, los fonemas. El cerebro del recién nacido posee la
capacidad de detectar y discriminar cualquier sonido del habla, sin embargo, con el
paso del tiempo esta capacidad se pierde dando relevancia a los sonidos que
escucha con cierta regularidad, es decir, los propios de su lengua materna.
273
-Léxico-morfológico. Hace referencia a las palabras de un idioma y a las reglas que
subyacen a su configuración y combinación; el sistema de combinación de los
sonidos del idioma en secuencias comprensibles con significado. Las palabras así
formadas representan elementos del mundo.
-Semántico. Se ocupa del significado de las palabras de una lengua. Para ello tenemos
que ir configurando un almacén en el que guardamos nuestro repertorio lingüístico
(las palabras) con sus correspondientes etiquetas de significado. Estos significados
parece que están almacenados en redes neuronales interconectadas que codifican
categorías semánticas, sin embargo, los criterios de agrupamiento varían de un
sujeto a otro. Probablemente, la red neuronal para la categoría de herramientas será
mucho más amplia en un ebanista que en un abogado.
-Pragmático. Tiene que ver con el modo en que usamos el lenguaje y los objetivos del
mismo en función del contexto. Un uso eficaz del lenguaje sueleadaptarse al
contexto en el que se produce, a las personas que intervienen y a los objetivos que
perseguimos. El doble sentido, la ironía o las metáforas son claros ejemplos de
adecuación lingüística. El componente pragmático transciende al propio lenguaje en
sí y entronca con el concepto de comunicación social, ya que determina en buena
medida el establecimiento de vínculos. Por ese motivo, lesiones en la CPF son las
que con frecuencia ocasionan una mala utilización del lenguaje y que su utilidad
como herramienta comunicativa sea considerablemente menor.
274
superior que podrían responder de manera más específica aún a características concretas
de los sonidos vocales como puede ser el timbre de la voz o detalles relacionados con la
identidad del hablante si es previamente conocido. Aunque la respuesta auditiva inicial es
bilateral, posteriormente es el HI el que se ocupa preferentemente del procesamiento de
aquellos sonidos vocales identificados como lenguaje (habla) gracias a los circuitos de la
ruta ventral. Lo que ocurre después y que nos permite comprender y producir el lenguaje
es algo en lo que, aunque se ha avanzado recientemente, todavía podemos encontrar
controversias y posturas diferentes a la hora de explicar cómo ocurre este proceso.
Karl Wernicke describió en 1874 diferentes tipos de afasias según los pacientes
sufrieran lesiones en alguna de las regiones ya descritas por él y Broca o en las
conexiones entre ambas (afasia de conducción) dentro de un modelo conexionista basado
en el procesamiento secuencial de la información entre las regiones implicadas.
Posteriormente, Ludwig Lichteim (1845-1928) amplió y completo este modelo
presentando su conocido diagrama de conexiones mediante el cual explicaba hasta siete
tipos de afasias diferentes (figura 12.2). La aportación relevante de estos modelos fue
tomar en consideración los denominados centros cerebrales de los conceptos, es decir,
circuitos cerebrales que almacenan información semántica y que, según el modelo,
estarían ampliamente distribuidos por todo el cerebro.
275
Figura 12.2. Modelo lingüístico de Wernicke-Lichteim. Representa los centros sensorial,
motor y conceptual junto con sus conexiones. Los números representan tipos de afasias.
1: Broca; 2: Wernicke; 3: conducción; 4: motora transcortical; 6: sensorial transcortical; 5:
dificultades motoras que impiden la articulación; 7: dificultades auditivas que impiden la
recepción del sonido.
-Giro o circunvolución angular: área 39B, integra impulsos visuales y auditivos, por lo
que contribuiría a formar la representación sonora de la palabra leída.
-Corteza motora primaria: área 4B. Encargada de las contracciones musculares que
producen el movimiento articulatorio.
276
Figura 12.3. Modelo de Wernicke-Geschwind. Ruta de procesamiento para pronunciar
una palabra oída o leída. Las flechas indican el flujo de la información desde las
respectivas áreas sensoriales hasta la corteza motora encargada de la articulación.
Según este modelo, cuando se escucha una palabra, los estímulos sonoros alcanzan la
corteza auditiva primaria (omitimos estructuras subcorticales) desde donde se proyectan
al área de Wernicke, lugar donde se produce la comprensión lingüística del estímulo. Para
pronunciar esta palabra, las señales deben discurrir por el fascículo arqueado para llegar
al área de Broca, lugar donde se programa el esquema motor y se transmite a la corteza
motora para su ejecución. En el caso de una palabra escrita, el procesamiento
comenzaría en VI para de ahí proyectarse al giro angular, donde se crea el modelo
fonológico de la palabra leída. A continuación, la señal alcanza el área de Wernicke y
continúa la misma ruta anterior.
Actualmente, este modelo se considera obsoleto porque resulta demasiado simpe para
abordar un proceso tan complejo como es el lenguaje. No se le puede negar la utilidad
que ha tenido tanto en el ámbito investigador como en el clínico, sin embargo, a la luz de
los hallazgos más recientes, algunos de sus planteamientos han quedado superados y las
predicciones que realiza no siempre se cumplen. Lo primero que habría que cuestionar es
la concepción tan simplista del lenguaje, ya que lo entiende únicamente en términos de
comprensión y producción, sin considerar todos los componentes a los que nos hemos
277
referido antes. No parece que intervengan los mismos circuitos en la comprensión de
palabras con sentido o sin él, y no contempla la existencia de sistemas cerebrales para la
sintaxis o los contenidos semánticos. Uno de los aspectos que más se ha criticado es la
concepción de las afasias como cuadros clínicos fácilmente diferenciables, cuando la
realidad es que resulta frecuente encontrar solapamiento de síntomas entre un tipo u otro.
Además, el cuadro clínico de las afasias de Broca, Wernicke o conducción no siempre
están causadas por lesiones en las respectivas áreas corticales o en el fascículo arqueado
(Anderson et al., 1999; Poeppel y Hickok, 2004).
Por otro lado, el modelo solo considera la participación del HI y con regiones
lingüísticas bien diferenciadas, cuando hoy nadie duda del papel del HD, por ejemplo en
la percepción de los sonidos del lenguaje (Hickok y Poeppel, 2000), que las áreas
clásicas del lenguaje no son homogéneas o que se han identificado circuitos lingüísticos
fuera de las localizaciones básicas que describe el modelo (Wise et al., 2001; Damasio et
al., 2004). Además, también hay que considerar el papel que juegan estructuras como los
ganglios basales o el cerebelo en la comprensión y producción del lenguaje (Price, 20012)
y otros estudios que han encontrado patrones de activación cerebral en los que se
muestran diferencias con lo previsto en el modelo según las tareas lingüísticas que se
vayan a realizar. En resumen, el modelo de Wernicke-Geschwind no contempla los
circuitos subcorticales ni todos los circuitos corticales que intervienen en el lenguaje,
sobrevalora la participación de las áreas de Broca y Wernicke y homogeniza el
procesamiento verbal y escrito, cuando existen más diferencias de las que contempla.
Son muchos los autores que han propuesto otros modelos diferentes para explicar la
base neurobiológica del lenguaje, como por ejemplo Marsel Mesulam (1990), que
propone un modelo alejado de los postulados localizacionistas. Está basado en la
interconexión de diversas redes cerebrales corticales y subcorticales que además incluyen
al HD, especialmente en lo referido al componente semántico. También el matrimonio
Damasio (1992) propone una explicación alternativa según la cual el lenguaje requeriría
de la participación de tres sistemas cerebrales: uno localizado bilateralmente que sería el
responsable de almacenar representaciones de naturaleza no lingüística (aunque
podríamos considerarlo como un componente conceptual o semántico) y que se asienta
sobre grandes extensiones corticales de ambos hemisferios; el segundo sería un sistema
operativo o instrumental encargado de generar palabras y frases, asentado sobre la región
perisilviana del hemisferio dominante y que incluye las áreas de Broca y de Wernicke,
pero con atribuciones distintas de las contempladas en el modelo de WernickeGeschwind;
y un tercer sistema que actuaría como intermediario entre los dos primeros, localizado
alrededor del sistema instrumental.
278
semántico) y una ruta dorsal implicada en el procesamiento fonético simple para
convertir sonidos lingüísticos en representaciones articulatorias. De manera similar a lo
que ya hemos visto en los sistemas visual y auditivo, a estas rutas se las considera como
rutas del qué y del cómo. Este modelo ha tratado de tomar en consideración la evidencia
científica y clínica aportada en los últimos años por otros autores y por su propia
investigación, especialmente algunas paradojas como el hecho de que las lesiones
prefrontales y parietales en el HI producen déficits en la comprensión del lenguaje, que
las lesiones en el entorno del área de Wernicke no producen problemas severos de
comprensión y sí de articulación (Zatorre et al., 1992), o que haya pacientes que
comprenden razonablemente bien las palabras pero son incapaces de identificar y
discriminar sílabas sencillas frente a otros que presentan un cuadro opuesto (Baker et al.,
1981). Además, incorpora definitivamente la participación de ambos hemisferios
cerebrales si bien con predominancia izquierda sobre todo en el proceso articulatorio.
279
activaría bilateralmente (eso sí, con predominio izquierdo), explicando por qué las
lesiones unilaterales no afectan en exceso al reconocimiento de palabras. Por su parte, la
vía dorsal sí estaría lateralizada en el HI explicando así las alteraciones articulatorias y
perceptivas del habla cuando se daña este hemisferio (Hickok y Poeppel, 2007). Los
circuitos temporoparietales integran también estímulos visuales que permiten la
conversión de secuencias de símbolos gráficos en sus equivalentes fonológicos, es decir,
la base para el aprendizaje de la lectura y la escritura.
Figura 12.4. Modelo lingüístico de Hickok y Poeppel (2007) donde se diferencian las dos
rutas de procesamiento. Los recuadros sombreados se refieren a estructuras que se
activan bilateralmente aunque con predominio izquierdo.
También hay autores que cuestionan la tradicional distinción entre áreas implicadas en
la comprensión o en la producción del lenguaje, sosteniendo que todas ellas forman parte
de una red integrada donde cada una juega un papel relevante en ambos procesos. La
teoría motora de la percepción del habla sostiene que las señales auditivas se comparan
con patrones motores en vez de hacerlo con representaciones acústicas para así producir
el propio habla (Liberman y Mattingly, 1985). Según esta teoría, los fonemas se
reconocen al inferir los movimientos articulatorios que son necesarios para generar ese
sonido. Parte de esta argumentación se basa en la observación de que el área de Broca
también se activa durante la comprensión del lenguaje, especialmente durante la lectura
de labios en sujetos que estaban hablando, cosa que no ocurría cuando los sujetos hacían
muecas con la boca (movimientos no lingüísticos), incluso cuando los sujetos no podían
280
escuchar al hablante (Campbell et al., 2001; Hall et al., 2005). Otra parte de la
argumentación alude al sistema de neuronas espejo y al hecho de que la región F5 del
cerebro del macaco, equivalente al área de Broca en el cerebro humano, contiene
neuronas espejo (Rizzolatti y Craighero, 2004), lo que justificaría su activación al
observar los movimientos labiales en otra persona. Cualquiera de nosotros puede
comprobar que es más fácil comprender lo que nos dice otra persona si observamos sus
labios al hablar. Fridriksson et al. (2008) encontraron que los movimientos vocales
activaban las áreas temporales y frontales del lenguaje mientras que los movimientos no
verbales activaban la corteza parietal (en sintonía con el modelo de la doble ruta);
además, la exposición a sonidos verbales degradados o distorsionados activaba regiones
frontales y parietales (una activación intermedia entre percepción vocal y no vocal) pero
no activaban regiones temporales al carecer de significado los estímulos.
Todavía queda mucho camino para poder explicar completamente la red cerebral que
soporta el habla y la participación concreta que cada elemento del circuito juega en este
proceso. Para empezar, hay que distinguir entre procesos que pueden ser localizados en
regiones concretas, por ejemplo, sensoriales y motores, de aquellos otros que dependen
de la activación de circuitos muy distribuidos por diferentes regiones, las cuales, a su vez,
participan en otros procesos distintos del lenguaje (Price, 2012). No es lo mismo la mera
detección o la articulación de sonidos vocales que la comprensión y producción de frases
complejas con un significado concreto acorde al contexto en el que tiene lugar o en
función de las personas a las que se dirigen. Otra carencia estriba en el hecho de que la
mayoría de los modelos pasan de puntillas por dos aspectos fundamentales del lenguaje:
la sintaxis y la semántica. Cómo el cerebro organiza las palabras en frases coherentes con
sentido y significado y cómo atribuye y relaciona los significados con las secuencias
sonoras es algo que todavía plantea desafíos científicos. El área de Broca parece ser
crítica dentro de la red lingüística responsable de la sintaxis (Martín-Loeches, 2012) pero
la implicación de otras estructuras como el núcleo caudado o circuitos corticales de los
lóbulos temporal y parietal no está plenamente clarificada. Por su parte, al referimos al
componente semántico del lenguaje tenemos que considerar los propios circuitos de la
memoria semántica. Es cierto que algunos de los modelos que hemos visto aquí hacen
referencia a los circuitos conceptuales o semánticos, especialmente el de la doble ruta,
pero dejando abiertas numerosas incógnitas acerca del modo en que ocurre este proceso.
La principal es cómo se organizan las redes semánticas, es decir, cómo se vinculan las
redes neuronales que codifican conceptos semánticamente relacionados. Los estudios
realizados hasta ahora tanto con pacientes como con técnicas de neuroimagen en sujetos
sanos sugieren que esta organización depende de múltiples factores. No podemos olvidar
que estamos hablando de memoria, que el almacenamiento y recuperación de la
información incorpora un componente emocional y que dicho componente está vinculado
a experiencias concretas de cada sujeto. Todo esto nos da una idea acerca de las
incógnitas que todavía plantea el diseño de un modelo integrador acerca de la
neurobiología del lenguaje. La formulación de las preguntas adecuadas y la consideración
281
del lenguaje como el resultado de la integración de múltiples procesos podrán
proporcionar notables avances en este campo.
La idea de dos rutas para la lectura fue apuntada ya por el neurólogo francés Joseph
Dejerine (1849-1917). Observó que varios pacientes con lesiones en áreas cerebrales
posteriores ventrales (giro fusiforme) y dorsales (giro angular) del HI mostraban
282
diferentes tipos de alteraciones de la lectura (Bub et al., 1993). A partir de estas
observaciones y de otras similares como consecuencia de lesiones focales, surgió la idea
de una ruta directa que enlaza la imagen gráfica de la palabra con su significado y una
ruta indirecta que propicia la asociación entre las letras y sus sonidos (Harm y
Seidenberg, 2004). Esta segunda ruta (dorsal), considerada como ruta fonológica, puede
descomponerse en dos sistemas, uno posterior que incluye las circunvoluciones
supramarginal y angular y la parte posterior de la corteza temporal superior, y otro
sistema anterior que incluye a la circunvolución frontal inferior (área de Broca) y a parte
de la CPM (figura 12.5). El sistema posterior trabajaría preferentemente con
pseudopalabras o combinaciones desconocidas de letras en vez de con palabras reales
incluidas en el vocabulario del sujeto, es decir, integrando la información visual y
fonológica, mientras que el sistema anterior se ocuparía de articular las palabras
(Schlaggar y McCandliss, 2007). Por su parte, en la ruta ventral numerosos estudios
reconocen la existencia de una zona en la corteza visual que se ocupa del reconocimiento
de palabras y que ha recibido el nombre de área para la forma visual de la palabra
(VWFA, del inglés Visual Word Form Area).
La ruta ventral discurre desde las áreas visuales hacia la corteza inferotemporal de
ambos hemisferios y se ocupa en su etapa inicial del procesamiento visual básico.
Posteriormente, y ya con una clara lateralización izquierda, se han identificado ciertos
circuitos en la porción media de la circunvolución fusiforme que responden
preferentemente a la presentación de palabras, mientras que no lo hacen o lo hacen más
débilmente a la presentación de otro tipo de estímulos (McCandliss et al., 2003), motivo
por el que se la denominó VWFA (Cohen et al., 2000). Actualmente son muchos los
trabajos que han confirmado la activación de esta zona en tareas lectoras, por lo que
parece haber un consenso bastante unánime acerca de su papel en el reconocimiento
visual de las palabras. En primer lugar, han comprobado un mayor incremento de la
actividad en esta área a la vista de cadenas de letras que ante cualquier otro estímulo en
similares condiciones y que este incremento de la actividad está relacionado con la
experiencia del lector; por ejemplo, comparando lectores expertos en hebreo o en inglés,
la VWFA solo se activa ante las letras de sus respectivos alfabetos (Baker et al., 2007).
Sin embargo, esta región, aunque se activa preferentemente ante cadenas de letras, no
permanece en silencio ante otros estímulos, lo que significa que ha tenido que haber una
reutilización de estos circuitos para dar soporte a esta habilidad, algo a lo que ya nos
hemos referido anteriormente. Parece entonces que esta área se ocuparía de
proporcionar un apoyo perceptivo especializado durante la lectura permitiendo el
reconocimiento rápido de palabras que forman parte del idioma del lector (Schlaggar y
McCandliss, 2007). De este modo, con la práctica suficiente no es necesario ir
procesando letra a letra el texto escrito, sino que se procesarían palabras completas
permitiendo así una mayor rapidez lectora.
283
Figura 12.5. Rutas lectoras.
284
palabras y el establecimiento de asociaciones fonológicas y semánticas precisas.
285
trazos gráficos únicos, propios de cada individuo, aunque puedan ser legibles para
cualquier otro sujeto; es decir, una persona programa una ejecución motora personalizada
según su destreza (caligrafía) pero de acuerdo a unos códigos generales compartidos por
otros individuos. La actividad puramente motora de la escritura no deja de ser una
expresión de las destrezas manuales de cada individuo (dibujar símbolos) y, en ese
sentido, no ha sido necesario reutilizar circuitos inicialmente destinados a otro fin, es
suficiente con la práctica y el entrenamiento de los circuitos motores del brazo, la mano y
los dedos.
En cualquier caso, la escritura es algo más que mover los dedos de la mano con mayor
o menor destreza cuando sujetamos un lapicero. Por ese motivo, la región GMFA está
interconectada con regiones posteriores implicadas en la lectura y el reconocimiento de
palabras, incluida por supuesto la VWFA. Además, parece que la activación de estos
circuitos no depende de factores culturales u ortográficos específicos, sino que formarían
parte de un sistema generalizado o universal (Nakamura el al., 2012) ya que, por
ejemplo, igual se activan ante idiomas alfabéticos (español, francés, inglés...) que
ideográficos (chino, kanji japonés...). No obstante, la práctica y el entrenamiento son
requerimientos relevantes para el aprendizaje de la escritura ya que se trata de consolidar
los patrones motores que permiten la representación de las letras. Incluso en casos
excepcionales, también se pueden apreciar los efectos de la práctica; por ejemplo, el
aprendizaje de escritura en espejo utilizando la mano no dominante se puede conseguir a
través de entrenamiento que, como era de esperar, produce un incremento de la actividad
en las áreas lingüísticas equivalentes del HD (Kushnir el al., 2013). No es extraño ver
personas que han sufrido alguna lesión que afecte a su mano dominante adquirir
habilidades básicas con la mano no dominante, incluida la escritura.
Por otro lado, el abordaje de los trastornos del lenguaje desde ámbitos diversos pero
cercanos como pueden ser la psicología, la pedagogía terapéutica o la logopedia ha
llevado a utilizar denominaciones que no siempre se refieren a una clasificación común y
286
pueden dar lugar a confusiones. Uno de estos ejemplos es el caso del trastorno específico
del lenguaje (TEL), también conocido como disfasia. La referencia a clasificaciones
clínicas como el DSM-V o el CIE-10 no resuelve el problema ya que, en ocasiones, el
solapamiento de síntomas hace difícil un diagnóstico diferencial que permita etiquetar
correctamente el trastorno. Por ese motivo, es recomendable valorar las necesidades
concretas de cada sujeto en lugar de intentar etiquetarlo adecuadamente. En este
apartado vamos a referirnos a tres tipos de trastornos del lenguaje de aparición frecuente
y sobre los que pesan algunas de estas circunstancias a las que nos hemos referido; el
objetivo es conocer aspectos básicos de los mismos para poder considerarlos en relación
con sus implicaciones educativas.
-Que el daño cerebral ocurra después de que el sujeto haya adquirido el lenguaje.
287
Veamos las principales manifestaciones clínicas de cada una de ellas según esta
clasificación:
-Afasias extrasilvianas: las afasias extrasilvianas están producidas por lesiones en las
zonas que circundan las regiones perisilvianas; también se les conoce con el nombre
de transcorticales. Con unos cuadros clínicos similares a las de Broca y Wernicke,
no suelen mostrar una sintomatología tan severa, lo que hace que, junto a la de
conducción, se les considere como síndromes menores (Marshall et al., 1998).
Lógicamente, las manifestaciones clínicas van a variar dependiendo de dónde se
localice la lesión, por eso de manera genérica se las denomina extrasilviana motora
y extrasilviana sensorial, pero con la peculiaridad de que en ambos cuadros está
conservada la repetición.
288
capacidad de comprensión lectora relativamente buena, algo que no ocurre en pacientes
con afasia de Wernicke. En el caso de la escritura también hay diferencias, no solo entre
los síndromes (mayor alteración en la afasia de Broca) sino también entre pacientes con
un mismo cuadro clínico. No olvidemos que las lesiones cerebrales responsables de las
afasias afectan a circuitos cerebrales que se ocupan de procesos más allá de lo
estrictamente lingüístico.
A la hora de considerar los síndromes afásicos surgen una serie de problemas que no
se pueden obviar (Caplan, 2002). Una de las principales limitaciones en el estudio de
estos síndromes es que abordan la capacidad o no de los sujetos afectados para realizar
tareas lingüísticas complejas contempladas como un todo (comprensión, producción...)
más que analizar su habilidad en tareas específicas dentro del sistema global de
procesamiento lingüístico. Por otro lado, no es fácil clasificar a los pacientes de acuerdo a
estas tipologías porque es difícil encontrar perfiles bien definidos que se ajusten a estos
modelos, lo que lleva a desacuerdos acerca de la calificación de un paciente. Pero quizá
el problema que provoca un cuestionamiento más claro de esta taxonomía es que la
correlación entre las alteraciones y la localización de las lesiones no es todo lo precisa que
establece la teoría. Hay que ser extremadamente cautos a la hora de considerar de
manera estricta estos cuadros que, si bien son útiles para sistematizar el conocimiento,
han demostrado serlo menos para caracterizar de manera indiscutible los diferentes casos
clínicos y hacer predicciones al respecto (Kasselimis et al., 2012).
12.3.2. Dislexia
La dislexia es un trastorno del aprendizaje que afecta a la adquisición de la lectura, por
lo que los niños (o adultos) que la padecen poseen un nivel lector que no concuerda con
su nivel cognitivo e intelectual en general. Según Lyon et al., (2003), la dislexia es un
alteración específica del aprendizaje de origen neurobiológico; se caracteriza por
dificultades en el reconocimiento de palabras de manera precisa y fluida, mala ortografía
y dificultades de descodificación. En general, estas dificultades se deben a una alteración
en el componente fonológico del lenguaje que no está en concordancia con las
habilidades cognitivas ni con el nivel cognitivo del sujeto. Se considera este trastorno
cuando hay un nivel lector por debajo del esperado de acuerdo a la edad o al nivel
intelectual y educativo. Es en este aspecto en el que no hay acuerdo porque la diferencia
entre el cociente intelectual y el nivel lector no siempre es un buen indicador ya que hay
otros factores que pueden estar condicionándola en uno u otro sentido, es decir, pueden
concurrir factores que aumenten o disminuyan esa distancia sin que eso tenga que ver
con la gravedad del cuadro disléxico (Artigas-Pallarés, 2011).
A lo largo de las últimas décadas han surgido diversas teorías que tratan de explicar los
déficits cognitivos en la dislexia (ver Ramus et al., 2003):
-Teoría del procesamiento auditivo rápido (Tallal, 1980 y 2000). Según esta teoría, la
289
lectura implica la capacidad para detectar y discriminar de manera eficiente
secuencias de sonidos presentadas rápidamente. Las dificultades en el
procesamiento auditivo rápido provocan una discriminación defectuosa de los
fonemas, algo que ocurre en los disléxicos.
-Teoría fonológica (Ramus et al., 2003). Considera que la dificultad básica en los
disléxicos es la dificultad para asociar letras (representaciones gráficas de los
sonidos del lenguaje) y fonemas (representaciones mentales de los sonidos del
lenguaje). Esta teoría es la que tiene un mayor respaldo empírico y considera la
dislexia como un problema de aprendizaje de una habilidad lingüística y no un
problema visuoperceptivo (Artigas-Pallarés, 2011).
En línea con la teoría de la doble ruta, Shaywitz et al., (2002 y 2005) sostienen que la
dislexia está ocasionada por una disfunción del circuito lector posterior, afectando a las
regiones corticales parietotemporal y occipitotemporal, entre las que incluyen las áreas de
integración fonográfica y la VWFA. Este tipo de alteración en áreas posteriores parece
ser la causa de la dislexia tanto en lenguajes alfabéticos como logográficos (Ziegler,
290
2006), demostrando que la asociación entre símbolos y sonidos que tiene lugar en estos
circuitos no se refiere solamente a letras y palabras. Shaywitz y su grupo proponen una
explicación sobre lo que ocurre en el cerebro de niños y adultos disléxicos cuando tienen
que leer. Los niños sin dificultades lectoras echan mano con éxito del sistema lector
posterior, pero el fallo en estos circuitos en el cerebro de niños disléxicos hace que
recurran a mecanismos de compensación funcional reclutando para ello a circuitos
frontales inferiores y regiones del HD. Los circuitos frontales (incluyendo el área de
Broca) son fundamentales para la articulación de las palabras (Fiez y Peterson, 1998) así
que podrían ayudar al circuito lector posterior en la tarea de asignación fonológica a las
palabras escritas. La articulación subvocal, silabear en voz baja, podría ayudar al niño
disléxico a incrementar su conciencia fonológica de la palabra que está leyendo,
facilitando su aprendizaje lector, aunque fuera de un modo más lento y menos eficiente
que cuando se hace mediante el sistema de identificación de las palabras en los circuitos
posteriores. Al fin y al cabo, tanto durante la adquisición de la lectura en niños normales
como al enfrentarse a palabras complejas o novedosas los adultos lectores, se echa mano
de ese sistema de apoyo. Por su parte, el incremento de la actividad en las regiones
frontales de ambos hemisferios y la activación de otras áreas en el HD podría ser un
intento de apoyo en otros procesos perceptivos que compensen sus dificultades
fonológicas. Estos mecanismos de compensación parecen consolidarse con el paso del
tiempo, ya que las áreas implicadas muestran una mayor activación en disléxicos adultos
que en niños. El uso y la práctica con estos mecanismos es lo que les permite alcanzar un
cierto grado de habilidad lectora pero sin llegar nunca a ser lectores expertos.
291
transmite según un patrón autosómico dominante, el gen FOXP2 (Lai et al., 2001). La
principal manifestación es una dispraxia verbal aunque algunos de los miembros
afectados muestran también otras alteraciones lingüísticas y un rendimiento por debajo
de lo esperado en otros procesos cognitivos. Aunque en sentido estricto no se trata de un
TEL, las similitudes que muestran en algunas de las dificultades del lenguaje han llevado
a considerar a esta familia como un referente clínico en el estudio de los problemas del
lenguaje.
Con diversas técnicas funcionales se encontró una simetría anormal o una asimetría
funcional a favor del HD en adultos con TEL persistente comparados con controles (Ors
et al., 2005; Whitehouse y Bishop, 2008), algo que parece ser una constante en este tipo
de sujetos. Un estudio con técnicas estructurales y funcionales simultáneamente
(Badcock et al., 2012) comparó varios parámetros cerebrales en niños con TEL, sus
hermanos no afectados y sujetos control sin ninguna relación con los anteriores cuando
realizaban diferentes tareas lingüísticas. Encontraron resultados relevantes en áreas
lingüísticas anteriores (incluida área de Broca) y posteriores (incluida área de Wernicke)
del HI. Así, en las regiones anteriores los sujetos TEL tenían un volumen mayor de
sustancia gris que sus hermanos no afectados y que los controles, sin embargo, aquellos
mostraron una menor activación de estas áreas corticales durante la ejecución de las
tareas. El patrón disfuncional en las regiones posteriores fue ligeramente distinto, tanto el
volumen de sustancia gris como el grado de activación fueron menores en los sujetos
TEL. También observaron diferencias en estructuras subcorticales como el núcleo
caudado y el putamen, sin embargo, no encontraron ningún área cerebral que mostrase
mayor grado de activación (como vimos en disléxicos), lo que hubiera podido
interpretarse como un mecanismo cerebral para compensar la discapacidad funcional de
los circuitos del HI (Badcock et al., 2012).
Hemos visto tres ejemplos de alteraciones lingüísticas adquiridas o del desarrollo en las
que se pone de manifiesto que cualquier anomalía en los circuitos cerebrales responsables
del lenguaje se traduce en dificultades comunicativas. Sin embargo, también hemos visto
292
cómo el cerebro es capaz de desarrollar mecanismos de compensación que puedan paliar
en parte las dificultadas producidas por un trastorno y permitir la adquisición de
habilidades básicas que permitan la autonomía lingüística en la vida cotidiana. Es el
terreno sobre el que se deben diseñar las intervenciones encaminadas a la recuperación o
a la correcta adquisición de las funciones del lenguaje.
293
294
El estudio de las emociones en psicobiología y neurociencia ha estado bastante
relegado hasta no hace muchos años por diferentes motivos. Aparte de las dificultades
metodológicas que implica su estudio, es posible que uno de los motivos más relevante
sea el hecho de que tradicionalmente se ha considerado a las emociones como el polo
opuesto a la razón, proceso cognitivo de presunto máximo nivel frente al cual aquellas no
eran más que respuestas primitivas. Sin embargo, en la actualidad está superada esta
creencia ya que se considera a las emociones como motor fundamental de aspectos
básicos del comportamiento humano como la toma de decisiones. Hay diversos motivos
por los que las emociones deben ser consideradas como objeto de estudio preferente;
Damasio (1998) propone cuatro:
-En organismos complejos, las emociones son la expresión directa de más alto nivel de
los procesos de biorregulación tanto interna como en interacción con el entorno
(físico y social) en el que se desenvuelve.
-Son fundamentales para la supervivencia (sin miedo, afrontamos peligros que pueden
costamos la vida), motivo que por sí solo justificaría su interés para los humanos.
Parece que estos argumentos son suficientes para justificar el estudio de las
emociones, pero podríamos añadir otras consideraciones. Durante las etapas iniciales del
desarrollo, las emociones juegan un papel fundamental en la configuración de la
personalidad y el estilo cognitivo del niño. Durante la etapa educativa, centramos todo el
esfuerzo en el entrenamiento de habilidades vinculadas con el pensamiento lógico y la
295
razón (lengua, matemáticas...) o con el almacenamiento de datos (actualmente, no parece
prioritario aprenderse los ríos y recitarlos de memoria) y descuidamos el desarrollo
emocional, algo que también requiere aprendizaje, dejándolo a los vaivenes del azar en la
interacción social. Porque las emociones son fundamentales para la vida en sociedad y su
desarrollo o aprendizaje defectuosos son causa de trastornos mentales y sociopatías.
296
nivel hormonal y visceral. Una respuesta emocional implica cambios en la tasa
cardiaca, la respiración, la presión arterial o la actividad del sistema digestivo entre
otros y liberación de hormonas que pueden afectar al cerebro y, por tanto, al modo
en que sus circuitos reaccionan en este estado.
297
miedo y enfado. En realidad, las emociones más complejas (culpa, desconfianza,
esperanza, orgullo...) se pueden considerar dentro del ámbito de los sentimientos, es
decir, representaciones mentales o experiencias subjetivas que configuramos a partir de
las sensaciones corporales y de los componentes sensoriales y cognitivos que concurren.
Las expresiones faciales son respuestas automáticas que, aunque se pueden inhibir, son
difíciles de ejecutar de manera voluntaria. Cualquier persona es capaz de detectar
expresiones fingidas, incluso de manera inconsciente, por ejemplo, cuando alguien nos
habla y el tono emocional de sus palabras y la expresión facial no son concordantes,
desconfiamos de lo que escuchamos ("parece muy simpático, pero hay algo... no sé").
Guillame Duchenne (1806-1875) ya reflexionó sobre las expresiones genuinas y las
fingidas. Afirmaba que la sonrisa fingida implica la actividad del músculo cigomático
(estira las comisuras de los labios), el cual es fácilmente controlado de manera voluntaria;
por el contrario, la sonrisa genuina requiere además la contracción de los músculos
orbiculares (rodean la cuenca de los ojos), por lo que para diferenciarlas hay que prestar
atención a esta parte de la cara. Además, entre las expresiones faciales y el estado
emocional que las ocasiona hay una cierta retroalimentación como bien conocen los
profesionales de la salud mental. Hagamos un sencillo experimento casero, cuando
tengamos un mal día y estemos enfadados o preocupados, situémonos frente al espejo
esbozando una sonrisa (solo forzando el cigomático) y mantengámosla unos minutos;
mirando al tipo del espejo, pronto notaremos cómo los orbiculares se tensan solos y
nuestro estado emocional tiende a mejorar. También podríamos probar el ejemplo
contrario, cuando estemos alegres ensayar una cara de enfado, pero no lo recomiendo
porque funciona.
298
boca, respiración agitada...) que provoca el sentimiento de miedo. Esta teoría, según su
concepción inicial, era errónea; sin embargo, a la luz de descubrimientos posteriores, ha
adquirido relevancia porque se ha comprobado la importancia que tienen las sensaciones
corporales en el desarrollo de las emociones, sobre todo, las de carácter negativo (Tyrer,
1973). Además, fue precursora de otros planteamientos actuales que intentan explicar la
experiencia emocional.
Años más tarde, Walter B.Cannon (1871-1945) planteó una serie de objeciones al
modelo de James-Lange, como que la activación fisiológica es muy similar en diferentes
emociones y que los cambios corporales son relativamente lentos comparados con la
reactividad emocional; por tanto, la activación fisiológica por sí misma no es suficiente
para provocar el sentimiento emocional. Además, consideraba que los sentimientos y la
activación fisiológica eran componentes independientes de las emociones (Friedman,
2010). Sus ideas fueron complementadas por su discípulo Philip Bard (1898-1977)
dando lugar a la teoría de Cannon-Bard, según la cual, la percepción de un estímulo
provoca simultáneamente dos reacciones, la activación fisiológica y un sentimiento o
experiencia subjetiva acerca del significado emocional de ese estímulo. Según este
modelo, la percepción de la serpiente provoca simultáneamente taquicardia y sensación
de miedo. También esta teoría fue cuestionada al demostrar que, por ejemplo, la
inyección intravenosa de colecistoquinina provoca reacciones muy intensas de ansiedad
(Harro y Vasar, 1991). Actualmente, se considera que también la percepción del estímulo
puede verse influida por el estado emocional o por una activación fisiológica no
relacionada con el estímulo; por ejemplo, para alguien a quien asusta el campo cualquier
palo en el suelo puede parecerle una serpiente. Por otro lado, una activación fisiológica
puede provocar que le atribuyamos un carácter amenazador a un estímulo neutro; por
ejemplo, alguien que experimenta un cuadro de malestar (mareo, náuseas...) en un
ascensor por cualquier motivo, puede desarrollar miedo condicionado (fobia) y convertir
el ascensor en un estímulo amenazador.
299
y su capacidad emocional (su sensibilidad emocional). Según esta teoría, los circuitos que
soportan los marcadores somáticos se localizarían en la región ventromedial del lóbulo
frontal, ya que su lesión ocasiona una severa alteración de la capacidad de los sujetos
para tomar decisiones razonables (Bechara, 2004; Reimann y Bechara, 2010), lo que
hace que actúen de manera impulsiva. Damasio pone el énfasis en el papel que
desempeñan las emociones en la toma de decisiones ya que, contrario a la propuesta de
James-Lange, sí contempla la influencia inconsciente que los estados corporales tienen
sobre las decisiones que guían nuestra conducta.
300
Figura 13.1. Estructuras más relevantes del sistema límbico.
301
Durante mucho tiempo, los estudios sobre las bases cerebrales de las emociones se
limitaban a estructuras subcorticales, quizá debido al hecho de que estos procesos
estaban considerados como respuestas primarias que además, metodológicamente, era
complicado estudiarlas. Sin embargo, en las últimas décadas esta tendencia se ha
invertido, el papel de la corteza cerebral en las emociones ha cobrado relevancia
científica y ahora el abordaje de la experiencia y la conducta emocional ha despertado un
mayor interés. También, el estudio de las emociones se ha visto obstaculizado por la
abundancia de constructos psicológicos difíciles de operativizar para su utilización en
modelos animales (LeDoux, 2000) por lo que se ha recurrido a un tipo de conducta
emocional cuyas manifestaciones conductuales son fácilmente identificables en diferentes
especies, el miedo.
El miedo es una respuesta emocional básica ante cualquier amenaza que nos hace
tomar precauciones y prevenir potenciales peligros. Una de las características relevantes
en el síndrome de Kluver-Buey es la ausencia de miedo por parte de los animales
experimentales. Estímulos que antes de la operación provocaban respuestas de pánico
(por ejemplo, una serpiente de goma agitada por el experimentador), después de la
extirpación de la amígdala se convertían en juguetes que el animal exploraba con
curiosidad como con cualquier otro objeto dentro de su radio de acción. El miedo ha sido
un motor evolutivo fundamental ya que ha permitido la supervivencia; tanto es así que es
posible emitir respuestas emocionales ante un estímulo potencialmente dañino antes casi
de ser conscientes de su presencia. Esto ocurre gracias a la vía directa que hay entre el
tálamo y la amígdala que permite una rápida reacción que minimice el daño ante el
peligro, antes incluso de que las áreas corticales procesen el estímulo y le atribuyan
significado. Seguro que en alguna ocasión hemos dados un respingo ante una sombra o
un objeto que luego ha resultado ser inocuo. Cuando se produce una asociación
inadecuada entre la respuesta de miedo y determinados estímulos no peligrosos o
amenazantes estamos ante lo que se conoce como miedo condicionado (respuesta
emocional condicionada), es una fobia. La amígdala es importante para el aprendizaje
por condicionamiento emocional, pero su lado oscuro es la aparición de conductas
302
fóbicas (Demenescu et al., 2013; Schweckendiek, et al., 2011). En la mayoría de los
casos, las fobias se adquieren y se mantienen de acuerdo con los principios del
condicionamiento clásico, por asociación entre estímulos, y esos mismos principios son
los que se utilizan para corregirlas. De hecho, una de las técnicas más efectivas para
intervenir en estos problemas, la desensibilización sistemática, se basa en un
contracondicionamiento progresivo, es decir, asociar el estímulo fóbico con parámetros
fisiológicos contrarios a los del miedo, básicamente relajación.
Cuando se abandonaron los postulados que relacionaban las emociones con respuestas
básicas propiciadas por estructuras subcorticales y se buscó la implicación de áreas
corticales, la primera candidata fue la CPF. Dado que no existen dudas de la relevancia
que tienen las emociones a la hora de tomar decisiones y, en general, en la regulación de
la conducta, era lógico pensar que los circuitos tradicionalmente vinculados con las
emociones (estructuras límbicas) debían estar conectados con aquellos de nivel superior
que controlan el comportamiento, esto es, la CPF. Una de las evidencias más
contundentes fue proporcionada por las consecuencias del peculiar daño cerebral sufrido
por Phineas Gage, el segundo caso clínico más citado en la historia de la neuropsicología
después de Henry Molaison (H. M.). Phineas Gage trabajaba como capataz en la
construcción del ferrocarril en Estados Unidos y un día, colocando un barreno de pólvora
para volar unas rocas por donde debía discurrir el trazado de la línea, la barra de hierro
que utilizaba como atacador provocó una chispa haciendo que la pólvora estallara. La
barra metálica salió disparada como un proyectil y penetró en la cara de Gage por debajo
del pómulo y salió por la parte superior de su cabeza. Afortunadamente, sobrevivió al
accidente y, sorprendentemente, se recuperó en pocas semanas, sin embargo, algo
cambió en su forma de comportarse. Antes del accidente era un tipo responsable,
ordenado y sensato, pero se convirtió en un sujeto impulsivo, voluble, con frecuentes
ataques de mal humor y agresividad y cambios emocionales sin motivo aparente. La
barra había dañado la CPF de Gage, sobre todo la parte ventromedial, afectando a
circuitos que, de algún modo, debían de ser los responsables de su cambio de
personalidad y de sus perturbaciones emocionales.
Efectivamente, hay bastantes estudios que demuestran que las emociones no dependen
únicamente de áreas subcorticales, sino que también interviene la CPF, la cual mantiene
importantes conexiones con aquellas (Damasio el al., 2000; Mayberg el al., 1999).
Concretamente, las regiones orbital y medial de esta corteza son las más directamente
implicadas en la experiencia emocional (Fuster, 2001). Dado que las emociones resultan
fundamentales a la hora de tomar decisiones y organizar la conducta para alcanzar los
objetivos que nos proponemos, es necesario recordar el valor emocional de los mismos y
de otros componentes que intervienen en la conducta en ausencia de estímulos concretos
que provoquen estos estados emocionales. Es decir, si tengo hambre necesito saber qué
alimentos me gustan, dónde puedo conseguirlos fácilmente y qué esfuerzo o coste
emocional va a suponer su consecución. Edmund T.Rolls (2006), uno de los
303
neurocientíficos que más ha destacado en el estudio de las emociones tanto en humanos
como en modelos animales ha confirmado también este planteamiento a partir de datos
obtenidos en sujetos con lesiones cerebrales o en estudios basados en el
condicionamiento instrumental, es decir, observando la conducta de los animales para
obtener un refuerzo (agua o comida) o evitar un castigo (calambre en las patas),
consecuencias ambas emocionalmente atractivas para ellos.
Uno de los procedimientos que se utiliza con más frecuencia para tratar de conocer
mejor las estructuras cerebrales que participan en diferentes emociones es la presentación
de imágenes que muestran expresiones faciales o escenas con contenido emocional y
registrar la activación cerebral asociada al reconocimiento de las emociones
304
representadas. Un ejemplo de lo anterior podemos encontrarlo en el trabajo realizado por
M.Esslen y colaboradores (2004). Utilizando este procedimiento trató de comprobar qué
regiones cerebrales se activaban ante imágenes que representaban cinco de las emociones
básicas antes mencionadas (alegría, tristeza, asco, miedo y enfado) y si lo hacían de
manera simultánea o secuencial. Encontraron que emociones como la alegría, la tristeza y
el asco activaban extensas regiones en los lóbulos frontal y temporal y con patrones de
activación más diversos que el miedo o el enfado, con una distribución más restringida.
También encontraron una marcada activación en el polo temporal derecho (porción más
anterior del lóbulo temporal) o la corteza cingulada anterior ante imágenes que
representaban alegría, tristeza o asco, mientras que la corteza cingulada posterior lo hacía
únicamente ante alegría y tristeza. Además, también se activaban estructuras
subcorticales como el tálamo, el hipotálamo, los ganglios basales y el hipocampo, además
de la amígdala, quizá como consecuencia de sus conexiones recíprocas con las áreas
corticales implicadas. Una misma estructura cerebral puede estar implicada, aunque sea
de distinta manera, en más de una respuesta emocional dando lugar a diferentes
combinaciones de activación de los circuitos neuro hales (Murphy et al., 2003; Phan et
al., 2004) según el tipo, la intensidad y el contexto de la emoción. Es cierto que hay
estructuras que juegan un papel prominente como la amígdala, la corteza cingulada
anterior o el hipotálamo, pero sin olvidar a otras regiones de la CPF y estructuras
subcorticales o troncoencefálicas (Damasio, 1998) que se deben tener en cuenta para
comprender los circuitos emocionales. Estos estudios hay que tomarlos con cierta cautela
porque las técnicas utilizadas nos informan solo de que ciertas áreas muestran variaciones
en su actividad pero no de cuál es su papel exacto en el procesamiento que se está
llevando a cabo. Además, no es raro encontrar resultados aparentemente contradictorios
o que dejan más interrogantes que los que resuelven.
-Mayor implicación del HD. Hay un cierto número de investigaciones que consideran
que el HD es dominante para el reconocimiento de estímulos con contenido
emocional y también para la regulación del estado emocional. Buena parte de los
datos que apoyan esta idea provienen de investigaciones sobre el procesamiento de
las expresiones faciales, ya que han observado mayor expresividad en la mitad
izquierda de la cara controlada por el HD. También utilizando técnicas de registro
cerebral se ha demostrado que existe una mayor activación del HD cuando se
procesan estímulos emocionales y cuando se evocan experiencias emocionales.
305
-Implicación hemisférica diferente. Por otro lado están quienes consideran que hay una
implicación bilateral en la experiencia y la conducta emocional, pero con diferente
especialización. Según observaciones clínicas en pacientes con lesiones que afectan
solo a un hemisferio cerebral, el HD estaría especializado en procesar emociones
con significado negativo y el HI con significado positivo. La inhibición recíproca de
ambos hemisferios mantendría un equilibrio funcional en lo relativo a la conducta
emocional.
Como otros muchos conceptos que hemos venido manejando, no poseemos una
definición unánimemente aceptada de la motivación. Podemos entenderla como la fuerza
que guía la conducta para satisfacer una necesidad, entendiendo que su satisfacción
supone un estado positivo o agradable en oposición al estado o sentimiento de malestar
que ocasiona dicha necesidad. Para comprender qué entendemos por necesidad tenemos
que remitirnos al concepto de homeostasis que vimos en el capítulo 7. Cualquier
desequilibrio en el organismo pone en marcha una serie de mecanismos neurobiológicos
encaminados a restablecer el equilibrio; para ello es necesaria la participación de un
sistema detector que procesa diferentes señales relativas a los valores que se trata de
306
mantener y un sistema comparador que determina si esos valores están dentro de lo
normal o si se han desviado (Berridge, 2004). Si el sistema comparador encuentra algún
valor por encima o por debajo de sus niveles óptimos (punto de ajuste) induce un estado
de necesidad que pone en marcha una conducta encaminada a corregir dichos valores. Es
decir, si bajan nuestros niveles de glucosa (u otros nutrientes) experimentamos hambre,
lo que nos impulsa a comer. En humanos y en algunas otras especies animales este
sistema primario puede ser corregido y modulado por mecanismos cognitivos de control
superior, por ejemplo, experimento hambre pero no como porque quiero estar delgado.
La conducta que ponemos en marcha para satisfacer una necesi dad la denominamos
conducta motivada y podemos valorar la intensidad de la motivación en función del
esfuerzo o la complejidad del trabajo que tiene que realizar el sujeto para alcanzar su
objetivo. La conducta motivada busca consecuencias gratificantes, bien porque se
obtiene algo satisfactorio o bien porque se suprime o reduce la presencia de estímulos o
situaciones que ocasionen malestar; cuando ingiero comida disfruto de su sabor y dejo de
experimentar el malestar del hambre. Cuando se produce un estado de necesidad,
determinados circuitos cerebrales procesan las señales internas del organismo (sistemas
detector y comparador) y las procedentes del entorno para programar la conducta más
conveniente en cada momento. Estos circuitos no operan como un sistema reflejo de
procesamiento serial en el que un determinado estímulo produce una determinada
respuesta sino que la motivación implica un procesamiento de nivel superior que organiza
la conducta para garantizar la supervivencia y la adaptación (Kalivas et al., 1999). Y es
que la conducta motivada tiene que tomar en consideración no solo la relación entre la
necesidad y el modo de satisfacerla sino también el contexto, la oportunidad o el
coste/beneficio que implica su satisfacción inmediata.
Si no fuera por el placer que produce la ingesta de comida cuando tienen hambre o el
apareamiento, los animales dejarían de esforzarse para obtener comida (caza y defensa
de lo cazado) o para reproducirse (competitividad y peleas con otros sujetos de su
especie). No obstante, además de este circuito primario que responde a necesidades
básicas (comida, bebida, sexo...) existe un circuito cerebral complementario mucho más
distribuido que contribuye a matizar esos impulsos en función de aprendizajes anteriores
(aquello me gustó), asignación de valencias a los reforzadores (no nos gusta lo mismo a
todos) o valoración del contexto (mejor en otra ocasión). Por ejemplo, el NAc recibe
proyecciones del hipocampo y de la amígdala entre otras estructuras (figura 13.2) que le
307
aportan información contextual y sobre los estados corporales. Gracias a las proyecciones
que envía a centros motores, el NAc actúa como un conector entre estructuras límbicas
(emocionales) y motóricas (Swanson, 2000). De este modo, cuando recibe señales
simultáneas de diversas estructuras que se activan en los estados de necesidad (CPF,
amígdala, hipocampo...), el NAc interviene en la programación de las conductas
necesarias para satisfacerlos (conducta motivada). La dopamina está considerada como el
neurotransmisor del placer porque el NAc recibe aferencias dopaminérgicas sobre todo
del área tegmental ventral (ATV), una estruc tura situada en el mesencéfalo junto a la
sustancia negra, el otro gran centro de neuronas dopaminérgicas. Los reforzadores
naturales (agua, comida, sexo...) incrementan los niveles de dopamina en el NAc, pero
también lo hacen otros estímulos como las drogas (alcohol, nicotina, opiáceos...) o
determinadas actividades y situaciones (jugar, estar con ciertas personas...). Diferentes
estudios con ratas y primates han demostrado que la novedad, las conductas
exploratorias o la ocurrencia de situaciones imprevistas pueden actuar como potentes
motivadores y provocar la liberación de dopamina en el NAc (Badiani et al., 2000;
Ljungberg et al., 1992).
Figura 13.2. Conexiones del núcleo accumbens, principal estructura del circuito de placer
en el cerebro. ATV: área tegmental ventral.
Los impulsos emocionales que ponen en marcha la conducta motivada pueden ser
modulados por circuitos prefrontales que valoran la oportunidad y la conveniencia de
satisfacer ese impulso de manera inmediata. La capacidad de negociar recompensas
inmediatas por otras mayores a largo plazo es una conducta aprendida y habitual en
humanos; sin embargo, influye mucho el tipo de consecuencia y el tiempo que transcurre
entre el momento presente y la posibilidad de que se presente la consecuencia. Si me
308
fumo un cigarro estoy valorando más el pequeño placer inmediato que me proporciona la
nicotina que el riesgo de cáncer que puede aparecer treinta años más tarde. Es lo que se
conoce como devaluación del refuerzo por demora (Reynolds, 2006); así, el valor
presente (positivo o negativo) atribuido a la consecuencia disminuye en función de la
duración del tiempo de demora requerido hasta que esta aparece.
La subjetividad del componente hedónico (qué nos gusta y cuánto nos gusta) tiene que
ver con nuestra memoria y con la asignación emocional que hacemos a los estímulos en
función de la experiencia. La región orbitofrontal juega un papel importante en este
proceso (Rolls et al., 2003) y su lesión provoca anhedonia, es decir, desinterés y ausencia
de sensaciones placenteras. Esto también ocurre en algunos trastornos psiquiátricos o en
drogodependientes donde los circuitos prefrontales están afectados. Estos circuitos suelen
estar en proceso de maduración durante la etapa escolar y especialmente en la
adolescencia. Por este motivo, no todos los estímulos tienen el mismo valor emocional ni
van a propiciar el mismo esfuerzo para su obtención en todos los sujetos. Este es uno de
los grandes problemas en educación, ser capaces de identificar los estímulos
motivacionales que pueden propiciar conductas académicas adecuadas. El cerebro está
diseñado para almacenar información y por tanto aprender. Saciar el instinto de aprender
es una conducta con una potente motivación, pero no hay pruebas concretas de que
aprender lengua o matemáticas implique motivaciones intrínsecas generalizadas. Ese es
unos de los desafíos en neuropsicología de la educación, ser capaces de generar
conductas motivadas hacia el conocimiento específico utilizando como base una
conducta instintiva, el impulso de aprender.
309
nos damos cuenta (o suponemos) qué sensación emocional expresan los demás hacia
nuestro comportamiento. Las emociones que expresa una persona tienen que ser
identificadas por otra y eso requiere una cierta habilidad. No es que sea muy dificil, ya
que desde los primeros meses de vida los bebés son capaces de reconocer las emociones
básicas, pero hay personas que en algunas circunstancias (disfunción cerebral) son
incapaces de hacerlo. El cerebro necesita interpretar lo que percibe para comprender la
situación y poder hacer predicciones acerca de lo que puede ocurrir. En este sentido,
reconocer el estado emocional de los demás ayuda a comprender sus intenciones y
programar conductas en consonancia.
El principal escaparate emocional de una persona es su cara (la cara es el espejo del
alma, o el chivato emocional), o mejor dicho, los gestos de su cara. Ya nos hemos
referido anteriormente a que las expresiones faciales de las emociones básicas son
universales, pero la sociedad y la cultura van incorporando matices que aportan algunas
diferencias entre unas culturas y otras. La habilidad para reconocer e interpretar
correctamente las expresiones faciales se va desarrollando durante la infancia y, a medida
que los niños crecen (maduran), van aprendiendo a acomodar sus expresiones faciales
según el contexto y lo socialmente correcto. En los primeros días de vida los bebés
pueden distinguir entre expresiones de alegría, tristeza y sorpresa y en tomo al quinto
mes manifiestan preferencia por las expresiones faciales que denotan felicidad frente a las
que expresan enfado; pocos meses después son capaces de distinguir la emociones
faciales que corresponden a la mayor parte de las emociones básicas (Erickson y
Schulkin, 2003). Además ya en estos primeros meses de vida es una herramienta de
comunicación mediante la cual el niño y la madre interactúan; el niño refuerza los
cuidados de la madre con expresiones de alegría y le comunica su malestar con gestos de
tristeza o enfado. Entre los 12 y los 18 meses, los niños aprenden a descifrar en las
expresiones faciales de los mayores señales de aprobación o reprobación hacia conductas
u objetos; el niño mira al padre o a la madre para ver qué cara ponen cuando hace
ademán de coger un objeto o realizar una conducta, como llevarse algo a la boca o
alejarse de ellos (Repacholi, 1998).
310
(Leppánen y Nelson, 2009). El papel de la amígdala es controvertido, sabemos sin lugar
a dudas que responde a expresiones amenazadoras, de miedo y, en general,
desagradables pero su papel ante otro tipo de expresiones no está claro. Por su parte, la
corteza orbitofrontal responde a un rango más amplio de expresiones faciales tanto de
signo positivo como negativo y además ejerce una regulación retrógrada sobre los
sistemas perceptivos.
En las relaciones sociales la interacción va más allá del mero reconocimiento del estado
emocional del otro, podemos llegar a sentimos como él, podemos compartir o
contagiamos de su estado emocional. Ya desde la infancia, los niños se echan a llorar si
ven hacerlo a otro niño y no podemos evitar ciertas sensaciones de malestar cuando
presenciamos el dolor ajeno. La empatía está considerada como la capacidad para
compartir las emociones del otro y es un componente fundamental de las relaciones
sociales. La empatía estaría articulada en tomo a dos factores:
311
las neuronas espejo (Rizzolatti y Craighero, 2004) vino a confirmar estos planteamientos.
Ya sabemos que las neuronas espejo son un tipo específico de neuronas descubiertas
inicialmente en la corteza premotora de monos que disparan tanto cuando el mono
ejecuta una acción como cuando observa a otro hacerlo. Este sistema de neuronas espejo
abarca otras áreas cerebrales como la corteza parietal y parece el responsable, aparte de
la empatía, del aprendizaje por imitación.
Está claro que la risa forma parte del repertorio comunicativo del ser humano y de
otros animales, o al menos, vocalizaciones o gritos que se asemejan a la risa humana.
Vilayanur Ramachandran, el prestigioso neurocientífico y divulgador de origen indio y
que posee un marcado sentido del humor, plantea la teoría de la falsa alarma (FA) para
explicar el origen de la risa (Ramachandran, 1998). Según él, la risa es el resultado
evolutivo de las vocalizaciones empleadas por los miembros de un grupo cohesionado
para comunicar a los demás que las consecuencias de un hecho inesperado o sorpresivo
son inocuas y no revisten peligro; el individuo utiliza la risa para comunicar a los demás
que se trata de una falsa alarma y que no necesitan gastar recursos energéticos porque no
existe peligro alguno. Según el autor, esto también permite comprender por qué la risa es
contagiosa (serviría para propagar el aviso, además del papel de las neuronas espejo) y
por qué inhibimos la risa en presencia de extraños (ajenos al grupo). Para justificar su
planteamiento, utiliza como argumento la estructura más o menos homogénea de los
chistes, gags o situaciones cómicas: una narración en la que se generan expectativas que
apuntan a un desenlace previsto y un giro sorpresivo al final, donde el desenlace, aun
siendo coherente con lo narrado, resulta totalmente inesperado. Esto implica que el
espectador tiene que comprender las implicaciones de lo narrado (que coja el chiste) ya
que si no carecerá de gracia para él. Además, el giro final de la historia debe ser inocuo
ya que a nadie le hace gracia un giro inesperado de los acontecimientos que tenga
312
consecuencias negativas. Además, esta teoría considera que la sonrisa es una forma
suavizada de risa consecuencia de un gesto agresivo interrumpido. Cuando un individuo
ve acercarse a otro hace una mueca agresiva (enseñar los colmillos, muchos mamíferos
lo hacen) pero al comprobar que es amigo y no supone un peligro interrumpe la mueca a
medio camino quedando la sonrisa. Posteriormente, esta sonrisa se convertiría en un
saludo ritual mediante el cual mostramos nuestra intención de no hacer daño al otro.
Claro, la teoría de la FA da por supuesto que hay un nivel cognitivo adecuado para
comprender la situación y, en consecuencia, entender el cambio de rumbo. Sin embargo,
¿qué ocurre con los bebés de corta edad'? Los recién nacidos son capaces de emitir
carcajadas a los pocos meses de vida y no parece que tengan una especial capacidad para
comprender determinados chistes, como mucho se ríen cuando les hacemos cosquillas o
gesticulamos delante de ellos. También deja de lado el hecho de que los bebés son
capaces de esbozar una sonrisa mucho antes de desarrollar la capacidad de reconocer
explícitamente quiénes son amigos o enemigos; sin embargo, sabemos que desde pocos
días después del nacimiento el bebé manifiesta preferencia por el rostro de la madre
frente a extraños. Nos encontramos en una controversia difícil de explicar. Hay otros
autores que consideran la risa y la sonrisa como elementos más de la comunicación que,
en este caso, tienen un marcado matiz afectivo (Meyer et al., 2007) y que puede
observarse en otras especies de mamíferos. En este caso, el énfasis se pone en el
componente comunicativo, ya que resulta dudoso pensar que los perros o, incluso, los
chimpancés tengan el necesario sentido del humor para comprender un chiste. Entonces
cabe preguntarse qué nos hace reír. Por supuesto un chiste, pero también una escena
cómica, las muecas de un mimo e, incluso, las cosquillas que no tienen componente
verbal ni visual alguno.
313
implicaría más recursos de un lado u otro según los casos.
Resulta difícil decantarse por una idea u otra ya que no parece que la risa sea un mero
recurso de comunicación afectiva o las consecuencia de una falsa alarma. ¿Hay alguna
posibilidad de conciliar ambas posturas? Quizá si recordamos que en la risa están
implicados los circuitos cerebrales de recompensa podemos especular que el contacto
físico y el juego con el bebé generan una sensación de placer que activa el circuito
primario, provocando la aparición de las expresiones y vocalizaciones características.
Dado que las expresiones faciales provocan señales de retroalimentación que activan a las
propias áreas implicadas directa e indirectamente, podríamos estar ante una primera
asociación entre el componente afectivo, el motor y un esbozo cognitivo que le permite al
bebé intuir que determinadas prácticas son placenteras (tanto recibir el contacto físico
como emitir carcajadas). Más adelante, iría adquiriendo más peso la teoría de la FA
cuando la capacidad cognitiva de anticipación se vaya desarrollando (hay diferentes
edades para comprender según qué chistes). Se necesita investigación más precisa para
desentrañar el papel de los circuitos cerebrales, la evolución y el objetivo de la risa.
La teoría de la FA se desmoronaría por sí sola si considerase que la risa solo sirve para
tranquilizar a la tribu ante un hecho inesperado. Ramachandran (2005) sugiere que,
obviamente, el mecanismo neurocognitvo y afectivo de la risa ha sido interiorizado por el
individuo y ha ido evolucionando para ser útil a otros propósitos, no solo comunicar la
falsa alarma. Esta capacidad de establecer relaciones novedosas podría ser reutilizada
para asociar categorías, conceptos o esquemas de forma novedosa e ir más allá de las
pautas tradicionales de pensamiento y conducta, es decir, podría ser el germen de la
creatividad. Además, también considera que la risa se puede utilizar como un modo de
defenderse de los contratiempos creando una falsa alarma paradójica (reírse de las
adversidades) como modo de reducir la reacción emocional ante consecuencias
negativas. La interiorización en este caso llevaría al individuo a un diálogo consigo mismo
en el que puede llegar a utilizar la risa como mecanismo psicológico defensivo ante sus
propias adversidades (risa nerviosa) intentando reducir la tensión de la situación.
314
El título de este apartado va a tener una doble interpretación. Por un lado, nos vamos
a referir al modo en el que las emociones facilitan el aprendizaje en general y, por otro, a
la adquisición de habilidades emocionales. No es un secreto para nadie que aquellas
experiencias que poseen un significado emocional intenso se almacenan de un modo más
rápido y duradero en el cerebro. Tampoco resulta novedoso decir que muchos niños y
adolescentes tienen problemas emocionales durante el desarrollo precisamente porque no
comprenden lo que están experimentando y tienen que enfrentarse a una vorágine
emocional que cambia sin aparente sentido y que les lleva del cielo al infierno sin motivo
evidente.
315
Figura 13.3. Conexiones de la amígdala con otras estructuras implicadas en los procesos
de memoria. Las flechas continuas indican conexiones directas, las discontinuas
conexiones indirectas y las claras neurorregulación endocrina.
316
discriminación como a la capacidad de expresión.
Es una lástima que solo de forma muy experimental se han ido realizando algunos
intentos por desarrollar este concepto e incorporarlo al currículo educativo. La educación
emocional es la asignatura pendiente de la mayoría de los colegios porque han dirigido
todos sus esfuerzos a la formación académica sin prestar atención a uno de los más
importantes motores de la conducta. Si hace unas décadas, la generalización de la
actividad física y el deporte en las escuelas fue un logro que poca gente recuerda ya, la
generalización de la educación emocional es el próximo desafío al que debe atender la
comunidad educativa. Según Rafael Bisquerra (2000), la educación emocional pretende
potenciar el desarrollo de las competencias emocionales como elemento fundamental del
desarrollo humano, con el objeto de capacitarle para la vida y con la finalidad de
aumentar su bienestar personal y social; parece que esta definición proporciona
argumentos suficientes que justifican su interés educativo.
317
un entorno en el que el niño se siente más cómodo para experimentar sin miedo a
cometer errores, pero también porque es un lugar donde se producen frecuentes
conflictos, generalmente sin mucha transcendencia, que pueden servir como
entrenamiento específico para aprender a resolverlos de un modo eficaz y satisfactorio,
con un coste emocional bajo y que sirve como preparación para enfrentarse a conflictos
que puedan tener consecuencias más graves. Es importante que los padres posean un
adecuado nivel de inteligencia emocional porque van a ser ellos quienes gestionen más de
cerca los progresos del niño en este aspecto. Sería recomendable que los padres
recibieran una formación adecuada al respecto porque si no es así, en el mejor de los
casos, no van a servir de ayuda a los niños y, en el peor, pueden ofrecer modelos
contradictorios si no coordinan su actuación con la que se lleve a cabo en el colegio.
318
319
El ser humano ha alcanzado un grado de desarrollo cognitivo tal que le permite
imaginar situaciones que no ha experimentado previamente y, a partir de ellas, esforzarse
por alcanzar determinados objetivos en los que ha depositado esperanzas de bienestar,
éxito o satisfacción personal. Estos objetivos pueden ir desde pequeñas aspiraciones (hoy
me gustaría llegar pronto a casa) hasta propósitos a más largo plazo y con implicaciones
determinantes para su vida (quiero cursar esta carrera). En cualquier caso, tanto para las
grandes metas como para los pequeños deseos, el cerebro necesita poner en marcha
mecanismos complejos que sean capaces de integrar información disponible en tiempo
real con otra almacenada en nuestra memoria. Tanto si el objetivo perseguido puede
alcanzarse de manera inmediata como si su consecución puede tener lugar en un plazo
considerablemente largo, es necesario seleccionar y poner en marcha las conductas
adecuadas para ello.
La mayoría de estas conductas forman parte del repertorio del sujeto, es decir, han
sido ejecutadas con anterioridad y por tanto aprendidas en mayor o menor grado, sin
embargo, a veces es necesario combinarlas y articularlas de manera novedosa en función
de la tarea a la que nos enfrentemos. En realidad es la actualización del clásico interés
científico por diferenciar entre conductas automáticas y conductas controladas, siendo las
primeras aquellas respuestas que emitimos sin necesidad de un control consciente pleno
por ser repetitivas mientras que las conductas controladas requieren atención e
intencionalidad. Cuando aprendemos un comportamiento nuevo (por ejemplo, conducir)
es necesario poner en juego múltiples procesos cognitivos en la fase inicial del
aprendizaje para después ir reasignando progresivamente parte de estos recursos a otros
procesos no implicados en la tarea (después de un tiempo conduciendo, podemos dedicar
parte de la atención a charlar con un acompañante o a pensar en el próximo examen).
Muchos de los procesos cognitivos necesarios para este tipo de conductas se engloban
bajo la denominación de funciones ejecutivas, un término no exento de controversia y
necesitado de un mínimo consenso científico que permita avanzar a las diferentes
disciplinas que se ocupan de su estudio en una dirección convergente. Prueba de ello es
la cantidad de literatura científica que genera (ver Tirapu-Ustárroz et al., 2012b) abordar
estos procesos desde ámbitos diversos y vincularlos con otros procesos cognitivos
(atención, memoria, emociones) y estados mentales normales o alterados (enfermedad
mental, trastornos del neurodesarrollo).
320
En este capítulo nos vamos a ocupar del funcionamiento ejecutivo como expresión del
más alto nivel de procesamiento cognitivo pero tratando de plasmar el importante papel
que desempeñan diferentes circuitos cerebrales implicados en el procesamiento de nivel
inferior. Podríamos utilizar la metáfora de un capataz que dirige una cuadrilla de
operarios; muy importante es el papel de la persona que dirige y coordina los trabajos de
los operarios, pero si estos no realizan su trabajo correctamente, el resultado final del
proceso va a ser deficiente. Con frecuencia se vincula el concepto de inteligencia al de
funciones ejecutivas, pero si un concepto es escurridizo el otro no lo es menos. Desde
quienes equiparan ambos conceptos a quienes establecen diferentes relaciones entre ellos,
también en este caso el consenso es escaso. No obstante, es inevitable contemplar el
papel de ambos constructos y tratar de clarificar en lo posible el papel que los circuitos
cerebrales desempeñan en cada uno de ellos y el modo en que el cerebro expresa
conductas inteligentes.
321
funciones como un constructo si no unitario, al menos coherente. El resultado son
múltiples modelos explicativos de lo que cada autor, o autores, consideran que es el
funcionamiento ejecutivo (por ejemplo, ver Tirapu-Ustárroz et al., 2012a y Funahashi y
Andreau, 2013). Aunque ciertos modelos tratan de proporcionar una descripción
aglutinadora, otros son meras descripciones del conjunto de procesos que se pueden
englobar bajo el concepto de funciones ejecutivas, como por ejemplo, ejecución de una
conducta en una situación novedosa, planificación, resolución de problemas, anticipación,
inhibición conductual, memoria prospectiva o control de la atención, entre otros.
1.El control ejecutivo es necesario para afrontar tareas novedosas que requieren
establecer un objetivo, diseñar un plan y elegir entre varias acciones alternativas
para alcanzarlo.
3.El control ejecutivo es necesario para iniciar secuencias conductuales nuevas y para
interrumpir otras que estén siendo ejecutadas. Es posible suprimir, inhibir o sustituir
determinadas respuestas habituales y automáticas por otras nuevas más adecuadas a
las demandas de la tarea.
6.Las funciones ejecutivas son necesarias para supervisar la ejecución de las tareas y
corregir errores, modificar planes cuando vemos que empiezan a no ser tan
322
efectivos o reconocer oportunidades para cambiar hacia objetivos más apetecibles y
diseñar los nuevos planes para alcanzarlos. En este caso, la habilidad va más allá de
corregir un error sobre la marcha puesto que implica anticipar cuándo una acción
puede fallar en su propósito.
No obstante, el propio autor es crítico con estos acercamientos ya que considera que
con esta relación de características se produce un acercamiento a los resultados del
funcionamiento ejecutivo pero sique faltando un acercamiento conceptual a la esencia
misma de este concepto. Asume las dificultades metodológicas para evaluar las funciones
ejecutivas por la cuestionable fiabilidad y validez de las pruebas que se suelen utilizar con
más frecuencia. No hay que olvidar que una mayoría de estas provienen del ámbito
clínico y son poco discriminativas en población normal o que las consideraciones sobre el
funcionamiento ejecutivo de un paciente siempre presentan dificultades de interpretación
porque se desconoce, en la gran mayoría de los casos, su rendimiento en esas tareas
antes de la lesión. Por ejemplo, una persona puede mostrar un alto grado de
desinhibición después de una lesión cerebral pero no tenemos datos de su nivel de
impulsividad previo más allá de las descripciones proporcionadas por su familia.
323
directa o indirectamente con las funciones ejecutivas, Tirapu-Ustárroz y colaboradores
(2002) proponen un modelo de funcionamiento ejecutivo que incorpora algunos de los
postulados que formulan los modelos anteriormente referidos (figura 14.1). Según este
modelo, los estímulos familiares (para los que existen representaciones en la MLP) ponen
en marcha respuestas automáticas con diferente grado de complejidad aprendidas
previamente; estas respuestas no requieren una participación activa de la consciencia y
permiten explicar buena parte del comportamiento habitual. Las decisiones necesarias
para estas conductas estarían mediadas por el DC que proponen Norman y Shallice pero
incorporando componentes de la MT. En este caso no intervendría el marcador somático
(MS) porque estamos hablando de respuestas sobreaprendidas que ya llevan incorporada
su particular etiqueta emocional y ponen en marcha circuitos que rememoran esa etiqueta
(bucle "como si"); no es necesario integrar las señales somáticas como ocurre cuando se
trata de una situación novedosa y tenemos que optar por una de varias opciones posibles.
Cuando se trata de una situación novedosa es cuando entra en juego el SAS que actuaría
como el ejecutivo central de la MT regulando una secuencia de acciones configurada por
los procesos de anticipación, selección de objetivos, planificación y supervisión. Ahora
no existen respuestas previamente aprendidas que puedan aportar una solución exitosa,
por lo tanto hay que generar posibles acciones y elegir la que aparentemente tenga más
probabilidades de acercamos al objetivo. Aquí sí interviene el MS ya que cualquiera de
las posibles opciones de respuesta puede suponer un valor o coste emocional según las
consecuencias previstas para cada una de ellas, lo cual va a condicionar su elección. Así,
en palabras de los autores, las funciones ejecutivas actúan como un sistema distribuido
donde el funcionamiento del SAS y la MT generan posibilidades y el MS refuerza la
atención hacia una de ellas (Tirapu-Ustárroz et al., 2002).
324
Figura 14.1. Esquema adaptado del modelo de funcionamiento ejecutivo propuesto por
Tirapu-Ustárroz et al. (2002). AVE: agenda visuoespacial; BFL: bucle fonológico; DC:
dirimidor de conflictos; MLP: memoria a largo plazo; SAS: sistema atencional supervisor.
325
soporten estos procesos parece un buen camino pero todavía persiste una cierta dificultad
a la hora de caracterizar neurofisiológicamente estos procesos. Cuando se buscaban las
áreas cerebrales responsables de la memoria o el lenguaje se llegó a la conclusión de que
había que desmenuzar los procesos (percepción del sonido, identificación como lenguaje,
comprensión de las secuencias sonoras...) para identificar los circuitos neuronales (redes)
implicados. Probablemente tengamos que hacer ese mismo camino en el caso de las
funciones ejecutivas y reformular los procesos en términos más elementales. Mucho se
ha hecho ya, pero quizá todavía sea insuficiente.
-Lateral: en la zona externa de la CPF, suele dividirse en porción dorsal (CPFDL), que
se corresponde aproximadamente con las áreas 9 y 46 de Brodmann (9B y 46B) y
porción lateral (CPFVL), localizada en las áreas 45B, 47B y parte de la 44B. En
algunas de estas regiones no queda clara la frontera entre áreas prefrontales y
motoras, especialmente con la premotora.
-Medial: en la cara interna de los hemisferios cerebrales (áreas 24B, 32B y 33B),
incluye la corteza cingulada anterior (CCA). Esta región, al igual que el resto de la
circunvolución del cíngulo, se ha considerado habitualmente como parte integrante
del sistema límbico, sin embargo, a medida que se conoce más acerca de su
implicación en el funcionamiento ejecutivo se la considera con más frecuencia
como parte de la CPF. En algunas descripciones neuroanatómicas se considera
326
también la región subcallosa paraolfatoria (área 25B) como parte de esta región
medial.
-Orbital: en la base de los lóbulos frontales, sobre las órbitas de los ojos (de ahí su
nombre), comprende las áreas liB, 12B, 13B y 47B. También en este caso se suele
acudir a localizaciones ventrales, mediales y dorsales.
La porción más anterior de los lóbulos frontales (área 10B) conocida como polo frontal
o región frontopolar es una de las áreas menos estudiadas a pesar de ser la más grande de
la CPF. Incluso anatómicamente unas veces se la considera como parte de la región
lateral y otras directamente se la ignora. Es la región que ha mostrado mayor crecimiento
a lo largo de la evolución, presenta una densidad sináptica superior a otras áreas
corticales y está estrechamente interconectada con el resto de áreas prefrontales
(Ramnani y Owen, 2004) por lo que se la considera como la cúspide funcional dentro de
la organización jerárquica del procesamiento de la información (Badre y D'Exposito,
2007).
327
Figura 14.2. Principales subdivisiones de la corteza prefrontal en vistas lateral y sagital.
La CPF está estrechamente conectada con el resto del cerebro. Mantiene conexiones
recíprocas con áreas sensoriales auditivas, visuales y somatoestésicas, con áreas motoras,
con estructuras subcorticales y con las áreas multimodales implicadas en las emociones y
la MLP (Elliott, 2003; Groenewegen y Uylings, 2010; Yeterian et al., 2012). Está en una
posición ideal para poder integrar la información procedente del exterior y del interior del
organismo. Además, existe una densa red de conexiones internas entre las diferentes
regiones de la CPF que permite la coordinación y supervisión de un alto número de
procesos cerebrales. Es por tanto una región crítica para el funcionamiento ejecutivo
porque controla y supervisa el funcionamiento de muchos circuitos neurales distribuidos
por la corteza cerebral y en estructuras subcorticales (Funahashi y Andreau, 2013), lo
cual es una característica neurofuncional importante en estos procesos. No obstante, el
correcto funcionamiento ejecutivo no solo depende de la integridad de los circuitos
prefrontales, sino también de que el resto de estructuras implicadas no presenten
alteraciones funcionales.
328
representaciones en las redes distribuidas por otras regiones cerebrales. De este modo, la
CPF crea representaciones flexibles que integran la información presente, los estados
internos del organismo y las posibles acciones para realizar la tarea (Miller, 2000). En
este sentido, el propio Fuster (2000b y 2007) al explicar su modelo de redes neurales
hace alusión a ello y considera que la conducta ejecutiva está representada
jerárquicamente en la corteza de los lóbulos frontales y que interactúa estructural y
funcionalmente con los circuitos sensoperceptivos de las regiones posteriores del cerebro.
Para ello relaciona la CPF con los circuitos motores del lóbulo frontal donde las neuronas
de la corteza motora primaria almacenan representaciones de movimientos simples, las
áreas premotoras representaciones más complejas de secuencias de movimientos y la
CPF patrones de acción relacionados con la organización de la conducta.
Ya hemos visto que las funciones ejecutivas agrupan diversos subprocesos y que la
CPF es una estructura compleja y bastante heterogénea (Petrides et al., 2012). Ambos
hechos llevan a muchos autores a considerar que diferentes regiones de la CPF estarían
implicadas en diferentes aspectos del funcionamiento ejecutivo. Aunque no es un
planteamiento generalmente aceptado (Duncan y Owen, 2000), hay numerosas
investigaciones que, mediante diferentes procedimientos, han llegado a la conclusión de
que existe una cierta especialización funcional entre los circuitos prefrontales (Hoshi,
2006; Zysset et al., 2003). La región lateral (especialmente la porción dorsal) es la que
con más frecuencia se vincula a procesos cognitivos en sentido estricto (MT, flexibilidad
329
cognitiva, monitorización...) puesto que mantiene conexiones recíprocas con áreas
sensoriales primarias y multimodales. Por su parte, las regiones orbital y medial se
relacionan habitualmente con la conducta social y el procesamiento de señales
emocionales para organizar la conducta y tomar decisiones, para lo cual mantiene
conexiones recíprocas con las estructuras del lóbulo temporal.
Aunque están claramente relacionadas con procesos como la MT, las porciones dorsal
y ventral de la CPF lateral muestran diferentes implicaciones funcionales (Owen, 1997;
Wagner et al., 2001). La región CPFVL se ocuparía de la recuperación y el
mantenimiento de información (representaciones) almacenada en las regiones posteriores,
mientras que la CPFDL sería la responsable de supervisar y manipular dichas
representaciones (Elliott, 2003). En cualquier caso, ambas regiones participan también en
otros procesos ejecutivos además de la MT. Por otro lado, las regiones orbital y medial
son más difíciles de estudiar pero Zald y Andreotti (2010) realizaron una revisión de
diferentes investigaciones neuropsicológicas al respecto y concluyeron que estas regiones
se veían implicadas en aspectos tales como la capacidad de modificar asociaciones entre
un estímulo y un reforzador, la conducta social o los componentes emocionales de la
personalidad. Menor volumen de investigación se ha dedicado a la región prefrontal
anterior o rostral (área 10B) a la que se ha vinculado con la capacidad de realizar varias
actividades simultáneamente (multitarea), concretamente con la capacidad de mantener
en mente objetivos de alto nivel mientras se trabaja en objetivos parciales o subsidiarios
(Burgess et al., 2007). No obstante, también se ha relacionado esta región con la
memoria prospectiva (Burgess et al., 2003) o con la teoría de la mente (Roca et al.,
2011). Al fin y al cabo son aspectos que están relacionados funcionalmente puesto que la
memoria prospectiva nos permite mantener actualizada la información acerca de
necesidades o acciones futuras de cara al logro de objetivos mientras que la teoría de la
mente nos permite modular y ajustar esos objetivos en función de los demás,
incorporando a nuestros planes las intenciones, deseos y sentimientos que interpretamos
en su comportamiento. Sí parece entonces que esta región estaría en los niveles
jerárquicos más altos del funcionamiento ejecutivo.
330
de cualquiera de estos procesos donde interviene el control ejecutivo, lo cual se
demuestra por la participación de circuitos prefrontales en su ejecución.
No queremos cerrar este apartado sin hacer alusión a la MT, un proceso al que ya nos
hemos referido en el capítulo 11 para dejar claro que no se puede considerar como un
proceso de memoria sino que se encuadraría dentro de las funciones ejecutivas. De
hecho, algunos modelos propuestos de funcionamiento ejecutivo se pueden considerar
equivalentes o sinónimos del proceso de MT. Quizá sea el mejor ejemplo de cómo un
sistema de nivel superior gestiona, coordina e integra diferentes procesos cerebrales para
331
alcanzar un objetivo. En este caso, como ya hemos expuesto antes (ver figura 11.2), el
ejecutivo central es capaz de mantener en mente información presente en el momento y
recuperar otra de la MLP para poder llevar a cabo una tarea. Por ejemplo, cuando un
alumno está tomando apuntes en clase necesita mantener en mente las explicaciones del
profesor mientras recupera información de su MLP no solo para poder transcribir las
notas (esquemas lingüísticos sensoriomotores y semánticos) sino también para vincular lo
escuchado con el conocimiento de la materia que ya tiene almacenado; todo ello para, en
unos instantes, decidir qué anotaciones va a realizar para posteriormente poder
reconstruir la explicación de la manera más precisa posible.
332
otros (teoría de la mente). Considera que el comportamiento inteligente depende en
buena medida del reconocimiento de patrones, es decir, de la habilidad para encontrar
elementos familiares conocidos en situaciones novedosas y poder actuar en
consecuencia. Los lóbulos frontales almacenarían esos patrones y al reconocer elementos
concretos en una situación nueva pondrían en marcha acciones que ya fueron útiles en el
pasado (adaptadas a las características de los nuevos elementos) para actuar de manera
eficiente. En términos similares argumenta José Anto nio Marina (2012) cuando se
refiere a la inteligencia ejecutiva en el ámbito educativo junto con la inteligencia cognitiva
y la emocional. Propone que la inteligencia es la capacidad de dirigir bien el
comportamiento, eligiendo las metas, aprovechando la información y regulando las
emociones, es decir, está planteando una definición de la inteligencia que incorpora
conceptos ejecutivos y además, considera que es algo que se puede entrenar durante el
periodo educativo.
Los pacientes que han sufrido una lesión cerebral que afecte a áreas de la CPF no
suelen mostrar alteraciones significativas de su CI ni de su capacidad de MLP;
igualmente tampoco manifiestan alteraciones significativas en su capacidad
sensoriomotora o en habilidades lingüísticas. Sin embargo, cuando tienen que afrontar
tareas novedosas o elegir entre varias opciones para resolver un problema sí que
manifiestan una incapacidad notable. Esto ha llevado a pensar que no hay evidencias
empíricas para sostener la relación entre actividad prefrontal e inteligencia y que los
circuitos cerebrales responsables de esta última hay que buscarlos por todo el cerebro. Es
cierto que las redes neurales de la inteligencia hay que localizarlas por todo el cerebro, sin
embargo no es cierto que la CPF no juegue un papel determinante, lo hace y la
explicación radica en el tipo de pruebas que se suelen utilizar para establecer el CI de los
sujetos. No todas las pruebas que se utilizan para evaluar funciones ejecutivas
correlacionan con medidas de CI. Un estudio realizado con 121 adolescentes a los que se
les evaluó con la batería neuropsicológica de Halstead-Reitan, demostró que unas tareas
correlacionaron más que otras con el CI de los estudiantes (Seidenberg et al., 1983).
Concretamente, comprobaron que las pruebas que requerían habilidades lingüísticas,
resolución de problemas o agilidad mental mostraron una correlación mayor con medidas
de CI que las que evaluaron habilidades perceptivas, motoras o visoconstructivas. Esto
nos recuerda que el concepto de funcionamiento ejecutivo engloba muchos subprocesos
y que el hecho de contemplarlos como un constructo unitario se viene abajo con este tipo
de comparaciones.
333
actualizar información en la MT. El modelo de referencia es uno de los denominados
factoriales, llamado así porque trata de identificar los componentes de las funciones
ejecutivas a partir de análisis factoriales realizados sobre los resultados de diferentes
pruebas que miden este funcionamiento en diferentes condiciones experimentales. Los
autores identificaron tres factores:
334
adecuado desarrollo de la CPF es el que permite el funcionamiento ejecutivo y la
conducta inteligente, pero ¿se puede considerar a la CPF como sede cerebral de la
inteligencia?
335
adquisición de conocimiento se hace de manera progresiva pero a través de la inteligencia
fluida, la cual determina la eficacia de esa adquisición (Carroll, 1993). Este tipo de
inteligencia refleja la capacidad que posee un sujeto para el razonamiento abstracto y
creativo y resulta afectada seriamente como consecuencia de las lesiones frontales, por el
contrario, las habilidades cristalizadas, los resultados de aprendizaje, son menos
dependientes del funcionamiento prefrontal.
El hecho de que se haya encontrado una correlación positiva entre pruebas que miden
diferentes habilidades es lo que ha llevado a sustentar el concepto de factor g de
Spearman, lo cual hace suponer que debe existir un soporte cerebral para dicho factor.
La observación de pacientes con daño frontal que obtienen puntuaciones CI dentro de lo
normal parece descartar esta región cerebral, sin embargo, ya hemos dicho que el
problema está en el modo en que se mide la inteligencia; pacientes con daño frontal que
obtuvieron puntuaciones elevadas en tests clásicos de inteligencia como la escala de
Wechsler (WAIS) puntuaron significativamente bajo en tareas que requerían resolución
de problemas novedosos o inteligencia fluida (Duncan et al., 1995). Esto significa que la
mayoría de los tests que se utilizan habitualmente para medir inteligencia en realidad solo
proporcionan datos sobre la inteligencia cristalizada que es menos dependiente de la
integridad de la CPF, mientras que la inteligencia fluida, más cercana al concepto de
factor g, es más sensible a las lesiones en esta zona. Ya hemos visto que la región lateral
de la CPF se ocupa principalmente de los componentes más cognitivos de las funciones
ejecutivas, especialmente la MT. En un estudio en el que participaron pacientes con daño
cerebral que afectaba a la CPFDL (Barbey et al., 2013) se encontró que estos obtenían
peores resultados que sujetos sin daño cerebral en pruebas de inteligencia general y
funciones ejecutivas. Los autores consideran que el factor g es en realidad el resultado de
la actividad combinada de diversos subprocesos cognitivos, los cuales son soportados por
redes cerebrales ampliamente distribuidas donde la CPFDL juega un papel relevante.
También hay otros estudios con neuroimagen que demuestran la activación de la CPFDL
cuando se realizan tareas que implican inteligencia fluida (Esposito et al., 1999; Duncan
el al., 2000). Parece pues que la CPF ocupa un lugar relevante en los circuitos cerebrales
de la inteligencia aunque no sea la única región implicada.
336
rendimiento intelectual no depende de la utilización de más áreas cerebrales sino del
fortalecimiento de las conexiones entre las regiones frontales y parietales. Parece claro
que la inteligencia superior podría estar determinada por una mayor eficiencia en la
transferencia de la información entre áreas cerebrales, lo que implica una organización
estructural de los circuitos cerebrales que facilite el flujo de información (autopistas
frente a caminos) tanto entre áreas próximas como entre áreas distantes. Esta
organización también se puede comprobar cuando el cerebro está en reposo, es decir,
cuando no está sometido a ninguna exigencia cognitiva. Un estudio con neuroimagen
funcional comprobó que existían diferencias individuales en la conectividad cerebral en
reposo según el nivel intelectual de los sujetos (Song et al., 2008). Analizaron la fuerza
de las conexiones entre la CPFDL y otras áreas cerebrales y buscaron correlaciones con
el nivel intelectual de los sujetos; encontraron correlaciones positivas especialmente en
regiones frontales y parietales y comprobaron que, tanto la conectividad intrínseca de la
CPFDL como la conectividad entre esta región y áreas corticales posteriores, eran
indicadores fiables del nivel de inteligencia de los sujetos. Cuando se habla de inteligencia
superior a lo normal, superdotación o altas capacidades hay que abandonar el concepto
tradicional y considerar que estamos ante niños que pueden expresar su maestría en
múltiples direcciones (Martín Lobo, 2004), es decir, no solamente destacan en una
habilidad o capacidad concreta (lenguaje, matemáticas, razonamiento...) sino también en
un abanico de ellas que implican a circuitos cerebrales diversos.
Está claro pues que la inteligencia depende más de la conectividad entre estructuras
cerebrales que del funcionamiento intrínseco de estas. Los estudios con técnicas de
neuroimagen han relacionado medidas de inteligencia general con la actividad de una red
neuronal que incluye regiones frontales y parietales (Woolgar et al., 2010). La teoría de la
Integración Parieto-Frontal de la inteligencia (PFIT, del inglés Parieto-Frotal Integration
Theory) desarrollada por Jung y Haier (2007) en un intento de integrar los resultados
obtenidos en numerosos trabajos de investigación, describe una red de estructuras
interconectadas que se acerca bastante a lo que se puede considerar el circuito de la
inteligencia. Los autores parten de la premisa de que los seres humanos obtienen la
información más relevante para su funcionamiento cognitivo a través de los canales
visual y auditivo, por lo que las áreas sensoriales asociativas respectivas (áreas 18B, 19B,
22B, 37B) intervendrán en el reconocimiento, la percepción y la elaboración de los
estímulos correspondientes. El resultado del procesamiento de esta información es
transferido a regiones parietales (áreas 7B, 39B y 40B) donde, de la integración de estas
señales, surgen representaciones abstractas y simbólicas más complejas. La corteza
parietal mantiene conexiones con áreas frontales (por ejemplo, 6B, 9B, IOB, 45B, 46B y
47B) las cuales se ocupan de evaluar posibles opciones de respuesta ante un problema
determinado. Cuando se ha encontrado una respuesta que se considera adecuada, la
corteza cingulada anterior (32B) pone en marcha esta respuesta al tiempo que inhibe
otras automáticas que no son adecuadas. Por último, el modelo recalca la importancia de
las conexiones entre estas áreas para que la transmisión de las señales se haga de manera
337
fluida y sin cometer errores. Es decir, es importante el procesamiento de la información
que se realiza en las regiones correspondientes pero también lo es, incluso más, que
dichas regiones puedan intercambiar señales entre ellas de manera ágil y precisa para que
el resultado sea una conducta inteligente.
Figura 14.3. Circuitos cerebrales para la inteligencia según el modelo P-FIT. (adaptado a
partir del texto e imagen de Jung y Haier, 2007).
338
Parece razonable pensar entonces que la inteligencia es el resultado del correcto
funcionamiento de diversos circuitos cerebrales a la hora de procesar información y de la
capacidad del sistema para difundir los resultados de ese procesamiento de manera
precisa y rápida entre esos circuitos.
339
-Espontáneo/cognitivo (E/C): la asociación casual de representaciones sensoperceptivas
puede dar como resultado una combinación creativa (se enciende la bombilla).
Por supuesto que estos cuatro perfiles creativos no son independientes entre sí sino
que están estrechamente interrelacionados hasta el punto de que, lo normal es que
cualquier experiencia creativa sea el resultado de una cierta combinación de parte de
estos componentes más que de un perfil puro.
¿En qué medida o de qué modo están relacionadas inteligencia y creatividad? Este ha
sido y es un tema de debate importante y las conclusiones a las que llegan unos y otros
no suelen satisfacer a todos. Nuevamente el problema conceptual es el que lastra la
posibilidad del consenso. La teoría del umbral sostiene que la creatividad requiere un
nivel de inteligencia alto o al menos por encima de la media como requisito
imprescindible, pero no suficiente (Guildford, 1967). Claro, otra vez el problema es
cómo medimos la inteligencia, si se trata de inteligencia fluida o cristalizada (o ambas) y a
qué componentes de la creatividad (en el caso de aceptar la propuesta de Dietrich) nos
estamos refiriendo al buscar relaciones. Un estudio que trataba de relacionar el factor g
con diferentes tareas que requerían soluciones creativas (por ejemplo, usos posibles de
un secador de pelo) confirmó parcialmente la teoría del umbral (Jauk el al., 2013).
Encontraron que, efectivamente, el comportamiento creativo se manifestaba en sujetos
con un nivel intelectual alto pero, a partir de cierto umbral, lo que determinaba la
creatividad parecía estar más relacionado con la personalidad de los sujetos.
Quizá la solución tengamos que alcanzarla por la vía neuropsicológica, buscando las
redes neurales responsables y si son similares a las implicadas en la inteligencia y en el
funcionamiento ejecutivo. La creatividad surge de procesos cognitivos normales por lo
que se puede abordar como estos desde el ámbito de la psicobiología, en general, y la
neuropsicología, en particular. Como en otros procesos mentales, las técnicas de
neuroimagen han proporcionado un considerable avance en el conocimiento de los
circuitos cerebrales responsables de la creatividad. También como en otros procesos
mentales, resultaría inútil buscar una es tructura cerebral donde resida la creatividad, en
lugar de eso hay que identificar los circuitos implicados y comprender, en la medida de lo
posible, el papel de cada uno de ellos. Partiendo entonces de estas premisas hay que
suponer que intervienen los mismos circuitos que soportan los procesos cognitivos
normales. Sin embargo, al considerar la creatividad como la capacidad de combinar de
forma novedosa información previamente conocida, es de suponer que algún circuito
cerebral debe ser el que active y relacione de manera novedosa los circuitos que soportan
las representaciones de la información conocida.
340
La creatividad puede surgir espontáneamente como hemos comentado pero en otras
ocasiones es el resultado de un esfuerzo dirigido a la resolución de un problema o al logro
de un objetivo. Este primer punto vincula, aunque de modo elemental, el funcionamiento
ejecutivo con la creatividad ya que en ambos casos está implicada la CPF. Esta área será
la que, echando mano de la información almacenada en la MLP, generará posibles
soluciones para dicho problema. Por lo tanto, además de la CPF intervendrían también
las regiones corticales posteriores parieto-temporo-occipitales y límbicas donde se
almacenan las representaciones de memoria y las emociones. Damasio (2001) considera
crucial la MT para la creatividad ya que permite mantener en la mente la información
necesaria para resolver un problema. Las lesiones de la CPF ocasionan un tipo de
alteraciones cognitivas que se denominan perseveraciones (Barceló y Knight, 2002), que
consisten en repetir una conducta a pesar de que con ella no se alcanza el objetivo
perseguido. La creatividad se caracteriza por todo lo contrario, ante una conducta que no
resulta eficaz, se generan rápidamente nuevas alternativas para alcanzar el objetivo.
La MT suele operar con esquemas conocidos pero que, según las demandas de la
tarea, pueden ser combinados de manera novedosa. Nuevamente estamos usando
conceptos intercambiables puesto que estas combinaciones novedosas ya hemos dicho
que son propias de la creatividad. Una combinación novedosa implica cambiar esquemas
de conducta ya utilizados, es decir, sustituir ciertos esquemas que han demostrado su
utilidad en algún momento del pasado e incorporar de manera, digamos, experimental,
nuevas acciones. La posibilidad de ejecutar estos cambios depende claramente de
regiones prefrontales, concretamente de la CPF medial y el cingulado anterior (Bissonette
et al., 2013), pero también intervienen áreas parietales (Asari et al., 2005). Además, para
poner en marcha una conducta novedosa hay que inhibir respuestas automáticas o
inadecuadas que puedan interferir con la acción programada; también son las regiones
prefrontales las que se ocupan de ello (Rodrigo et al., 2014). Por último, la creatividad
requiere flexibilidad cognitiva para poder generar combinaciones poco habituales e
integrar representaciones que no parecen compatibles a priori pero que resultan eficaces.
A nadie va a sorprender ya que digamos que es la CPF la que permite este proceso
(Logue y Gould, 2013). Tenemos entonces las mismas regiones a las que, de un modo u
otro, nos venimos refiriendo a lo largo del capítulo, pero también hemos hablado, tanto
en el caso de funciones ejecutivas como de la inteligencia, de la importancia de la
conectividad para que estos procesos tengan lugar de manera eficiente. Un trabajo de
Takeuchi et al. (2010) encontró una alta correlación entre la integridad de la sustancia
blanca cerebral y el rendimiento en pruebas de pensamiento divergente, considerado este
como una medida fiable de la creatividad de un sujeto.
341
necesario ahora elaborar estudios que incorporen hipótesis creativas y diseños inteligentes
para seguir progresando en esta dirección.
342
343
Con el propósito de poner en práctica unos principios ecológicos, económicos y
prácticos, el listado completo y actualizado de las fuentes bibliográficas empleadas por el
autor en este libro se encuentra disponible en la página web de la editorial:
www.sintesis.com.
Del Abril, A., Ambrosio, E., Blas, M. R., Caminero, A. A., García, C. y de Pablo, J. M.
(2011). Fundamentos de Psicobiología. Madrid, Sanz y Torres.
Martín Lobo, P. (2004). Niños inteligentes. Guía para desarrollar sus talentos y altas
344
capacidades. Madrid, Ediciones Palabra.
Mora, F. (2008). El científico curioso: la ciencia del cerebro en el día a día. Madrid,
Temas de Hoy.
345
Índice
Prefacio 15
Abreviaturas más frecuentes 18
1. Introducción a la psicobiología 22
1.1. Concepto de psicobiología 24
1.2. La psicobiología en la historia 26
1.2.2. El surgimiento de la psicobiología, 29
1.3. Psicobiología, neurociencia y disciplinas relacionadas 39
1.4. Psicobiología y educación 40
2. Investigación psicobiológica en educación 43
2.1. Medición de la conducta en psicobiología 45
2.1.2. Evaluación conductual en modelos animales, 46
2.1.3. Evaluación neuropsicológica, 55
2.2. Estudio de la estructura y la actividad del sistema nervioso 59
2.2.2. Técnicas funcionales, 62
2.3. Investigación neuropsicológica en educación 66
2.3.1. Investigación y neuromitos, 66
2.3.2. Investigación aplicada, 68
3. Genes, herencia y conducta 71
3.1.1. Células, cromosomas y biomoléculas, 73
3.1.2. Expresión génica y epigenética, 76
3.2. Transmisión de los caracteres hereditarios 81
3.2.1. Leyes de Mendel, 81
3.2.2. Tipos de transmisión genética, 84
3.3. Alteraciones cromosómicas 88
3.4. Genes y conducta 89
4. Organización del sistema nervioso 94
4.1.2. Células filiales, 98
4.2.1. Comunicación intraneuronal, 99
346
4.2.2. Comunicación interneuronal, 103
4.3. Estructura del sistema nervioso 105
4.3.2. Sistema nervioso periférico, 107
4.3.3. Neuroanatomía funcional del sistema nervioso central, 108
5. Neurodesarrollo y cognición 116
5.1.1. Desarrollo estructural, 118
5.1.2. Diferenciación y maduración neuronal, 119
5.1.3. Desarrollo postnatal del sistema nervioso, 122
5.2. Ambiente, experiencia y desarrollo cerebral 124
5.2.1. Plasticidad en el sistema nervioso, 125
5.2.2. Periodos críticos o sensibles, 127
5.3. Desarrollo neurocognitivo 130
5.4. Vulnerabilidad del sistema nervioso durante el desarrollo 134
6. Funcionamiento cerebral 137
6.1. Evolución del cerebro 139
6.2. Organización y funcionamiento cerebral 142
6.2.2. Corteza cerebral, 146
6.2.3. Organización de los circuitos cerebrales, 149
6.3. Asimetría cerebral 152
6.3.1. Asimetrías estructurales, 153
6.3.2. Asimetrías funcionales, 153
6.4. Daño cerebral 155
347