Psicobiología de La Educación

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 347

4

5
Consulte nuestra página web:
www.sintesis.com
En ella encontrará el catálogo completo y
comentado

6
7
LUIS MIGUEL GARCÍA MORENO

8
9
Prefacio

Abreviaturas más frecuentes

1. Introducción a la psicobiología

1.1. Concepto de psicobiología

1.2. La psicobiología en la historia

1.2.1. Orígenes del estudio del cerebro y la conducta,

1.2.2. El surgimiento de la psicobiología,

1.3. Psicobiología, neurociencia y disciplinas relacionadas

1.4. Psicobiología y educación

2. Investigación psicobiológica en educación

2.1. Medición de la conducta en psicobiología

2.1.1. Sujetos de investigación en psicobiología,

2.1.2. Evaluación conductual en modelos animales,

2.1.3. Evaluación neuropsicológica,

2.2. Estudio de la estructura y la actividad del sistema nervioso

2.2.1. Técnicas estructurales,

2.2.2. Técnicas funcionales,

2.3. Investigación neuropsicológica en educación

2.3.1. Investigación y neuromitos,

2.3.2. Investigación aplicada,

3. Genes, herencia y conducta

10
3.1. Conceptos básicos de biología y genética

3.1.1. Células, cromosomas y biomoléculas,

3.1.2. Expresión génica y epigenética,

3.2. Transmisión de los caracteres hereditarios

3.2.1. Leyes de Mendel,

3.2.2. Tipos de transmisión genética,

3.3. Alteraciones cromosómicas

3.4. Genes y conducta

4. Organización del sistema nervioso

4.1. Células del sistema nervioso

4.1.1. Neuronas,

4.1.2. Células filiales,

4.2. Comunicación neuronal

4.2.1. Comunicación intraneuronal,

4.2.2. Comunicación interneuronal,

4.3. Estructura del sistema nervioso

4.3.1. Organización general del sistema nervioso,

4.3.2. Sistema nervioso periférico,

4.3.3. Neuroanatomía funcional del sistema nervioso central,

5. Neurodesarrollo y cognición

5.1. Desarrollo del sistema nervioso

5.1.1. Desarrollo estructural,

5.1.2. Diferenciación y maduración neuronal,

11
5.1.3. Desarrollo postnatal del sistema nervioso,

5.2. Ambiente, experiencia y desarrollo cerebral

5.2.1. Plasticidad en el sistema nervioso,

5.2.2. Periodos críticos o sensibles,

5.3. Desarrollo neurocognitivo

5.4. Vulnerabilidad del sistema nervioso durante el desarrollo

6. Funcionamiento cerebral

6.1. Evolución del cerebro

6.2. Organización y funcionamiento cerebral

6.2.1. Hipocampo, amígdala y ganglios basales,

6.2.2. Corteza cerebral,

6.2.3. Organización de los circuitos cerebrales,

6.3. Asimetría cerebral

6.3.1. Asimetrías estructurales,

6.3.2. Asimetrías funcionales,

6.4. Daño cerebral

7. Sistemas de regulación corporal

7.1. Sistema endocrino

7.1.1. Ejes neuroendocrinos,

7.1.2. Hormonas, desarrollo y aprendizaje,

7.2. Sueño y ritmos biológicos

7.2.1. Sueño y vigilia,

7.2.2. Circuitos cerebrales del sueño y la vigilia,

12
7.2.3. Trastornos del sueño,

7.2.4. Ritmos biológicos,

7.3. Sed, hambre y nutrición

7.3.1. Regulación del líquido corporal,

7.3.2. Metabolismo y nutrición,

8. Sistemas sensoriales: visión y audición

8.1. Sistema visual

8.1.1. Receptores y vías del sistema visual,

8.1.2. Codificación y procesamiento cortical de la información visual,

8.1.3. Alteraciones de la percepción visual,

8.2. Audición

8.2.1. Receptor, vías y procesamiento auditivo,

8.2.2. Procesamiento del habla y de la música,

8.2.3. Alteraciones auditivas,

9. Sensaciones somáticas y sentidos químicos

9.1. Sensaciones somáticas

9.1.1. Receptores y vías somatosensoriales,

9.1.2. Procesamiento cortical de las sensaciones somáticas,

9.1.3. Percepción del dolor,

9.1.4. Representación del cuerpo y del espacio,

9.2. Gusto

9.3. Olfato

10. Sistema motor

13
10.1. Componentes del sistema motor

10.1.1. Componentes periféricos del sistema motor,

10.1.2. Componentes centrales del sistema motor,

10.2. Control neural de la motricidad

10.3. Movimiento y acción

10.4. Alteraciones de la motricidad

11. Memoria y aprendizaje

11.1. Tipos de aprendizaje y sistemas de memoria

11.2. Circuitos cerebrales para la memoria

11.2.1. Memoria implícita,

11.2.2. Memoria explícita,

11.3. Organización temporal de la memoria y consolidación

11.4. Amnesia y otras alteraciones de la memoria

11.4.1. Distorsiones e imprecisiones de la memoria,

11.4.2. Trastornos del aprendizaje procedimental,

12. Lenguaje y comunicación

12.1. Origen y evolución del lenguaje

12.2. Cerebro y lenguaje

12.2.1. Comprensión y producción del habla,

12.2.2. Lectura y escritura,

12.3. Alteraciones del lenguaje

12.3.1 Síndromes afásicos,

12.3.2. Dislexia,

14
12.3.3. Trastorno específico del lenguaje,

13. Emociones y aprendizaje emocional

13.1. Emociones y sentimientos

13.1.1. Teorías de la emoción,

13.2. Sistemas cerebrales de la emociones

13.2.1. Amígdala y corteza prefrontal,

13.2.2. Otros circuitos cerebrales,

13.2.3. Motivación y sistema cerebral de recompensa,

13.3. Emociones y conducta social

13.4. Aprendizaje emocional

14. Funciones ejecutivas e inteligencia

14.1. Funciones ejecutivas

14.1.1. Concepto de funciones ejecutivas,

14.1.2. Circuitos cerebrales para el funcionamiento ejecutivo,

14.1.3. Funciones ejecutivas y otros procesos cognitivos,

14.2. Funcionamiento ejecutivo e inteligencia

14.2.1. Redes neurales para la inteligencia,

14.2.2. Funcionamiento ejecutivo, inteligencia y creatividad,

Bibliografia

15
16
Escribir un libro de psicobiología para profesionales de la educación era un objetivo
largamente perseguido pero, por diversas circunstancias, reiteradamente aplazado. En un
principio la idea se fue forjando a partir de las quejas de mis alumnos por no disponer de
un texto donde pudieran encontrar reunidos los diversos contenidos que abordábamos en
las clases. Posteriormente, eran antiguos alumnos y otros profesionales de la educación
quienes mostraban su interés por un libro de estas características. Había que hacerlo.

Recopilar en un libro de poco más de trescientas páginas los contenidos de


psicobiología que le podrían interesar a un educador es una labor prácticamente
imposible, por lo que había que elegir entre amplitud o profundidad. Nos ha parecido
más razonable presentar un abanico amplio de contenidos con un tratamiento básico y
proporcionar una serie de referencias bibliográficas para que las personas interesadas en
un determinado tema puedan profundizar y completar la información aquí
proporcionada. En este sentido, hemos tenido que seleccionar aquellos contenidos más
relevantes en nuestra opinión. Teniendo en cuenta que de cada uno de los capítulos de
este libro se podría escribir no uno, sino varios libros, es probable que nuestra elección
no satisfaga a todos. En ese sentido asumo plenamente la responsabilidad y espero que la
bibliografía complementaria que sugerimos pueda suplir las carencias que aquí
encuentren.

Respecto a los contenidos incluidos, el primer paso ha sido definir conceptos y


contextualizar los contenidos que se van a desarrollar en el libro. Así, el primer capítulo
define someramente el concepto de psicobiología, bucea en los antecedentes históricos
que han ido configurando la disciplina y reflexiona sobre sus vínculos (o necesidad de
vínculos) con el ámbito educativo. En una línea similar, el segundo capítulo presenta
algunas ideas acerca de cómo se investiga en psicobiología y la necesidad de establecer
proyectos conjuntos que contemplen la aplicabilidad en el aula del conocimiento básico
que aporta la psicobiología.

Después viene un bloque de contenidos básicos (capítulos tercero y cuarto) en los que
refrescamos conceptos de biología, genética, neuroanatomía o neurofisiología para
familiarizar a los lectores con estructuras y procesos a los que nos vamos a referir en
capítulos posteriores. El quinto capítulo aborda el desarrollo del sistema nervioso y
cómo, en consonancia, se van adquiriendo las habilidades sensoriomotoras, cognitivas y
emocionales. Consideramos fundamental que los educadores conozcan cómo evoluciona
el sistema sobre el que intervienen cuando educan. Algo similar nos ha llevado a incluir el
capítulo seis sobre funcionamiento cerebral. La psicobiología es bastante más que el
estudio de las relaciones entre el cerebro y la conducta, algo propio de la neuropsicología,
sin embargo, de cara al trabajo diario en el aula y a las dificultades que se pueden

17
encontrar en este entorno, hemos considerado necesario resaltar este aspecto. De hecho,
en el resto de los capítulos daremos bastante relevancia a las implicaciones cerebrales en
el comportamiento normal y el alterado.

Los restantes capítulos podríamos agruparlos en dos bloques. En el primero hablamos


de sistemas reguladores de manera muy sucinta para abordar después los sistemas
sensoriales y el motor. El segundo bloque lo dedicamos a los denominados procesos
superiores. Memoria y aprendizaje porque son los procesos básicos en educación (inducir
aprendizajes); el lenguaje es herramienta comunicativa que a su vez facilita el
aprendizaje; las emociones modulan el aprendizaje y además es necesario aprender a
modularlas, y, por último, el funcionamiento ejecutivo, la expresión mediante el
comportamiento de todo lo aprendido.

Si ya hemos dicho que este libro es fruto de una idea largamente acariciada muchas
son las personas que a lo largo de este tiempo han influido de un modo u otro en que este
proceso se vea culminado. Sería muy probable que me olvidara de alguna de ellas, pero
hay un aspecto que me hace recordar a aquellos que realmente han contribuido a que
este proyecto (y otros muchos) llegue a buen fin. En mi familia, entre mis amigos y entre
mis compañeros de profesión he tenido la gran fortuna de encontrar personas con las que
he podido compartir algo fundamental: la risa, una de las experiencias más gratificantes y
necesarias para el ser humano. Compartir con ellos (vosotros, reconoceos en estas
palabras) esos momentos en los que gracias a la risa todo parece más fácil me ha
convertido en un auténtico privilegiado. Gracias.

Arquímedes dijo "...dadme un punto de apoyo y moveré el


mundo" A mí, dadme tres y lo mantendré estable. Concha, Raquel
y Carlos, sois mis tres puntos de apoyo.

18
19
20
21
22
23
En los últimos años, cada vez son más las personas que, dentro y fuera del ámbito
científico, miran al cerebro cuando quieren comprender los más diversos aspectos del
comportamiento humano. Esta mirada no sólo proviene desde las disciplinas próximas
(psicología, biología, neurología...) sino desde otras menos cercanas (filosofía, ética...) e
incluso, desde campos muy diversos (economía, arte...). El ámbito de la educación no
puede ser ajeno a este interés, máxime cuando el principal destinatario de toda la
actividad que despliega es el ser humano, un ser vivo dotado de un cerebro responsable
de sus percepciones, sus movimientos, sus emociones y sus pensamientos. Es necesario
que el profesional de la educación tenga una formación que le permita comprender cómo
funciona el cerebro y, sobre todo, cómo aprende, aspecto fundamental en el proceso
educativo.

Sin embargo, comprender el funcionamiento del cerebro requiere algo más que
conocer su estructura o el modo en que funcionan sus células, las neuronas. Por este
motivo creemos que el proceso educativo, entendido como actividad esencialmente
humana y estrechamente ligada al comportamiento, debe tomar en cuenta el
conocimiento que puede aportar la psicobiología con el fin de desarrollar estrategias de
intervención más ceñidas a la realidad del educando y del marco en el que se
desenvuelve. Para poder valorar de manera correcta el interés que la psicobiología posee
para el profesional de la educación, es necesario comenzar por definir el término y acotar
de manera precisa su objeto de estudio, el comportamiento. Solo así, delimitando lo más
nítidamente posible el ámbito de la disciplina, se pueden comprender los motivos por los
que, en nuestra opinión, pedagogos, psicopedagogos, maestros, educadores sociales y, en
general, cualquier profesional educativo, deben poseer un conocimiento básico de
psicobiología para poder desarrollar plenamente su labor profesional.

1.1. Concepto de psicobiología


La psicobiología es la ciencia que se ocupa del estudio de las bases biológicas del
comportamiento, es decir, trata de comprender y explicar los fenómenos de base
biológica que subyacen al comportamiento humano. Esta afirmación requiere dos matices
fundamentales; primero, cuando hablamos de bases o fenómenos biológicos lo hacemos
en sentido amplio, es decir, haciendo referencia a todos aquellos que, de un modo directo

24
o indirecto, tienen que ver con la conducta. El segundo matiz hace referencia al concepto
de comportamiento (utilizamos y seguiremos utilizando los términos conducta y
comportamiento como sinónimos, aunque en determinados contextos no se les considere
como tal), ya que no solo tomamos en consideración el comportamiento observable sino
también aquel que solo podemos deducir de manera indirecta o a través de
interpretaciones de respuestas observables. Por ejemplo, podemos ocupamos de
comprender y explicar el llanto como una conducta observable, pero también del estado
emocional subyacente que puede estar generado por ideas, recuerdos o interpretaciones
subjetivas de la realidad. Obviamente, el abordaje de uno y otro presentan diferencias y
peculiaridades, pero no por eso debemos descartar a ninguno; el psicobiólogo debe
abordar ambos en su intento por comprender el comportamiento humano.

El sistema nervioso (SN) es el responsable último de todas las conductas (motrices,


cognitivas, emocionales...) y recibe, obviamente, especial atención en psicobiología; sin
embargo, es importante conocer por qué un SN determinado produce una respuesta
concreta ante un estímulo y en un entorno específicos. ¿Reaccionamos todos igual ante
una misma situación?, ¿aprenden todos los alumnos al mismo ritmo en un aula de
primaria?, ¿se emocionan igual todos los adolescentes al escuchar una determinada
canción? Podríamos seguir formulando este tipo de preguntas y la respuesta siempre
sería la misma: No. A pesar de compartir una infraestructura básica similar, cada SN
posee peculiaridades en su configuración que le diferencia de los demás; peculiaridades
que hemos ido incorporando a lo largo del desarrollo como consecuencia de nuestra
dotación genética particular pero también como consecuencia de estímulos ambientales
que han ido incidiendo en el modo en que nuestro SN madura. Esto es lo que nos hace
únicos. Existen pues múltiples factores que van a incidir en el desarrollo del SN y que
hacen que su respuesta/actividad en un momento dado sea específica. En este punto, la
psicobiología debe dar respuestas que vayan más allá de la pura fisiología de las
neuronas; es necesario conocer, en la medida de lo posible, esos determinantes que
pueden influir sobre un SN en desarrollo para que, en un momento dado, este provoque
una respuesta y no otra distinta. Por este motivo, podemos buscar las bases biológicas
del comportamiento desde perspectivas aparentemente tan dispares como la genética, la
fisiología, la endocrinología, la biología evolutiva o la psicología comparada (Colmenares,
1996; Del Abril et al., 2011; Dews bury, 1991), para aunar conocimientos que
contribuyan a la explicación psicobiológica del comportamiento en el sentido más amplio
posible. Solo de esa manera seremos capaces de comprender los determinantes
biológicos de ese comportamiento.

El comportamiento que interesa al psicobiólogo es la actividad del organismo como un


todo, aunque para ello sea necesario recurrir a aproximaciones parciales como forma de
ir configurando un conocimiento acerca de un objeto tan amplio y complejo que sería
imposible tratar de abarcar en su conjunto. Dada la dificultad para comprender y explicar
el comportamiento humano de manera global, precisamos una disección del mismo para

25
reconstruir pieza a pieza el conocimiento que perseguimos. Así, tenemos que integrar
acercamientos moleculares, bioquímicos o neuroanatómicos, entre otros, para
comprender cómo tiene lugar una determinada conducta. Por otro lado, el
comportamiento que nos interesa es un proceso de interacción activa con el medio.
Incluso, se puede considerar la conducta como la relación entre los actos de un individuo
y los eventos que ocurren en su entorno, eventos que pueden ser previos, simultáneos o
posteriores a dichos actos (Sidman, 1991). Es decir, existe una relación recíproca entre
los actos del individuo y el contexto en que se producen estos actos. Por ejemplo, la
acción de presionar el interruptor de la luz solemos hacerla únicamente cuando entramos
en una habitación que se encuentra a oscuras.

Además, la psicobiología estudia la actividad que despliega un organismo, como un


todo, en respuesta a un estímulo (Del Abril, 2011). La actividad cardíaca se puede
considerar como un ejemplo de actividad desplegada por un organismo, sin embargo,
esta actividad en sí misma no interesa mucho al psicobiólogo; sería el objeto de estudio
de la cardiología como la liberación de hormonas lo sería de la endocrinología. Sin
embargo, cuando estas mismas actividades ocurren en respuesta a un estímulo sí que
interesan a la psicobiología. Por ejemplo, el incremento de la tasa cardiaca que
experimenta un individuo que ve venir un perro corriendo hacia él sí es un indicador que
puede ser comparado con el de otro sujeto y sacar conclusiones sobre el grado de temor
que les produce dicho estímulo a cada uno de ellos. Por último, también hay que hacer
alusión a la conducta observable y a la no observable, es decir, también tenemos que
considerar los procesos mentales. Siempre se ha prestado más atención a las
manifestaciones observables porque es más fácil objetivar su estudio mientras que, en el
caso de las no observables, si no se toman las precauciones metodológicas
correspondientes, corremos el riesgo de perder objetividad y alejarnos de una
psicobiología científica. Claro que, si hablamos de dos tipos de manifestaciones
conductuales esto no quiere decir que haya dos objetos de estudio dentro de la
psicobiología sino que ambas manifestaciones son una única entidad, la actividad de un
organismo. Tradicionalmente se ha utilizado la dicotomía mente-conducta para referirse a
estas manifestaciones, sin embargo, en la actualidad, se considera todo ello como con
secuencia de la actividad del SN. Además, el extraordinario avance técnico
experimentado en el campo de la neuroimagen y el registro de la actividad cerebral ha
permitido obtener mediciones mucho más fiables y avanzar en el estudio de los procesos
mentales con un alto grado de objetividad.

1.2. La psicobiología en la historia


La psicobiología como disciplina científica es relativamente joven ya que se puede
considerar su nacimiento como tal a raíz de la publicación de la obra de Donald Hebb,
The organization of behavior, en 1949. Sin embargo, el interés por comprender el
comportamiento humano se remonta a la Antigüedad y podemos encontrar referencias al
respecto en documentos del antiguo Egipto y, por supuesto, en Grecia y Roma. Fue el

26
progresivo acercamiento entre filosofía y ciencias naturales durante los siglos xvüi y XIX
lo que constituyó el germen de esta disciplina.

1.2.1. Orígenes del estudio del cerebro y la conducta


El siglo xx fue determinante en psicobiología y neurociencia por los avances que se
realizaron en el conocimiento del SN, de sus mecanismos y, en última instancia, de los
procesos neurobiológicos que determinan la conducta. Baste recordar los trabajos de
eminentes científicos como Karl S.Lashley, Donald O.Hebb, Roger W. Sperry, John
C.Eccles, Eric R.Kandel, Michael S.Gazzaniga, Joseph L.LeDoux, Antonio Damasio,
Joaquín M.Fuster y otros muchos que han ido configurando el conocimiento que hoy
poseemos sobre la relación entre el cerebro y la conducta. Sin embargo, estos
conocimientos no han surgido por "generación espontánea" o fruto de la inspiración
aislada de un científico, sino que derivan de la integración del conocimiento acumulado
como consecuencia del interés que el hombre ha sentido desde siempre hacia sí mismo y
hacia la comprensión del comportamiento humano. Ya durante el siglo XIX se produjo
un progresivo acercamiento entre la psicología y las ciencias biológicas buscando la
manera de entender el comportamiento desde una base empírica, alejada de explicaciones
abstractas y no contrastables. Es el siglo de Darwin, Wundt, Ebbinghaus, Sechenov, o,
en parte, de Ramón y Cajal. Este acercamiento consolidaría el estudio científico del
comportamiento y los procesos mentales, tratando de explicar sus bases biológicas.

Si bien la psicobiología es una ciencia relativamente joven, el interés por los temas que
le son propios se pierde en la antigüedad más remota. Podemos encontrar vestigios en
culturas de la Antigüedad del interés por los procesos psicológicos y los mecanismos que
los sustentan. Incluso hay evidencia de que los primeros homínidos, hace un millón de
años, consideraban la cabeza como crítica para las funciones vitales, ya que se han
encontrado cráneos con fracturas que podrían interpretarse como producidas por algún
tipo de arma (Finger, 1994). También se han encontrado restos de cráneos que habían
sufrido una trepanación, quizá con motivos rituales, en lugares tan distantes como
Europa o Iberoamérica y hay evidencia escrita de prácticas médicas que afectaban al
cerebro y a ciertas dolencias relacionadas con este órgano en civilizaciones como la
egipcia o la india.

La psicobiología es una disciplina integradora de múltiples líneas de estudio, pero sobre


todo lo es de dos líneas claramente diferenciadas a lo largo de la historia: la tradición
filosófica y las ciencias naturales. La primera abarca las explicaciones filosóficas acerca
de la mente humana y su relación con el organismo que han venido produciéndose desde
la Antigüedad. La segunda es consecuencia del interés progresivo por una explicación
científica del comportamiento basada en las leyes que rigen en la naturaleza que llevó a la
búsqueda de explicaciones biológicas a la conducta. Ambas perspectivas han ido
convergiendo hasta que de su fusión germinaría en lo que hoy día conocemos como
psicobiología.

27
Los filósofos de la antigua Grecia son los primeros que tratan de conocer el mundo
que les rodea mediante explicaciones alejadas de la mística y lo sobrenatural y
progresando en su conocimiento mediante la crítica, esto es, no aceptando las ideas como
algo impuesto sino como fruto de la contrastación de hipótesis. Filósofos como Pitágoras
(580-489 a. C.) o Platón (429-348 a. C.) desarrollaron la idea de que el alma era algo
sustancial diferente del cuerpo. Por el contrario, Aristóteles (384-322 a. C.) defendía la
idea de que ambas entidades formaban una misma cosa, siendo el cuerpo el componente
material y el alma, el formal (Leahey, 2004). Hay que tener en cuenta que el concepto de
alma provenía del latín anima y hacía referencia al principio que dotaba de actividad a los
seres vivos. Pero si una dicotomía caracterizó a los filósofos de la Antigüedad en lo
referente al ser humano fue el cardiocentrismo frente al cerebrocentrismo. El
cardiocentrismo consideraba al corazón como la sede del alma y las funciones psíquicas,
dejándole al cerebro el papel de mero refrigerador sanguíneo gracias a la red de capilares
que posee; su principal exponente fue Aristóteles. Esta postura era opuesta a la defendida
por filósofos como Demócrito (460-370 a. C.) o Platón y médicos como Hipócrates
(460-370 a. C.) que pensaban que era el cerebro el que controlaba las funciones físicas,
los procesos mentales y era la sede de la inteligencia o los sentimientos (Crivellato y
Ribatti, 2007; Finger, 2000). Debido al prestigio de Aristóteles, esta concepción
cardiocéntrica perduró hasta el siglo XVI ya que filósofos como el español Miguel Servet
(1511-1553), el primero en describir la circulación sanguínea, o el médico William
Harvey (1578-1657) seguían defendiendo el cardiocentrismo y considerando a la sangre
como la esencia del alma que era distribuida por el organismo gracias al corazón. Si
Aristóteles fue el máximo representante del cardiocentrismo, los defensores del
cerebrocentrismo tuvieron en Galeno (130-200) su principal valedor. Fue médico y
anatomista que como consecuencia de uno de sus trabajos, médico de gladiadores, tuvo
la ocasión de comprobar con frecuencia las secuelas de traumatismos craneales que
sufrían sus pacientes. Asociaba la imaginación, el intelecto y la memoria con el cerebro y
afirmaba que estas funciones podían resultar afectadas por separado en casos de lesiones
cerebrales. Eran dos posiciones antagónicas fuertemente arraigadas cuyos orígenes
fueron rebasados por el protagonismo de sus defensores, pasando a convertirse en la
pugna entre aristotélicos y galénicos (Crivellato y Ribatti, 2007).

En Occidente, la Edad Media es una etapa de escaso progreso en el conocimiento


psicobiológico, aunque es un periodo de gran creatividad filosófica. Habrá que esperar al
Renacimiento para que, recuperándose la tradición de los filósofos griegos clásicos, se
produjera un renovado interés por el conocimiento de la naturaleza en sí misma lejos de
explicaciones teocéntricas. Un claro exponente del espíritu renacentista fue René
Descartes (1596-1650), padre del racionalismo y quien dedica una atención especial al
estudio del ser humano. Considera que el alma es la sustancia pensante que se encuentra
íntimamente unida al cuerpo y es la facultad de pensar, la inteligencia, la razón o la
voluntad. La consciencia también es una facultad del alma ya que, al estar unida al
cuerpo tiene conocimiento de lo que ocurre en él y se da cuenta de ese conocimiento. El

28
cuerpo no es más que un simple mecanismo que, sin alma, carece de voluntad,
consciencia o razón. Esta concepción dualista formulada por Descartes supone una
mente (alma) separada del cerebro (cuerpo) pero unidos por la glándula pineal, lo que
implica que el cerebro, como cualquier órgano corporal, puede ser objeto de estudio.
Descartes es considerado por algunos autores como el responsable de abrir el debate
cerebro-mente que todavía no está completamente cerrado (Hansotia, 2003).

El siglo XIX es un siglo de revoluciones, incluida la científica, y de la culminación del


progresivo e inevitable acercamiento entre filosofía y fisiología, lo que abre nuevos
caminos para el estudio de las relaciones entre el SN y los procesos mentales. Las
aportaciones de Luigi Galvani (1737-1789) sobre la electricidad animal van a permitir que
Charles Bell (1774-1842) y Francois Magendie (17831855) descubran la diferente
localización de las fibras sensoriales (dorsales) y motoras (ventrales) de la médula
espinal, dando lugar a una diferenciación neurofisiológica entre sistemas sensoriales y
sistemas motores (Gross, 2007; Barbara et al., 2012). Estas aportaciones y otras como
las de Marshall Hall (1790-1857) sobre los mecanismos del arco reflejo medular,
Johannes Müller (1801-1858) con su ley de las energías nerviosas específicas, Emil du
Bois-Reymond (1818-1896) que demuestra la naturaleza eléctrica del impulso nervioso,
o Hermann von Helmholtz (1821-1894) y sus mediciones de la velocidad de conducción
de las fibras nerviosas fueron determinantes para la comprensión más precisa de la
fisiología de la transmisión nerviosa y la excitabilidad de los tejidos (Finger, 2000).

Una consecuencia de la proliferación de estos estudios fue la idea de que si los


procesos nerviosos pueden ser mensurables y la mente es consecuencia de los procesos
nerviosos, entonces, los procesos mentales podrían ser estudiados y comprendidos.
Richard Caton (1842-1926) utilizó en 1875 un galvanómetro para realizar registros
intracerebrales y periféricos en estados de actividad espontánea y provocada. Sus
trabajos pasaron inadvertidos pero años después, Hans Berger (1873-1941) retomó esa
línea aplicándola a humanos. Implantando electrodos en la superficie del cráneo registró
diversos tipos de ondas que asoció con diferentes estados cognitivos. Así, Berger pasó a
ser considerado el padre de la Electroencefalografia (Collura, 1993) y fue el primero en
utilizar el término electroencefalograma (EEG). Gustav T.Fechner (1801-1887) es el
verdadero conciliador de una psicología filosófica con la fisiología abriendo las puertas a
Wilhelm Wundt (1832-1920), considerado como el padre de la psicología experimental.
Fechner crea la psicofísica, que él considera como el estudio científico de todas las
relaciones entre la mente y el cuerpo, si bien él se dedicó fundamentalmente al estudio de
las sensaciones. Por su parte, Wundt publicó en 1874 su obra Principios de Psicología
Fisiológica donde plantea la necesidad de estudiar la mente con métodos objetivos y
fundó en 1879, en Leipzig, un laboratorio destinado al estudio experimental de la mente
con métodos fisiológicos, iniciando la andadura que conduciría al desarrollo de la futura
psicobiología.

Otra figura eminente es Hermann Ebbinghaus (1850-1909), que estudió las funciones

29
superiores (en su caso la memoria) mediante un método experimental riguroso tratando
de controlar todas las variables extrañas. Para ello, utilizaba largas listas de sílabas sin
sentido que debían ser memorizadas actuando él mismo como sujeto de experimentación.
Fruto de este trabajo publicó su famosa obra Über das Gedcichtnis (Sobre la memoria)
en 1885. De formación asociacionista, evitaba especular sobre los cambios cerebrales
que ocurrían durante el proceso de memorización (Finger, 1994; Leahey, 2004).
Ebbinghaus y Wundt no se conocieron pero ambos contribuyeron decisivamente al
desarrollo de la psicología experimental. Esto es algo que ya empieza a ser frecuente,
científicos que no tienen contacto entre sí indagan en la misma dirección y con
frecuencia realizan aportaciones que, en conjunto, ocasionan un avance relevante. Es la
consecuencia de un progreso científico que, libre de ataduras, eclosiona desde múltiples
orígenes.

1.2.2. El surgimiento de la psicobiología


A pesar de todo el empuje del siglo XIX, pasaría mucho tiempo antes de que el estudio
de las bases biológicas del comportamiento se generalizase y tuviera una presencia
importante en el ámbito científico, sobre todo en lo que se refiere a procesos cognitivos
superiores, ya que los estudios fisiológicos se limitaban hasta el momento a conductas
muy elementales y básicas. Sería imposible incluir en un solo capítulo todos los
descubrimientos relevantes que se fueron sucediendo en esos años por lo que trataremos
de resumir brevemente las principales trayectorias que siguió la investigación científica
que desembocaría en la psicobiología tal y como la conocemos hoy: los avances en
neurofisiología, el estudio objetivo de la conducta y el conocimiento del funcionamiento
cerebral. No son trayectorias independientes sino que han ido interrelacionándose cada
vez más hasta confluir en una disciplina común pero manteniendo la diversidad que la
enriquece.

A) Avances en neurofisiología
Una de las limitaciones en el estudio del SN era la carencia de herramientas adecuadas
para su observación, por ese motivo, el perfeccionamiento del microscopio óptico
permitió superar este problema y avanzar en el conocimiento de su estructura celular.
Así, primero Matthias J.Schleiden (1804-1881) en plantas y posteriormente Theodor
Schwann (1810-1882) en animales formularon la teoría celular, según la cual los
organismos estaban formados por células. Esta teoría fue unánimemente aceptada pero el
SN seguía siendo objeto de controversia. Los trabajos de científicos como Otto Deiters
(1834-1863) o Wilhelm His (18311904) en la diferenciación de axón y dendritas llevaría
a científicos como Joseph von Gerlach (1820-1896), Albert von KÓlliker (1817-1905) o
Camilo Golgi (1843-1926) a defender la denominada teoría reticularista que consideraba
el SN como una gran red de axones y dendritas sin solución de continuidad por donde
fluían las señales nerviosas (Finger, 2000; Goodwin, 2009). En oposición a la teoría
reticularista otros científicos defendían la teoría neuronal, según la cual, el SN estaba
formado por células individuales con unidad estructural y funcional diferenciables. Esta

30
línea era defendida por el propio His y otros como Auguste Forel (1848-1931), quien
demostró que la destrucción de algunas fibras no provocaba degeneración del tejido
próximo, lo cual no encajaba con una concepción reticularista del tejido nervioso (López
Piñero, 2006). Pero el máximo exponente de la teoría neuronal es el español Santiago
Ramón y Cajal (1852-1934), premio Nobel en 1906, quien demostró de manera
irrefutable que las neuronas eran células individuales. La escasa tradición científica de
España a finales del siglo XIX provocó numerosas dificultades a Cajal para dar a conocer
las conclusiones de sus trabajos pero gracias a His y Wilhelm von Waldeyer (1836-1921)
pudo hacerlo de manera más amplia en un congreso celebrado en Berlín en 1889, donde
el propio von KÓlliker reconoció su trabajo y reconsideró sus posiciones reticularistas
(López-Muñoz et al., 2006; López Piñero, 2006).

Ramón y Cajal continuó aportando evidencias que demostraban la teoría neuronal,


realizó contribuciones destacadas al conocimiento de la plasticidad neural y a la histología
comparada del SN y formuló varias hipótesis sobre las bases neuronales del
comportamiento ya que a lo largo de su carrera manifestó reiterada mente su interés por
la psicología (DeFelipe, 2002). Varios discípulos suyos como Nicolás Achucarro (1880-
1918), Rafael Lorente de No (1902-1990) o Pio del Río Ortega (1882-1945),
continuaron realizando aportaciones valiosas al conocimiento del SN. Este último
caracterizó morfológica y funcionalmente las células gliales que habían sido descritas
inicialmente por Rudolf Virchow (1821-1902). El propio Cajal sugirió que debía existir
algún mecanismo por el que se comunicaran las neuronas entre sí. Fue Charles
S.Sherrington (1857-1952) quien describió las conexiones entre neuronas y entre
neuronas y músculos, denominándolas sinapsis, aunque la idea de una transmisión
química o eléctrica entre las neuronas fue planteada inicialmente por Emil du Bois-
Reymond y por Claude Bernard (1838-1878) al sugerir los efectos de ciertas sustancias
sobre el nervio y que las neuronas podrían liberar algún tipo de sustancia química que
excitase al elemento contiguo (Shepherd y Erulkar, 1997). También realizaron
descubrimientos importantes científicos como Henry Dale (1875-1968) que estudió los
efectos de ciertos agentes químicos sobre el SN autónomo y Otto Loewi (1873-1961)
que describió los efectos de la acetilcolina sobre el músculo cardiaco demostrando la
transmisión química; ambos recibieron conjuntamente el premio Nobel en 1936
(Contestabile, 2010). Estas aportaciones constituirán un punto de partida esencial para el
extraordinario desarrollo de la psicobiología a lo largo del siglo xx.

B) Estudio objetivo y sistemático de la conducta


El interés del hombre por sí mismo y su comportamiento es legendario, pero los
intentos de satisfacerlo siempre estuvieron impregnados de creencias, supersticiones o
dogmas místicos que alejaron de la objetividad las conclusiones alcanzadas. Un punto de
inflexión lo marca la obra Charles Darwin (1809-1882) quien, en pleno siglo de avances
científicos, publicó en 1859 su famosa obra El origen de las especies en la que defendía
la idea de un tronco común para todas las especies, incluida la humana. Esta afirmación

31
implica que la conducta y los procesos mentales en el hombre también son consecuencia
de un proceso evolutivo vinculado filogenéticamente al resto de especies animales, lo cual
supone un importante avance para los estudios comparativos y respalda los
descubrimientos realizados en animales como elementos útiles en la comprensión del
comportamiento humano. La teoría de Darwin consideraba además la adaptación al
medio como objetivo evolutivo que garantizase la supervivencia de una especie; esto, de
manera muy resumida, se refiere al hecho de que aquellos animales que mejor se
adaptasen a su entorno tenían más posibilidades de sobrevivir y transmitir sus genes (van
Wyhe, 2009). Esta idea influyó notablemente sobre la psicología posterior ya que el
comportamiento humano no se entiende desligado del entorno en el que ocurre; al fin y al
cabo, la puesta en marcha de conductas concretas suele ir encaminada a la consecución
de un objetivo (por ejemplo, encontrar comida o pareja, defender un territorio...) y aquel
individuo que desarrolle conductas más eficaces conseguirá con más facilidad dichos
objetivos. Darwin influyó notablemente sobre corrientes psicológicas como el
funcionalismo americano de William James (1842-1910) o la reflexología rusa de Iván
Sechenov (1829-1905), ambas interesadas por los aspectos observables del
comportamiento. Además, el intento de comprender el comportamiento y los procesos
mentales en el hombre a partir de los estudios de la psicología animal obtenía ahora un
respaldo científico al aceptar la continuidad filogenética entre especies.

Edward B.Tichener (1867-1927) trató de introducir la psicología de Wundt en Estados


Unidos y fue un defensor a ultranza del estructuralismo desde la universidad de Comell,
donde trabajaba. En oposición a este estructuralismo de Tichener surgió una corriente
psicológica conocida como funcionalismo, que claramente influida por la teoría
evolucionista se esfuerza en comprender los procesos mentales en relación con la
capacidad de adaptación de los organismos al medio en el que se desenvuelven. Dentro
de esta corriente destacarán, además de William James, considerado como el padre de la
psicología americana, James R. Angell (1869-1949), G.S.Hall (1844-1924) fundador de
las primeras revistas americanas de psicología o John Dewey (1859-1952) considerado
como el fundador "oficial" de la corriente (Goodwin, 2009; Leahey, 2004).

La reflexología rusa, formulada inicialmente por Sechenov, fue ampliamente


desarrollada por Vladimir M.Bechterev (1857-1927) y sobre todo por Iván P. Pavlov
(1849-1936). Sechenov, formado primero en Alemania junto a Du BoisReymond y
Helmholtz y, posteriormente, en Francia con Claude Bernard, rechazaba el método
introspectivo que imperaba en la época y formuló que todos los procesos psíquicos eran
movimientos reflejos automáticos que se diferenciaban de los reflejos espinales en la falta
de correlación exacta con el estímulo (Cabral, 2009). Sechenov defendía una psicología
objetiva que no tuviera que recurrir a la consciencia o a la introspección y consideraba
que el cerebro era la porción central de un circuito de entradas y salidas de información
que se activaba al mismo tiempo que los órganos periféricos como consecuencia de la
corriente eléctrica que difundía por ellos. Pavlov es el más conocido de los reflexólogos

32
rusos por su teoría acerca de los reflejos condicionados. Estudiaba la salivación en perros
y observó que estos iniciaban la secreción cuando oían acercarse al cuidador encargado
de la comida; en un primer momento pensó que se trataba de "reflejos psíquicos"
producto de la asociación de ideas, sin embargo, rechazando un acercamiento subjetivo
al problema, decidió estudiarlo desde una perspectiva estrictamente fisiológica. Ha sido
considerado como el principal fisiólogo de la primera mitad del siglo xx (Tansey, 2006).
Por su parte, Bechterev está considerado el heredero intelectual de Sechenov. Psiquiatra
de profesión, comprobó las limitaciones de la introspección en los relatos de sus
pacientes, donde se ponían de manifiesto los efectos distorsionantes de los deseos,
fantasías e ideas irracionales de los sujetos. Postuló que la psicología debía estudiar las
relaciones entre la conducta y el medio ambiente utilizando los métodos de las ciencias
naturales. Conocedor de los experimentos de Pavlov, investigó el condicionamiento
motor, que permitía el estudio de un conjunto más amplio de respuestas. En este sentido
es considerado el padre de la terapia de conducta (Cabral, 2009; Goodwin, 2009).

Una de las características del método propuesto por los reflexólogos, sobre todo por
Pavlov, es el estricto control de las variables ajenas a lo que se pretende evaluar. Esto
sólo parece posible en el laboratorio, sin embargo, va a existir una corriente que,
influenciada por estas ideas, van a tratar de explicar la conducta como un conjunto de
reflejos condicionados, es el conductismo americano. El padre indiscutible de esta
corriente es John B.Watson (1878-1958), quien, influido por el pragmatismo
funcionalista, la psicología animal y las teorías de los reflejos condicionados de Pavlov y
Bechterev, desarrolló una doctrina que ponía todo su énfasis en la objetividad
experimental. Rechazaba procesos no observables como los mentales y atacó duramente
el estructuralismo y la psicología de Wundt por dar cabida a la consciencia y a la
introspección (Leahey, 2004). Watson negaba rotundamente los procesos mentales
porque, según él, se podían predecir todos los comportamientos sin acudir a
explicaciones basadas en el funcionamiento cerebral. Esto hizo que durante el apogeo del
conductismo más estricto se marginase la investigación del comportamiento desde una
perspectiva fisiológica. Sin embargo, en posteriores revisiones del conductismo se
incluirán procesos internos que determinan la aparición de respuestas concretas ante
estímulos particulares, por lo que se vuelve a mirar hacia el cerebro como lugar donde se
producen tales procesos internos (Goodwin, 2009; Leahey, 2004). En esta línea se
encuentran psicólogos como Edwin B. Holt (1873-1946), Edward C.Tolman (1886-
1959), Carl L.Hull (1884-1952), Karl S.Lashley (1890-1958) o Burrhus F.Skinner (1904-
1990) que, sin renunciar a la ortodoxia conductista, incluyen algunas variables nuevas en
la explicación de la conducta como la experiencia anterior del sujeto, la motivación o las
consecuencias de la conducta.

En la actualidad sigue habiendo dificultades metodológicas para el estudio de la


experiencia subjetiva pero se aborda sin complejos y se acepta de manera unánime que
los procesos cognitivos tienen su base en el cerebro y que, como postula la

33
neuropsicología, conociendo el modo en que un sujeto realiza una serie de tareas
podemos deducir información acerca de su funcionamiento cerebral. Además, las
modernas técnicas de registro de la actividad cerebral y de neuroimagen ayudan a
confirmar dicha información, lo que supone un avance considerable en el modo en que
se plantean los estudios sobre el comportamiento humano.

C) Funcionamiento cerebral
Desde que se aceptó que el cerebro era el órgano rector de la conducta y de los
procesos mentales, muchos fueron los trabajos que intentaron establecer correlaciones
entre las diferentes partes del cerebro y la conducta. El primer intento sistemático de
localizar las funciones mentales en el cerebro fue llevado a cabo por Franz J. Gall (1757-
1828) y Johann Spurzheim (1776-1832) cuya teoría recibió el nombre de Frenología
(Goodwin, 2009; Hansotia, 2003). Esta disciplina había bebido en las fuentes de la
craneometría y la craneoscopia, métodos antropológicos por excelencia que consideraban
posible obtener información sobre la personalidad o la inteligencia del sujeto a partir de
determinas características morfométricas de su cráneo. Así, la frenología afirmaba que
las diferencias anatómicas del cráneo de un individuo estaban producidas por el
crecimiento desigual de diferentes partes de su cerebro, lo que dependía del grado de
utilización de cada una de ellas; por lo tanto, las diferencias anatómicas del cráneo podían
proporcionar información sobre el perfil psicológico del individuo. Gall, que denominó
Organología a su pseudociencia, porque consideraba como órganos las diferentes partes
del cerebro, afirmaba que había podido identificar 27 facultades en diferentes partes de la
corteza cerebral humana, 19 de las cuales podían encontrarse también en animales. La
lista de facultades resulto poco afortunada con algunas denominaciones curiosas como el
"talento poético", el "sentimiento religioso", la "responsabilidad", el "republicanismo" o el
"amor fiel" (Duque-Parra, 2002; Finger, 2000; González Álvarez, 2010). La teoría
frenológica tuvo poca proyección ya que su metodología poco científica junto con
algunas propuestas poco creíbles realizadas por sus promotores hizo que cayera en el
descrédito, sin embargo, estos trabajos sirvieron de estímulo para la investigación de la
localización cerebral de las funciones mentales y consolidaron definitivamente al cerebro
como sede de la conducta y los procesos mentales.

En franca oposición a la Frenología, Pierre Flourens (1794-1867) defiende posturas


contrarias al localizacionismo. Realizó numerosos experimentos de ablación y
estimulación en animales que le llevaron a descubrir las implicaciones funcionales de las
principales divisiones del SN. Sin embargo, a la corteza cerebral le asignó un
funcionamiento global (equipotencialidad) rechazando la idea de localizaciones concretas
para las diferentes funciones (Barbara et al., 2012). Consideraba que todas las regiones
de la corteza son responsables de la inteligencia, la voluntad o la percepción. El mayor
prestigio de Flourens hizo que su teoría de una acción unitaria del cerebro eclipsara
pronto los trabajos de Gall y permaneciese como predominante durante décadas, sin
embargo, se comprobaría posteriormente que Gall, aunque con métodos erróneos, estaba

34
más cerca de la verdad.

Los trabajos de Paul Broca (1824-1880) sobre la localización cortical de la producción


lingüística, a partir de los descubrimientos realizados previamente por Marc y Gustave
Dax, pueden considerarse como uno de los avances clínicos más importantes de la teoría
localizacionista (Manning y Thomas-Anterion, 2011). Broca alcanzó renombre al
describir el caso de un paciente que presentaba una incapacidad casi absoluta para hablar,
tan solo emitía un monosílabo, tan, que hizo que se le conociese como "el paciente Tan"
o "míster Tan". Este paciente presentaba una importante lesión en el entorno de la
circunvolución frontal inferior del hemisferio izquierdo (HI), área que a partir de
entonces recibe su nombre, aportando así la primera evidencia empírica de la localización
cerebral de una función psíquica (Cubelli y De Bastiani, 2011). Poco después Karl
Wernicke (1848-1905), seguidor de los trabajos de Broca, demostró que la lesión de la
circunvolución temporal superior del HI provocaba dificultades para la comprensión del
lenguaje hablado y formuló el concepto de afasia; con ello contribuyó a la creación de
una teoría neurolingüística y a consolidar las posturas localizacionistas. También fueron
destacables los trabajos de Gustav T.Fritsch (1838-1927) y Eduard Hitzig (1838-1907)
quienes, en 1870, demostraron que la estimulación eléctrica de la corteza cerebral
producía movimiento. Con este procedimiento determinaron las áreas sensoriales y
motoras en la corteza cerebral de perros pero fue David Ferrier (1843-1928) quien
realizó mapas topográficos más precisos de la corteza motora y de regiones sensoriales
en monos (Finger, 2000; Gross, 2007).

Las teorías localizacionistas parecían ir consolidándose, pero cuando se describieron


casos de pacientes neurológicos cuya sintomatología no concordaba con sus respectivas
lesiones cerebrales según las predicciones localizacionistas, esta doctrina empezó a ser
cuestionada; se replanteó el concepto de localización cerebral, pasando a considerar que
las funciones mentales tenían una representación más amplia en el cerebro de lo que se
pensaba. Un intento de acercamiento entre posturas es llevado a cabo por John
Hughlings Jackson (1835-1911) considerado el padre de la neurología inglesa. Rechaza el
localizacionismo estricto y concibe que el SN funciona como un todo; estaría configurado
como un conjunto de sistemas localizados pero interrelacionados entre sí de tal manera
que una función implicaría la participación integrada de varios de estos sistemas. Según
Jackson, el SN estaría formado por tres niveles según su antigüedad filo y ontogenética,
de tal manera que el sistema más maduro asume las funciones del anterior que quedan
subordinadas pero no desaparecen. Pensemos por ejemplo en conductas reflejas o
instintivas que pueden ser moduladas y adaptadas para integrarse en una funcionalidad
superior, como sería el caso del reflejo de prensión en un recién nacido que con el paso
del tiempo se integra en la habilidad motriz de la mano.

Shepherd 1. Franz (1874-1933) utilizaba métodos de experimentación animal ya


desarrollados por Thorndike o los reflexólogos y evaluó los efectos de lesiones cerebrales
sobre la discriminación y el aprendizaje. Opuesto al localizacionismo radical, negaba que

35
las funciones intelectuales o mnésicas estuvieran localizadas en áreas concretas del
cerebro, incluso dudaba que lo estuvieran los procesos sensoriales y motores (Finger,
1994; Goodwin, 2009). Hasta entonces, en las asignaciones funcionales a las diferentes
áreas corticales, los lóbulos frontales habían quedado fuera del reparto; unos los
consideraban áreas silenciosas y otros les asignaban los procesos asociativos, los únicos
que no habían podido ser localizados de manera concreta. Franz, que trabajaba con
pacientes neurológicos al mismo tiempo que con animales de laboratorio, sí se ocupó de
ellos para negar que albergaran la memoria, demostrando que gatos y monos con lesiones
frontales eran capaces, aunque con mayor dificultad, de aprender una tarea. En la misma
línea, Karl S.Lashley (1890-1958) discípulo y colaborador de Franz, llegó a conclusiones
similares al afirmar que la inteligencia no depende de un área concreta del cerebro y que
los deterioros intelectuales provocados por una lesión dependían más del tamaño de esta
que de su localización concreta. Siguiendo las ideas de Flourens, formuló las leyes de la
equipotencialidad y de la acción de masa, al considerar que el cerebro funcionaba de
manera integrada y que las partes intactas de un cerebro dañado podían asumir, en parte,
las funciones correspondientes al tejido perdido si bien con restricciones. En la
formulación de estas leyes, Lashley acepta cierto tipo de especialización cerebral.

Alexander R.Luria (1902-1977), máximo exponente de la escuela soviética, es


considerado por muchos como uno de los padres de la neuropsicología. Entiende esta
ciencia de manera diferente a los modelos occidentales al uso, basados
fundamentalmente en el modelo médico-psiquiátrico, ya que la considera como una rama
de la psicología (Xomskaya, 2002). En la polémica localizacionista aporta una visión
distinta al criticar el concepto de función, ya que la acepción habitual no puede aplicarse
a las funciones psicológicas ni por tanto a localizaciones cerebrales. Utiliza el concepto de
sistemas funcionales porque al hablar de comportamientos complejos estamos asistiendo
a la integración de un conjunto de conductas elementales; así, diferencia entre
capacidades psíquicas, como un fenómeno psicológico unitario que no se puede dividir
en partes constitutivas, y función psicológica superior que no se puede correlacionar con
regiones cerebrales concretas (Xomskaya, 2002; Barcia-Salorio, 2004). Así, procesos
como el lenguaje, la memoria, el razonamiento o la planificación no se pueden entender
como procesos unitarios y por tanto no es posible localizar un centro nervioso
responsable de los mismos. Pensemos cuando hablamos de memoria, por ejemplo
refiriéndonos al acto de almacenar información lingüística, tendríamos que considerar
desde los circuitos sensoriales respectivos a aquellos encargados de codificar dicha
información pasando por los responsables de reconocer esos sonidos o esos gráficos
como lenguaje o los encargados de atribuirles un significado semántico. Luria también
diseñó procedimientos para estudiar el comportamiento de personas con lesiones
cerebrales. Agrupó un cierto número de pruebas que permitían valorar atención,
memoria, lenguaje o funciones ejecutivas entre otras y creó una batería de exploración
que permitía hacer inferencias acerca de la localiza ción de las áreas cerebrales lesionadas
(Rufo-Campos, 2006) y determinar tanto las capacidades alteradas como aquellas

36
preservadas después de la lesión.

A medida que la psicobiología fue ganando interdisciplinaridad, el estudio


neurofisiológico y neuroanatómico se han ido entrelazando para explicar la conducta. Así,
los avances alcanzados en la primera mitad del siglo xx fueron configurando la disciplina
que hoy conocemos. Una figura definitiva en la historia de la psicobiología en Donald
O.Hebb (1904-1985) que hizo un extraordinario esfuerzo para conciliar definitivamente
la psicología con la fisiología. No se limitaba a explicar aspectos conductuales básicos en
términos biológicos, sino que trató de abordar los procesos psicológicos más complejos
desde una perspectiva fisiológica, lo que ha motivado que algunos le consideren el
verdadero precursor de la psicobiología (Goodwin, 2009; Pinel, 2007). Hebb se formó
con Wilder Penfield, neurocirujano interesado por los efectos de las lesiones cerebrales
en humanos, y bajo la influencia metodológica de Pavlov y Lashley, con quien también
se formó y trabajó más tarde. Luchó contra el desinterés generalizado, cuando no la
oposición, por la perspectiva fisiológica de la conducta hasta que, de manera fortuita,
supo del interés del Penfield por investigar los efectos de la cirugía cerebral sobre la
inteligencia, trabajo para el que solicitaba psicólogos (Milner, 1986).

Hebb consideraba al SN como el intermediario necesario que propicia la aparición de


respuestas complejas. Se refirió a asambleas celulares que establecían relaciones
modificables por efecto de la experiencia y que serían las que, siguiendo la formulación
de los conductistas, se interponen entre el estímulo y la respuesta. Partiendo de los
descubrimientos de Lorente de No sobre la existencia de conexiones neuronales en forma
de bucle, planteó varias ideas sobre sus implicaciones funcionales; por ejemplo, el posible
papel de los circuitos reverberantes en los procesos de memoria. Pero si algo caracterizó
a Hebb fue la formulación de hipótesis que él no pudo contrastar pero que sí lo hicieron
otros científicos décadas después. Un ejemplo de esto son las "sinapsis hebbianas",
sinapsis que modifican su eficacia como consecuencia de la estimulación continuada
(Cooper, 2005). Fue un prolífico escritor que dejó numerosos trabajos; su obra más
conocida, The organization of behavior, publicada en 1949, sentó las bases del estudio de
la conducta y los procesos psicológicos desde una perspectiva neurológica en un intento
de establecer unas bases explicativas de la conducta en sentido amplio.

En los años posteriores comienza el despegue de la psicobiología como ciencia


desarrollándose en paralelo con la neurociencia, que cada vez se interesa más por los
substratos neurológicos del comportamiento y va a convertirse en una de las ciencias con
mayor auge en las postrimerías del siglo xx. Los psicobiólogos afrontan también el
estudio de los mecanismos cerebrales responsables de las funciones superiores. Por
ejemplo, Roger W.Sperry (Nobel en 1981) estudia los efectos de la desconexión
hemisférica en pacientes con el cuerpo calloso seccionado, incomunicando ambos
hemisferios cerebrales, para poner de manifiesto las asimetrías cerebrales. Este tipo de
investigaciones constituyen el germen de una disciplina claramente psicobiológica: la
neurociencia cognitiva, que busca establecer las bases neurales de los procesos cognitivos

37
complejos y uno de cuyos máximos exponentes es Michael S.Gazzaniga. El interés por
los procesos superiores también se manifiesta en los trabajos de Joaquín M.Fuster sobre
la memoria y el córtex prefrontal en primates, los de A.Damasio y N.Geschwind sobre el
lenguaje o los de Joseph L.LeDoux sobre los procesos emocionales. La memoria y el
aprendizaje son los procesos que más atención han recibido en los últimos años; quizá
por ser procesos esenciales para el ser humano y en parte, también, por la diversidad de
abordajes posibles que admiten, desde los mecanismos celulares y moleculares que
pueden subyacer a estos procesos hasta las estructuras cerebrales que están implicadas
en los diferentes tipos de aprendizaje y memoria (Squire, 2004). Al fin y al cabo, la
memoria es la base de nuestra individualidad y gracias a ella podemos adquirir
conocimiento a lo largo de nuestra vida.

La denominada Década del Cerebro, que transcurrió entre los años 1990 y 2000,
supuso una revolución en el estudio del SN en general y del cerebro en particular. En
diez años se consiguieron más avances que en toda la historia anterior, pero no solo eso,
se produjo un cambio de paradigma a la hora de estudiar el cerebro, en parte por
innovaciones tecnológicas que lo hacían más accesible, en parte por la ruptura con
prejuicios que determinaban ciertas ideas acerca de la función cerebral. El desarrollo de
nuevas técnicas de registro de la actividad cerebral y neuroimagen junto con el
perfeccionamiento de modelos computacionales han facilitado el abordaje de procesos
cognitivos a los que antes solo podíamos acceder a partir de formulaciones teóricas y
modelos cognitivos sin contraste neuropsicológico. En este sentido, la observación
estructural y funcional del cerebro se ha visto fortalecida con la posibilidad de conocer la
conectividad cerebral, algo que ha permitido avanzar en la explicación de ciertas
alteraciones, sobre todo en las etapas iniciales del desarrollo, que antes carecían de
explicación.

En el ámbito de las relaciones cerebro-conducta, uno de los logros más relevantes de la


década del cerebro fue la consolidación de la neurociencia cognitiva, con un marco de
trabajo definido y con grupos de investigación que han contribuido de manera notable a
la ciencia del cerebro. El camino más eficaz para alcanzar explicaciones coherentes de las
relaciones entre el cerebro y el comportamiento es de tipo multidisciplinar. Dejando atrás
recelos corporativistas, profesionales de la psicología, la medicina, la biología, la física e
incluso disciplinas más alejadas, han aunado sus esfuerzos para contribuir al
conocimiento neurocientífico en general y neuropsicológico en particular. Pero, sin lugar
a dudas, el principal logro fue demostrar que siguen apareciendo neuronas nuevas en el
cerebro adulto (Ming y Song, 2011). Durante toda la vida nacen neuronas en el cerebro a
diferente velocidad y sujetas a los vaivenes de efectos facilitadores o adversos, es lo que
se conoce como neurogénesis adulta. Como con todos los grandes cambios de
paradigma, resultó difícil convencer a la comunidad científica y las pruebas iniciales se
diseccionaron minuciosamente a fin de encontrar resquicios para poner en tela de juicio
estos resultados, ya que implicaban romper con un dogma universalmente aceptado sobre

38
el que descansaba el conocimiento neurocientífico de la época. Desde Ramón y Cajal se
había trabajado con la idea de que, al nacer, el SN ya contaba con todas las neuronas
necesarias y que a partir de ese momento se producía una pérdida neuronal que nos
acompañaría el resto de nuestra vida. Era una afirmación difícil de aceptar, pero hoy en
día lo está plenamente y supone un nuevo modo de ver el funcionamiento cerebral

No todo el mundo reconoce un balance positivo a la Década del Cerebro. Se realizaron


inversiones millonarias y algunos desafíos no se alcanzaron (todavía echamos de menos
mayor investigación sobre el paralelismo entre desarrollo cognitivo y neuronal mediante
neuroimágenes); además, el abuso del prefijo neuroaplicado a campos como el
marketing, la economía o el arte ha sido considerado por algunos como contraproducente
por banalizar el concepto. Sin embargo, la evidencia es abrumadora y por encima de
estos aspectos están los resultados que han hecho que neurociencia y psicobiología se
hayan convertido en ciencias punteras que contribuyen cada día a un mejor conocimiento
del ser humano. A principios de 2013 y como consecuencia del éxito del proyecto
Genoma Humano, el presidente de los Estados Unidos impulsó el proyecto BRAIN (del
inglés, Brain Research Through Advancing Innovative Neurotechnologies) con la
intención de conocer en profundidad el funcionamiento cerebral. Es de esperar que si
obtiene un éxito similar a la década del cerebro, los próximos quince años serán
apasionantes para la psicobiología y la neurociencia.

1.3. Psicobiología, neurociencia y disciplinas relacionadas


Los científicos cuyo objetivo es el conocimiento del SN desde diversos enfoques están
agrupados bajo la denominación de neurocientíficos. La neurociencia surge de la
integración del conocimiento procedente de las disciplinas que tradicionalmente se han
ocupado del estudio del SN. Disciplinas tales como la neuroanatomía, neurofisiología,
neuroquímica, neurofarmacología o neuroendocrinología se han fijado como objetivo
incrementar el conocimiento acerca de la estructura y el funcionamiento del SN a través
de acercamientos de índole diversa y los avances acaecidos en cada una de ellas han ido
promoviendo un mutuo acercamiento hasta configurar lo que actualmente se conoce
como neurociencia. Como ya hemos dicho, la psicobiología es la ciencia que se ocupa del
estudio de las bases biológicas del comportamiento y este estudio siempre ha tenido un
lugar significativo dentro de la neurociencia ya desde sus comienzos al considerar dicho
comportamiento como manifestación última de la actividad del SN (Jessell y Kandel,
1998). Aunque la neurociencia tiene un origen vinculado a las ciencias médicas y
biológicas, desde el primer momento ha contado entre sus filas con psicólogos y
estudiosos de la conducta. Por su parte, desde siempre ha habido psicólogos que han
manifestado un alto interés en comprender mejor el funcionamiento del SN y en
encontrar una explicación neurobiológica de la conducta. Estamos ante una relación de
interés mutuo donde psicobiólogos y neurocientíficos encuentran un territorio común
para el desarrollo de sus aspiraciones científicas. Por tanto, viendo la interacción
recíproca entre psicobiología y neurociencia, surgen inevitablemente las preguntas de qué

39
tipo de relación existe entre ambas disciplinas o de si una forma parte de la otra.

Ambos conceptos no son estrictamente equivalentes, pero sí es cierto que existe un


alto grado de interrelación entre ellos. Esto ha motivado que durante cierto tiempo
surgiera la polémica sobre si ambas disciplinas son equivalentes o si una comprende a la
otra y, en este caso, quién comprende a quién, encontrando defensores y detractores de
ambas posturas. Encendidos debates epistemológicos llenaron páginas y auditorios sin
llegar a conclusiones que dejaran satisfechos a todos. Debates tan intensos como
estériles. Ambas disciplinas comparten un amplísimo porcentaje de su ámbito de estudio
y la utilización de ambos términos, en diversas ocasiones y con matices, puede ser
aceptada. Tanto una como otra son el resultado de la confluencia de diferentes disciplinas
que intentan explicar el comportamiento por diferentes caminos, persiguiendo diferentes
objetivos, utilizando diferentes metodologías y variables y siguiendo procedimientos
diversos, pero con el denominador común de explicar algunos de los determinantes
biológicos de la conducta. Disciplinas como la genética de la conducta, la etología, la
psicofarmacología, la psicobiología del desarrollo o la psicología fisiológica son
perfectamente reconocidas en el ámbito académico y científico.

Una disciplina relevante tanto dentro de la psicobiología como de la neurociencia es la


neuropsicología o neurociencia cognitiva, que se ocupa de estudiar las relaciones entre el
funcionamiento cerebral y el comportamiento en humanos (Kolb y Whishaw, 2009)
prestando especial atención a los procesos psíquicos complejos, por lo que posee un
ámbito de estudio más restrictivo dentro de la psicobiología. La neuropsicología se
interesa preferentemente por las conductas más propias del ser humano, su sujeto de
estudio en la mayoría de las ocasiones; así se ocupa por ejemplo del lenguaje, de la
memoria, de la atención, de la percepción o del razonamiento y, en general, muestra un
especial interés por la localización de las funciones cerebrales. Una de las líneas de
estudio más tradicional en esta disciplina es la valoración de los efectos del daño cerebral
de la más diversa procedencia (traumatismo, accidente cerebrovascular, tumores,
malformaciones, errores metabólicos...) y las consecuencias de intervenciones quirúrgicas
o de los diferentes trastornos que afectan al cerebro (intoxicaciones, drogas...) sobre la
ejecución de los sujetos en las tareas más diversas, las cuales se seleccionan en función
del déficit que se desea evaluar (Junqué y Barroso, 2009). Sin embar go, en la actualidad
la neuropsicología ha trascendido el ámbito clínico y el estudio del funcionamiento
cerebral en relación con el comportamiento se ha extendido a otros ámbitos en los que
participan sujetos sin alteración cerebral alguna como es el caso del entorno educativo.
De hecho, aunque abordaremos el estudio psicobiológico en sentido amplio, en este libro
daremos mucha relevancia al enfoque neuropsicológico, sobre todo cuando hablemos de
procesos superiores.

1.4. Psicobiología y educación


La educación permite al ser humano alcanzar un alto grado de adaptación al entorno

40
social en el que se desarrolla y, por este motivo, no es simplemente una mera transmisión
de conocimientos sino que implica un intento de inculcar un estilo de vida y un modelo
de sociedad (Savater, 1998). No es nuestro objetivo primordial definir educación sino
vincularlo con la psicobiología. Por ese motivo, vamos a recurrir a dos definiciones que
nos van a ser útiles para la argumentación que queremos desarrollar. Por un lado, José
María Asensio (1997) define la educación como"... un medio o, si se prefiere, una
estrategia de actuación cuya finalidad es la de promover adquisiciones que, en algún
sentido, se consideran necesarias para los individuos en sus respectivas sociedades"; por
su parte, García Hoz (1960) propone que se trata de:"... perfeccionamiento intencional
de las potencias específicamente humanas". Ambas definiciones, separadas cuarenta
años, remarcan el carácter intencional y planificado de la educación para distinguirlo de
aprendizajes casuales.

La educación es por tanto intencional y planificada y se ejerce sobre la conducta de los


miembros de una sociedad; su objetivo es modelar su conducta para que adquieran las
habilidades motoras, cognitivas o emocionales que les permita adaptarse adecuadamente
a la misma. Como ya hemos apuntado anteriormente, la conducta no es otra cosa que la
actividad de un organismo dotado de SN, el cual es el resultado de la dotación genética
que el individuo recibe de sus progenitores y de las influencias ambientales que van a
incidir sobre él a lo largo del desarrollo. Nos encontramos pues, que desde una
perspectiva psicobiológica, la educación tiene como desafío proporcionar un conjunto de
estímulos ambientales que, aprovechando las características neurológicas del organismo,
dirijan su actividad en una dirección preestablecida; la educación intentará modificar los
circuitos nerviosos del sujeto a fin de que adquieran habilidades necesarias para la
supervivencia y la adecuada adaptación al entorno social en el que se desarrolla.

Una de las características del cerebro es la plasticidad, es decir, la capacidad de


modificar sus conexiones sinápticas (Citri y Malenka, 2008), pero esta capacidad es
limitada pues la plasticidad cerebral no es sensible a cualquier tipo de estímulo, sino
solamente a un rango determinado de ellos. Por tanto, el cerebro no es tan rígido como
suponen los innatistas ni tan flexible como defienden los am bientalistas (Asensio, 1997).
El cerebro es un sistema con unas características determinadas y el educador es alguien
que pretende influir y modificar ese sistema. Parece obvio que es necesario conocer, en
la medida de lo posible, la estructura y funcionamiento de dicho sistema sobre el que
pretendemos influir. Si entendemos que la educación pretende desencadenar una serie de
ajustes y modificaciones en un sistema (nervioso) para que sea capaz de realizar una
serie de funciones (cognitivas, motóricas...), entonces el camino más razonable parece
ser el de conocer las posibilidades del sistema a fin de diseñar las estrategias que sean
más adecuadas a nuestros propósitos. La educación pretende modelar procesos mentales
como la lectura y la escritura, el habla, el razonamiento, el cálculo o la sociabilidad, pero
con la particularidad de que todos ellos son procesos cerebrales. A lo largo de la historia,
los modelos educativos han ido cambiando y evolucionando por diferentes causas, las

41
cuales, en demasiadas ocasiones, estaban determinadas por influencias culturales, cuando
no, ideológicas o políticas más que por causas científicas. Cualquier modelo educativo
que no contemple las peculiaridades del SN carece de validez empírica. Sin embargo,
esto no quiere decir que estos modelos carezcan de validez en absoluto, algunos han
demostrado su eficacia... a posteriori. Parece inevitable que así sea en el ámbito de la
educación, pero conociendo las características (incluidas sus limitaciones) del SN, es
posible realizar diseños más ajustados y con mayor probabilidad de éxito.

Hoy en día, la educación se concibe como algo más complejo que la mera adquisición
de datos y conocimientos; es, además, la etapa en la que tratamos de que los educandos
vayan perfilando su personalidad mediante la adquisición de valores y el desarrollo de
aptitudes y actitudes para alcanzar una vida satisfactoria en la adultez. El proceso
educativo tiene como objetivo un cambio de conducta intencional y planificado en
múltiples dimensiones de la persona y, por tanto, es necesario que el educador conozca
los determinantes biológicos de esa conducta sobre la que pretende influir para ejercer su
tarea con la máxima eficacia posible. Es tiempo de superar prejuicios y comprender el
comportamiento humano como lo que es, la más compleja expresión de la actividad del
SN y en ese punto radica, a nuestro entender, uno de los desafíos más inmediatos que
tiene la educación en el presente siglo. No es una tarea fácil integrar el conocimiento
psicobiológico en el ámbito educativo, especialmente porque todavía nos falta conocer
mucho sobre el funcionamiento cerebral en el entorno escolar. Si ya el conocimiento del
funcionamiento cerebral adulto presenta dificultades y todavía hay desafíos que atender,
en el ámbito escolar nos enfrentamos a un cerebro cambiante, en pleno desarrollo, lo cual
complica su estudio.

El ámbito científico no es ajeno al interés que despiertan los vínculos entre


psicobiología y educación. Dentro de la psicobiología, ha sido la neuropsicología la
disciplina que más se ha acercado al ámbito educativo normalizado ya que otras
disciplinas como la genética o la psicobiología del desarrollo se han vincu lado más con el
estudio de los trastornos del neurodesarrollo. En los últimos años ha habido un
incremento de publicaciones científicas que tratan de las conexiones entre ambos
ámbitos; además, ha habido muchas revisiones de hallazgos neurocientíficos que podían
relacionarse con la práctica educativa, como por ejemplo los que demuestran cambios
funcionales y estructurales en el cerebro humano como consecuencia del aprendizaje. Sin
embargo no se han notado cambios significativos en la política o en que la práctica
educativa haya tomado en consideración estos avances. Está claro que todo lo que
aprendemos lo aprendemos con el cerebro y que cualquier aprendizaje implica un cambio
en el mismo, por tanto, deberíamos considerar sus características funcionales a la hora de
diseñar programas de aprendizaje o estrategias educativas. Sorprende la poca atención
que se presta a estas disciplinas en los círculos de decisión del mundo educativo y que
solo con gran esfuerzo se vaya abriendo paso lentamente en el ámbito académico.

En 1988, Gerhard Preiss, profesor de Didáctica de las matemáticas en la universidad

42
de Friburgo acuñó el término neurodidáctica para referirse a una disciplina que intenta
conciliar Pedagogía y neuropsicología, defendiendo la postura de que el aprendizaje debe
planificarse del modo que mejor se adapte al desarrollo cerebral. Así, el diseño de
programas educativos y estrategias de aprendizaje debe conceder más importancia al
hecho de que el aprendizaje está soportado por los procesos cerebrales y que la
adquisición de capacidades está determinada por el desarrollo cerebral (Friedrich y
Preiss, 2003). Parece claro que si queremos avanzar en modelos de aprendizaje que
tengan en consideración los avances aportados por la neuropsicología es necesario que
los profesionales de uno y otro campo se acerquen entre sí para establecer un abordaje
común del problema.

Es necesario formar educadores que puedan utilizar conocimientos neuropsicológicos


en la práctica diaria y generar líneas de investigación que combinen avances básicos con
aplicaciones prácticas (Ansari y Coch, 2006). También es necesario que los
neuropsicólogos comprendan el proceso educativo desde una perspectiva aplicada y con
las limitaciones que impone la vida real. Hay que conseguir una integración conceptual y
metodológica que comparta objetivos y conocimiento en el diseño tanto de
investigaciones como de intervenciones educativas (Benarós et al., 2010). La clásica
diferenciación entre investigación básica y aplicada quedaría superada integrando
investigadores de ambas disciplinas para diseñar estudios con base neuropsicológica y
aplicación en el aula. Seguro que los educadores con conocimientos neuropsicológicos
serán mejores maestros y los neuropsicólogos con mejor conocimiento de las cuestiones
cotidianas en el ámbito educativo diseñarían mejores investigaciones y con una mayor
aplicabilidad en la vida real. Este es el desafío que tenemos por delante.

43
44
A lo largo de la historia la psicología ha realizado numerosos esfuerzos para apartarse
de especulaciones pseudocientíficas y dotar al conocimiento psicológico de una base
empírica que lo sustente. El comportamiento es un constructo muy amplio y complejo, lo
que hace que no siempre sea fácil la comprobación empírica de muchas de sus
manifestaciones, sobre todo aquellas que tienen un carácter subjetivo. Quizá, una de las
ramas que más ha contribuido a que la psicología alcance el estatus científico ha sido la
psicobiología ya que, desde los trabajos de Wundt buscando las bases fisiológicas del
comportamiento, ha tratado de utilizar una metodología rigurosa y contrastable.
Independientemente de los diferentes criterios que se utilicen para delimitar lo que es
ciencia y lo que no lo es, la utilización de una metodología rigurosa que permita
contrastar y verificar el conocimiento obtenido es una garantía científica incuestionable.
En ese sentido, no cabe duda de que la psicobiología sea una ciencia y, como toda
ciencia, avanza en el conocimiento de su objeto de estudio mediante la investigación,
sirviéndose para ello del método científico.

El conjunto de pasos que sigue un científico hasta que puede ser capaz de explicar o
describir de forma precisa un fenómeno o la relación entre dos o más fenómenos se
denomina método científico. Una de las principales características de este método es que
sus enunciados pueden ser sometidos a prueba por diferentes caminos, pero uno de los
más transitados es el método experimental. Este, también conocido como hipotético
deductivo, se basa en el control estricto de las variables que influyen sobre el fenómeno
estudiado en condiciones controladas, bien en un laboratorio o en un entorno
seminatural; obviamente, cuanto mayor sea el control que podamos ejercer sobre las
variables intervinientes, mayor fiabilidad tendrán los datos obtenidos. Este método es el
más importante en psicobiología, si bien, como consecuencia de las peculiaridades de
esta disciplina, su aplicación puede mostrar un amplio abanico de posibilidades y
adaptaciones específicas.

La investigación psicobiológica intenta explicar el comportamiento desde una


perspectiva biológica pero, dada la complejidad que encierra el comportamiento en sus
múltiples manifestaciones (sensoperceptivas, motrices, cognitivas, emocionales) un
primer paso es la operativización del concepto, es decir, ser capaces de obtener medidas
fiables y representativas de los procesos objeto de interés. Pero esas medidas deben tener

45
su correlato neurobiológico por lo que el siguiente paso es obtener este tipo de medidas
por los procedimientos más variados, desde técnicas histológicas en tejido nervioso de
diferentes especies hasta imágenes de la actividad cerebral humana en tiempo real. Todo
va a depender del objetivo de la investigación y de las hipótesis que se formulen.

2.1. Medición de la conducta en psicobiología


El estudio de la conducta humana, salvando las obvias consideraciones éticas, no
ofrece más limitaciones que la profesionalidad y la imaginación del psicobiólogo y la
disposición y posibilidades del sujeto. A cualquier persona que haya alcanzado
determinado nivel de desarrollo y no padezca algún tipo de disfunción cerebral que le
incapacite, podemos explicarle claramente qué tareas debe realizar e incluso recabar
información de su vivencia subjetiva durante la evaluación. Además, el abanico de
conductas potencialmente evaluables es prácticamente igual al conjunto de conductas que
le puede interesa conocer al psicobiólogo. Sin embargo, en ocasiones es necesario
recurrir a sujetos no humanos para llevar a cabo ciertos estudios que por sus
peculiaridades no se pueden hacer con personas. Por este motivo, es importante conocer
las posibilidades que nos ofrecen especies distintas de la humana para obtener
información sobre su comportamiento que pueda sernos útil para comprender mejor el de
los seres humanos.

2.1.1. Sujetos de investigación en psicobiología


Siempre que sea posible contar con la participación de sujetos humanos en nuestros
estudios podremos obtener una información bastante más fiable. Los datos que
proporcionan estos estudios poseen un poder explicativo que no alcanzan los obtenidos
con ningún otro tipo de sujetos, por lo que siempre que es posible se recurre a ellos. Sin
embargo, las más elementales consideraciones éticas impiden que los seres humanos
puedan ser sometidos a determinadas prácticas que puedan ocasionarles cualquier tipo de
sufrimiento, bien sea físico, psíquico o emocional. Además, no siempre es fácil obtener
una muestra homogénea; incluso cuando se utilizan grupos aparentemente similares por
pertenecer a un colectivo determinado podemos encontrar sustanciales diferencias, no
sólo es sus aptitudes sino también en su acti tud hacia las pruebas o el procedimiento.
Esta dificultad se incrementa cuando, como es el caso de la neuropsicología clínica,
participan pacientes con lesiones cerebrales; en este caso, reunir una muestra significativa
de sujetos con una lesión similar y, al mismo tiempo, similares características personales
(sexo, edad, formación...), resulta dificultoso y solo es posible con la colaboración de
profesionales pertenecientes a una red hospitalaria amplia que puedan facilitar el acceso a
una muestra elevada y, así, poder seleccionar los candidatos adecuados.

La investigación con animales tiene detractores y defensores y, a veces, la toma de


postura en uno y otro sentido se hace sin conocer las implicaciones de esta práctica hasta
sus últimas consecuencias. Es preciso señalar que los científicos que utilizan animales en
sus experimentos están absolutamente concienciados de la responsabilidad que contraen a

46
la hora de garantizar una práctica acorde con directrices nacionales e internacionales que
velan por que estos procedimientos causen el mínimo sufrimiento imprescindible a los
animales. De hecho, persiguen lo que se conoce como las tres "erres" (Gluck y Bell,
2003):

-Reemplazo: desarrollo de alternativas al uso de animales, por ejemplo, mediante


modelos computacionales o simuladores.

-Reducción: del número de animales utilizados en los estudios.

-Refinamiento: de los protocolos a fin de minimizar las técnicas invasivas (inyecciones,


cirugía, administración de sustancias, estimulación eléctrica, etc.) e incrementar el
valor de los resultados de los experimentos.

La investigación de la conducta estaba vinculada tradicionalmente a la biología y a la


medicina, especialmente a la farmacología, para probar los efectos de determinadas
moléculas. En psicobiología, esta investigación está dirigida a proporcionar modelos
animales que reproduzcan los procesos conductuales compartidos con los humanos para
poder diseñar experimentos que aporten información sobre dichos procesos (Jackson,
2001). De manera simplificada, en el ámbito de la psicobiología un modelo animal se
puede definir como un organismo vivo utilizado para estudiar la relación entre el cerebro
y la conducta bajo unas condiciones controladas y con el objetivo principal de
profundizar en esta relación y poder hacer predicciones acerca de la misma en seres
humanos (Van der Staay, 2006). Como se desprende de esta definición, los modelos
animales son herramientas que utilizan los científicos para obtener información que
ayude a incrementar el conocimiento del comportamiento humano.

2.1.2. Evaluación conductual en modelos animales


La evaluación conductual en modelos animales suele llevarse a cabo en espacios
especialmente acondicionados para ello (temperatura, luminosidad, ruidos...) y utilizando
aparatos especialmente diseñados en función del proceso que se quiere evaluar y el
protocolo que se va a utilizar. A los aparatos o recintos donde vamos a evaluar el
comportamiento del animal se les conoce con el nombre genérico de cajas de evaluación
o laberintos (aunque no siempre son laberintos en el estricto sentido de la palabra) y
pueden adoptar múltiples configuraciones. El más básico es el denominado campo abierto
(open field) que consiste en recintos, en la mayoría de los casos de forma cuadrada o
rectangular, de diversos tamaños donde el animal deambula libremente durante un
período determinado de tiempo sometido a la manipulación experimental que queramos
contrastar, como por ejemplo, lesiones cerebrales o suministro de sustancias. A partir de
ahí, podemos encontrar otras cajas universalmente utilizadas o diseños originales
adaptados a experimentos concretos.

Una de la más conocida es la caja de Skinner, denominada así en memoria de su

47
diseñador que inicialmente la denominó "caja operante", en referencia al modelo de
aprendizaje por condicionamiento operante que describió y sobre el que realizó
numerosos experimentos (Skinner, 1938). En una configuración estándar, una de las
paredes de la caja contiene el llamado "panel inteligente" o "panel de trabajo", sobre el
que están instalados dispositivos que permiten dispensar comida o bebida, las palancas,
luces, altavoces, etc. (figura 2.1). El suelo está enrejillado para poder aplicar estímulos
eléctricos aversivos (castigo). Son cajas insonorizadas por lo que permiten la
manipulación controlada de los estímulos ambientales y la introducción o retirada a
voluntad de condiciones estimulares concretas.

Figura 2.1. Esquema básico de una caja de Skinner. En el frontal vemos el panel
inteligente con los dispositivos que permiten el suministro de estímulos y recompensas
según la conducta del animal.

Dentro de la denominación más amplia de laberintos podemos encontrar recintos de


diversas formas y tamaños. La mayoría de ellos se utilizan para evaluar memoria y
aprendizaje, procesos estrella en la evaluación conductual de animales en psicobiología,
pero también hay otros que permiten evaluar procesos como atención e incluso
psicopatologías como la ansiedad. Generalmente, las medidas que se obtienen son
indicadores de adquisición o retención de información: la ruta en el laberinto está fijada
de antemano y el animal debe aprenderla y recordarla. Lo más frecuente es medir el
tiempo que el animal tarda en recorrer esa ruta aunque también podemos tomar en
consideración una gama diversa de errores, según el tipo de laberinto. Así podemos
encontrar laberintos en forma de T o Y (figura 2.2), en forma de cruz, radiales con un
número variable de brazos o circulares como la piscina de Morris. Cada uno de ellos se
presta a diferentes usos aunque, como hemos dicho, la mayoría se utilizan para evaluar
memoria y aprendizaje. Actualmente, existen programas de software que permiten grabar

48
y posteriormente analizar de manera pormenorizada la ejecución de los animales en este
tipo de pruebas, lo cual facilita mucho el trabajo del experimentador.

Figura 2.2. Representación esquemática de laberintos en T y en Y.El animal debe elegir


una de las dos ubicaciones posibles para obtener la recompensa según se haya diseñado
la tarea. Por ejemplo, discriminar estímulos visuales, evitar el último brazo visitado...

Uno de los laberintos que ha alcanzado mucha popularidad es el radial; consiste en un


recinto central del que parte un número variable de brazos al final de los cuales hay un
cebadero donde se les suministra comida; el más frecuente es el de ocho brazos pero
también se han utilizado de seis o de dieciséis (figura 2.3). Es uno de los más utilizados y

49
admite diferentes configuraciones según el número de brazos que se incorporen y el
paradigma que se desarrolle, aunque se ha utilizado preferentemente para evaluar
memoria espacial (Olton y Samuelson, 1976). Es relativamente fácil de aprender para los
animales y resulta muy sensible a lesiones en determinadas áreas cerebrales o a los
tratamientos con drogas. Obviamente, para que la búsqueda de comida se convierta en
una conducta motivada es preciso que el animal haya estado sometido previamente a un
periodo de deprivación en el que se le mantiene en un peso inferior a lo normal; esto
garantiza que el animal estará hambriento cuando lo sometamos a las pruebas.

Figura 2.3. Esquema de un laberinto radial de 8 brazos. El animal debe recorrer todos los
brazos sin repetir en ninguno para obtener las bolitas de comida que hay situadas en los
cebaderos de los extremos. La comida no se repone por lo que si repite una entrada ya
no obtiene recompensa. El acceso desde la plataforma central a los brazos está cerrado
con una trampilla para regular intervalos de demora entre cada entrada.

Otro laberinto que se utiliza con mucha frecuencia es la piscina circular de Monis
(Morris water maze) (figura 2.4). Consiste básicamente en una cubeta circular llena de
agua enturbiada (por ejemplo, con leche en polvo u otros productos) y con una
plataforma ligeramente sumergida que el animal debe encontrar nadando para escapar del
agua (Monis, 1984). Los animales deben guiarse por claves visuales del entorno y

50
recordar la localización de la plataforma para sucesivos ensayos; es una tarea que
aprenden con facilidad por lo que se puede realizar una evaluación bastante completa en
periodos cortos de tiempo. En este caso el reforzador es salir del agua, un medio en el
que la rata no se siente cómoda; esto supone que no se necesitan periodos de deprivación
de comida ni otro programa de reforzamiento complejo por lo que se utiliza cada vez
más en estudios de lesiones cerebrales o de administración de drogas.

Figura 2.4. Piscina circular de agua o laberinto de Morris. El animal nadará


aleatoriamente hasta que choque con la plataforma por casualidad; en los ensayos
sucesivos su recorrido será cada vez más directo porque el animal aprende dónde está
localizada la plataforma gracias a los estímulos visuales del entorno.

A veces han surgido problemas con los reforzadores porque los animales no siempre
tienen la misma sensación de hambre (por ejemplo, después de un cierto número de
ensayos en los que el animal ha obtenido la bolita de comida, el hambre habrá
disminuido) o no todas las ratas experimentan la misma aversión al agua. Esto supone un
inconveniente que no se debe pasar por alto a la hora de diseñar los protocolos de
evaluación conductual. Un tipo de laberinto que ha resuelto en parte este problema es el
rotatorio (Cimadevilla et al., 2000). Consiste en una plataforma circular rotatoria en la
que se delimita una zona de castigo que el animal debe evitar para no recibir un shock
eléctrico en las patas (figura 2.5). Como todo el suelo de la plataforma está enrejillado, se
puede hacer que la zona de castigo permanezca estática por lo que el animal solo recibe
una leve descarga eléctrica en las patas cuando un área de la plataforma pasa por una
localización determinada. Así, el animal debe moverse constantemente para evitar la zona
de castigo y debe recordar su ubicación mediante diferentes tipos de claves tanto
espaciales como no espaciales. Admite muchas configuraciones ya que permite que la
zona de castigo y la plataforma roten simultáneamente, o bien alguna de ellas

51
permanezca fija.

Figura 2.5. Laberinto rotatorio. El animal debe evitar una zona concreta de la plataforma.
Como el suelo de la misma está enrejillado de manera homogénea, debe utilizar como
claves visuales los estímulos del entorno o, incluso, claves temporales sobre la velocidad
de giro de la plataforma.

Uno de los procedimientos más sencillos que se puede realizar es el de registrar la


actividad motora espontánea y exploratoria. Para ello se deja al animal deambular
libremente en un campo abierto y se registra su comportamiento prestando especial
atención a aspectos como el tiempo y el recorrido que realizan u otros más específicos
como la elevación sobre las patas traseras (rearing), el acicalamiento (grooming) o el
olisqueo (sniffing). Esta actividad espontánea es muy utilizada, pero en psicobiología los
procesos que han generado más procedimientos de evaluación conductual con modelos
animales son el aprendizaje y la memoria. Desde los estudios realizados por Eric Kandel
y su equipo con un molusco marino para determinar los mecanismos moleculares del
aprendizaje hasta las pruebas de reconocimiento de objetos realizadas con chimpancés,

52
podemos encontrar múltiples procedimientos con diversas especies animales.

Por ejemplo, para evaluar la capacidad de reconocimiento se han adaptado pruebas


que tradicionalmente se usaban en humanos, sobre todo en reconocimiento visual, para
su utilización tanto en primates como en roedores. Un procedimiento muy utilizado se
basa en el paradigma de emparejamiento (o desemparejamiento) diferido con la muestra
(en inglés, Delayed matching or not matching to sample) que consiste en la presentación
de un estímulo inicial (muestra) para, después de un intervalo variable, presentar dos
estímulos, uno de los cuales es idéntico a la muestra y el otro diferente (Bartus y
Johnson, 1976). El animal deberá elegir el objeto familiar (emparejamiento) o el nuevo
(desemparejamiento), según qué protocolo se aplique, para obtener una recompensa,
generalmente comida. Por ejemplo, se le muestra a un mono un objeto (un cilindro)
durante unos instantes y después desaparece de su vista; al cabo de unos minutos, se le
muestran un cubo y un cilindro, si el animal desplaza el cubo encuentra debajo una
golosina, pero si desplaza el cilindro no encuentra nada (figura 2.6). Este procedimiento
se repite un cierto número de veces utilizando objetos diferentes en cada ensayo.

Figura 2.6. Desemparejamiento diferido con la muestra. El animal observa un objeto en


el primer ensayo y después de un intervalo de tiempo variable, se le muestran dos nuevos
objetos, uno de los cuales es una copia idéntica del utilizado en el primero. Si el animal

53
elije el objeto nuevo obtiene una recompensa.

Una variante de este modelo, que se utiliza sobre todo con ratas, es el
desemparejamiento espontáneo con la muestra (Ennaceur y Aggleton, 1994; Ennaceur y
Delacour, 1988; Ennaceur y Meliani, 1992), donde en vez de comida se utiliza como
reforzador la curiosidad y la tendencia natural de estos animales a explorar los objetos
novedosos. El procedimiento básico consiste en presentar dos objetos idénticos en el
primer ensayo (uno en cada esquina del área de experimentación); en el segundo ensayo
son sustituidos por uno idéntico a la muestra y otro nuevo (figura 2.7). En condiciones
normales, el animal dedicará más tiempo a explorar el objeto nuevo.

Figura 2.7. Desemparejamiento espontáneo. El animal explora libremente dos objetos


idénticos en el primer ensayo; después de un intervalo de tiempo variable, se le permite
explorar dos nuevos objetos, uno de los cuales es una copia idéntica de los utilizados en
el primero. En condiciones normales, el animal explora durante más tiempo el objeto
nuevo.

Para evaluar aprendizaje, uno de modelos que más se ha utilizado es el de aprendizaje

54
espacial, es decir, la evaluación de la capacidad de orientación espacial de los animales.
Básicamente, la tarea consiste en que el animal debe recordar una posición o un
recorrido, sin embargo, se han desarrollado diversos procedimientos de diferente
complejidad en los que el animal debe alcanzar su objetivo. Se pueden utilizar laberintos
sencillos como los que tienen forma de T o de Y, pero los dos más utilizados para este
propósito han sido el laberinto radial y la piscina de Morris que hemos descrito
anteriormente.

La tarea básica en el laberinto radial es recorrer los brazos sin repetir ninguno hasta
haber visitado todos y obtenido la recompensa correspondiente. En la piscina de Morris
lo habitual es situar al animal en un punto de la piscina y dejarlo que nade hasta que
encuentre la plataforma. Este procedimiento se repite cambiando el punto de partida del
animal; en días sucesivos, se repite el procedimiento cambiando la localización de la
plataforma. Lo normal es que el animal nade directamente hacia la plataforma después de
unos pocos intentos dedicando mucho me nos tiempo a encontrarla. Para confirmar el
aprendizaje, se puede hacer un último ensayo en el que se quita la plataforma para que el
animal no pueda escapar del agua; si recuerda correctamente su ubicación, el animal
nadará únicamente en las inmediaciones del lugar donde estaba la plataforma y no la
buscará por el resto de la piscina. En todos estos procedimientos es posible introducir
variaciones.

Se han desarrollado protocolos para evaluar otras conductas como las habilidades
sensoriomotoras, conductas adictivas o procesos atencionales, además de la utilización de
modelos animales para simular trastornos mentales y poder determinar las alteraciones
neurocognitivas que pueden ir ligadas a dichos trastornos (Hitzemann, 2000). En
cualquier caso, no hay que olvidar que en todos estos procedimientos hay que ser
cuidadosos a la hora de controlar variables extrañas (emocionales, contextuales,
etológicas...) que puedan desvirtuar el parámetro que queremos evaluar. Por otro lado,
no siempre hay una aceptación científica unánime sobre el tipo de proceso cognitivo que
dicen medir los diferentes procedimientos, por lo que es frecuente encontrar
discrepancias sobre la interpretación de los datos obtenidos.

Las posibilidades conductuales son muy diversas por lo que el investigador debe
seleccionar los protocolos que mejor se adapten al tipo de evaluación que desee realizar.
También es posible diseñar tareas nuevas para evaluar aspectos específicos del
comportamiento de los animales. Esto requiere un planteamiento cuidadoso de los pasos
y tareas que se han de realizar, para lo que es necesario conocer las características de los
animales que se van a utilizar como sujetos. Por todo ello es necesario revisar
previamente la literatura existente y tomar en cuenta las aportaciones realizadas por otros
autores en experimentos anteriores.

2.1.3. Evaluación neuropsicológica

55
El neuropsicólogo ruso A.R.Luria fue el primero en utilizar una serie de tareas de
manera sistemática para estudiar las alteraciones cognitivas y motoras en personas que
habían sufrido algún tipo de daño cerebral. La evaluación neuropsicológica (EN) consiste
en un conjunto de técnicas y procedimientos de diversa índole para obtener información
acerca del funcionamiento cerebral de una persona a partir de observaciones realizadas
sobre su comportamiento y de su nivel de ejecución en pruebas y tests específicos. En
este sentido, comparte muchos aspectos con la evaluación psicológica, pero el aspecto
diferencial de la EN es que su marco de referencia es la actividad cerebral. De hecho,
muchas pruebas tradicionalmente utilizadas en psicología también se usan en la EN, sin
embargo, la interpretación de los resultados se lleva a cabo en referencia a los circuitos
cerebrales implicados en la resolución de las tareas y a su funcionalidad.

Este tipo de evaluación se mueve en un campo de estudio más restringido, el de la


actividad cerebral, y su origen está vinculado al diagnóstico clínico y al intento de
localización de lesiones cerebrales. Sin embargo, en la actualidad ha transcendido dicho
ámbito y su utilización en otros campos ha pasado a ser no solo habitual, sino
imprescindible. Uno de estos ámbitos es el de la investigación, donde en los últimos años
han proliferado multitud de estudios encaminados a conocer aspectos del funcionamiento
cerebral normal y alterado utilizando para ello los datos que proporcionan las pruebas
neuropsicológicas. También, aunque dentro del ámbito clínico, la EN ha experimentado
un crecimiento transversal que va más allá de la localización de lesiones cerebrales y se
ha convertido en una herramienta fundamental a la hora de planificar programas de
rehabilitación y hacer un seguimiento de la evolución de los pacientes, para hacer
pronósticos o predicciones sobre la capacidad funcional de una persona frente a
determinadas tareas, para la elaboración de dictámenes forenses o, simplemente, como
complemento a otro tipo de evaluaciones. Si tenemos que determinar cuál es el objetivo
de la EN podríamos afirmar que la identificación de las consecuencias conductuales,
cognitivas, emocionales y sobre la personalidad de un paciente de cualquier tipo de
alteración cerebral. En este sentido, por alteración nos referimos a lesiones,
malformaciones, disfunciones evolutivas, alteraciones transitorias por consumo de
sustancias, procesos neurodegenerativos asociados o no a la edad, etc. No obstante, hoy
en día la EN debe proporcionar respuestas a muchos interrogantes no siempre
directamente relacionados con el ámbito clínico, lo cual implica unos objetivos más
específicos que puedan dar satisfacción a las demandas procedentes de otros ámbitos
como el científico o el educativo.

Una vez que la EN ha trascendido el ámbito puramente clínico, el propio contexto


donde esta se realice determinará las condiciones en las que se va a llevar a cabo dicha
evaluación. Actualmente hay un fructífero campo científico que la utiliza como una
herramienta más para obtener información; esto supone que el procedimiento que
habitualmente se sigue en el ámbito clínico necesita ser modificado según los
condicionantes que impone cada investigación. Por ese motivo, aunque se pueden utilizar

56
las mismas pruebas, existen algunos factores que diferencian el modo en que se actúa en
uno u otro ámbito. Cuando nos referimos al ámbito clínico incluimos también aquellas
evaluaciones que se realizan en entornos educativos para determinar déficits funcionales
que ocasionen dificultades de aprendizaje, es decir, nos referimos a cualquier evaluación
que tiene como objetivo la caracterización neuropsicológica de una persona con
dificultades de cara a posibles intervenciones. En ambos casos el objetivo es obtener
información sobre la actividad cerebral a partir de observaciones y mediciones, pero el
modo en que estas observaciones y mediciones se van a llevar a cabo presenta algunas
diferencias que es necesario tomar en consideración.

Sujetos:en la EN clínica tratamos con pacientes que presentan algún tipo de disfunción
cerebral, mientras que en investigación no siempre es así ya que se puede trabajar
con sujetos normales que posean alguna característica sobre la que estemos
investigando. La relación afectiva debe ser cercana con los pacientes y neutra con
los sujetos experimentales.

-Información: en clínica tratamos de determinar las consecuencias de la disfunción


cerebral que padece el paciente y obtener toda la información posible acerca de sus
capacidades alteradas y conservadas, su nivel de autonomía y adaptación a la vida
cotidiana y su estado emocional y motivacional. En investigación se busca
información sobre el rendimiento de los sujetos en determinadas tareas para hacer
comparaciones.

-Interpretación de resultados: por regla general, en la EN experimental se toma en


consideración el resultado obtenido por el sujeto en las pruebas aplicadas dejando
de lado interpretaciones subjetivas. Sin embargo, en el ámbito clínico también es
importante la valoración cualitativa que nos permite apreciar cómo el sujeto trabaja
para alcanzar el resultado.

-Tipo de pruebas: en clínica se suelen utilizar pruebas estandarizadas para poder


comparar los resultados del sujeto con los obtenidos por una muestra normalizada.
En la EN experimental esto no es determinante ya que se pueden utilizar incluso
pruebas diseñadas a propósito con el objetivo de comparar el rendimiento mostrado
por los grupos experimentales.

-Validez ecológica de las pruebas: las pruebas utilizadas en la EN clínica deberían


poseer una validez ecológica elevada para reflejar lo más certeramente posible las
dificultades de los pacientes en la vida cotidiana. Por el contrario, en la EN
experimental esto es positivo pero no imprescindible, puesto que comparamos
rendimientos supuestamente asociados a funcionamiento cerebral sin necesidad de
hacer predicciones inmediatas sobre dificultades cotidianas ni sobre la capacidad de
adaptación de los sujetos (salvo cuando esto sea el objetivo del estudio).

57
La EN clínica y la experimental se dan la mano con frecuencia ya que se trata de dos
ámbitos que no pueden sobrevivir por separado. En cierto modo, los clínicos también
formulan hipótesis de trabajo en el abordaje de sus casos y aportan conclusiones
interesantes para el avance neuropsicológico. Por su parte, la investigación
neuropsicológica no puede obviar que trata con personas, padezcan o no algún tipo de
disfunción cerebral, y eso conlleva el establecimiento de un cierto vínculo que hay que
saber manejar para conseguir la colaboración del sujeto y su implicación en el proceso.

Conviene hacer una matización importante cuando nos referimos a la EN con niños, y
es que se trata de evaluar un cerebro en desarrollo. En el adulto, el perfil cognitivo es
más o menos estable, mientras que en el niño se va modificando de manera significativa
con el paso del tiempo. El origen de la EN infantil no está tan vinculado al ámbito clínico
como en el caso de la tradicional; surge también del interés por comprender los
problemas cerebrales subyacentes en algunos niños que mostraban dificultades a la hora
de adquirir determinadas habilidades a lo largo del desarrollo. Los objetivos pueden ser
los mismos que en la EN tradicional pero hay que determinar también el momento
evolutivo en el que se encuentra el cerebro que estamos evaluando para constatar si se
corresponde con su desarrollo cronológico o si sufre alguna desviación.

Hemos comenzado este apartado haciendo alusión al modo en que la EN obtiene su


información, mediante un conjunto de tareas organizadas en cuya resolución suponemos
la intervención de circuitos cerebrales concretos. Es frecuente encontrar conjuntos
(baterías) de pruebas neuropsicológicas configuradas al efecto para evaluar, bien el perfil
cognitivo general bien procesos cognitivos concretos (memoria, lenguaje, atención...) e
incluso perfiles de personalidad, psicopatológicos o emocionales. Se pueden agrupar de
maneras diversas.

-Pruebas de rastreo cognitivo. Suelen ser tests fáciles de aplicar que consumen poco
tiempo y que nos pueden dar información acerca del funcionamiento cognitivo en
general. También se conocen como pruebas de cribado cognitivo ya que permiten
discernir con facilidad un estatus normal del patológico. El problema es su baja
especificidad, por lo que únicamente sirven para determinar si un paciente necesita
una evaluación neuropsicológica más amplia. El ejemplo más conocido de este tipo
de pruebas es el Mini Mental State Examination (MMSE).

-Baterías de evaluación general. Son conjuntos de tests agrupados que tratan de


evaluar de manera sistemática todas las funciones cognitivas. Estas baterías nos
permiten obtener un perfil del paciente donde se reflejan las capacidades alteradas
pero también las preservadas. Su problema es que las pruebas que las componen no
siempre tienen la misma fundamentación ni son igual de eficaces para diferentes
procesos cognitivos. Por ejemplo, la Batería Neuropsicológica Luria-Nebraska, las
escalas de inteligencia de Weschler (WAIS-IV, WISC-IV y WPPSI-III), las baterías
de Kaufman para niños (K-ABCy K-Bit) o el Test Barcelona revisado.

58
-Baterías y pruebas específicas. Existen también conjuntos de pruebas cuyo objetivo
es la valoración de un proceso cognitivo en particular. A veces, una batería general
nos proporciona información insuficiente sobre un proceso cognitivo o tenemos
especial interés en realizar una evaluación más profunda de ese proceso; este tipo
de pruebas son las adecuadas, por ejemplo la Wechsler Memory Scale IV (WMS-
IV). También podemos acudir a configurar nuestro propio protocolo de evaluación
seleccionando aquellas pruebas que consideramos más adecuadas y que no siempre
pertenecen a baterías estandarizadas. Por ejemplo, el test de Stroop para me
dircapacidad inhibitoria, las torres de Hanoi o Londres, para planificación y
mantenimiento de objetivos, o el test de símbolos y dígitos (SDMT) y el test d2
para evaluar atención.

-Escalas y cuestionarios. Son los más adecuados para valorar el nivel de adaptación a
la vida diaria de los sujetos y las alteraciones conductuales, emocionales o de
personalidad que puedan presentar como consecuencia de su cuadro clínico. Para
ello existen escalas y cuestionarios que, bien de forma autoinformada por el propio
paciente, o cumplimentada por personas cercanas de su entorno, nos van a
proporcionar esta información. Existen numerosas herramientas para este fin como
el Cuestionario Disejecutivo (DEX) que forma parte de la batería BADS
(Behavioral Assessment of the Disexecutive Syndrome), la Frontal System
Behavioral Scale (FrSBe) u otras escalas que proceden de otros ámbitos pero con
utilidad neuropsicológica como el State-Trait Anxiety Inventory (STAI) para evaluar
ansiedad o el Beck Depression Inventory (BDI) para depresión.

2.2. Estudio de la estructura y la actividad del sistema nervioso


Hasta ahora hemos visto cómo se puede evaluar el comportamiento tanto en modelos
animales como en humanos, sin embargo, esto no es suficiente si queremos hacer ciencia
en psicobiología ya que tenemos que establecer los correlatos neurofisiológicos de dicho
comportamiento. Es cierto que a partir de las observaciones comportamentales podemos
hacer deducciones sobre el funcionamiento cerebral de los sujetos pero es preferible
obtener información de primera mano acerca de la configuración estructural del sistema
nervioso y de sus patrones funcionales.

Cuando hablamos de técnicas que permiten el estudio tanto de la estructura del sistema
nervioso como de su actividad, nos estamos refiriendo a un abanico de ellas que abarca
desde técnicas moleculares que permiten, por ejemplo, determinar la presencia o la
actividad de neurotransmisores y sus receptores hasta técnicas de neuroimagen que
proporcionan información acerca de la estructura del cerebro o de la activación
diferencial de sus circuitos en humanos vivos. En este apartado vamos a referimos de
manera especial a las últimas ya que el ámbito educativo en el que nos movemos así lo
aconseja por ser las más utilizadas en la mayoría de investigaciones relacionadas en este
campo.

59
2.2.1. Técnicas estructurales
El objetivo de estas técnicas es proporcionar información acerca de las características
estructurales del tejido nervioso de tal manera que puedan ser correlacionadas con
aspectos conductuales. La configuración macroscópica del SN es bastante conocida pero
todavía queda un desafío vigente que es conocer la conectividad neuronal hasta sus
últimas consecuencias. Conocemos bastante acerca de las "autovías" nerviosas pero
todavía existen lagunas de conocimiento acerca del complejo entramado de circuitos
nerviosos en regiones cerebrales sobre todo. El microscopio óptico y posteriormente el
electrónico han constituido herramientas de incalculable valor para la visualización de
estas intrincadas conexiones mediante el uso de sustancias "marcadas" que viajan por los
axones y a las que es posible seguir el rastro. De este modo se ha ido conociendo el
cableado nervioso (sobre todo en modelos animales) para poder entender la participación
de los diferentes circuitos en cada proceso cognitivo. Sin embargo, donde realmente se
ha producido un avance espectacular es en el desarrollo de técnicas de neuroimagen que
permiten observar el cerebro humano en vivo sin que los sujetos sufran agresión alguna.
Gracias a esta tecnología no es necesario esperar al fallecimiento del paciente para la
observación de su cerebro.

La tomografía axial computarizada (TAC) es una técnica que consiste en hacer pasar
haces de rayos X a través del cuerpo del sujeto. Según su constitución los tejidos
absorberán mayor o menor cantidad de partículas de estos rayos (igual que las
radiografías convencionales). Así, el hueso es el que absorbe más cantidad y por eso, en
una TAC de la cabeza, el cráneo aparece de color blanco mientras que el líquido es el
que menos y por eso los ventrículos cerebrales aparecen en negro; el resto de tejido
aparece en diferentes tonos de gris. Es útil para detectar malformaciones, tumores,
hemorragias u otras alteraciones cerebrales importantes por lo que es utilizado
frecuentemente en el ámbito clínico, sin embargo, no se usa en investigación porque los
pacientes se ven expuestos a pequeñas dosis de radiación y la técnica proporciona muy
poca discriminación de los tejidos blandos. La técnica que sí proporciona una buena
discriminación de las estructuras cerebrales es la resonancia magnética nuclear o
simplemente resonancia magnética (RM). Esta técnica aprovecha las características
electromagnéticas de algunos componentes celulares para medir la energía que despiden
en determinadas situaciones. Concretamente, si generamos un campo magnético en tomo
al cerebro, los átomos de hidrógeno presentes en las moléculas de agua de las células se
alinean en la dirección del campo generado. Entonces, al aplicar una onda de
radiofrecuencia cambia la orientación de dichos átomos mientras está presente dicha
estimulación y vuelven a su alineación inicial al desaparecer la misma. Al producirse estos
cambios, se genera energía que es detectada por el aparato de resonancia y utilizada para
formar imágenes de los diferentes tejidos (figura 2.8).

La primera ventaja de esta técnica con respecto a la TAC es que proporciona imágenes
con una resolución mucho mayor que permite diferenciar bastante bien las estructuras

60
cerebrales. Además, es una técnica inocua para los sujetos, pues no genera radiación, por
lo que se puede utilizar con frecuencia (salvo por su elevado coste).

Figura 2.8. Representación de los movimientos de los átomos de hidrógeno cuando se


genera el campo electromagnético y mientras dura la estimulación mediante radio
frecuencia.

Tanto la TAC como la RM nos permiten diferenciar sustancia gris y sustancia blanca,
sin embargo, para comprender de un modo más completo el funcionamiento cerebral no
solo necesitamos información sobre los centros de procesamiento sino también sobre las
conexiones neuronales entre esos centros. Una aplicación reciente desarrollada a partir de
la resonancia magnética es la tractografía realizada a partir de imágenes por tensor de
difusión (TDI). Esta técnica aprovecha el movimiento de difusión de las moléculas de
agua en el interior de las neuronas para poder cartografiar los tractos nerviosos y así
apreciar su orientación y su integridad morfológica. En el soma de las neuronas las
moléculas de agua se pueden mover en todas direcciones (isotropía), mientras que en los
axones esto no es posible por su configuración cilíndrica, por lo que predominan los
desplazamientos longitudinales a lo largo del axón (anisotropía). La difusión isotrópica
predomina en la sustancia gris y la anisotrópica en la sustancia blanca. De esta manera,
podemos observar el estado de las conexiones cerebrales en sujetos normales o en
aquellos que presentan cualquier tipo de disfunción, lo cual ha proporcionado importante
información sobre la base neurológica de trastornos como la esquizofrenia, el autismo o
la dislexia.

Estas técnicas proporcionan información neuroanatómica, algo que por sí mismo posee
poca utilidad para el psicobiólogo. Por ese motivo, la verdadera utilidad radica en su
utilización junto a pruebas neuropsicológicas que permitan correlacionar el rendimiento
neurocognitivo con las características morfológicas del cerebro de los sujetos. Esto hace

61
que su mayor aplicación sea en el diagnóstico de patologías cerebrales o en el estudio de
diferencias morfológicas cerebrales entre sujetos.

2.2.2. Técnicas funcionales


La correlación de medidas de rendimiento cognitivo con estructuras cerebrales
macroscópicas proporciona una información insuficiente para comprender el
funcionamiento del sistema nervioso. Por ese motivo, se han desarrollado otras técnicas
que correlacionan rendimiento cognitivo con actividad nerviosa, son las técnicas
funcionales. Básicamente hay tres procedimientos para obtener información sobre el
funcionamiento nervioso, suprimir la actividad de una zona y ver los efectos que se
ocasionan, estimular una región para ver cómo influye sobre la conducta o simplemente
registrar la actividad de circuitos nerviosos cuando se está realizando una tarea. Por eso
podemos agrupar estos procedimientos en técnicas de supresión, de estimulación y de
registro. Todas estas técnicas pueden realizarse tanto en humanos como en modelos
animales pero es obvio que la supresión de la actividad nerviosa de manera experimental
se hace preferentemente en animales (en humanos se estudian las consecuencias de
lesiones cerebrales). En el caso de las técnicas de estimulación también se suelen utilizar
modelos animales aunque en humanos se han llevado a cabo de manera esporádica
durante intervenciones quirúrgicas en el cerebro o, en la actualidad, con determinados
procedimientos que permiten la estimulación de manera no invasiva, como la
estimulación magnética transcraneal. Por último, las técnicas de registro son las que han
tenido un desarrollo mayor en humanos, desde el mero registro electroencefalográfico
hasta la resonancia magnética funcional o la tomografia por emisión de positrones.

Las técnicas de supresión son las de mayor tradición en psicobiología y tienen como
objetivo la supresión de la actividad nerviosa en una región más o menos extensa del
sistema nervioso para observar los efectos que dicha supresión tiene sobre la conducta.
Para la localización precisa de la zona que queremos inactivar es preciso el uso del
estereotáxico, un aparato que mediante un sistema de tres ejes de coordenadas y con la
ayuda de mapas específicos del cerebro del animal (el más conocido, Paxinos y Watson,
1998) nos permite determinar la posición en el espacio de la región que nos interesa. Una
vez situado el animal en el estereotáxico, podemos inactivar una zona de su cerebro
mediante una lesión eléctrica o química localizada. Una de las formas más habituales de
hacerlo son las lesiones electrolíticas que consisten en hacer pasar una corriente eléctrica
continua por un electrodo situado en la zona deseada. Es un método rápido y sencillo, sin
embargo, tiene el inconveniente de que la lesión afecta a los cuerpos celulares situados en
esa zona pero también a los axones de otras células que pasan por ella, lo que ocasiona
daños inespecíficos que resultan difíciles de controlar e interpretar. Una alternativa son
las lesiones químicas, en las que se inyecta una sustancia tóxica mediante una
micropipeta (en vez del microelectrodo). Estas lesiones tienen la ventaja de ser mucho
más específicas ya que destruyen las neuronas de una región determinada sin afectar a
los axones que la atraviesan (Bures et al., 1983).

62
Hay otros procedimientos para provocar supresión de la actividad nerviosa como por
ejemplo la aspiración de tejido, la ablación o el enfriamiento. Cuando la región que se
pretende lesionar es un área de fácil acceso (corteza cerebral, cerebelo...) se puede
recurrir a la succión del tejido mediante un sistema de vacío conectado a una cánula para
aspirar el tejido que queremos lesionar. La ablación implica la sección de fibras nerviosas
impidiendo el paso de las señales enviadas por las neuronas correspondientes sin
provocar daños de importancia en el tejido circundante. Por último, podemos inactivar
temporalmente una región determinada mediante enfriamiento, si hacemos descender la
temperatura por debajo de los 25 °C. Esto no provoca daños permanentes ni
desencadena actividad neural compensatoria debido al corto periodo de tiempo que dura
el efecto.

Las técnicas de estimulación permiten activar experimentalmente (o con fines clínicos)


una zona del cerebro para determinar de manera específica su participación en la
conducta. Se suele hacer aplicando una corriente eléctrica débil capaz de activar
poblaciones neuronales o tractos de fibras. En el laboratorio se puede realizar esta técnica
con animales conscientes y en libertad de movimientos, lo que requiere la implantación
permanente de los electrodos, para determinar los efectos sobre diversos
comportamientos (Bures et al., 1983). Su utilidad ha sido demostrada en numerosas
investigaciones, sin embargo, tiene la desventaja de que a veces es difícil precisar qué
elemento neural estamos estimulando en un momento dado (somas neuronales o fibras
de paso), lo que dificulta la interpretación de las observaciones conductuales. A nivel
clínico se ha utilizado para tratar enfermedades como el Parkinson, el síndrome de
Tourette, el trastorno obsesivo compulsivo (TOC), epilepsia, depresión resistente al
tratamiento farmacológico (Gubellini et al., 2009) e incluso obesidad mórbida (Melega et
al., 2012).

Una técnica de estimulación no invasiva del tejido nervioso es la estimulación


magnética transcraneal (EMT), que en los últimos años está siendo muy utilizada tanto
en el ámbito clínico como en investigación. Básicamente consiste en un dispositivo que
genera un campo magnético, el cual puede atravesar el cuero cabelludo y el hueso del
cráneo sin perder intensidad y sin distorsión y así, activar o interferir la actividad
cerebral, lo que permite establecer relaciones causales entre la manipulación inducida y el
comportamiento (Pascual-Leone y Tormos-Muñoz, 2008). Esta técnica tiene una buena
resolución espaciotemporal y, además de suministrar estímulos puntuales, también se
puede utilizar de manera regular para modular la actividad cerebral en determinados
trastornos mentales, algo que todavía debe ser investigado en profundidad. Es una
técnica cuyo uso está poco generalizado, pero que seguro que se convertirá en un aliado
muy importante en investigación y en el ámbito clínico.

El registro de la actividad nerviosa es un procedimiento que nos proporciona


información sobre el papel que determinadas poblaciones neuronales desempeñan en
conductas específicas. Un ejemplo de esto son los registros unicelulares, en los que,

63
mediante un microelectrodo se puede registrar la actividad de neuronas individuales. Los
registros pueden ser intracelulares o extracelulares, aunque los primeros presentan
mayores inconvenientes, también proporcionan una información más específica sobre la
actividad de la célula. También es posible el registro de poblaciones neuronales si la
región objeto de estudio es suficientemente homogénea ya que los datos así obtenidos
solo pueden ser interpretados en términos de excitación o inhibición. Esta técnica permite
el registro de actividad neuronal en animales conscientes para correlacionar la actividad
con el tipo de conducta que el animal está ejecutando (Bryant et al., 2009), lo cual ha
permitido la realización de muchos estudios sobre memoria y aprendizaje en diversos
modelos animales.

Pero las técnicas de registro que más popularidad han alcanzado son las que permiten
el registro de la actividad nerviosa en seres humanos vivos. El registro de la actividad
nerviosa de diferentes estructuras para correlacionarlo con procesos conductuales es un
procedimiento que se viene realizando en psicobiología desde que Hans Berger realizara
en 1929 el primer EEG (Gil, 1999). Tienen la ventaja de que son métodos no invasivos,
aunque también se pueden realizar registros intracraneales. Las cuatro técnicas más
representativas son, además del EEG, la magneto encefalo grafía (MEG), la tomografia
por emisión de positrones (TEM) y la imagen por resonancia magnética funcional
(IRMf). Las dos primeras se pueden considerar como técnicas magnetoeléctricas,
mientras que las últimas como técnicas hemodinámicas (véase una descripción más
detallada en Martín-Loeches, 2001), aquellas porque registran la actividad eléctrica o los
campos magnéticos generados por la actividad de las neuronas y estas porque registran
los cambios en el metabolismo de las neuronas como consecuencia de su activación.

El EEG es la técnica de mayor tradición y la más habitual tanto en el ámbito clínico


como en investigación. El procedimiento consiste en la colocación de un cierto número
de electrodos sobre el cuero cabelludo de acuerdo a patrones estandarizados para
registrar la actividad espontánea de las neuronas corticales. La actividad registrada, en
forma de ondas características, puede compararse con patrones estandarizados para su
utilización clínica. Es una buena técnica para el diagnóstico de patologías neurológicas a
pesar de que su resolución espacial es limitada; no obstante, su resolución temporal es
buena. Se puede conseguir un aumento de la resolución espacial si se implantan los
electrodos directamente sobre la corteza cerebral (electrocorticografia) ya que así se
elimina la interferencia producida por el cráneo. Sin embargo, este montaje solo es
posible en sujetos candidatos a neurocirugía, especialmente de la epilepsia, aunque
además de su utilidad para localizar el foco responsable de las crisis también se puede
utilizar para mapear regiones corticales (Miller et al., 2007).

Una técnica derivada de la anterior es el registro de potenciales asociados a eventos


(ERP, del inglés Event Related Potentials) más comúnmente conocidos como potenciales
evocados. Estos potenciales miden la respuesta generada por una población de neuronas
activadas de forma sincrónica en respuesta a un único estímulo. Para poder obtener estas

64
señales es necesario presentar un mismo estímulo un número suficiente de veces
seguidas mientras se realiza el registro. Existe el inconveniente de que se producen
interferencias provocadas por la actividad electroencefalográfica de fondo (la actividad
espontánea de las neuronas que no están respondiendo al estímulo que presentamos),
pero al promediar las señales, aquella que está provocada por el estímulo tiene una
latencia fija y sobresale sobre las señales de "ruido" que tienen latencia variable. Es decir,
suponemos que la actividad de fondo, al ser aleatoria, presenta valores positivos y
negativos por lo que al promediarlas tienden a anularse, mientras que la señal producida
por el estímulo tendrá siempre el mismo valor y destacará sobre las demás.

La MEG es una técnica más reciente y en plena expansión por las posibilidades que
ofrece. En este caso, se utilizan unos detectores específicos que no necesitan situarse
sobre el cuero cabelludo para registrar campos magnéticos muy débiles generados por la
actividad neuronal. Estos campos tienen la ventaja de que no presentan las interferencias
craneales que aparecen en el EEG ya que las ondas electromagnéticas pueden atravesar
el cuero cabelludo sin distorsión alguna. Por el contrario, tiene la desventaja de que
requiere instalaciones costosas y complejas ya que el registro debe efectuarse en
habitaciones aisladas de campos magnéticos externos y los detectores necesitan un
complejo sistema de refrigeración por helio líquido. No obstante, es una técnica muy
apreciada porque proporciona una resolución temporal y espacial bastante buena.

El cerebro es el órgano del cuerpo que consume más energía por lo que su actividad
metabólica es alta. Además esta actividad metabólica fluctúa en función del trabajo que
realizan las neuronas, es decir, cuando una neurona está activada consume más oxígeno
y más glucosa, lo que supone un mayor aporte sanguíneo mientras dura esa actividad. La
TEP permite obtener imágenes tridimensionales de diversas áreas cerebrales cuando las
neuronas están activadas. Para ello es necesario inyectar moléculas que llevan
incorporado un marcador radioactivo (por ejemplo, glucosa marcada con 18Fluor,
15Oxígeno o con "Carbono) que luego son detectadas por un dispositivo (escáner)
adecuado. El procedimiento es costoso ya que los isótopos radioactivos utilizados tienen
una vida media muy corta, por lo que deben ser producidas en el sitio y en el momento
en el que se va a efectuar el registro. Sin embargo, proporciona información bastante
fiable sobre diferentes parámetros vinculados a la actividad neuronal.

La IRMf permite obtener simultáneamente imágenes morfológicas y funcionales del


encéfalo. Se basa en las diferentes propiedades electromagnéticas de la hemoglobina, la
molécula de la sangre que transporta el oxígeno, que son diferen tes cuando va ligada al
oxígeno (oxihemoglobina) o cuando no lo está (desoxihemoglobina). Con un aparato de
resonancia magnética suficientemente potente se pueden detectar las variaciones en los
niveles de una y de otra en función de la actividad de las neuronas, ya que las que están
activadas incrementan el flujo sanguíneo (con oxihemoglobina) en su entorno. La
posibilidad de obtener imágenes tridimensionales del encéfalo donde sea posible
identificar áreas funcionalmente activas ha hecho que esta técnica posea una proyección

65
científica extraordinaria ya que la resolución espacial es muy buena y la resolución
temporal es superior a la del TEP aunque menor que la del electroencefalograma o la de
la magnetoencefalografía.

En resumen, las técnicas de neuroimagen constituyen una herramienta muy valiosa


tanto para el clínico como para el investigador. La adecuada combinación de estas
técnicas con la tradicional evaluación conductual en humanos puede proporcionar
información relevante acerca de cómo el cerebro procesa la información o ejecuta las
conductas más diversas, tanto en condiciones normales como en los casos de lesión
neurológica, consumo de sustancias o enfermedad mental.

2.3. Investigación neuropsicológica en educación


Todo lo dicho hasta ahora relativo a la investigación psicobiológica es válido cuando se
aplica a la educación, sin embargo, dentro de las disciplinas psicobiológicas la que se sitúa
más cerca del ámbito educativo es la neuroropsicología. Es cierto que hay un campo
importante dentro de la investigación genética, y de otras disciplinas, dedicado a los
trastornos del neurodesarrollo, sin embargo hay poco espacio en general para la
investigación orientada al aula. Como ya hemos apuntado, la comunicación entre
neuropsicólogos y educadores siempre ha sido escasa y poco operativa, lo mismo que la
formación cruzada en ambos campos. Poco saben los educadores sobre el
funcionamiento cerebral y poco saben los neuropsicólogos sobre el trabajo en el aula.
Una vez que neuropsicólogos y educadores se hayan puesto de acuerdo acerca de la
necesidad de colaborar y contribuir conjuntamente al desarrollo de una educación basada
en el cerebro se podrá avanzar en una investigación unificadora y unificada. Para que la
investigación neuropsicológica (o psicobiológica) despegue y se convierta en un campo
científica y prácticamente productivo debe tomar en consideración dos aspectos
fundamentales; por un lado, erradicar las falsas creencias (neuromitos) que circulan en
torno al funcionamiento cerebral entre los educadores y, por otro lado, dirigir sus
esfuerzos a la aplicabilidad en el aula de sus hallazgos, tanto los relacionados con el
aprendizaje normal como con las necesidades especiales.

2.3.1. Investigación y neuromitos


En una época en la que el prefijo neuro - está siendo utilizado de manera abusiva en
múltiples contextos, no solo de la ciencia o de la cultura, sino también del marketing o las
finanzas, no es de extrañar que surjan teorías y explicaciones sobre el funcionamiento
cerebral que no se ajustan a la realizad y que, en muchas ocasiones, encubren intereses
no siempre legítimos. Es lo que actualmente se conoce como neuromitos, errores que se
han ido generando por una mala comprensión, una interpretación incorrecta o una
valoración inadecuada de hechos científicamente probados en neurociencia en general y
en neuropsicología en particular, para justificar el uso de investigación neurocientífica en
educación y en otros contextos (OCDE, 2002).

66
El ámbito educativo ha sido uno de los más receptivos a estas falsas creencias. Resulta
curioso observar cómo se intenta dotar de "respetabilidad" a determinadas propuestas
educativas simplemente por el hecho de añadirles el respaldo (presunto) de la
neuroropsicología. El asunto es más grave cuando lo que se pretende tiene un trasfondo
comercial y se intentan vender modelos educativos "científicamente comprobados" sin
proporcionar las supuestas evidencias científicas que los avalan. Por desgracia, cuentan
con la ventaja de que la mayoría de los maestros y educadores no han recibido una
formación neuropsicológica que les permita analizar de forma crítica dichas propuestas.
En muchas ocasiones, estos neuromitos no son nociones erróneas sobre el
funcionamiento cerebral sino que son afirmaciones que se han formulado inicialmente
dentro de un contexto fundamentado pero que después han sido reformuladas una y otra
vez apartándose del planteamiento original e incrementando la distorsión de la idea hasta
que llega un momento en que no se parece nada al planteamiento original. Muchos de los
neuromitos que han calado profundamente entre los educadores se han forjado a partir
de verdades a medias sobre el funcionamiento cerebral, lo que hace que pueda ser más
fácil atribuirles esta neurocredibilidad.

Aunque parezca mentira, todavía hay un número elevado de profesionales de la


educación (entre los no profesionales más aún) que creen que solo utilizamos una parte
del cerebro. ¿Quién no ha oído alguna vez la afirmación de que solo utilizamos un 10%
de nuestro cerebro? Quizá de entre todos los neuromitos, este es el decano; no solo
parece ser el más antiguo sino que también es el que tiene un arraigo popular más
extendido. Afortunadamente, hoy en día ha aumentado considerablemente el
conocimiento neuropsicológico y dicha creencia va siendo desterrada, pero no obstante,
aún quedan reductos y no resulta extraño escuchar esta afirmación en boca de
universitarios o, al menos, escucharla en forma de cuestión que se ha de confirmar. No
se sabe a ciencia cierta cuándo y por qué surge este mito. Quizá ha podido contribuir a su
crecimiento el hecho de que durante mucho tiempo se desconocían las implicaciones de
un buen número de áreas cerebrales que no parecían ocuparse ni de funciones
sensoriales ni motoras; este era el caso de la corteza prefrontal, una especie de terca
incognita, sobre las que los neuropsicólogos anteriores a las técnicas de registro e imagen
cerebral no se atrevían a hacer atribuciones funcionales concretas. El caso es que, por un
motivo u otro, esta creencia se ha perpetuado y, en ocasiones, de forma interesada por
aquellos gurús que nos ofrecían sus remedios para incrementar el uso de nuestro cerebro
y convertimos en una especie de neurohombres con potencialidades superiores a las de
nuestros congéneres. También entre educadores se ha echado mano de esta aseveración
para justificar determinas prácticas educativas sin el menor sonrojo. Utilizamos el cerebro
en su totalidad y las diferencias que se puedan observar entre unos individuos u otros no
dependen del porcentaje cerebral que utilizan sino de otros factores más complejos entre
los que genes y aprendizaje tiene mucho que decir.

A veces resulta curioso cómo los neuromitos han calado tan profundamente entre los

67
profesionales de la educación, cómo han llegado a extenderse del modo que lo han hecho
y, sobre todo, cómo han llegado algunos a institucionalizarse de manera que han sido
argumentos de trabajo en múltiples intervenciones. Stephen Stich (1993) sugiere cuatro
posibles causas por las que esta neuromitología ha calado en diversos ámbitos, en
especial en el educativo:

-Fraude deliberado: al servicio de intereses puramente comerciales se puede echar


mano de conceptos neurocientíficos adaptados a conveniencia, bien para sostener
una argumentación, sacar adelante un proyecto o simplemente simular erudición.

-Encaje forzado de ideas científicas: distorsión de las ideas para que encajen en un
argumentarlo previamente establecido. En muchas ocasiones es más fácil vender
una simplificación poco realista que tener que lidiar con la complejidad que supone
la realidad.

-Ausencia de evidencia empírica: esto puede suplirse con la manida etiqueta de


"científicamente probado" o aludiendo al respaldo de determinados laboratorios o
universidades (que a veces no conoce nadie) para despejar cualquier duda acerca de
una supuesta evidencia neurocientífica. No todo lo que se publica en libros y
revistas presuntamente científicas es empíricamente demostrable. Hay que acudir a
fuentes fiables donde la información esté científicamente contrastada.

-Ignorar deliberadamente la evidencia en contra: la ciencia avanza de un modo


inconstante e irregular y antes de que una idea se convierta en algo unánimemente
aceptado pasa mucho tiempo en el que pueden aparecer resultados contradictorios,
interpretaciones distintas de los resultados o simplemente falta de confirmación de
los datos.

Los educadores no poseen una formación neuropsicológica que les permita filtrar estas
falsas creencias y la comunicación bidireccional entre ellos y los neuropsicólogos no es lo
suficientemente fluida para prevenir el contagio de los neuromitos. Sin embargo, la
mayoría de los educadores están interesados en el conocimiento del cerebro y en las
implicaciones que las peculiaridades funcionales del mismo tienen para el proceso
educativo. Estos dos factores les convierten en presa fácil de pseudocientíficos y demás
individuos que aprovechando su buena intención tratan de convencerles de estas ideas.
Incrementar la formación neuropsicológica de los educadores o aportar fluidez al diálogo
recíproco con los neuropsicólogos es una solución pero probablemente tardará tiempo en
llegar. Mientras tanto, Paul Howard-Jones (2010) propone tres preguntas cuyas
respuestas nos pueden ayudar a diferenciar los hechos científicos de los neuromitos.

-¿Cuáles son los principios científicos de la afirmación?

-¿Cómo fue evaluada esa afirmación en términos educativos?

68
-¿Dónde se han publicado esos principios y su evaluación educativa?

2.3.2. Investigación aplicada


Cuando nos enfrentamos a los problemas educativos, el trasfondo es siempre el
mismo: el aprendizaje. Pueden ser múltiples los abordajes sobre este tema, como
múltiples son los matices que configuran y contribuyen a este proceso, ya que aprender
es adquirir conocimiento y habilidades pero los mecanismos cerebrales que participan en
este proceso varían bastante según lo que estamos aprendiendo. Podemos decir que
aprendemos con todo el sistema nervioso, pero unos circuitos están más implicados que
otros en la adquisición de según qué habilidades. Para que pueda producirse el
aprendizaje necesitamos de la capacidad de los diferentes sistemas neurales para
almacenar y recuperar información, esto es la memoria. La educación persigue el
aprendizaje inducido, es decir, conseguir que los educandos adquieran una serie de
conocimientos y habilidades que les resulten útiles en el futuro. Por este motivo, el
principal tema de la investigación neuropsicológica en educación debe ser el aprendizaje,
tanto en condiciones normales como en situaciones especiales. En este aspecto hay
terreno avanzado porque en psicobiología también es uno de los temas prioritarios en
investigación.

Aquellas investigaciones que entran dentro del enfoque neuropsicológico son las que
están más cerca de la investigación neuroeducativa (Howard-Jones, 2010) y son el
puente fundamental para conectar ambos campos de conocimiento. Sin embargo, no toda
la investigación que se hace en neuroropsicología tiene utilidad en el ámbito educativo, ya
que se requiere un enfoque más aplicado que saque partido a los conocimientos básicos
acerca del funcionamiento cerebral. Algo similar ocurre en el sentido contrario, los
estudios que se realizan en el ámbito educativo adolecen de una base neuropsicológica
que respalde empíricamente sus resultados con referencias al sistema responsable de lo
investigado. Quizá por ello es necesario plantear nuevas propuestas que busquen
establecer puentes entre ambas disciplinas y realizar una investigación que integre
aspectos básicos y aplicados.

En primer lugar, la investigación neuroeducativa debe ocuparse tanto de los problemas


de aprendizaje como del aprendizaje normal. Es cierto que hay bastante investigación
referida a dificultades de aprendizaje, a su evaluación o al diseño de intervenciones
correctoras, sin embargo, también debe ser objeto de investigación el aprendizaje normal
a la luz de los conocimientos sobre el funcionamiento cerebral que poseemos. El diseño
de modelos educativos basados en este conocimiento debe de ser una de las aspiraciones
prioritarias ya que podrían optimizar los resultados de aprendizaje en los ciclos de la
enseñanza reglada. Otra de las propuestas que debemos considerar es la de utilizar una
nomenclatura compartida que evite los discursos en paralelo y dificulten la puesta en
común de resultados obtenidos en el campo educativo y en el neuropsicológico. Por
ejemplo, conceptos como rendimiento académico o rendimiento cognitivo pueden

69
utilizarse de manera indiscriminada y, aunque seamos capaces de diferenciar la idea
subyacente en ambos casos, surgen dificultades a la hora de objetivar ambos conceptos
de cara al planteamiento de evaluaciones integradas. También se debe considerar la
adaptación de la metodología utilizada para evaluar a los sujetos que participan en los
estudios. En este sentido, la investigación neuroeducativa se nutre de técnicas y
procedimientos habituales en psicobiología como ya hemos expuesto, sin embargo, hay
que considerar algunos de los problemas que plantean este tipo de pruebas, por ejemplo,
la escasa validez ecológica de muchas pruebas neuropsicológicas o el hecho de que
muchas de ellas provienen del ámbito clínico y a causa del efecto techo no siempre
permiten discriminar adecuadamente diferencias de rendimiento entre grupos de estudio
que no presenten un deterioro cognitivo significativo. Por último, es fundamental que los
diseños de investigación estén ligados a la actividad práctica en el aula y tengan por
objetivo la resolución de problemas habituales que faciliten la labor pedagógica. Esto no
significa renunciar a la investigación básica que nos va a seguir proporcionando
conocimiento acerca del funcionamiento del sistema nervioso y que nos permitirá diseñar
estudios aplicados. El objetivo es equilibrar ambos campos, básico y aplicado,
fortaleciendo los puentes entre ambos para que, si bien el conocimiento básico ayuda a
formular estudios aplicados, el conocimiento aplicado también pueda orientar las futuras
líneas de la investigación neuropsicológica básica.

La neurorociencia está desembarcando poco a poco en el mundo de la educación pero


todavía no se ha producido una integración operativa entre ambas disciplinas de manera
que se puedan obtener resultados prácticos. Hay que ser opti mistas y suponer que el
camino que se ha iniciado no tiene vuelta atrás por lo que antes o después se producirá
dicha integración. Quizá el principal desafío que debe afrontar la investigación
neuroeducativa es la propia definición de su ámbito de actuación y el perfilado de
metodologías y procedimientos propios, sin renunciar a todas las posibilidades que
ofrecen las disciplinas relacionadas pero estableciendo su propio marco de referencia. Las
modernas técnicas de neuroimagen están aportando información muy valiosa sobre la
configuración del cerebro normal o alterado a lo largo del desarrollo así como las
implicaciones funcionales de los diferentes circuitos a la hora de realizar actividades
típicamente escolares (leer, escribir, realizar cálculos matemáticos...), algo impensable
hace unos años. Estas posibilidades abren la puerta a una mejor comprensión de
problemas como la dislexia, el trastorno por déficit de atención con hiperactividad o las
alteraciones emocionales y conductuales que aparecen en las diferentes etapas
educativas. Pero también pueden ser útiles técnicas neurobiológicas que, aunque
aparentemente estén en un ámbito más alejado, pueden proporcionar conocimiento
acerca de procesos como la neuroplasticidad, la neurogénesis adulta o las neuronas
espejo, tópicos que con toda probabilidad van a Jugar un papel muy relevante a la hora
de explicar las bases neurobiológicas del aprendizaje.

La investigación neuroeducativa debe potenciar la vertiente aplicada, es decir, debe

70
salir del laboratorio y acercarse a las aulas. La psicobiología ha aportado conocimientos
sustanciales sobre los mecanismos neurales del aprendizaje pero todavía no hemos
encontrado la manera de operativizar ese conocimiento de manera efectiva para que se
traduzca en mejores modelos educativos o, al menos, en estrategias puntuales de
intervención que puedan mitigar algunas de las dificultades con las que se encuentran a
diario los profesionales de la educación. Para ello es necesario incrementar el diálogo
entre ambas disciplinas con el fin de compartir proyectos en una dirección conjunta
aportando la experiencia recíproca tanto a la hora de establecer objetivos como de
diseñar las investigaciones. Solo así hay camino por delante.

71
72
En el ámbito educativo es donde con más frecuencia surge la controversia entre
herencia y ambiente, entre natura y nurtura. ¿Se hereda la inteligencia o se adquiere con
la educación?, ¿si se hereda, por qué los hermanos gemelos no son exactamente igual de
inteligentes?, ¿si se adquiere con la educación, por qué no todos los niños aprenden al
mismo ritmo y alcanzan los mismos logros? Parece que hay un poco de todo, parte se
hereda y parte se adquiere, pero ¿cómo podemos determinar qué parte hay de lo uno y
qué parte de lo otro? Son preguntas para las que todavía no hay respuestas definitivas y
según de qué disciplina provengan, la balanza se inclina en una u otra dirección.

En este capítulo vamos a ver una serie de conceptos básicos relativos a la transmisión
de los caracteres hereditarios, pero también revisaremos conceptos de biología y genética
molecular, lo estrictamente imprescindible para poder comprender cómo se transmiten los
caracteres y, lo que quizá más interesa en educación, qué caracteres son transmisibles y,
por el contrario, qué habilidades o características pueden ser adquiridas mediante
aprendizaje. En realidad, se trata solamente de proporcionar una información básica que
le sirva al lector de referencia para clarificar algunos aspectos fundamentales. Antes de
arriesgamos a dar por conocida esta información o confiar en su buena memoria, hemos
considerado más oportuno facilitársela en unas pocas páginas.

3.1. Conceptos básicos de biología y genética


Comenzaremos recordando algunas características de las células y sus componentes,
del ciclo celular o de los ácidos nucleicos. Es posible que conociendo la naturaleza del
material hereditario sea más sencillo comprender posteriormente qué es lo que realmente
se hereda.

3.1.1. Células, cromosomas y biomoléculas


En nuestro organismo podemos encontrar cientos de células diferentes. Una neurona
no se parece mucho a una célula del hígado, y una de la piel tampoco a una cardiaca.
Cada una de ellas tiene una forma diferente y se ocupa de funciones diferentes, pero
también es cierto que comparten una serie de características que son bastante similares
en todas ellas. En primer lugar, están separadas del entorno por una membrana que las
aísla y que regula el intercambio de sustancias con el exterior. También poseen un núcleo
en su interior que contiene el material genético y una serie de orgánulos que contribuyen
al metabolismo celular y a su funcionamiento. Además, todas están constituidas por los
mismos tipos de moléculas.

73
El núcleo es la estructura más voluminosa en el interior celular y está separado del
citoplasma por la membrana nuclear. Contiene los cromosomas, aunque estos solo son
visibles durante la división celular ya que el resto del tiempo solo podemos ver una
maraña de hebras muy finas que se denomina cromatina. En el citoplasma de la célula
también hay otros orgánulos como el retículo endoplásmico que junto con los ribosomas
participa en la síntesis de proteínas; el aparato de Golgi, que interviene en el
procesamiento y empaquetamiento de proteínas para su transporte y distribución; las
mitocondrias que aportan la energía que necesita la célula para llevar a cabo sus procesos
o los lisosomas que se encargan de eliminar residuos mediante un proceso de degradación
enzimática.

El ciclo celular es el periodo que transcurre entre la génesis de una célula y su división
para dar lugar a dos células hijas. Cuando se forma una célula se produce un periodo de
crecimiento inicial en el que ocurren procesos metabólicos necesarios para el
funcionamiento celular y, entre ellos, quizá el más importante, la replicación del material
genético (los cromosomas, largas cadenas de ácido desoxirribonucleico, ADN) para que
puedan heredarlo las células hijas. La especie humana tiene 46 cromosomas agrupados
en 23 pares (cromosomas homólogos) de los cuales 22 son autosomas y un par son
gonosomas o cromosomas sexuales (XX para la mujer y XY para el hombre). El número
de cromosomas no está directamente relacionado con el grado evolutivo de la especie ya
que podemos ver que, por ejemplo, la rata tiene 21 pares, el perro 39, la mosca 4 o el
chimpancé 24. El hecho de tener los cromosomas por pares es debido a que recibimos un
juego completo de cada progenitor. Después de la fase de crecimiento y con el material
genético ya duplicado se inicia la división celular, proceso que se denomina mitosis y por
el cual, de una célula diploide surgen otras dos células diploides. Una célula diploide es la
que posee un número duplicado de cromosomas, es decir, en el caso de la especie
humana 23 pares. Hay un tipo de células denominadas haploides que tiene la mitad de
cromosomas, 23 unidades, son los gametos o células reproductoras, espermatozoides en
el varón y óvulos en la hembra. La mitosis es un proceso biológico continuo pero por
conveniencia operativa se ha dividido en varias fases que se pueden ver resumidas en el
cuadro 3.1.

Cuadro 3.1. Esquema resumen de las fases del ciclo celular haciendo hincapié en la
mitosis

74
Para la formación de las células haploides la división celular se denomina meiosis e
incluye algunos procesos específicos que conviene resaltar. Podríamos simplificar la
explicación diciendo que ocurren dos divisiones celulares consecutivas (similares a la
mitosis) pero sin que haya duplicación del material genético entre una y otra división. La
meiosis es el proceso por el cual de una célula diploide se obtienen cuatro células
haploides. En la profase de la primera división meiósica los cromosomas homólogos se
unen formando lo que se conoce como tétradas (cuatro cromátidas, cada cromosoma
está duplicado y posee dos) o bivalentes. Esto ocasiona un fenómeno de
entrecruzamiento por el que ambos cromosomas homólogos intercambian algunos genes.
Esto significa que, por ejemplo, el cromosoma 11 que hemos recibido del padre va a
tener ahora algunos genes procedentes del cromosoma 11 de la madre y viceversa. Es lo
que se conoce como recombinación génica. En la anafase de la primera división meiósica
los bivalentes se separan y se desplazan a cada uno de los polos de la célula. Así, al final
de la primera división meiósica tenemos dos células hijas con 23 cromosomas pero con
su ADN duplicado. En la segunda división meiósica se rompen los centrómeros de los
cromosomas para que vaya una cromátida a cada célula resultante. Una vez que se han
obtenido las células haploides, experimentan una serie de transformaciones para
convertirse en óvulos en la mujer o espermatozoides en el hombre.

Las biomoléculas, también conocidas como principios inmediatos, son los


componentes principales de las células y pueden ser orgánicas e inorgánicas. Las
inorgánicas son el agua o las sales minerales y dentro de las orgánicas vamos a destacar

75
las proteínas y los ácidos nucleicos (ácido ribonucleico y ácido desoxirribonucleico) por la
relevancia que tienen a la hora de entender cómo se produce la conservación y la
transmisión de los caracteres hereditarios de padres a hijos.

Las proteínas son el principal componente celular y están formadas por cadenas de
aminoácidos, moléculas más pequeñas formadas básicamente por carbono, hidrógeno,
nitrógeno y oxígeno. Debido a que pueden asumir múltiples funciones, resultan decisivas
para el funcionamiento celular y orgánico. Así, podemos encontrar proteínas que
cumplen funciones estructurales como por ejemplo las que participan en la configuración
de la membrana celular. También las hay con funciones de tipo defensivo
(inmunoglobulinas), de transporte (hemoglobina), hormonales (insulina) o enzimáticas.
Estas últimas merecen una atención especial ya que actúan como catalizadores celulares,
es decir, se encargan de acelerar y facilitar las reacciones químicas que ocurren en el
interior de la célula. La ausencia o mal funcionamiento de alguna de ellas puede alterar
las cadenas metabólicas y ocasionar alteraciones orgánicas, algunas de ellas con
repercusiones importantes en el desarrollo cognitivo de la persona.

Los ácidos nucleicos son grandes cadenas de nucleótidos, moléculas que están
formadas por tres componentes, un fosfato, un azúcar y una base nitrogenada. La
molécula de azúcar puede ser de dos tipos, ribosa (en el ácido ribonucleico, ARN) y
desoxirribosa (ácido desoxirribonucleico, ADN), que se diferencia de la anterior por tener
un átomo de oxígeno menos. Por su parte, las bases nitrogenadas pueden ser de cinco
tipos, adenina, guanina y citosina que están presentes tanto en el ARN como en el ADN,
el uracilo, solo presente en el ARN y la timina, solo presente en el ADN. Estas bases nos
van a permitir identificar a los nucleótidos cuando hablemos de emparejamientos, de
secuencias de ADN o ARN o de código genético (figura 3.1). Estructuralmente, el ADN
está formado por una doble cadena de nucleótidos que se enlazan a través de las bases
nitrogenadas pero siguiendo una pauta fija: un nucleótido que contenga una base adenina
siempre se emparej ará con otro que tenga una base timina y uno que tenga una base
guanina solo se emparejará con otro que tenga citosina, es lo que se conoce como
principio de complementariedad. Las cadenas de nucleótidos así emparejados adoptan
una configuración de doble hélice, es decir, la doble cadena gira en tomo a un hipotético
eje central (imaginemos una escalera de caracol). Por su parte, el ARN está formado por
una única cadena de nucleótidos en los que, además de poseer un azúcar ribosa, la base
timina no aparece y lo hace la base uracilo. El ARN puede ser de muchos tipos, como
por ejemplo el ARN mensajero, donde se copia parte de la información contenida en el
ADN para ser descodificada en el citoplasma para formar proteínas. También está el
ARN ribosómico, localizado en los ribosomas, que son los orgánulos celulares que "leen"
el mensaje del ARNm o el ARN de transferencia que se encarga de localizar en el
citoplasma y transportar los aminoácidos necesarios para formar la proteína.

76
Figura 3.1. Moléculas de ADN y ARN.

3.1.2. Expresión génica y epigenética


Ya sabemos entonces que la información genética se encuentra en los cromosomas,
concretamente en el ADN, y también sabemos cómo está formado dicho ADN. Pero ¿de
qué manera contiene la información esta molécula? Y lo que es más importante, ¿cómo
se expresa esa información para configurar un organismo y su funcionamiento'? Para
responder a estas preguntas tenemos que remitimos al concepto de gen, que
tradicionalmente se ha considerado como un fragmento de ADN capaz de codificar un
polipéptido (una proteína). Actualmente, ha habido una serie de descubrimientos que
cuestionan esta formulación por demasiado simplista, ya que hay más aspectos que se
han de considerar. Volveremos sobre ello. Mientras, vamos a asumir como cierto que un
fragmento de ADN contiene la información necesaria para que la célula fabrique una
proteína y veremos cómo ocurre el proceso.

El ADN se encuentra en el núcleo de la célula y ahí permanece durante todo el ciclo

77
celular. Ya hemos dicho que en un momento de la interfase se produce su replicación, es
decir, se realiza una copia lo más exacta posible de la molécula para que cada célula hija
tenga la misma información genética. Esto ocurre de una manera aparentemente sencilla.
Primero, la doble cadena de ADN se abre como si fuera una cremallera por efecto de
ciertas enzimas que rompen los enlaces de hidrógeno que unen las bases de los
nucleótidos. Por este procedimiento quedan libres los nucleótidos que forman cada
cadena simple y a ellos se van acoplando nuevos nucleótidos según el principio de
complementariedad, es decir, a uno que contenga una base guanina se le acoplará otro
con una base citosina, y a uno que tenga adenina otro que tenga timina. De esta manera,
se van reconstruyendo dos copias exactas de la doble cadena original. Una vez
completado el proceso tenemos todo el ADN duplicado, por eso vemos a los
cromosomas como si fueran una "X", ya que ambas cromátidas permanecen unidas por
los centrómeros hasta el momento de la división celular.

Cuando la célula necesita fabricar una proteína tiene que guiarse por la información
contenida en el ADN, pero la proteína se fabrica en el citoplasma y la información está
dentro del núcleo. El primer paso por tanto es copiar la información necesaria en una
molécula que pueda salir del núcleo y dirigirse a los ribosomas, los orgánulos que se
ocupan de la fabricación de las proteínas. Esta molécula es el ARN mensajero (ARNm).
La información necesaria se encuentra en un fragmento de ADN (gen) así que, la doble
cadena se abre parcialmente y sobre ese fragmento se van acoplando nucleótidos
(siempre según el principio de complementariedad) para formar una cadena simple, la
molécula de ARNm. Es lo que se denomina transcripción. En este caso, en vez de timina
encontramos nucleótidos con uracilo emparejados con los nucleótidos de adenina del
ADN. Una vez que se completa la molécula de ARNm, esta se suelta y sale del núcleo
hacia los ribosomas. Estos, que también contienen moléculas de ARN, en este caso
ribosómico, "leen" o "traducen" la secuencia del ARNm y van colocando los aminoácidos
necesarios para formar la proteína. Para ello, interviene el tercer tipo de ARN, el de
transferencia, que captura los aminoácidos necesarios por el citoplasma y los lleva hasta
los ribosomas para su correcta colocación.

Pero ¿cómo sabe el ribosoma qué aminoácido debe colocar'? 0, dicho de otra manera,
¿cómo está escrita la información en la molécula de ARNm? Gracias a lo que se
denomina código genético, cuya base o elemento fundamental es una secuencia de tres
nucleótidos, el codón (en el ARN) o triplete (en el ADN). La molécula de ADN es una
larga cadena de nucleótidos y la proteína una cadena de aminoácidos, pues bien, cada
tres nucleótidos del ADN codifican un aminoácido, de tal manera que cada triplete sería
como una letra que vamos colocando para formar una palabra, la proteína. Por eso, si
cambiamos un solo triplete o modificamos su posición tendríamos una proteína distinta,
igual que si cambiamos una letra tendríamos otra palabra (figura 3.2). Este lenguaje o
código es universal, es decir, es el mismo para todos los seres vivos con raras
excepciones. El mensaje no contiene superposiciones, de manera que cada nucleótido

78
solo pertenece a un triplete y, por último, un triplete codifica un aminoácido pero un
aminoácido puede ser codificado por varios tripletes. Por ejemplo, el codón GGU
(Guanina-Guanina-Uracilo) codifica el aminoácido Glicina, pero este, además, puede ser
codificado también por los codones GGC, GGA y GGG. A partir de esta aparente
simplicidad, Francis Crick, uno de los descubridores de la estructura del ADN junto a
James Watson, propuso el denominado dogma central de la biología al describir el flujo
de la información genética desde el ADN hasta las proteínas pasando por el ARN. Al
margen de algunas excepciones debidas a virus capaces de duplicar ARN o realizar una
transcripción inversa del ARN al ADN, esta idea se ha mantenido vigente durante mucho
tiempo.

Figura 3.2. Esquema del proceso de síntesis de proteínas. Un fragmento de la cadena de


ADN (gen) se transcribe en una molécula de ARNm en la que cada codón (triplete)
codifica un aminoácido. La cadena de codones del ARNm se corresponde con la de
aminoácidos de la proteína.

Sabemos ya que todas las células del organismo, a excepción de los gametos, tienen el
mismo material genético. Resulta sorprendente entonces que con la misma dotación
genética tengan funciones tan diferentes. Esto es debido a que dentro de cada célula solo
se expresa una pequeña porción del ADN y dicha porción es diferente de unas células a
otras. Durante la diferenciación celular se establecen unos patrones de expresión génica
que son los responsables de las características diferenciales de unas y otras células. Se
han identificado diversos componentes bioquímicos que regulan la expresión génica en
cada célula y que pueden verse afectados de manera muy diversa. Cuando hablamos de
control epigenético nos referimos a los mecanismos por los que se puede modificar la

79
activación de un gen sin modificar la estructura del ADN. Lo más importante es que
estos patrones pueden verse afectados a lo largo de la vida por influencias ambientales
internas y externas, es decir, el estilo de vida o determinadas experiencias pueden
modificar la expresividad de los genes y, por tanto, nuestro aspecto, nuestra salud y
nuestro comportamiento (Tammen et al., 2012).

Solo un porcentaje extremadamente bajo del ADN de la célula codifica proteínas. El


resto está formado por secuencias repetidas y ADN no codificarte que, de manera
general, se denominaba ADN basura. A lo largo de la evolución filogenética, el número
de genes en las especies más avanzadas se ha incrementado relativamente poco. En la
especie humana se han identificado algo más de 25.000 genes, cantidad ligeramente
superior a la del ratón u otras especies pero anormalmente baja con respecto a lo
esperado en comparación con el número de genes de algunas plantas e invertebrados. Sin
embargo, sí se ha producido un incremento significativo en el porcentaje de ADN no
codificarte y de las secuencias repetidas. Un consorcio de científicos de todo el mundo
puso en marcha el proyecto ENCODE (Encyclopaedia of DNA Elements) para poder
explicar la funcionalidad de todo el ADN más allá de las regiones codificadoras bien
identificadas. Una de las principales conclusiones a las que ha llegado es que la mayoría
de las regiones no codificadoras del ADN (antes llamadas basura) actúan regulando la
actividad de las regiones codificadoras. Esto ha llevado a identificar la funcionalidad de
una porción mucho mayor del ADN, en tomo al 80%, antes considerado como no
codificarte (The ENCODE Project Consortium, 2012). De esta manera se han abierto
nuevas vías de investigación para relacionar los genes de un individuo con su
comportamiento, ya que se han descrito diversos mecanismos epigenéticos que pueden
modificar la actividad de un fragmento de ADN codificarte sin necesidad de modificar su
estructura. Es decir, ya no basta con tener o no un determinado gen, la cuestión ahora es
comprender los mecanismos que hacen que ese gen codifique su producto o permanezca
inactivo.

Uno de los aspectos que interesa a la epigenética es la comprensión de los mecanismos


por los que determinados factores ambientales como el estrés, la alimentación y los
hábitos de vida más o menos saludables, la presión social o el consumo de sustancias
pueden influir sobre la expresión o no de determinados genes. Se han identificado
algunos de estos mecanismos epigenéticos que explican el modo en que determinados
eventos ambientales pueden influir en la expresión de un gen, pero queda mucho camino
por recorrer. No obstante, este camino es el que puede ayudamos a comprender el modo
en que el entorno y las experiencias que vivimos a lo largo de nuestra vida pueden
modificar la actividad neuronal, ya que las neuronas, como cualquier otra célula del
organismo, también son susceptibles de verse afectadas por factores epigenéticos. Hay
factores de este tipo implicados en determinados trastornos como el cáncer, procesos
neurodegenerativos o enfermedades mentales como la esquizofrenia, pero también son
factores epigenéticos los que permiten comprender los mecanismos de plasticidad que

80
subyacen a los procesos de memoria y aprendizaje (Lubin, 2011; Sultan y Day, 2011),
algo que nos ayudaría a avanzar en el desarrollo de estrategias educativas.

3.2. Transmisión de los caracteres hereditarios


A pesar de todas las posibilidades que se abren en el campo de la epigenética, el gen se
sigue considerando como la unidad básica de la herencia. Hemos aludido a la definición
de gen como un fragmento de ADN que codifica una proteína, pero también lo podemos
definir como la unidad de información que codifica una característica genética o la
entidad biológica que determina un carácter concreto y que se transmite de padres a
hijos. Y es que, según el ámbito de estudio se pone el énfasis en una característica u otra.
Los estudios sobre la herencia son muy anteriores a la genética molecular, es decir, ya se
poseía bastante información sobre la transmisión de los caracteres hereditarios antes de
que se conociera el soporte molecular de dicha información.

El primero en interesarse por la transmisión de los caracteres hereditarios fue Gregor


Mendel (1822-1884), monje y botánico austriaco, aunque su lugar de nacimiento
pertenece actualmente a la República Checa. Mendel realizó hibridaciones con diferentes
plantas pero su trabajo más conocido fue realizado con guisantes, estudiando cómo
pasaban de una generación a otra ciertas características como el color del fruto, el
aspecto, el color de la flor o la longitud del tallo. Presentó sus trabajos en la Sociedad de
Ciencias Naturales de Brno (República Checa) pero pasaron desapercibidos y no fue
hasta principios del siglo xx cuando se tomaron en consideración y alcanzaron gran
relevancia. Sin embargo, todavía pasaría mucho tiempo antes de que la genética se
consolidara como una ciencia de pleno derecho. Los trabajos de Thomas H.Morgan
(1866-1945), Walter Sutton (1877-1916) y otros científicos de principios de siglo sobre
modelos como la mosca de la fruta (Drosophila melanogaster) permitieron demostrar que
los genes se encontraban en los cromosomas (teoría cromosómica de la herencia) o
procesos como la recombinación génica de la que ya hemos hablado. Posteriormente, se
utilizaron virus y bacterias para conocer en más detalle la estructura de los genes, algo
que llevó al descubrimiento de la estructura del ADN como consecuencia de los trabajos
de James D.Watson (1928-), Francis Crick (1916-2004), Maurice Wilkins (1916-2004) y
Rosalind Franklin (1929-1958). El desciframiento en los años sesenta del código
genético, en el que participó activamente el nobel español Severo Ochoa (1905-1983),
supuso un hito importante en la consolidación de la genética, equiparable al
desciframiento del genoma humano en 2003.

El genoma es el conjunto de genes de una especie, mientras que el genotipo es el


conjunto de genes de un individuo. La manifestación del genotipo es el fenotipo, un
concepto que se presta a controversia desde diferentes ángulos. Por un lado, siempre se
ha considerado al fenotipo como el conjunto de características observables (o deducibles
empíricamente) expresadas por un genotipo determinado, sin embargo, hoy se considera
que esa expresión está condicionada al ambiente en el que se produce la actividad del

81
genotipo. Además, la amplitud del concepto choca directamente con aquellas posiciones
ambientalistas que no admiten que se considere como fenotipo aspectos como la
inteligencia o, en general, la conducta humana. Es un tema controvertido.

Un gen puede adoptar diferentes configuraciones y expresar diversas variaciones de un


carácter hereditario, por ejemplo, pensemos en el color del pelo, el gen que se ocupa de
este rasgo puede expresar varias tonalidades. Las diferentes formas que puede adoptar un
gen se denominan alelos. Como en las células diploides tenemos los cromosomas por
pares, también tenemos los genes por pares (alelos). Estos alelos pueden ser idénticos o
presentar alguna diferencia. En caso de ser iguales hablamos de que el sujeto es
homocigótico para ese gen, mientras que si son diferentes decimos que es heterocigótico.
Hemos visto que los genes se ordenan linealmente en los cromosomas y el lugar que
ocupa cada par de alelos en los cromosomas homólogos se denomina loci (en latín,
lugares). Esta localización en un cromosoma concreto nos permite identificar los alelos de
un gen ya que siempre ocupan la misma posición (locus).

3.2.1. Leyes de Mendel


Mendel trabajó con miles de plantas realizando hibridaciones (cruces) entre ellas para
observar los resultados y registró minuciosamente la manera en que se manifestaban los
diferentes caracteres en las generaciones resultantes. En el caso de los guisantes a que
nos hemos referido ya, llegó a estudiar la transmisión de siete caracteres y fruto de su
minucioso análisis fue la propuesta de tres leyes para explicar el modo en que se
transmitían.

1.Ley de la uniformidad. Mendel utilizaba lo que él denominó líneas puras, lo que hoy
conocemos como homocigotos, es decir, semillas cuyos alelos para un determinado
rasgo eran idénticos. Así observó que cuando cruzaba semillas amarillas y verdes, el
resultado eran guisantes de color amarillo, no apareciendo ninguno verde en la
primera generación de frutos, es decir el carácter verde había desaparecido (figura
3.3). Denominó dominante al rasgo que aparecía (amarillo) y recesivo al que
permanecía oculto (verde). Así demostró que cuando se cruzan dos líneas puras
que difieren en un determinado carácter, todos los individuos de la primera
generación presentan el mismo fenotipo, independientemente de la dirección de
cruce (l.a ley). Es decir, aunque cruzó guisantes amarillos y verdes, todos los
guisantes hijos tenían color amarillo a pesar de que uno de sus alelos codificaba el
color verde. Esto significa que los alelos dominantes se expresan en el fenotipo
siempre que están presentes en el genotipo.

82
Figura 3.3. Cuadro de Punnet para la primera ley de Mendel (representamos con
mayúsculas los alelos dominantes y con minúsculas los recesivos. El cuadro central nos
muestra las cuatro posibles combinaciones entre los alelos de los progenitores (AA y vv).
La segunda y la tercera ley pueden representarse mediante cuadros similares cruzando
Av y Av (2.a ley) o introduciendo un segundo rasgo como la textura del fruto (liso: LL o
rugoso: rr).

2.Ley de la segregación. Posteriormente, Mendel cruzó entre sí los guisantes obtenidos


por el procedimiento anterior. Observó que, en este caso, volvía a aparecer el rasgo
verde en proporción 1:3, es decir, un 75% de la descendencia presentaba el color
amarillo y el 25% restante el color verde. Demostró así que el rasgo recesivo no
había desaparecido sino que estaba enmascarado en el genotipo y que solo se
expresaba en homocigosis, es decir, cuando los dos alelos eran idénticos y
codificaban dicho rasgo. La formulación de esta segunda ley dice que los caracteres
recesivos enmascarados en la primera generación, resultante del cruce de dos líneas
puras, reaparecen en la segunda generación en la proporción de 1:3. Con esto
demostró, por un lado, que los alelos recesivos solo expresan su rasgo en el
fenotipo cuando se encuentran en homocigosis y, por otro, que un fenotipo

83
concreto puede ser el resultado tanto de una homocigosis (fenotipo amarillo, AA y
fenotipo verde, vv) como de una heterocigosis (fenotipo amarillo, Av).

3.Ley de la combinación independiente. Mendel estudió varios rasgos de la planta de


guisante y trató de comprobar si existía alguna relación entre ellos a la hora de
transmitirse a la siguiente generación. Estudió el color del fruto (amarillo o verde) y
el aspecto (liso o rugoso) y observó que estos dos caracteres aparecían en la
siguiente generación independientemente el uno del otro, por lo que concluyó que
los miembros de la pareja de alelos se segregan o combinan independientemente
unos de otros cuando se forman los gametos (3.a ley).

Estas leyes tienen algunas excepciones y no siempre se cumplen las predicciones


hechas por su autor. Por ejemplo, está la denominada dominancia intermedia, en la
aparece un fenotipo que es una mezcla del codificado por cada uno de los alelos.
También está la codominancia, que es cuando los ejemplares resultantes de cruzar dos
líneas puras expresan ambos fenotipos simultáneamente. Un ejemplo claro de esto es el
grupo sanguíneo. En la especie humana hay cuatro fenotipos relativos al grupo
sanguíneo, A, B, AB y O.Esto es consecuencia de la expresión de tres alelos, A y B que
son codominantes y O que es recesivo. La presencia de los alelos A o B hace que los
glóbulos rojos expresen un antígeno determinado (A o B) pero, al mismo tiempo, también
expresan un anticuerpo frente al antígeno que no poseen. Por eso, una persona del grupo
A no puede recibir sangre del grupo B y viceversa porque se produce una reacción de
rechazo. En el grupo O, los glóbulos rojos no expresan ningún antígeno por lo que
pueden donar a cualquier otro, pero sí expresan anticuerpos A y B por lo que son
personas que solo pueden recibir sangre del mismo grupo. Para completar el cuadro de
compatibilidades, a la expresión fenotípica del sistema ABO hay que añadir el factor Rh.
Se trata de un antígeno que puede estar presente en los glóbulos rojos (Rh+) o no (Rh-).
Una persona sin el factor Rh no puede recibir sangre de otra que sí lo tenga, por eso, si
añadimos esto al sistema ABO, tenemos que los sujetos con grupo AB+ pueden recibir
sangre de cualquier persona, mientras que los que tienen O - pueden donar a cualquiera
pero solo recibirla de su mismo grupo.

Podemos encontrar otras excepciones como el pleiotropismo, un gen que puede


concernir a más de un rasgo fenotípico, o la epistasia, dos genes referidos a rasgos
fenotípicos distintos que interactúan entre sí de manera que la presencia de uno puede
condicionar la expresión del otro. También se considera el ligamiento una excepción ya
que la presencia de unos alelos u otros no es absolutamente al azar pues aquellos que
ocupan lugares próximos en el cromosoma tienden a heredarse juntos con más frecuencia
que los que ocupan lugares distantes.

3.2.2. Tipos de transmisión genética


De cara sobre todo a la prevención de ciertas enfermedades, es importante conocer de

84
qué manera se produce la transmisión hereditaria de ciertos rasgos para poder hacer un
pronóstico o determinar las probabilidades de heredar una patología. Una alteración
puede transmitirse por un solo gen o por un conjunto de ellos, en el primer caso
hablamos de herencia monogénica, unifactorial o mendeliana, mientras que en el segundo
se trata de herencia poligénica o multifactorial. Según algunas estimaciones, el 50% de los
trastornos que cursan con retraso mental son de origen genético. Por este motivo, es
importante conocer la base genética de ciertos trastornos que dificultan el aprendizaje y la
posibilidad de un desarrollo neurocognitivo y emocional pleno.

A) Herencia monogénica o unifactorial


En este caso también hablamos de transmisión mendeliana porque, como hemos dicho,
estudiaba los rasgos que estaban determinados por un solo gen. Para clasificar los
posibles patrones de transmisión genética monogénica acudimos a dos factores: la
localización del gen (autosoma/gonosoma) y la expresión del carácter en el fenotipo
(dominante/recesivo).

El patrón autosómico dominante significa que el alelo patógeno se encuentra en un


autosoma (pares 1 a 22) y tiene carácter dominante, por lo tanto, se expresará siempre
que esté en el genotipo y quienes lo portan padecerán la enfermedad. Un ejemplo de
enfermedad autosómica dominante es el corea de Huntington, causada por un alelo
localizado en el cromosoma 4. Este trastorno se caracteriza por una afectación progresiva
del sistema nervioso central y cursa con alteraciones del movimiento y deterioro mental
progresivo. También hay otras enfermedades menos conocidas que cursan con este
patrón hereditario y que pueden afectar al sistema nervioso, a los ojos, huesos u otros
órganos, como es el caso del retinoblastoma o la osteogénesis imperfecta (huesos de
cristal).

En el caso de herencia autosómica recesiva, el rasgo solo se va a expresar cuando hay


homocigosis, es decir, cuando los dos alelos son idénticos y expresan el rasgo patológico
(figura 3.4). Hay sujetos que pueden poseer un alelo patógeno, se les considera
portadores ya que no expresan la enfermedad pero pueden transmitirla si tienen
descendencia con otro portador. Por eso, determinadas enfermedades que se transmiten
según este patrón son más frecuentes en grupos endogámicos, ya que al existir un nivel
más alto de consanguineidad, es más probable que haya coincidencia en los genotipos.
Además, el hecho de que los portadores no expresen la enfermedad hace más difícil su
prevención de cara a la descendencia. Un ejemplo es la fenilcetonuria, en la que el mal
funcionamiento de una enzima altera una cadena metabólica y ocasiona daños en
diferentes sistemas, incluido el nervioso. El síndrome de Tay-Sachs, que cursa con
deterioro neurológico y escasa esperanza de vida, es mucho más frecuente en algunas
comunidades judías de Norteamérica que en el resto de la población por el elevado grado
de consanguineidad entre sus miembros.

85
86
Figura 3.4. Ejemplos de herencia recesiva. 1) Autosómica. Dos ejemplos según sean
portadores uno o ambos progenitores. Es indistinto que el progenitor afectado o portador
sea el padre o la madre. II) Herencia recesiva ligada al cromosoma X.Solo los varones
padecen la enfermedad mientras que las mujeres son portadoras. Se han sombreado los
genotipos que expresan el rasgo patológico.

En la herencia gonosómica o ligada al sexo nos vamos a encontrar que el riesgo de


padecer una enfermedad o de ser portador de un alelo patógeno varía según se trate de
hombres o mujeres. Ahora, el alelo se localiza en uno de los cromosomas sexuales o
gonosomas, los que determinan el sexo. Esto significa que el patrón hereditario va a ser
diferente por un motivo fundamental, los cromosomas sexuales del varón no son
homólogos por lo tanto no tiene los mismos alelos en X que en Y.El cromosoma Y tiene
muy pocos genes y por eso es poco relevante en el estudio de enfermedades genéticas.
Aparte de un gen necesario para la diferenciación masculina durante el desarrollo
embrionario, hay otros vinculados a funciones específicamente masculinas como la
producción de esperma.

Los varones solo tienen un cromosoma X que lo reciben siempre de la madre, por lo
que los alelos recesivos de ese cromosoma X no tienen homólogos dominantes que
inhiban su expresividad y su presencia es suficiente para que expresen la enfermedad.
Así, en el caso de un alelo dominante en el cromosoma X del padre, todas sus hijas
expresarán el rasgo y padecerán la enfermedad mientras que los hijos resultarán sanos. Si
esto ocurre en un cromosoma X de la madre, la descendencia resultará afectada al 50%
independientemente de si son hijos o hijas. En el caso de un alelo recesivo el panorama
cambia radicalmente ya que ahora solo podrán padecer la enfermedad los hijos mientras
que las hijas serían portadoras tanto si el alelo patógeno procede del padre como si
procede de la madre. Esto es porque si es el padre el portador solo lo transmite a sus
hijas, que recibirán un alelo dominante de la madre y solo serán portadoras. Si es la
madre la portadora, sus hijas también lo serán, pero la mitad de sus hijos, los que reciban
el alelo patógeno, padecerán la enfermedad porque el cromosoma Y no tiene alelos
dominantes para ese gen. Los ejemplos más conocidos de este tipo de enfermedades son

87
la hemofilia A, que ocasiona problemas de coagulación sanguínea, y el daltonismo,
incapacidad para discriminar los colores.

B) Herencia poligénica o multifactorial


La mayoría de los rasgos fenotípicos dependen de múltiples genes y están claramente
influidos por las condiciones del entorno. La herencia poligénica o multifactorial es la
consecuencia de la acción de varios genes y de las influencias ambientales. Si estudiamos
rasgos que se manifiestan siguiendo una distribución continua hablamos de herencia
cuantitativa. Por ejemplo, cuando estudiamos la altura en una población observamos que
los valores se distribuyen de manera continua entre un mínimo y un máximo. Podemos,
por tanto, determinar valores promedio para comparar poblaciones o para establecer
desviaciones de subgrupos con respecto a la media poblacional. Por su parte, cuando
estudiamos rasgos que se manifiestan de forma discontinua, hablamos de herencia
cualitativa. En este caso podemos referirnos a la aparición o no de un determinado rasgo
o a su prevalencia dentro de una población, pero no podemos establecer una graduación
como en el caso anterior.

Desde la óptica de la genética, se considera la inteligencia como un rasgo fenotípico


consecuencia de una herencia multifactorial cuantitativa. Y es que, efectivamente, si
determinamos el cociente intelectual de los miembros de una población vamos a ver que
sus resultados se distribuyen de manera continua entre un valor mínimo y un máximo y
según la distribución normal, por la que la mayoría de los valores se situaría en las
proximidades del valor promedio. Por otro lado, la herencia cualitativa podemos
vincularla más, por ejemplo, con la propensión o no a padecer una determinada
enfermedad. Así, la presencia en el fenotipo de determinados alelos se consideraría un
factor de riesgo. En última instancia, sería la presión ambiental la que determinaría que
ese riesgo potencial cristalice o no ya que la mera presencia de esos alelos puede no ser
suficiente para que aparezca la enfermedad.

3.3. Alteraciones cromosómicas


Una mutación es una modificación de la secuencia de ADN que puede afectar a un
solo gen o a un grupo de ellos. Estas modificaciones son permanentes, ya que en
ocasiones surgen errores en la transcripción que se corrigen puntualmente pero cuando
esto no ocurre, la secuencia de nucleótidos que resulta es distinta y ese cambio queda
incorporado al genotipo. Esto significa además que esa mutación va a transmitirse a las
células que resulten de posteriores divisiones y, por tanto, puede ser heredada por la
descendencia. Se suele hablar de mutaciones génicas cuando afectan a un solo gen y de
mutaciones cromosómicas cuando, como su nombre indica, se produce alguna alteración
en la estructura o el número de los cromosomas afectando a un número mayor de genes.
Las alteraciones cromosómicas son bastante frecuentes pero solamente un número
relativamente bajo de ellas son compatibles con la vida y podemos encontrarlas en bebés
nacidos vivos. Una gran mayoría de estas alteraciones puede pasar desapercibida en

88
forma de abortos espontáneos antes incluso de que se manifiesten los primeros signos del
embarazo.

Las alteraciones numéricas hacen referencia a una modificación en el número de


cromosomas. Una poliploidía consiste en un exceso de dotación cromosómica múltiplo
del número haploide. Así, podemos hablar de triploidía (la más frecuente) cuando hay
tres copias de cada cromosoma, tetraploidía cuando son cuatro, etc. Lo normal en estos
casos es que se altere el desarrollo embrionario y no lleguen a término. La principal causa
de las poliploidías es que un óvulo resulte fecundado por más de un espermatozoide con
lo que, a la dotación cromosómica haploide del óvulo se añaden dos o más dotaciones
haploides procedentes de los espermatozoides. Otro tipo de alteraciones numéricas son
las aneuplodías, en las que hay cromosomas de menos o de más pero sin llegar a ser
dotación completa. En este caso hablamos de monosomía, cuando el sujeto solo tiene un
cromosoma en un determinado par, trisomía cuando tiene un cromosoma de más,
tetrasomía, cuando son dos, etc. La principal causa de las aneuploidías es una no
disyunción meiósica, es decir, durante la meiosis no se "reparte" adecuadamente el
material genético y alguna de las células resultantes lleva exceso o defecto de material
genético. Esto puede ocurrir en la primera meiosis, cuando deben separarse los
cromosomas homólogos con el ADN duplicado, o en la segunda cuando deben hacerlo
las cromátidas por ruptura de los centrómeros. En ambos casos, la consecuencia es que
resultan gametos con exceso o defecto de cromosomas, por lo que cuando se unen al
otro gameto, la dotación cromosómica final está alterada en el cigoto. Una de las
aneuploidías más conocidas es el síndrome de Down, trisomía 21, en el que el sujeto que
lo padece tiene un cromosoma 21 de más.

Las alteraciones estructurales afectan a la integridad del cromosoma, es decir, se


modifica de un modo u otro un fragmento del mismo afectando a todos los genes que
contiene. Hay diferentes tipos de alteraciones estructurales provocadas por la pérdida de
un fragmento del cromosoma (deleción), por la duplicación anómala de una parte del
mismo o por el intercambio de fragmentos entre cromosomas no homólogos
(translocación) entre otras posibilidades.

3.4. Genes y conducta


En el ámbito de la psicología y de la educación todavía se discute qué porcentaje de la
inteligencia, de las habilidades cognitivas o del perfil de personalidad dependen de los
genes y qué porcentaje de los efectos del ambiente, la educación y las experiencias
tempranas. La polémica entre innatistas y ambientalistas sigue vigente aunque los
argumentos de ambas partes han evolucionado mucho en los últimos cien años. Hoy en
día, los avances técnicos han permitido un conocimiento de la genética molecular
impensable hace años y resulta tentador no buscar un gen que explique el último
recoveco del comportamiento humano. Sin embargo, cuando parece que estamos a punto
de aprehender ese conocimiento, se nos escapa entre los dedos en forma de nuevas

89
excepciones o de nuevas evidencias acerca de cómo las influencias ambientales pueden
modificar la expresividad de los genes.

Francis Galton (1822-1911), científico peculiar que se interesó por las diferencias
individuales y trató de justificarlas a través de la genética, es considerado por muchos
como el padre de la genética de la conducta. Su postura claramente innatista le llevó a
proponer la eugenesia como medio para mejorar la especie humana al defender que la
genialidad estaba en los genes minimizando los efectos del entorno. Utilizó métodos
estadísticos para analizar las diferencias entre pobla ciones y defendió la utilidad de los
estudios con gemelos o grupos familiares para una mejor comprensión de la transmisión
y distribución de los rasgos heredables. Si hiciéramos caso a sus postulados y a otros
similares, algunos no tan lejanos en el tiempo, cualquier intervención educativa más allá
de la instrucción reglada carecería de sentido porque los "intelectualmente torpes" serían
incapaces de progresar. Por ese motivo, habría que centrar todo el esfuerzo y todos los
recursos en los genéticamente privilegiados.

Los trabajos de Arthur R.Jensen (1923-2012), psicólogo educativo también claramente


innatista, generaron una importante controversia en los años sesenta. En 1969 publica un
artículo en el que defiende las diferencias intelectuales en función de la raza y la
inutilidad de la educación compensatoria por el escaso margen de ganancia académica
que proporciona a los participantes en estos programas (Jensen, 1969). El auge del
conductismo americano socavó, o al menos, ensombreció, estos planteamientos cayendo
en otro tipo de radicalismo al defender que era el ambiente el responsable de todas las
habilidades que pudiera mostrar un sujeto y que el ser humano podía alcanzar cualquier
meta con el entrenamiento adecuado. Desde estas posturas, toda conducta, y por
extensión cualquier habilidad cognitiva o nivel intelectual, era resultado del aprendizaje.
Obviamente, tan errada es una postura como la otra puesto que hay pruebas evidentes de
que tanto herencia como ambiente contribuyen al desarrollo intelectual, conductual y
emocional del individuo. El segundo asalto de la controversia era la determinación de qué
porcentaje dependía de la herencia y cuál del ambiente. Aquí es donde se produce un
resurgimiento de los estudios genéticos con nuevos modelos estadísticos para comparar
poblaciones y, más adelante, con el desarrollo de modelos animales manipulados
genéticamente para observar y medir su conducta. La dicotomía herencia ambiente suele
rebasar el ámbito científico y es en el foro público donde se desvirtúan este tipo de
estudios. Se podrá estar de acuerdo o no con ellos, pero el argumento debe ser siempre
científico tanto en su defensa como en su cuestionamiento.

El conocimiento de la estructura molecular de los genes así como el resultado de su


activación nos permite centrar un poco la argumentación. Sabemos que los genes
codifican proteínas y que esas proteínas se integran en la estructura y función celular con
cometidos muy diversos. Esto hace que surjan células, tejidos, órganos y sistemas con
unas características determinadas tanto en lo estructural como en lo funcional. Podemos
encontrar entonces un organismo que metaboliza mejor que otro la lactosa, que posee

90
más receptores que otro para una determinada hormona, que muestra mayores niveles de
un neurotransmisor en determinada región del cerebro o que tiene mayor densidad
sináptica en un área cerebral. Es decir, encontramos una infraestructura predispuesta para
manifestar unas conductas u otras, pero sin olvidar que hemos ido desde los genes a los
sistemas y que, ya desde la etapa embrionaria, la configuración de estos sistemas ha
estado sometida a influencias epigenéticas. Pero entonces, ¿existe un gen o conjunto de
ellos responsables de la inteligencia? Quizá podríamos zanjar el problema aludiendo a la
complejidad conceptual del término y a la dificultad de operativizar sus manifestaciones,
ya que, al fin y al cabo, sigue habiendo problemas para llegar a una definición adecuada
que suscite el consenso necesario. Igual ocurre al hablar de personalidad o
psicopatología, otros dos campos en los que se buscan explicaciones genéticas con más
ahínco y desde hace más tiempo. La personalidad es un constructo sujeto a modelos
teóricos no compartidos de manera unánime por el ámbito científico y determinadas
psicopatologías deben ser revisadas en su categorización clínica a la luz, precisamente, de
nuevos descubrimientos genéticos que cuestionan algunos aspectos de las clasificaciones
clínicas más usuales.

¿Significa esto que no se puede abordar el tema de manera científica? Por supuesto
que no. Claro que se puede y por diferentes caminos con el único denominador común
de la metodología científica. Al fin y al cabo, lo que hacía Mendel era lo que se conoce
como crianza selectiva o selección artificial, algo que en agricultura y ganadería se
practica desde hace siglos. Actualmente, en vez de ir a ciegas hay medios técnicos y
métodos más eficaces para acortar el proceso. Pensemos, por ejemplo, en un tipo de
crianza selectiva que se realiza con animales de laboratorio, las cepas endogámicas o
consanguíneas (inbred strains). Por ejemplo, desde hace mucho tiempo se suelen crear
cepas endogámicas de ratas que muestren diferentes grados de preferencia por el alcohol
(Li y Lumeng, 1984). Esto se consigue dejando a un primer grupo de ratas que beba
alcohol libremente durante su estabulación para después separar y cruzar entre sí, por un
lado, a las que más hayan bebido y, por otro, a las que menos. Después, se repite el
proceso con las dos camadas resultantes y se vuelven a segregar los grupos extremos de
mayor y menor preferencia por el alcohol, y así sucesivamente. Después de un cierto
número de repeticiones (7-8) tenemos dos grupos de animales con un genotipo similar
que solo difiere en la preferencia por el alcohol. ¿Significa esto que hemos criado dos
grupos de ratas que solo difieren en el gen o genes que determinan la preferencia por el
alcohol? Puede ser una afirmación atrevida sin conocer el genotipo de cada grupo, solo
los gemelos monocigóticos tienen el mismo genotipo, pero es posible pensar en un alto
grado de afinidad genética entre ambos grupos con una clara discrepancia en el factor de
segregación. Retomando el argumento anterior acerca de la configuración de sistemas y
su funcionalidad, se demostró que dos grupos de animales procedentes de cepas
endogámicas con alta y baja preferencia por el alcohol mostraban diferentes niveles de
los neurotransmisores dopamina y serotonina en ciertas áreas cerebrales (Gongwer et al.,
1989).

91
Este procedimiento que hemos descrito puede servir de ayuda para comprender un
componente genético del alcoholismo, pero este problema es más complejo y tendríamos
que tener en cuenta muchos más aspectos tanto genéticos como ambientales. Pero sí
podemos afirmar, al menos, que es un factor que influye. ¿Podemos llevar esto a un
entorno más cercano a la educación? Tan cercano como el aprendizaje. Son ya clásicos
los estudios de Edward C.Tolman (1886-1959) y su discípulo Robert C.Tryon (1901-
1967) que crearon cepas endogámicas en función de la capacidad de aprender recorridos
en un laberinto. Fueron segregando los animales en función de la eficacia con que
alcanzaban la recompensa de comida después de recorrer un laberinto, para lo que
consideraban el número de errores cometidos en cada intento por los animales. Así
crearon dos grupos de animales genéticamente similares pero que diferían
significativamente en su habilidad para resolver un laberinto (ratas "listas" y "tontas").
Las nuevas camadas de las cepas "listas" aprendían más rápidamente los recorridos en el
laberinto que los animales de las cepas "tontas". A todas luces, parece que esto
demostraba una clara influencia genética en la capacidad de aprendizaje de los animales.

Pero un brillante trabajo realizado por Cooper y Zubek (1958) demostró la importancia
del ambiente en el que se desarrollan los individuos. Tomaron ratas "listas" y "tontas" y
las criaron en tres tipos distintos de entorno, uno convencional, otro empobrecido
(semiaislamiento) y un tercero enriquecido con múltiples artilugios y accesorios en la
jaula. Cuando llegaron a la adultez fueron evaluadas en la prueba de laberintos siguiendo
el procedimiento de Tolman y Tryon y considerando los errores que cometía cada grupo
según su entorno de crianza. Los animales criados en un entorno convencional
obtuvieron unos resultados previsibles y acorde con los obtenidos anteriormente, los
animales del grupo listo cometieron muchos menos errores que los del otro grupo. Pero,
sorprendentemente, los animales criados en un ambiente empobrecido no mostraron
apenas diferencias en el número de errores, es decir, los dos grupos realizaron bastante
mal la tarea. En cuanto a los animales criados en un ambiente enriquecido, también
mostraron resultados sorprendentes ya que ambos grupos realizaron muy bien la tarea,
con muy pocas diferencias en cuanto al número de errores. Recientemente, se han
llevado a cabo otros trabajos con planteamientos similares que ponen de manifiesto que
la dotación genética y las influencias ambientales están estrechamente ligadas
(Champagne y Mashoodh, 2009).

Para determinar en qué medida las diferencias entre poblaciones dependen de la


herencia se ha acuñado el término heredabilidad, un valor que oscila entre 0 y 1 y hace
referencia a qué parte de la variación de un rasgo se debe a variaciones en los factores
genéticos. Un valor de 1 significa que las variaciones fenotípicas se explican
completamente por variaciones en el genotipo mientras que un valor de 0 significa que las
diferencias se deben exclusivamente al ambiente. Este concepto tiene la limitación de que
su validez se circunscribe al momento y a la población en la que se realiza el estudio, ya
que los cambios en el entorno pueden modificar la proporción previamente establecida y

92
la extrapolación a otras poblaciones arrojar datos inexactos (Wray y Visscher, 2008).
Pensemos que, en una sociedad como la nuestra en el siglo XXI, este concepto hay que
asumirlo con mucha cautela. Además, suele haber un error bastante común al interpretar
este concepto ya que no hace referencia a qué porcentaje de un determinado rasgo es
genético o ambiental. Por ejemplo, una heredabilidad de 0,8 para un rasgo concreto
significa que las diferencias existentes en ese rasgo entre los miembros de una población
se explican, en un 80%, por factores genéticos. Retomando el trabajo de Cooper y Zubek
podríamos decir que la heredabilidad del rasgo "capacidad para aprender recorridos en
laberintos" sería cercana a 1 en la población de ratas criadas en los entornos
convencional y empobrecido, puesto que el ambiente durante su desarrollo era
prácticamente uniforme. Sin embargo, no podemos afirmar con ese dato que dicho rasgo
dependa fundamentalmente del genotipo ya que se demostró el potencial de aprendizaje
de los animales criados en un entorno enriquecido.

Uno de los campos más interesantes para investigar el componente genético de las
diferencias individuales en una población proviene de los estudios con gemelos criados en
el mismo o diferente entorno. Frente a los trabajos clásicos que exploraban estas
diferencias en un mismo entorno para determinar la influencia genética, trabajos con
gemelos monocigóticos criados en entornos distintos (adopciones) permitían partir de un
mismo genotipo para explicar las diferencias individuales en función del ambiente. Uno
de los más clásicos es el estudio Minnesota con gemelos criados en ambientes separados
(Bouchard et al., 1990). En este estudio participaron más de cien parejas de gemelos
criados en entornos separados, los cuales, durante una semana se sometieron a multitud
de pruebas médicas y psicológicas. Tenían edades comprendidas entre los 19 y los 68
años y fueron separados a edades tempranas, por lo que su periodo de instrucción
académica lo realizaron en entornos diferentes. Según el estudio, la heredabilidad del
rasgo inteligencia (medida con el WAIS) estaba en torno 0,7 para los gemelos
monocigóticos, obteniendo valores inferiores cuando se trataba de habilidades cognitivas
más concretas, como velocidad de procesamiento (0,56) o habilidades espaciales (0,36).
Los datos sobre la heredabilidad de ciertos rasgos pueden ser tremendamente diversos en
función de la metodología utilizada y la población estudiada (ver tabla en Pásaro y
Fernández, 2005). Precisamente la diversidad de valores nos lleva a considerar como
meros referentes los datos proporcionados ya que, si a las peculiaridades del
procedimiento para estimar la heredabilidad le añadimos el cuestionamiento de las
herramientas utilizadas para determinar el valor de los rasgos medidos, estamos
asumiendo un nivel de incertidumbre demasiado alto como para considerar los resultados
concluyentes.

La genética de la conducta es una ciencia que está avanzando a un ritmo constante en


las últimas décadas pero es necesario recordar que los nuevos descubrimientos sobre los
mecanismos de control epigenético de la expresión de los genes nos llevan a reconsiderar
algunos de los paradigmas utilizados hasta el momento. Podemos admitir la conducta

93
como una expresión fenotípica pero debemos abandonar viejas creencias como la
inmutabilidad del genotipo o el determinismo genético de los rasgos. Hay muchos
factores ambientales que modifican la expresión genética por lo que el estilo de vida, el
entrenamiento, en una palabra, la educación, puede modificar esa expresividad y
reconfigurar el fenotipo conductual en la dirección adecuada.

94
95
En este capítulo nos vamos a ocupar de las células que componen el sistema nervioso
(SN) y de su estructura. La primera parte del mismo se ocupará de las características
morfológicas de las neuronas y células gliales y de los mecanismos que permiten la
comunicación neuronal. Después abordaremos la anatomía macroscópica del SN,
primero mediante una panorámica general del mismo para posteriormente ir mostrando
de un modo más detallado las diferentes estructuras.

4.1. Células del sistema nervioso


La actividad del SN es el resultado del funcionamiento de billones de células que
organizadas en circuitos intercambian mensajes entre ellas continuamente para producir
las percepciones, los movimientos, las emociones o los pensamientos. Contiene dos tipos
de células, las neuronas y las células gliales o neuroglia. Las neuronas son las principales
células del SN porque tienen la capacidad de procesar información, es decir, pueden
reaccionar a las señales electroquímicas que reciben generando sus propias señales y
transmitiéndolas a otras células. Las células gliales son de diferentes tipos y se ocupan de
tareas auxiliares pero de vital importancia para el funcionamiento de este sistema. Las
neuronas procesan la información y las células gliales mantienen el entorno neuronal en
condiciones óptimas para que aquellas puedan realizar su trabajo.

4.1.1. Neuronas
Santiago Ramón y Cajal (1852-1934) demostró que las neuronas son células
individuales que se comunican entre sí pero que no mantienen contacto físico entre ellas.
La confirmación de este hecho, que eran células individuales y no compo nentes de un
tejido reticular, fue lo que le valió el premio Nobel en 1906. Las neuronas pueden ser de
múltiples formas pero todas tienen unas características estructurales comunes. Están
recubiertas por una membrana con unas características especiales que resultan
fundamentales para que por ella se puedan propagar las señales nerviosas y pasar de una
célula a otras. Todas las neuronas están formadas por un cuerpo celular o soma y por
dos tipos de prolongaciones, las dendritas y el axón (figura 4.1). Es en el soma donde se
encuentra el núcleo con el ADN y donde tienen lugar los procesos metabólicos que
permiten la supervivencia de la célula; es decir, el soma es el centro trófico de la célula y
cualquier prolongación que se separa de él degenera y muere.

96
Figura 4.1. Neurona donde se pueden apreciar el soma y las prolongaciones, las vainas
de mielina que recubren el axón a intervalos regulares y la dirección en la que se propaga
el impulso nervioso.

Las dendritas son prolongaciones numerosas que emergen del soma y que se ramifican
como las ramas de un árbol; de hecho, dendrita viene del término griego dendron que
significa árbol. Constituyen la zona de la neurona donde se recibe la mayor parte de las
señales de entrada, es decir, los contactos procedentes de otras células (aunque hablemos
de contacto no lo es en sentido estricto ya que las neuronas están separadas entre sí por
minúsculas hendiduras; ya volveremos sobre ello más adelante cuando hablemos de
comunicación interneuronal). Estas regiones donde se reciben las señales de otras
neuronas se denominan sinapsis y a la transmisión de información entre a las neuronas en
es estos lugares, transmi Sión sináptica. La densidad de ramificaciones dendríticas va a
determinar mayor o menor conectividad en esa neurona ya que una mayor extensión
permitiría un número mayor de contactos sinápticos procedentes de otras células.
Además, en algunas ramificaciones surgen las espinas dendríticas, unos pequeños
abultamientos en los que se producen las sinapsis. El número de espinas dendríticas e
incluso la profusión de ramificaciones dendríticas puede variar como consecuencia del
grado de activación de esa neurona. Es lo que se conoce como plasticidad neuronal y es
la base del aprendizaje ya que somos capaces de aprender porque nuestros circuitos
nerviosos son capaces de cambiar (Fu et al., 2012).

El axón es una prolongación única (cada neurona tiene un solo axón) que emerge
también del soma en un lugar que se denomina cono axónico; tiene estructura cilíndrica

97
y, al contrario que las dendritas, no suele tener ramificaciones salvo en el extremo final.
Estas ramificaciones terminan en un abultamiento que se denomina botón terminal o
terminal sináptico pues es donde se almacenan las sustancias químicas que la neurona
utiliza para enviar mensajes a otras células. El axón es el elemento de la neurona que
conduce la señal de salida, que propaga el impulso nervioso y transmite el mensaje a
otras células gracias a los contactos sinápticos que establece con sus botones terminales.
Muchos axones están recubiertos a intervalos regulares por una sustancia de tipo graso, la
mielina, que contribuye a que la propagación del impulso nervioso se realice con más
rapidez.

Básicamente, la neurona es una célula como otra cualquiera, sin embargo, posee la
capacidad de procesar información. Cada neurona recibe un conjunto de señales de
entrada formado por cientos e incluso miles de contactos sinápticos procedentes de otras
neuronas (en el soma y las dendritas); en función de las características de ese conjunto
de señales (contactos excitatorios o inhibitorios, la intensidad de unos y otros, la
localización topográfica de los contactos...) la neurona genera las señales de salida
(propagando el impulso nervioso por el axón) que transmite a otras células a través de las
sinapsis. Las neuronas se comunican entre sí mediante señales eléctricas y moléculas
químicas, los neurotransmisores (NT), que son liberados por los terminales (botones)
sinápticos y se acoplan a receptores específicos que hay en la siguiente neurona
provocando una pequeña señal eléctrica. Esta señal eléctrica (junto con otras miles que
recibe la neurona) se propaga por la membrana de la neurona y cuando llega al terminal
sináptico del axón provoca la liberación de nuevos NT, continuando así el proceso de
propagación de las señales y, por tanto, de la información. Hay muchos NT identificados
en el SN y algunos de los más conocidos son la acetilcolina, la dopamina, la serotonina o
la norepinefrina (también se la conoce como noradrenalina).

4.1.2. Células gliales


En el SN también hay otro tipo de células, llamadas de forma genérica neuroglía o
células gliales, término que significa algo así como "pegamento neuronal" (del griego, glia
= pegamento). Son muy numerosas, tanto que en algunas regiones del SN se pueden
encontrar en una proporción 10:1 con relación a las neuronas. Estas células son de varios
tipos y cumplen funciones diversas como servir de soporte estructural, proporcionar la
cubierta de mielina en los axones, cicatrizar y eliminar tejido dañado, recubrir cavidades
internas del SN o colaborar en la comunicación neuronal.

Los astrocitos son las células gliales de mayor tamaño y las más numerosas. Cumplen
funciones como la de soporte estructural de las neuronas, participar en la cicatrización y
reparación del tejido nervioso dañado, en el suministro de nutrientes a la neurona, en el
mantenimiento de la barrera hematoencefálica o en la regulación de la transmisión
sináptica entre neuronas. También se sabe que estas células responden a los impulsos
nerviosos de las neuronas y participan activamente en la plasticidad sináptica, lo que lleva

98
a pensar que podrían tener un papel regulador en las funciones corticales superiores
(Araque el al., 2001). Se podría decir que si bien las neuronas son las que procesan
información, no podrían hacerlo sin los astrocitos. Los oligodendrocitos son células que
proporcionan la cubierta de mielina a los axones del sistema nervioso central (SNC). La
mielina es un recubrimiento graso que aísla a intervalos regulares los axones para facilitar
la conducción del impulso nervioso. La cubierta de mielina no es continua sino que se
interrumpe en unas zonas en las que el axón queda descubierto (figura 4.1) y que se
denominan nódulos de Ranvier. En el sistema nervioso periférico (SNP), la mielina la
proporciona las células de Schwann que realizan además algunas funciones similares a las
de las células gliales del SNC, como actuar de soporte o eliminar residuos de axones
dañados. Una función importante de las células de Schwann es que, cuando se dañan los
axones, y después de limpiar los residuos, forman una especie de canales cilíndricos para
guiar el crecimiento de nuevos brotes axonales desde la parte que queda unida al soma
neuronal hasta sus dianas anteriores, algo que contribuye a la recuperación funcional.

4.2. Comunicación neuronal


Las neuronas que conforman el SN intercambian mensajes de manera continua entre
ellas. Para ello utilizan dos tipos de señales, eléctricas y químicas; las primeras son
consecuencia del los movimientos de iones (moléculas con carga eléctrica) que se
produce entre la neurona y su entorno, las segundas se producen cuando una neurona
utiliza ciertas moléculas químicas para enviar un mensaje a otra célula. En este apartado
vamos a ver cómo las neuronas son capaces de propagar una señal a lo largo de su
estructura (intraneuronal) y cómo pueden enviar señales a otras células (interneuronal)
para propagar los mensajes.

4.2.1. Comunicación intraneuronal


La membrana de la neurona separa el medio interno neuronal del externo. Contiene
unas proteínas intercaladas capaces de modificar su estructura y actuar como compuertas
a través de las cuales, bajo determinadas condiciones, pueden pasar las moléculas; son
los canales fónicos. El líquido extracelular que rodea a las neuronas está compuesto en su
mayor parte por agua en la que hay disueltas sales y otras sustancias químicas; algo
similar ocurre en el líquido intracelular, pero la concentración de moléculas es algo
diferente a la del exterior. Básicamente, en el líquido extracelular predominan moléculas
de sodio (Na) y cloro (C1) mientras que en el interior de la neurona lo que más abundan
son proteínas orgánicas y potasio (K). Estas moléculas tienen carga eléctrica (Na, K,
Cl-...) por lo que si introdujéramos los dos electrodos de un voltímetro, uno en el interior
de la neurona y otro en el exterior, podríamos comprobar que existe una diferencia de
potencial eléctrico entre el medio intracelular y el medio extracelular. A esta diferencia de
potencial se la conoce como potencial de membrana y su valor se sitúa aproximadamente
en 70 milivoltios (mV). Como en el interior de la neurona predominan cargas negativas,
se suele decir que el potencial de membrana es de - 70 mV. Tanto por haber una mayor
concentración en el exterior como por tener carga positiva (el interior es negativo) el Na'

99
pugna por entrar al interior de la neurona pero no puede ya que los canales por donde
podría hacerlo están cerrados. En el caso del potasio, existe una cierta permeabilidad que
permite que algunas moléculas puedan salir al exterior por la fuerza de difusión, sin
embargo, como tiene carga positiva, la presión electrostática vuelve a meterlas. Además
hay otro mecanismo que contribuye a mantener la diferencia de potencial, las bombas de
sodio potasio (bomba Na+/ K). Estas proteínas mueven Na' hacia el exterior de la
neurona al tiempo que introducen K, con lo que además de mantener el potencial de
membrana son fundamentales para restablecerlo cuando se modifica en respuesta a un
estímulo.

El potencial que acabamos de describir se conoce como potencial de membrana en


reposo o, simplemente, potencial de reposo. Cuando este potencial experimenta
modificaciones como consecuencia de un estímulo estamos ante un potencial de acción
(PA). Esto ocurre cuando los canales que permiten el paso de iones Na' al interior de la
neurona se abren y se produce una entrada masiva de dichos iones al interior de la
neurona. Esto provoca un cambio en la polaridad de la membrana, ya que la entrada de
un número importante de cargas positivas hace que el medio interno se vuelva positivo
con respecto al exterior. Es lo que se conoce como despolarización o fase ascendente,
porque así es como se refleja en el registro gráfico de este proceso con un osciloscopio
(figura 4.2). Poco después de que se hayan abierto los canales Na' ocurre lo mismo con
los canales K, también se abren. Como se ha invertido la polaridad y ahora el medio
interno es positivo, el K+ fluye hacia el exterior al mismo tiempo que los canales Na' se
cierran. La salida de cargas positivas hace que el medio interno vaya recuperando la
polaridad inicial, se produce lo que se denomina repolarización o fase descendente del
registro. Sin embargo, sale más K+ del necesario para recuperar el estado de reposo, por
lo que hay un periodo de hiperpolarización, es decir, la membrana alcanza una polaridad
superior a la del estado de reposo, el cual se va alcanzando de forma gradual. Las
bombas Na+/ K+ juegan un papel fundamental metiendo K+ y sacando Na' de la
neurona para alcanzar el potencial de reposo. Cuando la despolarización ha alcanzado su
máxima intensidad y los canales Na' se cierran, estos quedan desactivados
momentáneamente, por lo que en ese momento no pueden responder a nuevos
estímulos, es el periodo refractario absoluto. A medida que van saliendo iones K+ y la
membrana va recuperando la polaridad inicial, los canales Na' empiezan a recuperar
funcionalidad y pueden responder a nuevos impulsos siempre que sean más intensos, es
el periodo refractario relativo.

El PA de una neurona tiene siempre la misma intensidad, solo es necesario que un


estímulo provoque una despolarización que alcance el umbral de excitación. Se dice
entonces que el PA se rige por la ley del "todo o nada" ya que dependerá de que la
despolarización inicial alcance el valor umbral, pero una vez alcanzado, el PA se
desencadena en toda su magnitud. En el caso de despolarizaciones de poca intensidad
que no alcancen el umbral de excitación, la membrana se repolariza antes de que la

100
apertura de canales Na' se extienda y se generalice en la zona. El PA es una señal de
salida que la neurona utiliza para comunicarse con otras células y tiene que haber un
mecanismo por el que dicha neurona transmita información acerca de señales de
diferente intensidad; esto lo hace modificando la frecuencia a la que genera potenciales
de acción. Si la neurona recibe impulsos intensos generará un mayor número de
potenciales por unidad de tiempo (digamos, segundos) que si tiene que responder a
estímulos menos intensos.

El PA es un fenómeno local que tiene lugar en el axón, pero como sabemos, hay
axones que pueden medir hasta un metro de longitud. Esto implica que el PA tiene que
desplazarse a lo largo del axón para llegar a los botones terminales y provocar la
liberación del NT. En condiciones naturales, el PA se inicia en el cono axónico, el lugar
donde se une el axón al soma neuronal y se propaga por todo el axón hasta los botones
terminales donde provoca la liberación de los NT. Esto ocurre porque la señal inicial sirve
de estímulo para las zonas vecinas.

Figura 4.2. Registro oscilográfico de un potencial de acción. Obsérvese que el potencial

101
no se desencadena si la despolarización no supera el umbral mínimo de excitación, pero
una vez alcanzado lo hace en toda su intensidad.

Los canales Na' son dependientes de voltaje, es decir, una pequeña señal eléctrica
produce su apertura. Por este motivo, la señal inicial en el cono axónico (que es un
voltaje) abre los canales de sodio de las regiones vecinas generando un nuevo PA, el cual,
a su vez, abre otros canales generando un nuevo potencial y así sucesivamente. El PA
viaja en una sola dirección ya que el voltaje generado en un punto puede servir para abrir
los canales que están por delante pero no los que están por detrás porque esa zona se
encuentra en periodo refractario. Es la zona donde acaba de producirse un PA y no
responde a estímulos (o lo hace solo ante estímulos más intensos, pero el PA siempre
tiene la misma intensidad) por lo que solo se abrirán los canales situados por delante;
cuando la zona activada recupera el potencial de reposo, la señal ya se ha alejado
demasiado como para poder abrir los canales de esa zona.

Este tipo de conducción puede resultar extremadamente lenta sobre todo en axones
muy grandes y sabemos por experiencia que la propagación del impulso nervioso puede
alcanzar velocidades altas. La mielina es la que permite a algunos axones transmitir el
impulso a mayor velocidad. Cuando se produce un PA en el cono axónico, el flujo de
iones Na' se mueve por el interior del axón ya que los canales Na' dependientes de
voltaje se concentran en los nódulos de Ranvier, la región descubierta de la mielina. Este
flujo permite el desplazamiento rápido de la señal por el interior pero perdiendo
intensidad, es decir, si todo el axón estuviera recubierto de mielina el potencial terminaría
por extinguirse. No obstante, el potencial llega al siguiente nódulo con intensidad
suficiente para superar el umbral de excitación y provocar un nuevo PA regenerando la
señal en su totalidad. Este proceso implica que los potenciales solo se producen en los
nódulos, es como si fueran saltando de un nódulo a otro, por eso se denomina
conducción saltatoria.

La membrana de la neurona en el soma y las dendritas no contiene el mismo tipo de


canales fónicos que la del axón. En este caso los canales iónicos son abiertos como
consecuencia del enlace de un NT con un receptor, al cual va unido el canal. La apertura
de estos canales permite la entrada y salida de los iones correspondientes y esto provoca
modificaciones en el potencial de la membrana. Si se produce una despolarización
tenemos un potencial postsináptico excitatorio (PPE) y si se produce una
hiperpolarización tenemos un potencial postsináptico inhibitorio (PPI). La propagación de
unos y otros se realiza de forma pasiva y su intensidad va decreciendo a medida que la
señal se aleja del punto de origen, por eso se denominan también potenciales locales o
graduales. Un PEP por sí mismo es muy poco probable que llegue al cono axónico con
intensidad suficiente para alcanzar el umbral y generar un PA. Sin embargo, estos
potenciales no actúan de manera independiente sino que se produce un efecto aditivo
entre ellos cuando ocurren en zonas muy próximas o en el mismo momento. Es decir, se
produce una sumación espacial y temporal que incrementa la posibilidad de que llegue al

102
cono axónico una despolarización suficientemente intensa como para desencadenar un
PA. Sin embargo, lo mismo ocurre con los PPI, también suman sus efectos, lo que
disminuye la posibilidad de que la neurona responda mediante un PA. Este proceso,
conocido como integración neuronal, es el que va a determinar que, ante un conjunto de
señales de entrada, la neurona responda generando un PA o permanezca callada
(inhibida). Simplificando el proceso, podemos considerar la integración neuronal como el
resultado de sumar los PPE y restar los PPI que recibe una neurona para, según la
intensidad de la señal resultante, generar una respuesta o no.

En resumen, una neurona recibe un conjunto de señales de entrada (PPE y PPI) como
consecuencia de la activación de contactos sinápticos procedentes de otras neuronas. Si
predominan los potenciales excitatorios, llegará una despolarización al cono axónico con
intensidad suficiente para superar el umbral de disparo y generar un PA. Este potencial se
desplazará con la misma intensidad a lo largo de todo el axón hasta los botones
terminales sinápticos donde provocará la liberación de moléculas de NT. Estos NT se
acoplarán en los receptores situados en la membrana del soma y las dendritas de otras
neuronas provocando la apertura de canales para que el flujo de iones provoque nuevos
PPE y PPI y el proceso se repita en estas neuronas. Por supuesto que la neurofisiología
es algo más complicada y este proceso tiene muchos matices y excepciones, pero
básicamente, este es el modo en el que se comunican las neuronas a falta de explicar
cómo es el proceso de transmisión sináptica.

4.2.2. Comunicación interneuronal


Las neuronas se comunican entre sí a través de las sinapsis, puntos de contacto
funcional ya que no hay contacto fisico real entre ellas. En la neurona que envía el
mensaje está la región presináptica que en la mayoría de los casos es un botón terminal
de las ramificaciones axonales; la neurona que recibe el mensaje constituye la región
postsináptica y suele ser una parte de la membrana del soma y las dendritas, pero
también, en ocasiones, pueden ser regiones cercanas a los botones terminales de los
axones. Ambas regiones están separadas por el espacio o hendidura sináptica. Las
sinapsis pueden ser eléctricas o químicas. En las eléctricas la hendidura sináptica es muy
estrecha y los canales fónicos están en contacto permitiendo que los flujos de iones pasen
de una neurona a otra casi instantáneamente. En las sinapsis químicas, la hendidura es
mucho mayor y la neurona presináptica libera NT que atraviesan el espacio extracelular
hasta la neurona postsináptica donde se enlazan con los receptores que hay en ella. Por
sus implicaciones para el aprendizaje, nos centraremos únicamente en este tipo de
sinapsis.

En el botón terminal de la neurona presináptica están los NT empaquetados en


vesículas y dispuestos para su liberación al espacio sináptico. Esto ocurre cuando llega el
potencial de acción, que en el terminal axónico abre canales de calcio (Ca2) en vez de
Na. La entrada de Ca2+ hace que las vesículas sinápticas se desplacen hasta la zona de

103
liberación y se adhieran a la membrana, liberando el NT mediante un proceso que se
conoce como exocitosis. Una vez que los NT han sido liberados pueden seguir tres rutas,
acoplarse a los receptores de la neurona postsináptica y modificar la permeabilidad de su
membrana, ser inactivados por enzimas específicos o ser recaptados por la propia
neurona presináptica a través de autorreceptores (figura 4.3).

Actualmente se han identificado muchos NT y cada uno de ellos puede acoplarse a


varios receptores. Estos se pueden agrupar en dos grandes categorías, ionotrópicos y
metabotrópicos. Los receptores ionotrópicos están unidos a un canal fónico que abren en
cuanto se acopla el NT al receptor. Por el contrario, los receptores metabotrópicos no
abren canales directamente sino a través de una serie de mecanismos bioquímicos en el
interior de la neurona postsináptica. Para ello, este tipo de receptor activa una serie de
moléculas (denominadas segundos mensajeros, ya que el primero es el NT) que pueden
producir diversos efectos en el interior celular, desde abrir un canal fónico hasta activar o
inhibir la expresión de determinados genes en el núcleo de la neurona. Es un mecanismo
más lento y que dura más tiempo en comparación con el funcionamiento de los
ionotrópicos que abren los canales de manera rápida.

Figura 4.3. Esquema de una sinapsis. El botón terminal libera los NT que atraviesan la

104
hendidura sináptica para acoplarse a los receptores. El exceso de NT puede ser
inactivado por enzimas o recaptado por la propia neurona que lo ha liberado.

También los NT pueden ser de diferentes tipos. Por ejemplo, aminoácidos como el
glutamato o GABA, aminas biógenas como la dopamina o la serotonina, o neuropéptidos,
como los opiáceos endógenos. Algunos NT tienen efectos excitadores (glutamato) o
inhibidores (GABA) pero otros pueden provocar ambos efectos (acetilcolina),
dependiendo del tipo de receptor al que se acoplen. A veces, de manera excesivamente
simplista se suele relacionar a determinados NT con funciones específicas, lo cual, a
pesar de poseer algo de verdad, no es del todo cierto. Podemos oír hablar de la
acetilcolina como el NT de la memoria, la serotonina del estado de ánimo, la dopamina
del placer... Pero todo depende de en qué regiones del SN actúen estos NT y qué tipo de
receptores resulten activados. Por ejemplo, es cierto que la acetilcolina juega un papel
importante en el funcionamiento del hipocampo y por tanto es necesario para la
memoria, pero también es el NT de la motricidad. La dopamina también está relacionada
con el Parkinson o la esquizofrenia y la serotonina con el apetito o la agresividad.
Tenemos que ser cautos cuando escuchemos este tipo de afirmaciones porque puede
llevamos al error de simplificar la bioquímica del cerebro.

4.3. Estructura del sistema nervioso


El SN es una estructura tridimensional y, en primer lugar, para poder comprender su
organización o localizar centros y regiones concretas, tenemos que utilizar ejes de
orientación y planos de corte que nos permitan la identificación de aquellas estructuras
que están situadas internamente. Así, podemos considerar tres ejes, antero-posterior o
rostro-caudal, el eje lateral y el eje dorso-ventral (arriba-abajo). Para poder localizar los
núcleos cerebrales (agrupaciones de neuronas) y sus conexiones se suelen utilizar tres
planos de corte que nos permiten acceder a la configuración interna del cerebro y
mostrarla en planos bidimensionales. El primero de ellos es el corte sagital que divide al
cerebro en dos mitades prácticamente simétricas cuando se localiza en la línea media
(sagital medial), es decir, a lo largo de la fisura que separa ambos hemisferios cerebrales.
Si este corte se desplaza a derecha o izquierda hablamos de cortes parasagitales. El
segundo se realiza en un plano paralelo al plano del rostro y recibe el nombre de frontal o
coronal; divide al cerebro en una parte anterior y otra posterior. Por último, el corte
horizontal divide al cerebro en una porción superior y otra inferior. Los cortes que
seccionan la médula en un plano perpendicular a su eje se denominan transversales.

4.3.1. Organización general del sistema nervioso


El SN integra dos componentes principales diferenciados anatómicamente, el sistema
nervioso central (SNC) y el sistema nervioso periférico (SNP) (figura 4.4). El primero
está formado por el encéfalo y la médula espinal, que se encuentran alojados en el
interior del cráneo y la columna vertebral, respectivamente. El SNP está formado por los
nervios y los ganglios, grupos de neuronas situados fuera del SNC y que son el

105
equivalente periférico de los núcleos funcionales del cerebro. El SNP tiene un
componente somático y otro autónomo o visceral (SNA), dentro del cual se pueden
diferenciar dos divisiones, simpática y parasimpática.

Además de la protección que proporciona la cubierta ósea también existen tres


membranas, las meninges, que recubren todo el SN como las capas de una cebolla.

Figura 4.4. Organización general del SN y sus principales componentes.

La más externa es la duramadre, una membrana semirrígida y resistente que envuelve a


las otras dos. La segunda, la aracnoides, recibe su nombre porque incluye múltiples
trabéculas (como las patas de una araña) que a modo de columnas irregulares se adhieren
a la meninge más interna, la piamadre. Estas trabéculas hacen que quede un espacio
entre la membrana de la aracnoides y la piamadre que está lleno de líquido
cefalorraquídeo (o cerebroespinal) y es por donde discurren los vasos sanguíneos
superficiales. A este espacio se le conoce como espacio subaracnoideo. La piamadre,
tercera meninge y la más interna es la más fina de las tres y recubre fielmente todo el
tejido nervioso adhiriéndose a él y reproduciendo todos los surcos y circunvoluciones
cerebrales.

106
El SN adulto es el resultado de las transformaciones que experimenta el tubo neural
durante el periodo embrionario pero, como su nombre indica, es un tubo que está hueco
en su interior y contiene líquido cefalorraquídeo. Esto significa que dicho líquido recubre
el SN por el exterior del mismo, en el espacio subaracnoideo, pero también rellena sus
huecos internos. En el interior hay unas cavidades comunicadas entre sí que se
denominan ventrículos cerebrales. Hay cuatro ventrículos, uno en cada hemisferio
cerebral, otro en la línea media a nivel del diencéfalo y un cuarto, también en la línea
media, entre el cerebelo y la protuberancia en el tronco del encéfalo. El líquido
cefalorraquídeo proporciona un elemento protector más, ya que actúa como un
amortiguador para golpes o erosiones puesto que podríamos decir que el SNC "flota" en
él.

4.3.2. Sistema nervioso periférico


Como ya hemos dicho, el SNP está formado por nervios y ganglios, todos ellos
situados fuera de las protecciones óseas de la columna vertebral y el cráneo. Los nervios
son paquetes de axones que comunican el SNC con el resto del organismo y los ganglios
agrupaciones de cuerpos neuronales (somas). Podemos diferenciar los nervios entre
espinales, aquellos que emergen de la médula espinal, o craneales, los que lo hacen de
regiones encefálicas, principalmente del tronco del encéfalo. En ambos casos, estos
nervios pueden incluir cuatro tipos de axones o fibras: aferentes somáticos, aferentes
viscerales, eferentes somáticos y eferentes viscerales. Los nervios espinales presentan
una estructura bastante homogénea, tanto estructural como funcionalmente, sin embargo,
los nervios craneales son más heterogéneos. Por ejemplo, entre los nervios craneales se
encuentran los nervios olfatorios (I par craneal) y ópticos (II), el trigémino (V), los que
mueven los globos oculares (111, IV y VI) o el nervio vago (X) que contiene la mayoría
de las fibras de la división simpática del SNA.

En el SNP podemos diferenciar entre el sistema nervioso somático y el SNA o visceral.


El primero de ellos incluye todas las vías sensoriales (aferentes) que llevan información
desde los órganos de los sentidos al SNC y las vías motoras (eferentes) que llevan
órdenes a los músculos desde el encéfalo y la médula espinal. El segundo se ocupa de las
sensaciones viscerales (órganos internos, glándulas, vasos sanguíneos...) y de su control,
es decir, de las reacciones viscerales a los estímulos ambientales. Se denomina también
autónomo (SNA) porque en gran medida no depende del control consciente y voluntario
para su funcionamiento, sino que tiende a la autorregulación para el mantenimiento del
ambiente interno del organismo según las necesidades concretas de cada momento.

El SNA está formado por dos divisiones diferenciadas anatómicamente pero


interrelacionadas funcionalmente, el sistema simpático y el parasimpático. La división
simpática prepara al organismo para la acción, para afrontar situaciones o realizar
esfuerzos que requieran un gasto energético importante. Por ejemplo, cuando
practicamos deportes de riesgo o cuando nos enfrentamos a un animal amenazador;

107
entonces nuestro corazón late más deprisa, respiramos agitadamente, la sangre fluye
intensamente hacia nuestros músculos, sudamos y experimentamos otros efectos no tan
evidentes. Todo ello es consecuencia de la actividad del sistema simpático. Por el
contrario, la división parasimpática es la que entra en juego en los momentos de
relajación y tranquilidad activando mecanismos para la recuperación energética y
restableciendo los niveles que se han visto alterados tras el esfuerzo.

Anatómicamente, la diferencia más notoria se refiere al lugar de emergencia de las


neuronas de cada una de las divisiones. Así, las neuronas simpáticas emergen de la
médula espinal a lo largo de las porciones torácica y lumbar, mientras que las
parasimpáticas lo hacen desde el tronco del encéfalo (especialmente por el nervio vago o
pneumogástrico) y desde la porción sacra de la médula espinal. Otra diferencia la
encontramos en la localización de los ganglios autónomos que sirven como estación de
relevo de las vías autónomas. En ambas divisiones, las neuronas que emergen del SNC
(preganglionares) se dirigen a los ganglios, pero estos están situados en las cercanías del
SNC en el caso de las vías simpáticas y en las proximidades de los órganos en el caso de
las parasimpáticas; desde estos ganglios, las neuronas postganglionares alcanzan los
órganos respectivos. Algunos de los órganos del cuerpo reciben aferencias de ambas
divisiones ocasionando efectos opuestos, por ejemplo, el corazón, donde las neuronas
simpáticas incrementan la velocidad y la fuerza de los latidos mientras que las neuronas
parasimpáticas la reducen.

4.3.3. Neuroanatomía funcional del sistema nervioso central


Para adentramos en el estudio de las características neuroanatómicas del SNC es
importante que recordemos el concepto de sustancia blanca y gris. Los somas neuronales
se agrupan formando núcleos funcionales, es decir, conjuntos de neuronas que utilizan
los mismos NT y que están implicados en funciones relacionadas. Es como si se tratara
de centros de procesamiento de la información. Pero estas neuronas deben enviar sus
señales a otras que forman partes de otros núcleos y para ello, como ya hemos visto, se
sirven del axón. Los axones se proyectan de unas células a otras, pero contra lo que
pudiera parecer lo hacen de una forma topográficamente ordenada, ya que se agrupan
para viajar juntos formando fascículos y se segregan cuando se acercan a su destino. La
sustancia blanca recibe este nombre por la mielina que recubre los axones, que tiene esta
tonalidad, mientras que la sustancia gris está formada por los núcleos funcionales que
incluyen los somas neuronales y las dendritas, cuyas membranas carecen de mielina.

Para facilitar el estudio del SNC vamos a seguir una progresión de complejidad
creciente tanto estructural como funcional. Así, empezaremos por la médula espinal, el
tronco del encéfalo, el cerebelo y el prosencéfalo, la región más voluminosa, donde
distinguiremos entre diencéfalo y telencéfalo (figura 4.5).

108
Figura 4.5. Vista sagital de las principales divisiones del SNC.

La medula espinal es una estructura casi cilíndrica alojada en la columna vertebral por
donde ascienden los axones de las neuronas sensoriales que llevan información hacia el
cerebro y descienden los axones motores que llevan órdenes a los músculos y vísceras.
Si realizamos un corte transversal podemos ver la sustancia gris en el centro con forma
de H o de mariposa y rodeada de la sustancia blanca (figura 4.6). En la sustancia gris se
encuentran los somas neuronales y pequeñas intemeuronas sin mielina que hacen de
relevo en las vías medulares. En la sustancia blanca es donde se localizan los axones
mielinizados que ascienden (sensoriales) o descienden (motores) del cerebro. La médula
no tiene la misma longitud que la columna vertebral, es más corta, de hecho, termina
aproximadamente al nivel de la primera vértebra lumbar. Por debajo de ese nivel
podemos ver las raíces nerviosas que salen por los agujeros intervertebrales inferiores y
que, por su apariencia, se conoce como cola de caballo.

109
Figura 4.6. Sección transversal de la médula espinal donde se puede observar la sustancia
gris en el centro y la sustancia blanca alrededor. También se ven las raíces dorsales y
ventrales que forman los nervios raquídeos y cómo las neuronas sensoriales y motoras
viajan por el mismo nervio.

Los nervios espinales o raquídeos están unidos a la médula por dos raíces, una por la
parte anterior (raíz ventral) que contiene axones motores o eferentes y otra por la parte
posterior (dorsal) que contiene axones sensoriales o aferentes. Aquí ya podemos observar
parte de la organización del SN, la información llega al SNC por las raíces dorsales y las
órdenes salen por las raíces ventrales, es decir, por la región posterior sensorial, región
anterior motora (figura 4.6). Cuando notamos un pisotón, la señal de dolor entra en
nuestra médula por las raíces dorsales e, inmediatamente, por las raíces ventrales salen
las señales que van a producir una contracción de los músculos que nos permita retirar el
pie.

Ya dentro del cráneo se encuentra el tronco del encéfalo, una región en la que
podemos identificar el bulbo raquídeo, la protuberancia o puente y el mesencéfalo. En el
bulbo se encuentran núcleos de la formación reticular que se ocupan de funciones
cardiovasculares y respiratorias, por lo que su lesión puede ocasionar la muerte. La
formación reticular está formada por un conjunto de pequeños núcleos funcionales que
se extienden por todo el tronco del encéfalo y que además de las mencionadas, también
participan en el control del tono muscular y los movimientos, en la regulación del sueño o

110
en los estados de activación y atencionales entre otras funciones. Se la denomina reticular
porque las neuronas que forman estos núcleos no están tan compactadas como en otras
regiones cerebrales y esto le da un aspecto de red.

La protuberancia es el abultamiento que se sitúa entre el bulbo y el mesencéfalo, por


delante del cerebelo. Está formada en su mayor parte por fibras transversales que
comunican el cerebelo con otras estructuras y en su interior se encuentra una serie de
núcleos como el locus coeruleus o los núcleos pontinos, estación de relevo de las
conexiones procedentes de la corteza cerebral que se dirigen al cerebelo. Por encima de
la protuberancia se localiza el mesencéfalo, que también se conoce como cerebro medio.
En su parte posterior se localizan los colículos o tubérculos cuadrigéminos, de los cuales,
los inferiores están implicados en el procesamiento auditivo y los superiores en el visual,
formando parte de un sistema primitivo al que nos referiremos cuando abordemos los
sistemas sensoriales. En la parte anterior del mesencéfalo se localizan algunos núcleos
importantes como la sustancia negra o el núcleo rojo, implicados en la motricidad.

El cerebelo recibe este nombre porque en algunos aspectos se asemeja al cerebro; por
ejemplo, tiene dos lóbulos, unos núcleos internos de sustancia gris y una corteza
cerebelosa surcada de pliegues que guardan una ligera semejanza con las
circunvoluciones de la corteza cerebral. Tradicionalmente se le ha vinculado con
procesos motores, concretamente contribuyendo al equilibrio y al tono muscular y
proporcionando precisión, ritmo y coordinación a los movimientos voluntarios.
Actualmente existe numerosa evidencia clínica que vincula al cerebelo con procesos
cognitivos, si bien no se conocen los mecanismos mediante los cuales interviene, como la
memoria, el lenguaje o las funciones ejecutivas (Tirapu-Ustárroz et al., 2011); sin
embargo, los datos que soportan estas afirmaciones no terminan de ser convincentes y
dejan muchos aspectos sin clarificar (Konczaka y Timmann, 2007) por lo que hay que
seguir investigando en esa dirección.

Si seguimos ascendiendo por el SNC, nos encontramos el diencéfalo por encima del
tronco del encéfalo y en torno al tercer ventrículo. Las dos estructuras principales del
diencéfalo son el tálamo y el hipotálamo, aunque también se incluyen otras dos regiones
que son el epitálamo y el subtálamo (figura 4.7). El tálamo se sitúa prácticamente en el
centro del diencéfalo y tiene forma ovoide; simula por forma y tamaño a una aceituna.
No es una masa homogénea, pues una banda de sustancia blanca en forma de Y que lo
divide en tres porciones: anterior, medial y lateral. En cada una de estas divisiones se
pueden identificar numerosos núcleos diferenciables anatómica (tipo de neuronas,
compactación...) y funcionalmente (origen y destino de sus conexiones). Una de las
principales funciones del tálamo es la de estación de relevo de las vías sensoriales, ya que
todas, salvo la olfativa, proyectan desde el receptor al tálamo y de ahí a las áreas
corticales correspondientes. Pero el tálamo es algo más que una mera estación de relevo
porque las conexiones con la corteza cerebral son bidireccionales y parece que juega un
papel fundamental a la hora de regular los flujos de información a la corteza. También

111
forma parte de circuitos motores que incluyen a la corteza cerebral y a otras estructuras
como los ganglios basales o el cerebelo y está implicado en procesos de activación
generalizada de la corteza cerebral.

Figura 4.7. Tálamo e hipotálamo donde se resaltan algunas estructuras relevantes.

El hipotálamo es un conjunto heterogéneo de núcleos situados en la porción ventral


anterior del diencéfalo. Estos núcleos reciben información de diferentes áreas cerebrales
y se encargan de regular el medio interno del organismo para mantener las condiciones
adecuadas que son necesarias para el correcto desarrollo de los procesos metabólicos
(homeostasis). Además, el hipotálamo regula el sistema neuroendocrino gracias a sus
conexiones con la hipófisis, que se halla adherida a su porción anterobasal. Juega un
papel fundamental en las respuestas del organismo ante el estrés (Foley y Kirschbaum,
2010) ya que es la estructura más relevante del denominado eje hipotálamo-hipofisario-
adrenal. El hipotálamo regula el sistema neurovegetativo y, en general, participa en las

112
conductas que son fundamentales para la supervivencia del individuo y de la especie,
como las de ataque o huida, la alimentación o la reproducción.

Y por fin llegamos al telencéfalo, la parte más voluminosa del SNC. No siempre queda
clara la diferencia entre encéfalo y cerebro; a veces se utiliza el término cerebro para
referirse al telencéfalo y otras para incluir también al diencéfalo. Sí está claro que por
encéfalo entendemos toda la masa que está dentro de la cavidad craneana, pero el
concepto de cerebro (a veces por la denominación anglosajona brain, que se usa
indistintamente) puede prestarse a confusión por ese motivo. En nuestro caso,
consideraremos como cerebro al telencéfalo y el diencéfalo juntos.

El telencéfalo (figura 4.8) está formado por los dos hemisferios cerebrales que están
separados por la hendidura interhemisférica. Cada uno de estos hemisferios controla las
sensaciones y los movimientos del lado contrario del cuerpo y están unidos por millones
de fibras nerviosas (axones) que forman el cuerpo calloso. Están recubiertos por una
delgada capa de sustancia gris, la corteza cerebral que en humanos tiene numerosos
pliegues como consecuencia de su expansión. Así, el cerebro humano presenta ese
aspecto característico que todos conocemos plagado de surcos o cisuras (hendiduras) y
circunvoluciones o giros (elevaciones). En lo más interno de los hemisferios cerebrales se
encuentra una serie de estructuras cerebrales, denominadas a veces de manera genérica
internas o subcorticales, como la amígdala o los ganglios basales, separadas (o
comunicadas) con la corteza cerebral por las fibras que conforman la sustancia blanca
cerebral.

113
Figura 4.8. Vista lateral del cerebro. El telencéfalo está formado por los hemisferios
cerebrales donde se aprecian los surcos y circunvoluciones así como los cuatro lóbulos
cerebrales. En su interior se localizan estructuras subcorticales como los ganglios basales.

El cuerpo estriado agrupa a dos de las principales estructuras subcorticales, el núcleo


caudado y el putamen. Forman parte de lo que se conoce como ganglios basales, que
además incluyen otras estructuras como el globo pálido, la sustancia negra mesencefálica
y el núcleo subtalámico del diencéfalo. Los ganglios basales mantienen conexiones con la
corteza cerebral vía tálamo y juegan un papel fundamental en la motricidad, sin embargo,
también participan en procesos cognitivos y emocionales (Buot y Yelnik, 2012). Otra
estructura importante es la amígdala, o el complejo amigdalino, ya que está formado por
un grupo de pequeños núcleos. Es una estructura fundamental del sistema límbico,
soporte neural de las emociones y del que hablaremos más adelante. Situada en la
porción rostromedial del lóbulo temporal, es la responsable de la sensación de miedo y,
por tanto, la que pone en marcha, vía hipotálamo, las respuestas características ante estas
situaciones. Hay otra estructura que en realidad es un pliegue de una región
filogenéticamente antigua de la corteza cerebral pero que comparte algunas característica

114
con estructuras subcorticales, es el hipocampo, una región fundamental para los procesos
de memoria y aprendizaje y sobre la que hablaremos en más ocasiones (figura 4.9).

Figura 4.9. Ganglios basales y amígdala. Se indica la posición del tálamo para que sirva
de referencia anatómica.

Como ya hemos apuntado, entre las estructuras subcorticales y la corteza cerebral nos
encontramos los millones de fibras nerviosas que forman la sustancia blanca. Estas fibras
pueden ser de tres tipos: de asociación, de proyección y comisurales. Las fibras de
asociación son axones que comunican regiones corticales del mismo hemisferio cerebral;
pueden ser cortas o largas, según las áreas conectadas estén próximas o más alejadas.
Las fibras de proyección están formadas por los axones que comunican la corteza
cerebral con otras estructuras, no solo del telencéfalo sino también del resto del SNC.
Por último, las fibras comisurales son las que comunican ambos hemisferios entre sí, es
decir, permiten la intercomunicación entre áreas de ambos hemisferios para su trabajo
conjunto. La más importante es el cuerpo calloso, formada por millones de axones y que
es el principal, pero no el único, paso de fibras de un hemisferio a otro, por lo que si se
secciona, se produce lo que se denomina cerebro escindido (Split brain) e impide que

115
ambos hemisferios intercambien información.

La corteza cerebral es la capa de sustancia gris que recubre los hemisferios cerebrales
y el soporte neurológico de los procesos superiores. En tomo a dos tercios de su
superficie total queda dentro de los surcos, lo que nos da una idea de cómo ha sido su
desarrollo evolutivo en las especies más próximas a la humana. En el ser humano, la
mayor parte de la superficie hemisférica está formada por un tipo de corteza más
evolucionada (neocórtex) con seis capas de células y que se denomina isocórtex. Hay una
pequeña porción de corteza más antigua, el alocórtex, que tiene una organización más
simple con sólo tres o cuatro capas y es la que encontramos en el hipocampo y la corteza
olfatoria. Aparte de la cisura interhemisférica o longitudinal que separa ambos
hemisferios, hay otras dos cisuras importantes que nos ayudan a dividir cada hemisferio
en cuatro lóbulos. La cisura central o de Rolando separa el lóbulo frontal rostralmente del
parietal; la cisura lateral o de Silvio delimita el lóbulo temporal y en la parte posterior se
encuentra el lóbulo occipital, zona del cerebro donde radica la visión. La cisura central
separa dos circunvoluciones fácilmente identificables, la precentral (por delante,
rostralmente), donde se localiza la corteza motora primaria, esto es, desde donde salen
los axones que bajan hasta la médula para producir los movimientos, y las circunvolución
poscentral (por detrás, caudalmente) en la que radica la corteza somatosensorial primaria,
la zona donde se procesan las sensaciones corporales.

Hemos hecho una revisión rápida y superficial de las principales estructuras del SN
aludiendo someramente a sus implicaciones funcionales. En el resto de los capítulos
tendremos ocasión de volver sobre estas estructuras a medida que vayamos avanzando
en la comprensión del funcionamiento del SN y cómo ocurren los procesos que nos
permiten aprender, comunicamos, experimentar emociones o tomar decisiones acerca de
nuestra vida.

116
117
No hace falta más que mirar a nuestro alrededor para damos cuenta de que existe una
gran variedad de especies de animales diferentes; son el resultado de miles de millones de
años de evolución. El ser humano es una de esas especies y, como las demás, tenemos
una serie de ancestros que nos ayudan a saber algo acerca de cómo hemos llegado a ser
lo que somos. La filogenia es el estudio de la evolución de los organismos y una de las
cosas que nos enseña es que estos comparten ciertos atributos en mayor o menor medida
según la proximidad evolutiva que exista entre ellos.

En este capítulo nos vamos a centrar en la ontogenia, es decir, en el estudio del


desarrollo de un organismo a lo largo de su ciclo vital; concretamente en el del ser
humano, prestando especial interés a cómo se desarrolla el SN y a cómo, en
consecuencia, se van adquiriendo las habilidades motoras y cognitivas que nos
caracterizan. Hemos comenzado haciendo alusión a la filogenia para justificar el hecho de
que mucho de lo que sabemos acerca de los diferentes procesos que ocurren durante el
desarrollo humano se ha alcanzado gracias a estudios realizados con otras especies
animales con las que compartimos atributos. Una neurona funciona básicamente igual en
el SN humano que en el de cualquier otro animal, por eso podemos utilizarlas para
conocer su fisiología. Pero en el nivel conductual también encontramos semejanzas, por
ejemplo, un chimpancé puede utilizar un palo como herramienta y una rata es capaz de
aprender un recorrido; la mayoría de los seres humanos también.

5.1. Desarrollo del sistema nervioso


La fecundación del óvulo por el espermatozoide marca el punto de partida del proceso.
El cigoto, la célula resultante de la fecundación va a dar lugar a los diferentes tipos
celulares que configurarán los tejidos, los órganos y, fundamentalmente, el cuerpo
humano. El tejido nervioso es uno de esos tejidos; desde la fecundación hasta que
alcanza el aspecto y la configuración de adulto, el SN va a experimentar una serie de
procesos que lo van a transformar en un sistema complejo de procesamiento de
información.

5.1.1. Desarrollo estructural


Al comienzo del desarrollo embrionario se produce un periodo rápido de divisiones
celulares sin apenas crecimiento ni diferenciación, son células plenipotenciales que
pueden dar lugar a cualquier otro tipo celular. Posteriormente se van diferenciando en
tres capas de células pluripotenciales, de donde pueden surgir otros tipos celulares pero

118
con más limitaciones que las primeras; de una de estas capas (ectodermo) va a surgir el
futuro SN. Podemos considerar que el auténtico desarrollo nervioso comienza entre los
14 y los 21 días de gestación, cuando un grupo de células del ectodermo forman la placa
neural, la cual, posteriormente forma el tubo neural. Este tubo neural, formado por
plegamiento de la placa neural (como si enrollásemos una hoja de papel), está abierto por
ambos extremos; en tomo al día 23 de gestación, estos agujeros del tubo neural (poros
neurales) se cierran, proceso importante ya que si lo hacen de manera defectuosa pueden
provocar anencefalia (cierre defectuoso del poro rostral) o espina bífida (cierre
defectuoso del poro caudal). Cuando se produce el cierre del tubo, parte del tejido queda
por fuera formando la cresta neural; el tubo neural es el origen del SNC, del que nos
ocuparemos en el capítulo, y la cresta neural lo es del SNP. La estructura de tubo
persiste en el SN adulto ya que la cavidad interna dará lugar a los ventrículos cerebrales y
al conducto raquídeo.

Como consecuencia de la proliferación celular, las paredes del tubo neural empiezan a
engrosar, sin embargo, la proliferación no es homogénea y esto hace que el
engrosamiento sea diferente en unas zonas u otras. En tomo a la cuarta semana de
gestación, en la parte más rostral del tubo neural se van diferenciando tres abultamientos
(vesículas) denominadas prosencéfalo, mesencéfalo y rombencéfalo, que van marcando
lo que van a ser las principales divisiones anatómicas del SNC adulto (Jessell y Sanes,
2000). La parte más caudal del tubo crece de un modo más uniforme y dará lugar a la
médula espinal. Más adelante, en la quinta semana, el prosencéfalo se divide en dos
nuevas vesículas, el telencéfalo y el diencéfalo, mientras que el rombencéfalo lo hace en
mielencéfalo y metencéfalo.

Al mismo tiempo que en las paredes del tubo neural van diferenciándose las vesículas,
el tubo neural se va plegando y adquiriendo la forma del cerebro adulto. El telencéfalo,
de donde surgen los hemisferios cerebrales, es la parte del tubo neural que experimenta
un mayor desarrollo; pero para poder ocupar un volumen mayor en un espacio cerrado
como es el cráneo, realiza un crecimiento envolvente, es decir, crece en varias
direcciones. Esto provoca que el telencéfalo "oculte" a otras estructuras situadas
caudalmente como el diencéfalo y parte del tronco del encéfalo y el cerebelo (figura 5.1).
En la séptima semana de desarrollo embrionario la apariencia del tubo neural ya es
similar a la del SNC adulto, sin embargo todavía no se aprecia uno de sus rasgos más
característico, los surcos y circunvoluciones de la corteza cerebral que proporcionan a los
hemisferios cerebrales su conocido aspecto, algo que ocurre en torno a los siete meses de
gestación cuando el cerebro y demás estructuras nerviosas poseen un aspecto similar al
adulto.

119
Figura 5.1. Tubo neural y SNC adulto donde puede verse cómo va evolucionando aquel
y aparece la configuración adulta del encéfalo y la médula espinal.

5.1.2. Diferenciación y maduración neuronal


En el desarrollo del SN se pueden identificar una serie de hitos o etapas claramente
diferenciadas y cualquier alteración en alguna de ellas puede ocasionar manifestaciones
clínicas muy diversas tanto cognitivas como conductuales o afectivas. Después de la
formación de las vesículas del tubo neural se van a producir una serie de procesos
celulares complejos y dinámicos que, aunque ordenados de manera secuencial, se
solapan en el tiempo ya que no todas las regiones los experimentan al mismo tiempo. Son
procesos celulares genéticamente determinados, epigenéticamente dirigidos y
ambientalmente influenciados (Tau y Peterson, 2010). Después de proliferar, las
neuronas deben viajar a sus ubicaciones, diferenciarse y establecer conexiones para
terminar ajustando los circuitos por diferentes mecanismos.

La formación de las neuronas (neurogénesis) se produce en tomo a la 5-6 semana


gestacional. En la región ventricular del tubo neural (parte interna) se produce una rápida
proliferación de neuroblastos (pueden producirse unas 250.000 células nuevas al minuto)
que son los precursores neuronales que terminarán convirtiéndose en neuronas adultas
(Bystron et al., 2008; Levitt, 2003). Como estas células se van formando en la región
ventricular, en algún momento, tienen que desplazarse hasta sus ubicaciones definitivas
antes de madurar y convertirse en neuronas y células gliales adultas. Se han descrito
diversos mecanismos por los que se produce esta migración celular (O'Rourke et al.,
1992), pero uno de los mejor descritos es el que utiliza un tipo de células, la glía radial,
que forman una especie de raíles que comunican la zona ventricular con la zona marginal
(externa) del tubo neural (Rakic, 2003); si observamos un corte transversal del tubo

120
neural, veríamos esta glía radial como los radios de la rueda de una bicicleta. Una vez
que las neuronas inmaduras han alcanzado sus destinos y se han agrupado en ellos se
activan genes que serán los que determinen en qué tipo de célula se convierten. La
mayor parte de la neurogénesis se ha completado en tomo al quinto mes de embarazo,
pero no olvidemos que este proceso ocurre durante toda la vida (Eriksson et al., 1998);
en este caso nos referimos a lo que podemos llamar la neurogénesis básica o
configuracional. Sin embargo, la migración y la diferenciación celular continúan. Estos
procesos no ocurren de manera uniforme en todo el cerebro por lo que, mientras en unas
zonas se produce la proliferación de neuroblastos, en otras pueden estar ya migrando o
iniciando la maduración (figura 5.2).

Figura 5.2. Esquema temporal de los procesos que configuran el SN.

Por maduración neuronal nos estamos refiriendo a dos procesos fundamentales en la


configuración de los circuitos neuronales: el crecimiento de las prolongaciones y el
establecimiento de las conexiones sinápticas (sinaptogénesis). La arborización dendrítica
de las neuronas es una zona receptora por lo que a mayor superficie mayores
posibilidades de recibir contactos sinápticos de otras neuronas. Este proceso continúa
después del nacimiento y durante toda la vida, ya que se ha comprobado que la
activación de los circuitos (experiencia, aprendizaje) puede ocasionar un incremento de
esta arborización. Por su parte, a veces el axón debe recorrer largas distancias para
encontrar sus dianas, aunque en la mayoría de los casos, los contactos se establecen con
las neuronas vecinas. Para que se establezcan las conexiones el axón debe alcanzar a
otras neuronas en un proceso de crecimiento guiado por múltiples señales químicas que
lo atraen o repelen hasta que alguna de sus ramificaciones establece un contacto
sináptico, proceso en el que intervienen ambas neuronas. Al final del embarazo las

121
principales vías neurales están ya configuradas (Stiles y Jemigan, 2010), sin embargo, el
crecimiento de axones y dendritas y el establecimiento de contactos sinápticos en esta
fase va a ir configurando los incipientes circuitos neurales de un modo provisional a falta
de un posterior refinamiento (Tau y Peterson, 2010). El número de sinapsis crece
considerablemente y en pocas semanas se establecen billones de estos contactos; sin
embargo, luego se produce un curioso fenómeno, empiezan a morir neuronas y
desciende de manera importante el número de sinapsis, como si sobraran.

Efectivamente, parece que sobran; venimos al mundo con muchas más neuronas y
contactos sinápticos de los que necesitamos por lo que se hace una selección posterior.
En los primeros meses de vida se produce una cierta competencia entre las neuronas para
atraer contactos sinápticos procedentes de otras neuronas de tal manera que solo aquellas
que consiguen un cierto grado de conectividad sobreviven. Las neuronas que no forman
parte de una red neural activa van muriendo y los contactos sinápticos que no resultan
activados de manera regular van desapareciendo. Inicialmente, el establecimiento de
conexiones entre las neuronas procura proporcionar un número suficiente de ellos para
una configuración adecuada de los circuitos neuronales, sin embargo, a medida que estos
circuitos se van perfilando, algunas vías y contactos sinápticos no resultan necesarios y
pueden ser perjudiciales para el correcto funcionamiento del circuito. Es una muerte
celular programada genéticamente que sirve para eliminar neuronas que han establecido
conexiones no funcionales y, en general, para configurar los circuitos de un modo
funcionalmente óptimo. Buss y Oppenheim (2004) sugieren que, además de contribuir a
la configuración adecuada de los circuitos, esta muerte celular también es un mecanismo
para corregir errores en la proliferación y migración neuronal.

Un último paso en la maduración neuronal y la conectividad de los circuitos nerviosos


lo constituye la mielinización, la formación de las vainas de mielina que recubren los
axones de las neuronas. Este proceso progresivo permite una transmisión más eficaz de
las señales nerviosas y, en consecuencia, un procesamiento más rápido de la información.
El progreso de la mielinización sigue un patrón temporal y espacial característico. Las
regiones subcorticales son las primeras en mielinizarse, en tomo a las 25 semanas,
mientras que las áreas corticales lo hacen más tarde; la mayor parte del proceso tiene
lugar después del nacimiento.

Los diferentes procesos celulares que tienen lugar durante la configuración del SN
determinan que el volumen de sustancia gris (cuerpos neuronales y prolongaciones
dendríticas) y el de sustancia blanca (axones mielinizados) tengan una evolución desigual
a lo largo del desarrollo cerebral. En el caso de la sustancia gris hay un primer periodo de
crecimiento, coincidiendo con la neurogénesis y la arborización dendrítica, hasta alcanzar
un nivel máximo para después empezar a decrecer como consecuencia de la apoptosis y
la poda sináptica. En el caso de la sustancia blanca el patrón de crecimiento es más o
menos constante y se mantiene hasta muy avanzada la edad adulta; es un crecimiento
más regular ya que implica la formación progresiva de las vainas de mielina en aquellos

122
circuitos nerviosos que están madurando.

5.1.3. Desarrollo postnatal del sistema nervioso


El desarrollo del SN no está ni mucho menos completo en el momento del nacimiento.
El periodo postnatal temprano es de vital importancia en la configuración y desarrollo de
los circuitos nerviosos. Aunque el volumen del cerebro se cuadruplica entre el nacimiento
y la edad adulta, alcanza un 80% de su tamaño final en los dos primeros años de vida y
un 90% a los seis, para luego continuar su crecimiento a un ritmo más estable. Se
produce un crecimiento considerable de la sustancia gris durante los primeros cinco años
de vida, pero es especialmente notorio en los dos primeros, cuando tiene lugar una
importante arborización dendrítica en neuronas de la corteza cerebral (Andersen, 2003;
Landing et al., 2002) y el consiguiente incremento en la conectividad cortical. El proceso
de desactivación sináptica (poda) que es inherente a la muerte celular es mucho más
activo en el periodo postnatal. Al igual que la sinaptogénesis, sigue un patrón diferente
según las regiones cerebrales, así después de las regiones subcorticales, la poda sináptica
ocurre antes en áreas primarias sensoriomotoras y después en las de asociación (Levitt,
2003). Esto supone que tanto los procesos de crecimiento de la sustancia gris como los
de apoptosis y poda sináptica continúan en la infancia temprana configurando los
circuitos nerviosos en interacción con la estimulación exterior. Igual que los demás
procesos, la mielinización es intensa en los primeros años de vida para luego ir
alcanzando un ritmo continuo más estable (Bamea-Goraly et al., 2005) y, del mismo
modo, el patrón temporoespacial se asemeja al de los anteriores.

La mielinización es un proceso eminentemente postnatal que tiene lugar durante un


largo periodo de tiempo y que resulta fundamental para que los circuitos neuronales
adquieran una funcionalidad óptima (Stiles y Jernigan, 2010). El hecho de que ocurra
después del nacimiento y ya en estrecha interacción con la estimulación ambiental nos
lleva a pensar en el papel que puede desempeñar en la adquisición de habilidades
sensoriomotoras y cognitivas por parte del niño. Se plantea entonces la duda de si las
diferencias en la progresión de la mielinización podrían explicar las diferencias en la
adquisición de ciertas habilidades por parte de los niños de un mismo grupo de edad.
Sabemos que ciertos trastornos del neurodesarrollo (TND) están relacionados con
defectos o retrasos en la mielinización (Guinea-Hidalgo y Tirapu-Ustárroz, 2011), pero
por muy tentadora que sea la idea, es necesaria más investigación para poder confirmar
este punto.

Es en la etapa postnatal donde parece que la estimulación exterior juega un papel


relevante a la hora de configurar los circuitos nerviosos de la manera más adecuada,
contribuyendo a la conservación o no de los contactos sinápticos y la mielinización de las
vías nerviosas. El ser humano se desarrolla en un ambiente complejo, por eso necesita
muchos contactos sinápticos de partida para ir seleccionando aquellos que participan en
la codificación de las experiencias a las que se ve expuesto, sin embargo, esto lleva a una

123
controversia. Existen diferentes posturas sobre la conveniencia-necesidad-utilidad de la
estimulación temprana (a veces, sobreestimulación) para asegurar una adecuada
conectividad sináptica en las redes neuronales del cerebro. Está clara la idea de que un
bebé necesita estimulación, pero también es probable que tampoco sea conveniente en
exceso, algo que podría tener efectos contrarios a los que se persiguen. Lo que es seguro
es que la deprivación sensorial, la falta de estímulos en esta etapa inicial sí tiene efectos
negativos sobre el desarrollo cerebral como ya se ha puesto de manifiesto en numerosas
ocasiones, tanto en el laboratorio como, por desgracia, en la vida real.

La adolescencia es un periodo importante de cambios neurofisiológicos que se


traducen en una serie de comportamientos característicos, como la búsqueda de
experiencias excitantes, las conductas de riesgo, la inestabilidad emocional o el
gregarismo social. Pero esa extraordinaria actividad también implica una cierta
vulnerabilidad psicopatológica que ocasiona frecuentes trastornos psiquiátricos y
emocionales (Paus et al. 2008). A partir de la década de los setenta y sobre todo en los
ochenta, se pudo comprobar que ciertas áreas cerebrales como la corteza prefrontal
experimentaban cambios sustanciales durante la adolescencia (Huttenlocher, 1979;
Huttenlocher et al., 1983). Al igual que otras regiones en periodos anteriores, el lóbulo
frontal alcanza el máximo volumen de sustancia gris hacia el inicio de la pubertad y luego
decrece durante la adolescencia (Giedd, 2004; Sowell et al., 2003). Algo similar ocurre
con la sustancia blanca, algunas áreas completan su mielinización en los primeros años de
vida, pero otras, como el caso de la corteza prefrontal, continúan con este proceso
durante la adolescencia (Barnea Goraly et al., 2005). La importante poda sináptica que se
produce en esta etapa y el incremento de la mielinización significa que estos circuitos
cerebrales se van haciendo más eficientes durante este periodo de la vida. Sin embargo,
la configuración adulta de estos circuitos no se alcanza en la adolescencia, ya que hay
pruebas evidentes de que todavía durante la etapa adulta se produce una reducción de
sustancia gris en áreas de las cortezas temporal, parietal y prefrontal al tiempo que se
incrementa la sustancia blanca (Sowell et al., 2003). No se conoce demasiado acerca de
los ajustes que ocurren en los circuitos cerebrales después de la adolescencia, pero el
hecho de que sigan ocurriendo fenómenos de estas características significa que todavía
existen áreas cerebrales en proceso de maduración.

5.2. Ambiente, experiencia y desarrollo cerebral


Como ya hemos visto, uno de los debates clásicos en educación, psicología y otras
disciplinas es acerca del peso que tienen los genes o el ambiente sobre el desarrollo. La
cuestión que nos planteamos de cara a la educación es si los niños son inteligentes o si se
hacen inteligentes, ya que la respuesta a esta pregunta viene condicionando los
planteamientos educativos desde hace siglos. El cerebro es plástico, posee capacidad de
moldearse según los estímulos y las influencias a las que se ve expuesto. Esto hace que
los cerebros sometidos a diferentes entornos con diferentes patrones estimulares van a
ser moldeados de distinta manera, es el efecto de la experiencia que nos proporciona el

124
entorno. Sabemos que hay una programación genética aparentemente precisa para el
desarrollo del SN, sin embargo, el conocimiento actual de diferentes mecanismos
epigenéticos que influyen sobre la expresión de los genes nos lleva a considerar las
influencias ambientales ya desde el mismo momento de la fecundación. Cuando
hablamos de ambiente durante el desarrollo nos estamos refiriendo a las condiciones y
características del entorno durante todo el proceso, es decir, incluida la etapa prenatal.
Durante el embarazo, el feto está sometido a las influencias de múltiples factores:
nutrición, toxinas, equilibrio bioquímico u hormonas. A pesar de que la madre ejerce una
potente protección sobre el feto, esta no es completa y la carencia de determinados
nutrientes, la presencia de toxinas y el exceso o defecto de determinadas moléculas
pueden ocasionar alteraciones y desviaciones en el curso normal del desarrollo nervioso.

Respecto a la influencia del ambiente externo sobre el desarrollo y el funcionamiento


cerebral podríamos remontarnos a Donald Hebb, uno de los primeros en estudiar sus
efectos. Comprobó que un grupo de ratas a las que crió en su casa en un entorno de
semilibertad aprendían mejor y más deprisa que otro grupo criado en las habituales jaulas
de laboratorio. Más recientes y más divulgados fueron los trabajos de Rosenzweig y su
equipo (Bennett et al., 1964; Rosenzweig, 1964; Rosenzweig y Bennett, 1977) que
también fueron en una dirección parecida pero con el objetivo de comprobar los efectos
del entorno sobre aspectos estructurales del cerebro y su funcionamiento. Para ello
criaron ratas en tres entornos diferentes, el normal de un laboratorio (ratas estabuladas en
grupos de dos o tres), uno enriquecido (grupos mayores con "juguetes" en la jaula que se
cambiaban con regularidad) y uno en un entorno de privación (animales enjaulados en
solitario). Comprobaron que los animales criados en un entorno enriquecido mostraron
un mayor peso cerebral, mayor grosor y densidad cortical debido a la existencia de más
prolongaciones dendríticas y mayor número de contactos sinápticos aparte de otros
parámetros bioquímicos que indicaban una mayor actividad cerebral.

También son conocidos los trabajos realizados por el matrimonio Margaret y Harry
Harlow (1970) que criaron monos modificando las condiciones sociales en las que se
desarrollaban. Sometieron a las crías a diferentes periodos de aislamiento que podían
comenzar en el momento del nacimiento o semanas más tarde y cuya duración también
era variable. La privación del contacto físico y sensorial con la madre o con otros
congéneres ocasionaba en las crías importantes alteraciones emocionales y conductuales,
siendo más graves cuando el aislamiento se iniciaba en el nacimiento y cuando la
duración del mismo era mayor. En la mayoría de los casos, los comportamientos que
manifestaban los animales se podían considerar equivalentes a los de seres humanos con
trastornos mentales (depresión, esquizofrenia...) poniendo de manifiesto la importancia
del contacto social en la infancia. Una de las causas de este tipo de alteraciones puede ser
una mielinización defectuosa y, por tanto, una mala configuración de algunos circuitos
nerviosos. El aislamiento social durante dos semanas después del destete en una muestra
de ratones ocasionó una reducción en el número de oligodendrocitos en la corteza

125
prefrontal que no se recuperó después de la reinserción en el grupo (Makinodan et al.,
2012). Este descenso de los oligodendrocitos provocó una mielinización insuficiente en
los circuitos prefrontales, lo que se tradujo en alteraciones comportamentales. Los
defectos en la mielinización de diferentes áreas corticales se ha relacionado en humanos
con alteraciones del estado de ánimo y esquizofrenia (Fields, 2008). Además, podemos
comprobar que niños que han sufrido situaciones de semiaislamiento durante su infancia
(por ejemplo, algunos casos de adopciones) también muestran frecuentes dificultades
emocionales y cognitivas, aunque se hayan integrado en familias a edades tempranas.

5.2.1. Plasticidad en el sistema nervioso


Cuando una neurona pierde contactos sinápticos o alguna prolongación, comienza un
proceso de regeneración encaminado a recuperar su carga sináptica (aferencias y
eferencias) para poder sobrevivir. Esto fue descrito inicialmente por Liu y Chambers
(1958), quienes comprobaron en gatos cómo después de una lesión medular, los axones
seccionados comenzaban a emitir brotes. Como consecuencia de eso se aceptó la idea de
que se producía algún tipo de regeneración del tejido nervioso en la etapa adulta, sin
embargo, hasta hace poco, se pensaba que esta capacidad sólo la poseían los axones del
SNP porque los intentos por regenerar los axones del SNC eran frustrados
reiteradamente por una barrera glial. Actualmente, sí hay evidencia empírica de que esto
es posible y de que además ocurre casi permanentemente. El SN es plástico, es decir,
puede modificar su estructura y, por tanto, su funcionalidad. Es cualquier cosa menos
estático, está en permanente remodelación de sus conexiones sinápticas; unas por un
proceso natural de reposición otras como consecuencia de eventos externos que pueden
ir desde las modificaciones bioquímicas del entorno a la respuesta al daño neuronal,
pasando por la activación producida por la experiencia que conduce al aprendizaje. Esto
es plasticidad, la capacidad de las neuronas de remodelar sus conexiones y los
mecanismos implicados en ello.

La plasticidad durante las etapas iniciales del desarrollo puede promover importantes
remodelaciones de las conexiones sinápticas mediante el crecimiento de axones y
dendritas (Eysel, 2008). Por el contrario, el SN adulto posee una menor capacidad de
modificación de sus conexiones, pero aún así, todavía la mantiene durante toda la vida
aunque más restringida a los contactos sinápticos y, en algunos casos, a las
ramificaciones dendríticas y axonales. La plasticidad sináptica es la base del aprendizaje y
la memoria. El hipocampo es una estructura estrechamente vinculada a los procesos de
aprendizaje y memoria (lo veremos con detalle en el capítulo 11) y es también uno de los
lugares donde primero se describieron mecanismos de plasticidad inducidos de una forma
experimental. En 1973, Timothy V.Bliss y Terje Lomo hicieron un importante
descubrimiento en los circuitos del hipocampo. Pusieron de manifiesto que una breve
estimulación eléctrica de alta frecuencia (muchos impulsos por segundo) en un grupo de
neuronas producía un aumento de larga duración de la potencia de las sinapsis
estimuladas por estas. A este incremento de la fuerza sináptica lo denominaron

126
potenciación a largo plazo (LTP, del inglés long-term potentiation). Básicamente es una
huella de memoria; el cambio en la fuerza de las conexiones sinápticas permanece un
tiempo que puede ser de días o semanas, como un indicio de la estimulación ejercida. La
LTP implica la interacción entre diferentes sinapsis que recibe una neurona determinada.
Así, cuando las sinapsis débiles y fuertes de una misma neurona son estimuladas al
mismo tiempo, las débiles se fortalecen. Esto es lo que Hebb (1949) sugirió veinticinco
años antes como base para el aprendizaje a largo plazo. La plasticidad es una
característica de las neuronas gracias a la cual pueden adaptarse a las agresiones o
responder a la experiencia. Así, los contactos sinápticos pueden guardar un registro, en
forma de cambio estructural o funcional, del tipo y la frecuencia de una estimulación que
forme parte del procesamiento cerebral de una experiencia. Estamos ante la huella
fisiológica de la memoria.

Hasta hace pocos años, la neurociencia ha trabajado con la idea generalizada de que en
el SN adulto no aparecen nuevas neuronas. Sin embargo, hoy ya nadie alberga dudas de
que en ciertas regiones del cerebro adulto puede haber neurogénesis durante toda la vida.
Desde los primeros indicios en la década de los sesenta hasta la actualidad, se han
aportado numerosas evidencias de que en el cerebro adulto se forman nuevas neuronas y
de que se integran en circuitos funcionales. La neurogénesis no ocurre de forma
generalizada en todo el cerebro, sino que está restringida a zonas muy concretas. Una de
las regiones en las que se ha demostrado esta neurogénesis es el giro dentado, una parte
del hipocampo. La otra región es el bulbo olfatorio, sin embargo, se sospecha que existe
neurogénesis en otras regiones cerebrales aunque de manera más restringida y ligada
sobre todo al daño cerebral (Gould, 2007). También se ha comprobado que la
neurogénesis es sensible a efectos fisiológicos y patológicos en todas sus fases, es decir,
desde la formación de la nueva neurona hasta su integración en un circuito funcional
(Zhao et al., 2008). Esto significa que hay factores ambientales que pueden condicionar
su ocurrencia y efectividad funcional. Por ejemplo, la actividad física actúa potenciando
la neurogénesis, mientras que el envejecimiento supone una ralentización progresiva.
Además se ha demostrado que también se ve reforzada por la experiencia y durante el
aprendizaje inducido (Ming y Song, 201 1), un argumento más para confirmar cómo el
estilo de vida, las experiencias y el entorno condicionan el funcionamiento cerebral.

5.2.2. Periodos críticos o sensibles


Las diferentes regiones del SN maduran a distinto ritmo; del mismo modo, las
habilidades sensoriomotoras y cognitivas se adquieren según patrones temporales
diferentes. Esto significa que en el SN en general, y en el cerebro en particular, existen
diferentes calendarios que determinan el modo en que se adquiere el repertorio
conductual propio del ser humano. Esto y el hecho de que la experiencia no afecta al
cerebro por igual en cualquier momento de la vida ha llevado a plantear la idea de que
existen periodos críticos en el desarrollo que hacen que el cerebro sea más sensible a los
efectos de un tipo de experiencias u otras. Si durante ese periodo crítico la experiencia

127
correspondiente no tiene lugar, no se producirán las modificaciones oportunas en los
circuitos nerviosos y no habrá aprendizaje. ¿Realmente la naturaleza es tan radical? ¿Qué
entendemos por periodo crítico?

En este caso se considera periodo crítico a una "ventana temporal" en el desarrollo del
cerebro durante la cual es posible adquirir una determinada habilidad. Pero este concepto
implica que dicho aprendizaje solo puede adquirirse durante ese periodo, es decir, una
vez que se cierra esa ventana, no hay posibilidad alguna de adquirir esas habilidades. Por
otro lado, también habría que con siderar que un aprendizaje adquirido durante ese
periodo crítico no podría ser modificado ni revertido (u olvidado) una vez que finaliza el
mismo, ya que el cerebro habría perdido la capacidad de realizar ajustes en esos circuitos
nerviosos. Visto así, parecen unas restricciones excesivas que no son lo que solemos
encontrar cuando estudiamos el aprendizaje a lo largo del ciclo vital. Siempre se toma
como ejemplo el caso del lenguaje, si no hay la estimulación adecuada en el momento
oportuno, este no se desarrolla. Y hay casos que lo documentan. Sin embargo, hay que
hacer varias consideraciones antes de dar por buenos los mencionados casos.

Es muy frecuente acudir a casos extremos, como es el caso de niños criados sin la
presencia humana (el mito de Tarzán), para justificar la idea de los periodos críticos. Uno
de los más conocidos por su proximidad temporal es el de Genie (nombre ficticio), una
niña a la que sus padres, ambos con las capacidades mentales mermadas, mantuvieron
encerrada y privada del contacto humano hasta que fue rescatada a los 11 años por los
servicios sociales. Las condiciones de aislamiento de Genie se vieron incrementadas por
los problemas de malnutrición, falta de higiene, entorno insalubre y restricción motora (la
mantenían atada a una silla) que tuvo que soportar. Como es de suponer, era incapaz de
hablar, mantenía posturas anormales, mostraba episodios agresivos o de pánico y
rechazaba comunicarse con la mayoría de las personas. Poco tiempo después de ser
rescatada, el aspecto y el estado mental de la niña mejoró considerablemente (en
comparación a su estado previo, una ducha suponía un paso de gigante para la pobre
niña) volviéndose un poco más comunicativa y aceptando mejor a sus cuidadores. Genie
aprendió algunos rudimentos lingüísticos pero fue incapaz de alcanzar un nivel
equiparable al de un adulto. Claro, para los defensores de los periodos críticos, la
inoperancia lingüística de la niña fue la prueba fundamental de sus argumentos; los
detractores de esta idea, se agarraron a las habilidades que pudo adquirir. Quizá para
evitar posturas radicales que los estudios cognitivo-conductuales desmontan fácilmente,
se acude al término más amable y menos radical de periodos sensibles, momentos del
desarrollo en los que ciertos circuitos nerviosos están en las condiciones óptimas para
reaccionar ante un tipo específico de estimulación.

Greenough acuñó el concepto de desarrollo pendiente de la experiencia (EED, del


inglés Experience Expectant Development) para referirse al hecho de que la exposición a
ciertas experiencias tempranas es fundamental y necesaria para el normal desarrollo del
cerebro (Greenough et al., 1987). Existen determinadas habilidades o capacidades

128
adquiridas que resultan adaptativas para una especie y necesarias para su supervivencia;
por eso, la mera exposición a un entorno natural propio de esa especie es suficiente para
incidir sobre los circuitos cerebrales adecuados y propiciar su adquisición. Ese entorno
natural se considera suficiente y necesario para que la ocurrencia de determinadas
experiencias propias del mismo contribuya a la normal organización de los circuitos
neuronales. Si falta esa expe riencia, los circuitos se configuran de un modo diferente en
función de la estimulación que reciban. Cualquier niño que se desarrolle en un entorno
hablante aprenderá a hablar sin dificultad salvo que su SN esté congénitamente mal
configurado; otra cosa será si desarrolla un vocabulario más o menos amplio, un acento u
otro o un dominio mayor o menor de los recursos lingüísticos para comunicarse.
También utilizó el término aprendizaje dependiente de la experiencia (EDL, del inglés
Experience Dependent Learning) para referirse a la adquisición de otras habilidades que
no son fundamentales para la supervivencia y que dependen del contexto concreto en el
que el sujeto se desarrolla, por ejemplo, el aprendizaje de la lectura depende de un
entrenamiento específico que puede tener lugar en un intervalo temporal mucho más
amplio, solo requiere práctica regular.

Se ha descrito con bastante precisión la existencia de periodos críticos en la


configuración temprana de los sistemas sensoriales, sin embargo, este concepto se usa
indiscriminadamente para muchos tipos de aprendizaje sin demostraciones empíricas
rigurosas (Hensch, 2004). Hay autores que diferencian entre periodos críticos prenatales
y postnatales, concediendo más flexibilidad a estos últimos. También es necesario
diferenciar qué tipo de proceso es el que está sometido a estos periodos, porque no es lo
mismo hablar de la adquisición del lenguaje que del desarrollo de la agudeza visual; según
de qué proceso hablemos, la rigidez temporal durante el desarrollo varía. Por ejemplo, la
diferenciación sexual en las primeras semanas del desarrollo embrionario depende de
manera estricta de la presencia o no de ciertas hormonas; si se inhibe la liberación de
testosterona durante unos pocos días concretos en un embrión con un cromosoma Y,
impediremos el correcto desarrollo de los caracteres sexuales masculinos (Sobel et al.,
2004). 0 la carencia de hormona tiroidea durante cierto periodo crítico en la
diferenciación neuronal puede ocasionar un cuadro de retraso mental que se conoce
como cretinismo (McEwen, 1999). Es estos casos sí parece existir una mayor
dependencia temporal ya que las condiciones ambientales adecuadas tienen que
producirse mientras determinados procesos neurofisiológicos están ocurriendo. Por otro
lado, nadie duda de que la privación de estimulación verbal durante el desarrollo impide
la correcta adquisición del lenguaje, pero concretamente ¿qué componentes lingüísticos
no se adquieren? El lenguaje depende de la adquisición de otras habilidades, por ejemplo,
discriminación auditiva, motricidad fina de los músculos fonoarticulatorios o memoria
explícita, por citar algunos. Pues bien, cada una de estas habilidades se adquiere y
desarrolla según su propio calendario por lo que la adquisición del lenguaje dependería de
todos ellos. Una persona privada de contacto humano hasta la pubertad pude tener
dificultades para adquirir las habilidades auditivas y fonoarticulatorias y desarrollar un

129
lenguaje defectuoso, pero sí lo suficientemente eficaz como para poder comunicarse.

Ya sabemos que no todas las áreas cerebrales tienen el mismo ritmo de maduración.
Esto significa que un circuito no puede madurar hasta que no lo hace el inmediatamente
anterior en la jerarquía funcional, es decir, aquel de donde recibe la mayoría de las
aferencias (Hensch, 2004). Teniendo en cuenta que no existe una organización secuencial
estricta en las vías de procesamiento, esto supone que la maduración cerebral que da
soporte al funcionamiento sensoriomotor y cognitivo depende de múltiples circuitos, cada
uno de ellos con un calendario de maduración propio. Según de qué proceso hablemos,
los supuestos periodos críticos no son intervalos temporales cerrados (a veces ni siquiera
en los procesos más básicos) por eso es preferible hablar de periodos sensibles del
desarrollo. Esto es especialmente aplicable al ámbito educativo donde tenemos que lidiar
con la adquisición de múltiples habilidades aparentemente sencillas pero que están
soportadas por la actividad sincrónica de múltiples circuitos nerviosos interconectados.

5.3. Desarrollo neurocognitivo


La adquisición progresiva de habilidades sensoriales, motoras, cognitivas y
emocionales va a depender del proceso de maduración de los respectivos circuitos que
las soportan. Los circuitos nerviosos son primero esbozados y después refinados y
ajustados; algo similar ocurre durante el desarrollo cognitivo. En la etapa infantil aparecen
muchas de estas habilidades pero en un estado rudimentario para después, con la práctica
y la experiencia, alcanzar un grado superior de ejecución. Hay que considerar que la
participación de diferentes circuitos en los procesos cognitivos supone que el periodo de
adquisición va a ser muy variable, con logros progresivos que se van integrando en una
ejecución cada vez más efectiva. En el proceso de maduración cerebral que ocurre
después del nacimiento, primero se organizan los circuitos locales mediante los procesos
ya descritos (sinaptogénesis, poda sináptica y mielinización) y después se van
configurando las proyecciones de larga distancia (Vogel et al., 2010). Esto es un paso
importante en el desarrollo neurocognitivo porque supone la integración funcional de
regiones cerebrales distantes y mayores posibilidades de asumir procesos cognitivos
complejos.

El psicólogo suizo Jean Piaget (1896-1980) es considerado el padre de la psicología


evolutiva por sus estudios sobre el desarrollo cognitivo en la infancia. Su teoría,
respaldada por multitud de observaciones y estudios, ha sido revisada a la luz de técnicas
de neuroimagen que permiten correlacionar la maduración cerebral con el progreso de las
etapas que él propuso. Esto ha reforzado algunos de sus postulados. El crecimiento
cerebral no es continuo, hay periodos en los que experimenta un crecimiento más rápido
y otros en los que se ralentiza (Epstein, 1979); pues bien, se ha encontrado una cierta
superposición entre estos periodos y las etapas propuestas por Piaget (figura 5.3). Sin
embargo, se cuestiona alguna de las conclusiones a las que llegó acerca de lo que eran
capaces de hacer o no los niños sobre todo en las etapas iniciales, ya que es posible que

130
si se les hubiera permitido realizar un mayor número de ensayos de una tarea, habrían
mejorado su ejecución. En las etapas preverbales surge el problema de que no siempre
podemos determinar si una habilidad está adquirida, tenemos que deducirlo.

Figura 5.3. Etapas del desarrollo propuestas por Piaget y periodos en los que se ha
documentado un desarrollo cerebral acelerado.

Se han publicado numerosos calendarios del desarrollo cognitivo en niños, así que no
vamos a añadir uno más, pero sí vamos a hacer algunas consideraciones al respecto en
tres dominios fundamentales para el proceso educativo, la motricidad, el lenguaje y la
memoria.

A) Motricidad
Los recién nacidos exhiben movimientos complejos que son autogenerados pero
desorganizados, que no tienen un objetivo concreto (flexión de las articulaciones o
reflejos como el de succión, chupeteo o prensión). Por ejemplo, los movimientos
oculares sacádicos se originan de manera refleja y se dirigen hacia estímulos externos sin
control interno; esto está en relación con el proceso de maduración cerebral ya que las
áreas corticales somatosensoriales lo hacen antes que las áreas visuales asociativas. En
torno a los tres meses, ya ha progresado bastante la mielinización en áreas asociativas y
el niño empieza a ejercer un cierto control inhibitorio sobre actos reflejos, a realizar
movimientos intencionados de cabeza y ojos, y conductas de alcance y agarre de objetos
(Goodkin, 1980). Aproximadamente a los seis meses aparece la transferencia mano-

131
mano, la capacidad de pasarse un objeto de una mano a otra, lo cual implica una mayor
coordinación funcional entre circuitos sensoriales, motores y asociativos. Esto nos
muestra cómo la mielinización, criterio de maduración, está estrechamente relacionada
con el progreso en habilidades de cualquier tipo.

En los dos primeros años el niño esboza la mayoría de las habilidades motoras básicas:
control de la postura y el equilibrio, marcha, manejo de las manos para manipular objetos
de manera eficiente o la realización simultánea de dos actos motores. El desarrollo motor
posterior es un perfeccionamiento de habilidades básicas que, en función de la práctica se
van a adquirir antes o después. Se trata de una progresión más o menos regular hasta
adquirir el patrón psicomotor del adulto; la posterior adquisición de destrezas motoras va
a depender de la práctica y la repetición, es decir, del entrenamiento. Aprender a montar
en bicicleta, a jugar al futbol o al tenis, a hacer malabares o a lanzar dardos, van a ser
consecuencia directa de las horas de práctica que dedique a ello. Además, el desarrollo
motor implica su integración con otras capacidades para dar lugar a conductas complejas
como las habilidades visomotoras.

B) Lenguaje
Para comprender cómo se adquiere el lenguaje hay que considerar que se trata de un
sistema complejo de comunicación mediante símbolos y sonidos que utilizamos para
transmitir ideas, pensamientos o significados. Al tratarse de un sistema complejo hay que
suponer que su base neuronal también lo sea, bastante más de lo que reflejan algunos
modelos explicativos.

El niño al nacer reacciona positivamente a la voz humana; en los primeros seis meses
se produce un intercambio vocal cada vez más rico porque el niño interacciona y emite
balbuceos y sonidos en respuesta al habla de los otros. Pero el desarrollo del lenguaje
implica funciones primarias y secundarias, las primeras se adquieren con facilidad si hay
estimulación adecuada (percepción y producción del habla); las segundas (lectura y
escritura) requieren práctica y repetición como ya vimos al hablar de periodos críticos. Y
es que no es lo mismo la percepción del habla que el procesamiento lingüístico complejo,
aunque sea la base sobre la que este se asienta (Kuhl, 2000). La experiencia y la práctica
van a contribuir al incremento de la especialización de diferentes áreas y la interconexión
entre ellas para el desarrollo de habilidades lingüísticas más complejas (Booth, 2007).
Igual que en el desarrollo motor, las habilidades lingüísticas básicas se adquieren relati
vamente pronto y, a partir de ahí, se produce un incremento del vocabulario y de la
habilidad para utilizar los recursos lingüísticos en la comunicación, papel en el que
también intervienen circuitos prefrontales. Todo ello, nuevamente, demuestra cómo la
progresiva maduración de circuitos cerebrales requiere de la estimulación adecuada para
alcanzar una configuración óptima.

C) Memoria

132
Si en el caso de la motricidad o del lenguaje es fácil comprobar el nivel en el que se
encuentra el niño, no ocurre lo mismo con la memoria. Con frecuencia se trata de
evaluar la memoria partiendo de modelos cognitivos consolidados para adultos pero que
en niños pueden no ser del todo equiparables. Aunque la tradicional disociación entre
memoria explícita (recuerdo de hechos y conocimiento) e implícita (aprendizaje de
habilidades y rutinas) puede tomarse como referencia, quizá en niños hay que considerar
algunos matices ya que, por ejemplo, carece de la base de conocimiento del adulto y
muchos de los estímulos que se le presentan le resultan nuevos.

La mayoría de los estudios coinciden en que la memoria implícita se adquiere antes


que la explícita. Un trabajo clásico de Bachevalier y Mishkin (1984) evaluó crías de
monos de diferentes edades en dos tareas, una que requería memoria implícita y la otra
explícita. Comprobaron que los monos de menor edad resolvieron correctamente la tarea
de memoria implícita mientras que la de memoria explícita solo se pudo resolver a edades
más avanzadas. Estos resultados van en concordancia con la idea de que la memoria
explícita requiere la maduración de las estructuras situadas en la parte medial del lóbulo
temporal, sobre todo el hipocampo. Sin embargo, una posibilidad alternativa es que
tengan dificultades para entender la lógica y las reglas de la tarea a realizar, es decir, que
el proceso deficitario dependa de circuitos prefrontales, también inmaduros. El
hipocampo es funcional poco después del nacimiento pero la conectividad con otras
estructuras del lóbulo temporal medial y con el córtex prefrontal requiere todavía tiempo
para que la memoria explícita sea plenamente operativa. Charles A.Nelson propugna la
existencia de un sistema de memoria preexplícita en los primeros seis meses de vida, el
cual se demostraría por medio de las reacciones del niño a la novedad (Nelson y Collins,
1992; Nelson y Salapatek, 1986), esto es, lo nuevo siempre llama más la atención que lo
conocido y se pude comprobar en el niño por los movimientos oculares y la orientación
de la cabeza hacia unos u otros objetos.

La memoria implícita sigue diferentes procesos y rutas por tratarse de habilidades más
heterogéneas. Este tipo de habilidades suelen adquirirse pronto y, al contrario que la
memoria explícita, hay poca mejoría en los siguientes años. En un estudio realizado para
confirmar este punto se evaluó a niños a los tres años en una tarea de primming
perceptivo (implícita) y otra de reconocimiento (explícita), comprobando que a los tres
años realizaban mejor la tarea de primming que la de reconocimiento. Dos años después
se comprobó que la ejecución en la tarea de reconocimiento había mejorado
considerablemente pero en la de primming seguía en los mismos niveles que en la
evaluación anterior (Bachevalier y Mishkin, 1984). La memoria explícita requiere la
maduración de diferentes circuitos del lóbulo temporal medial y de la corteza prefrontal,
pero la memoria implícita está soportada por circuitos más primarios cuya maduración es
más temprana.

Una última consideración. Aparte de los tres dominios referidos, es frecuente observar
que algunos estudios estiman que el desarrollo neurocognitivo culmina antes de llegar a la

133
adolescencia y que en esa etapa solo hay desórdenes hormonales, búsqueda de
sensaciones, sexo, alcohol y problemas escolares. Nada más alejado de la realidad si
consideramos que la cognición es algo más que lenguaje y memoria. Una de las
características del desarrollo neurocognitivo en la adolescencia es la capacidad, o
habilidad, para dirigir la conducta hacia un objetivo, algo para lo que es necesario inhibir
acciones o pensamientos inapropiados y rechazar gratificaciones inmediatas que
comprometen el logro final (Casey et al, 2005). Algunos científicos aceptan que el
desarrollo cognitivo es básicamente una consecuencia del incremento en la eficiencia y
velocidad del procesamiento de la información, mientras que otros consideran que el
desarrollo (o adquisición) de la capacidad de inhibición es un elemento fundamental para
alcanzar determinadas habilidades cognitivas de orden superior (Casey et al. 2008). Ya
hemos comentado que los circuitos prefrontales son los que se mielinizan, y por tanto
maduran, más tarde y son los responsables del funcionamiento ejecutivo (toma de
decisiones, planificación o inhibición conductual, por ejemplo). El proceso de
mielinización de las fibras que conectan la corteza prefrontal con la corteza parietal
correlaciona positivamente con el incremento de la capacidad de autocontrol en
adolescentes con respecto a niños (Nagy et al., 2004) ya que hay menor mielinización y
menor autocontrol cuando son más jóvenes. La conducta dirigida a un objetivo, algo que
se identifica con el comportamiento adulto, requiere control de impulsos y aplazamiento
de gratificaciones para conseguir resultados óptimos en ese camino. La impulsividad
intrínseca disminuye con la edad durante la adolescencia (aunque no lo parezca), algo
relacionado con la progresiva maduración de los circuitos prefrontales. Sin embargo,
existen otros factores que determinan por qué no todos los adolescentes controlan igual
su impulsividad y adquieren el autocontrol necesario para conseguir determinadas metas.
Factores emocionales y sociales sobre todo, pero veremos algo de todo ello en los
últimos capítulos.

5.4. Vulnerabilidad del sistema nervioso durante el desarrollo


Desde el momento de la fecundación del óvulo por el espermatozoide existen riesgos
que pueden comprometer el desarrollo del SN y ocasionar un amplio abanico de
alteraciones estructurales y funcionales. Buena parte del desarrollo está determinado por
la dotación genética del cigoto, pero en esos genes solo está determinado el resultado
potencial no el real de lo que va a ser el proceso de desarrollo; van a ser el entorno y sus
influencias los que determinen si ese potencial cristaliza o no. Un niño puede poseer
genes para desarrollar unos buenos dientes pero si después sufre carencias de calcio o
una alimentación inadecuada padecerá todo tipo de problemas dentales. Factores como la
nutrición, la exposición a toxinas, la higiene o la salud general de la madre pueden
modificar la actividad epigénetica e incidir sobre la activación o no de determinados
genes. Por otro lado, también el entorno social y afectivo puede inducir la presencia de
componentes bioquímicos (por ejemplo, estrés maternal, deprivación o maltrato) que
influyan en la actividad genética a la hora de expresar sus correspondientes productos
ocasionando diferentes alteraciones. Lógicamente, el grado y la diversidad de estas

134
alteraciones no pueden conocerse hasta que llega la etapa evolutiva correspondiente, pero
sí podemos hacernos una idea a partir de las características del daño ocasionado. Hay
dos aspectos clave en la determinación de los efectos de cualquier evento sobre el
desarrollo, el momento de la incidencia y la duración de la exposición. En general, la
incidencia en una etapa temprana del desarrollo y un mayor tiempo de exposición
suponen peor pronóstico evolutivo del daño ocasionado.

Una dotación genética anómala puede ser la primera causa de un TND. Las formas en
que se puede manifestar una dotación genética anómala son diversas, pero básicamente
podría tratarse de que un gen esté defectuoso y no cumpla adecuadamente su función o
de la presencia de alelos "patológicos" que puedan contribuir al desarrollo de algún tipo
de alteración. Como vimos anteriormente, también puede estar alterada la dotación
cromosómica, en cuyo caso hablaríamos de multitud de genes afectados. Estas
alteraciones cromosómicas pueden ser numéricas (síndrome de Down, síndrome de
Tumer...) o estructurales (Cri du chat, deleción de un fragmento en el cromosoma 5;
síndrome de Angelman, deleción de un fragmento del cromosoma 15). En todos estos
casos, nos encontramos con una configuración anómala de los circuitos nerviosos (y de
otros tejidos del organismo) cuyas manifestaciones serán variables pero con un alto grado
de superposición, es decir, un mismo síntoma o manifestación clínica puede observarse
en diferentes síndromes.

El desarrollo embriofetal pasa por diferentes periodos de vulnerabilidad según sea el


tipo de evento o agente agresor y el órgano o tejido de que se trate. Sabemos que el
desarrollo es heterocrónico por lo que en el momento de una agresión externa aquellos
órganos que estén en pleno desarrollo serán más vulnerables que los que lo hayan
completado o no lo hayan iniciado. Esto es aplicable al SN puesto que ya sabemos que
las diferentes estructuras y circuitos siguen calendarios específicos. Cualquier error en los
procesos celulares ya descritos (proliferación, migración...) va a afectar a la correcta
configuración de los circuitos. Por ejemplo, la lisencefalia, un trastorno en el que el
cerebro carece del habitual relieve de surcos y circunvoluciones y que puede ocasionar
retraso mental e, incluso, la muerte en la infancia, está producida por errores en la
migración neuronal que permite la formación de la corteza cerebral (Olson y Walsh,
2002). Una apoptosis insuficiente o una poda sináptica deficitaria pueden ocasionar el
desarrollo anormalmente grande de ciertas regiones del cerebro y ser causa de trastornos
motores, lingüísticos, cognitivos e, incluso, de sintomatología autista (Courchesne et al.,
2001). Los agentes ambientales que pueden interferir en estos procesos son variados,
pero hay algunos especialmente relevantes porque pueden ocasionar alteraciones en
todos los procesos como el envenenamiento por mercurio o plomo, la exposición a rayos
X o el consumo de alcohol (Rice y Barone, 2000). La mielinización es un proceso
sensible a los efectos del etanol tanto en el periodo prenatal tardío como durante el
desarrollo postnatal. En realidad, la formación de la mielina, por ser un proceso tan
extenso en el tiempo, está expuesta a múltiples agresiones. Los oligodendrocitos, las

135
células gliales que proporcionan la mielina en el SN central, son muy sensibles a los
efectos adversos de otras drogas, de malnutrición durante el embarazo, de ciertas toxinas,
hipoxia o prematuridad, todo lo cual puede alterar la formación de mielina y llegar a
producir, según el momento en el que ocurra, parálisis cerebral o retraso mental (Back et
al., 2001).

No todo el peligro para la integridad del SN depende de la dotación genética y de las


posibles agresiones durante el embarazo. El periodo perinatal (en tomo al parto, desde
unos días antes hasta que el niño es fisiológicamente estable) y el desarrollo postnatal
también son etapas en las que el SN (no olvidemos, todavía en desarrollo) puede sufrir
agresiones. El parto es un momento muy delicado porque tienen lugar una serie de
acontecimientos cruciales, como el paso a la respiración autónoma o el cruce del canal
del parto, algo traumático para el niño y que no siempre se realiza de un modo natural y
exento de sufrimiento para él y para la madre. La anoxia (falta de oxígeno) durante el
parto es una causa frecuente de parálisis cerebral y otras encefalopatías, pero también es
un momento de exposición crítica a posibles agentes infecciosos. A lo largo de las
diferentes etapas del desarrollo postnatal el niño puede padecer enfermedades, sufrir
traumatismos o verse expuesto a sustancias que afecten al desarrollo nervioso; no
siempre es posible prevenir cualquier eventualidad. Sin embargo, sí es posible controlar
un aspecto tan cotidiano como la nutrición. Los problemas nutricionales, tanto prenatales
como postnatales, no siempre van a poner en peligro la vida del niño pero sí pueden
ocasionar alteraciones sutiles que condicionen su desarrollo cognitivo, emocional y social
(Holden, 2007). La nutrición afecta a la función cerebral a lo largo de la vida; esto ha
provocado un creciente interés por estos aspectos dando lugar a lo que se conoce como
neurociencia nutricional (Williams, 2008) para conocer en qué medida la carencia o el
desequilibrio de nutrientes puede afectar al estatus cognitivo y emocional del individuo.

La adolescencia parece una etapa segura para el desarrollo cerebral; muchas funciones
cognitivas se han adquirido y se manifiestan correctamente, el desarrollo social es
evidente y el rendimiento académico parece depender más de otros factores. Sin
embargo, el cerebro adolescente todavía posee áreas en desarrollo. La corteza prefrontal
no ha culminado su maduración y es la responsable de nuestra forma de ser, de las
decisiones que tomamos, de las metas que nos fijamos o del modo en que nos adaptamos
a nuestra sociedad. Es una etapa en la que culmina la poda sináptica y la mielinización en
estos circuitos, procesos que pueden verse afectados de formas diversas. El consumo de
sustancias, sobre todo el alcohol, afecta a la manera en que se configuran los circuitos
prefrontales y además de alteraciones cognitivas (García-Moreno et al., 2008; Sanhueza
et al., 2011), también puede ocasionar otras más sutiles que tienen que ver con una
merma generalizada de las capacidades y una reducción del potencial futuro del
adolescente. La capacidad de organización o de aprender y diseñar estrategias para
desarrollar una labor profesional, para tomar decisiones fundamentales para el futuro o
para relacionamos de un modo positivo con los demás pueden quedar alteradas. Es un

136
aspecto que resulta difícil de valorar porque no tenemos el elemento de comparación, es
decir, no podemos determinar dónde habría llegado un individuo o qué habría conseguido
si no hubiera consumido alcohol en exceso durante la adolescencia. No obstante, sí
parece que se compromete el desarrollo de estas funciones.

Por último, hay un aspecto que no siempre se toma en consideración pero que cada
vez está adquiriendo más relevancia sobre todo para la valoración de riesgos o para el
control de efectos sociosanitarios. Se trata de la neurotoxicidad diferida de latencia larga,
es decir, el potencial de ciertos agentes neurotóxicos para inducir alteraciones nerviosas
(o en cualquier otro sistema del organismo) mucho tiempo después de que haya cesado la
exposición. Estos efectos pueden manifestarse en dos direcciones, por un lado,
retrasando la normal adquisición de ciertas funciones o en forma de amenaza latente,
esto es, las alteraciones anatómicas y funcionales pueden permanecer enmascaradas o
atenuadas como consecuencia de la plasticidad neuronal durante el desarrollo y provocar
posteriores secuelas sensoriomotoras, cognitivas o emocionales difícilmente achacables a
la agresión temprana. Un ejemplo es la intoxicación por un contaminante ambiental, el
metilo de mercurio o metil-mercurio, que ocasiona neurotoxicidad diferida caracterizada
por alteraciones motoras y deterioro sensorial (Rice, 1996). Hay otros ejemplos no tan
evidentes (ver Rice y Barone, 2000) y sometidos a cuestionamiento sobre todo por las
dificultades metodológicas que supone establecer relaciones causa efecto entre eventos
tan distantes en el tiempo. Hay modelos animales que sí justifican estas asociaciones pero
no siempre son equiparables los protocolos experimentales a la exposición natural. No
obstante, es un tema recurrente que debe ser tenido en consideración de cara al control
de ciertos agentes potencialmente peligrosos para el desarrollo humano.

137
138
La psicobiología es mucho más que el estudio de la estructura y el funcionamiento del
cerebro, sin embargo, el conocimiento de estos contenidos es fundamental para
comprender los correlatos biológicos más inmediatos de la conducta humana. Unas
nociones básicas de cómo el cerebro procesa información facilitará el aprendizaje a la
hora de abordar los procesos sensoriomotores, cognitivos y emocionales. Para mantener
la nomenclatura adoptada en el capítulo 4, seguiremos considerando cerebro al
telencéfalo y al diencéfalo. No hay que olvidar que suele considerarse como tal al tejido
nervioso que está dentro del cráneo pero la inclusión explícita de las estructuras del
tronco del encéfalo no siempre queda clara. Ya hemos conocido de manera superficial su
anatomía pero en este capítulo queremos profundizar un poco más en sus características
funcionales, sobre todo en aspectos básicos del funcionamiento de los circuitos cerebrales
porque en los capítulos siguientes nos iremos sumergiendo en la participación de dichos
circuitos en procesos más complejos.

A veces resulta difícil imaginar la complejidad del cerebro humano, cuesta trabajo
comprender que toda esa funcionalidad es el resultado de la actividad de millones de
neuronas y de células gliales que conforman algo menos de kilo y medio de grasa y agua.
Más extraordinario resulta ser conscientes de que procesos tan complejos como la
memoria, el razonamiento o las emociones son el resultado de la actividad de complejas
redes de neuronas interconectadas entre sí. A modo de ejemplo, veamos algunos datos
que pueden ser motivo tanto de sorpresa como de reflexión (tomados de Viaje al
universo neuronal, 2007; Madrid, FECYT).

-El cerebro representa en tomo al 2% del peso corporal pero consume alrededor del
20% de toda la energía corporal.

-El número de neuronas en el cerebro, por término medio, es de cien mil millones (es
decir, 1011). Esto se traduce en 1014 contactos sinápticos.

-El número de células gliales puede oscilar entre 10 y 50 veces el número de neuronas.

-Un milímetro cúbico de sustancia gris cortical contiene 50.000 neuronas y 3


kilómetros de axones

-Si extendemos la corteza cerebral, alcanza una superficie de 2.500 cm2 con un
espesor que varía desde 1,3 a 4,5 mm.

139
-Si pusiéramos en fila todos los axones mielinizados del SN, alcanzaríamos una
longitud de entre 150.000 a 180.000 kilómetros; daría 14 veces la vuelta al mundo.

-Aproximadamente, las mujeres tienen unos diecinueve mil millones de neuronas en la


corteza cerebral, mientras que los hombres tienen unos veintidós mil ochocientos
millones. De todas ellas, perdemos una por segundo, más o menos, unas 85.000 al
día.

En los últimos tres millones de años el cerebro humano ha evolucionado y aumentado


su tamaño de manera considerable. Algunas áreas como los lóbulos frontales y parietales
han crecido más que otras. La corteza cerebral es la región más evolucionada y la que se
ocupa de los procesos superiores. El cerebro está formado por dos mitades
aparentemente simétricas, los hemisferios cerebrales, unidos por el cuerpo calloso. Cada
hemisferio cerebral se encarga de controlar uno de los lados del cuerpo y lo curioso es
que lo hacen de forma cruzada. El cerebro funciona como un todo, pero a su vez, tiene
áreas especializadas que están más relacionadas con una función que con otras.
Pasaremos por todo ello con un poco de detalle.

6.1. Evolución del cerebro


El cerebro humano es el resultado de un largo proceso filogenético. La evolución de las
especies ha dado lugar a distintos animales, con distintos cuerpos y distintos cerebros, lo
cual da lugar a diferentes formas de interacción con el medio. Si comparamos los
cerebros de varias especies cercanas al ser humano podemos encontrar una organización
bastante similar (poseen los mismos componentes) pero también numerosas diferencias.
El ser humano, en comparación con otras especies de primates, ha sido capaz de crear,
acumular y transmitir aprendizajes de generación en generación para facilitar la
adaptación de sus descendientes. Esta capacidad es el resultado del desarrollo de una
arraigada conducta prosocial y cooperativa en los seres humanos, además de su
capacidad para el lenguaje y el manejo de símbolos, herramientas fundamentales para
comunicar el conocimiento (Whiten y Erdal, 2012). Genéticamente estamos muy cerca
de los demás primates (una distancia genética inferior al 5%), sin embargo, el desarrollo
cerebral entre nuestra especie y las demás es lo que ha marcado la diferencia y lo que ha
permitido el salto cualitativo.

El tamaño del cerebro en general y de cualquiera de sus estructuras en particular es un


indicador de la complejidad de los procesos que soportan. Pero el cerebro humano no es
el más grande de todos ya que tiene un volumen aproximado de 1.400 cm3 (350-400 en
el recién nacido) y hay otras especies que lo tienen más grande, como las ballenas o los
elefantes. Una vez descartado el tamaño cerebral como indicador de éxito evolutivo, se
pensó en la proporción entre el cerebro y el tamaño corporal, y aunque aquí el ser
humano mejoraba su posición con un 2,3% de promedio (el elefante está en el 0,2%)
tampoco se situaba en la cúspide evolutiva: la musaraña alcanza el 3,3%. Por este motivo

140
fue necesario establecer otro indicador que permitiese la comparación entre especies
(antes que aceptar la derrota). El cociente de encefalización (CE) relaciona el tamaño del
cerebro con el tamaño corporal pero no es un simple porcentaje volumétrico. Esta es la
fórmula para su cálculo:

Esta fórmula, propuesta por Jerison (1973), compara el tamaño real del cerebro con el
tamaño esperable en un animal prototípico de esa especie. De manera convencional,
toma como referencia un mamífero promedio, en este caso el gato, que tiene asignado un
CE = 1; para el resto de las especies se establece el peso promedio tanto del cerebro
como del cuerpo y se aplica la fórmula. Entonces, el CE nos indica la distancia positiva o
negativa con respecto al mamífero promedio, el gato. De este modo, valores superiores a
1 indican un cerebro mayor de lo esperado, mientras que valores inferiores a 1 significan
que el cerebro de esa especie es más pequeño de lo esperado. Así, frente a un CE = 7,3
del ser humano, otros animales como el chimpancé están algo más lejos con 2,48 pero
con un cerebro mayor de lo esperado igual que el delfín (4,5), el elefante (1,3) o el perro
(1,2). En el lado contrario, especies con un cerebro menor de lo esperado estarían la rata
(0,4), la oveja (0,8), el caballo (0,9) o la ballena (0,37). No podemos interpretar estos
datos en términos de animales inteligentes frente a animales estúpidos; el éxito evolutivo
depende de la capacidad de adaptación al medio y las estrategias que desarrollan las
diferentes especies para hacerlo no siempre dependen de tener un cerebro más grande.

Si tomamos en consideración la relación entre el tamaño cerebral y el del cuerpo en la


mayoría de los primates, el tamaño del cerebro humano debería ser un 50% mayor que
el de los chimpancés, sin embargo es aproximadamente el doble (Marino, 1998). El
incremento del volumen cerebral es consecuencia del aumento en el número de
neuronas, algo que marca una aceleración del crecimiento cerebral tanto durante el
desarrollo embriofetal como en las etapas postna tales (Zollikofer y Ponce de León,
2010). Pero parece que el mero incremento del número de neuronas no explicaría por sí
solo las diferencias en el desarrollo cognitivo de los seres humanos con respecto al resto
de los primates. Varios trabajos de investigación han encontrado otras diferencias que
podrían contribuir a la explicación (Somel et al., 2013). Por ejemplo, han encontrado una
ratio neurona/glía mayor, mayor densidad de las ramificaciones dendríticas y axonales o
una configuración específicamente humana del fascículo arqueado, una vía que juega un
papel fundamental en el lenguaje porque comunica las áreas receptivas (Wernicke) con
las responsables del habla (Broca). El desarrollo del cerebro en humanos y en otros
primates no ha seguido un curso homogéneo y algunas de las principales diferencias se
justifican por el desarrollo de la corteza cerebral, estructura que experimenta un notable
crecimiento. La expansión del cerebro durante la evolución humana se ha centrado
principalmente en las áreas corticales asociativas de orden superior, incluyendo las

141
localizadas en los lóbulos frontales y parietales.

La corteza cerebral, sobre todo una parte filogenéticamente más nueva que se conoce
como neocórtex, es el sustrato neurobiológico de los procesos mentales humanos. Su
curso evolutivo es más heterogéneo que el observado en el resto de estructuras
cerebrales y aunque en la corteza cerebral de los mamíferos podemos encontrar una
división funcional básica más o menos similar para todas las especies, se han incorporado
modificaciones que han ido diferenciando unas especies de otras. Así, las áreas visuales
se encuentran en el lóbulo occipital, las auditivas en el temporal o las motoras en el
frontal, pero en las especies más simples la organización estructural y funcional de estas
regiones es bastante homogénea, mientras que en animales con un repertorio conductual
más complejo cada lóbulo puede dividirse a su vez en numerosas subáreas. Durante la
evolución, algunas áreas funcionales de la corteza cerebral han incrementado su tamaño
pero, además, han aparecido nuevas áreas que no tienen correlato filogenético en
especies inferiores (Felleman y Van Essen, 1991). Por ejemplo, la región visual del gato
tiene unas 12 subáreas diferenciadas mientras que en el ser humano se han identificado
hasta 30. Esta subdivisión implica que cada una de estas subáreas se ocupa de una
función concreta dentro del procesamiento visual, por lo que el crecimiento de la corteza
cerebral humana no solo afecta al tamaño sino también a la complejidad funcional. Por
otro lado, las áreas de Broca y Wernicke del cerebro humano no tienen un correlato ni
anatómico ni mucho menos funcional en el cerebro de roedores (Rakic, 2009). Esto
significa que el proceso evolutivo en la corteza cerebral no solo implica incremento del
número de neuronas sino también una nueva configuración de sus conexiones. Además,
podemos observar el proceso contrario, áreas que reducen su tamaño y que,
sospechamos, han unificado subáreas. Esto puede apreciarse comparando la evolución
del tamaño y complejidad de las áreas olfativas y visuales en los mamíferos, que han
seguido una progresión inversa; a medida que aumenta la corteza visual disminuyen las
áreas olfativas, consecuencia de una progresiva dependencia de la visión en detrimento
del olfato para sobrevivir y adaptarse. Por ejemplo, se puede observar en la escala
evolutiva de los mamíferos comparando la capacidad olfativa y visual entre perros y
chimpancés.

El desarrollo de la corteza cerebral está en la base de las grandes diferencias que nos
separan de las especies más próximas. El desarrollo de la agricultura y la cría de
animales, la lectura, la escritura o la pintura suponen un salto cualitativo y cuantitativo
extraordinario que ha ocurrido hace menos de 10.000 años. La revolución tecnológica se
inició hace unos 500 años y en las últimas décadas la creatividad humana, para bien y
para mal, parece no conocer límites. Todo ello es gracias a la capacidad operativa de
unos pocos centímetros cúbicos de neuronas y células gliales que se conectan entre sí y
conforman la corteza cerebral humana.

6.2. Organización y funcionamiento cerebral

142
En el capítulo 4 conocimos a grandes rasgos la organización del SNC diferenciando en
los hemisferios cerebrales entre la corteza cerebral, las estructuras subcorticales y sus
conexiones a través de las fibras que conforman la sustancia blanca. A lo largo de los
siguientes capítulos haremos referencia a estas estructuras en relación con sus
implicaciones funcionales, por eso creemos oportuno ampliar un poco la descripción de
las mismas.

6.2.1. Hipocampo, amígdala y ganglios basales


El hipocampo está situado en la cara interna del lóbulo temporal y es una estructura
longitudinal y curvada como consecuencia del crecimiento envolvente del telencéfalo,
característica que comparten todas las estructuras alargadas en los hemisferios cerebrales
(por ejemplo, el cuerpo calloso o el núcleo caudado). En realidad sería más correcto
hablar de formación hipocámpica puesto que son varias estructuras diferenciadas las que
lo componen. Consiste en dos capas de neuronas interpuestas en forma de dos "C"
enfrentadas: la capa de neuronas granulares del giro dentado (GD) y la de neuronas
piramidales del cuerno de Ammón (CA) y el subículo. A su vez, el CA se puede
subdividir en cuatro regiones atendiendo a las características celulares y conectivas, CA1,
CA2, CA3 y CA4 (figura 6.1). Las principales conexiones internas en el hipocampo están
organizadas secuencialmente, de manera que el GD proyecta a CA3, esta a CA1 y esta al
subículo (CA2 y CA4 se consideran zonas de transición entre diferentes tipos
neuronales). La corteza entorrinal (CENT), en la cara interna del lóbulo temporal, envía
proyecciones al hipocampo; de hecho, es su principal aferencia. Pero además, esta región
cortical recibe aferen cias hipocámpicas, es decir, envía información que luego recibe de
vuelta procesada por los circuitos internos del hipocampo (Witter, 2001). La CENT
recibe proyecciones de las áreas asociativas de la corteza cerebral, por lo tanto, el
hipocampo recibe información, vía CENT, relativa a lo que ocurre tanto en el interior
como en el exterior del organismo y la devuelve procesada. Esto es lo que da pie a
considerar el papel fundamental del hipocampo en el almacenamiento de los recuerdos.

143
Figura 6.1. Formación hipocámpica y sus conexiones. En la parte superior se muestra el
esquema de las dos capas neuronales y en la inferior el diagrama de conexiones básicas.

La amígdala es una masa de sustancia gris situada en la porción mediodorsal del lóbulo
temporal, por delante del hipocampo. También en este caso está formada por diferentes
grupos de núcleos. Por un lado, el grupo corticomedial en el que se suele incluir el núcleo
central de la amígdala y, por otro, el grupo basolateral más grande y mejor diferenciado
en humanos (figura 6.2). El grupo corticomedial es filogenéticamente más antiguo y
mantiene conexiones con el bulbo olfatorio y otras estructuras troncoencefálicas. El
grupo basolateral está mucho más desarrollado, es filogenéticamente más reciente y
mantiene amplias conexiones con el tálamo y la corteza cerebral. Ambos grupos
nucleares proyectan al núcleo central, el cual mantiene importantes conexiones recíprocas
con el hipotálamo. Sabiendo que la amígdala juega un papel fundamental en el
comportamien to emocional, esto permite comprender cómo determinadas emociones
(por ejemplo, el miedo) provocan respuestas neurovegetativas (taquicardia, boca seca,
respiración agitada...) propiciadas por el hipotálamo.

144
Figura 6.2. Esquema básico de las principales conexiones en la amígdala. BL: grupo
basolateral; C: núcleo central; CM: grupo corticomedial.

Ni el hipocampo ni la amígdala se pueden considerar estructuras subcorticales en


sentido estricto, ya que en ambos casos incluyen zonas configuradas como un tipo de
corteza cerebral filogenéticamente antigua que, a diferencia del neocórtex (corteza
nueva), no presenta una organización estratificada homogénea. No obstante, es frecuente
aludir a ellas con esta denominación ya que, al tratarse de estructuras complejas con
diferentes subáreas, parte de ellas sí cumplen el requisito de localizarse "bajo la corteza
cerebral".

Los ganglios basales incluyen un grupo de núcleos subcorticales conectados entre sí y


con la corteza cerebral que participan en procesos motores y cognitivos.
Tradicionalmente se considera como tal al núcleo caudado, el putamen y el globo pálido,
sin embargo, también se suelen incluir otros núcleos como la sustancia nigra, el núcleo
subtalámico o el núcleo accumbens (figura 6.3). El globo pálido se divide en una porción
interna y otra externa, las cuales presentan algunas diferencias citoarquitectónicas y
conectivas. El núcleo caudado y el putamen forman el núcleo estriado (o neoestriado).
La mayor parte de las neuronas de los ganglios basales utilizan el neurotransmisor
GABA, por lo que estas áreas se consideran fundamentalmente inhibidoras. Se han
identificado varios circuitos en los ganglios basales pero todos parecen seguir un patrón
similar: el estriado recibe proyecciones corticales, conecta con el globo pálido y este lo
hace con el tálamo que envía eferencias nuevamente a la corteza cerebral (Parent y
Hazrati, 1995). Además, el estriado mantiene conexiones recíprocas con la sustancia
nigra y el globo pálido lo hace con el núcleo subtalámico. Obviamente, la conectividad de
los ganglios basales es mucho más compleja que lo aquí descrito pero basta para

145
hacemos una idea del bucle funcional que implica a estos tres componentes (Corteza
cerebral, tálamo y ganglios basales) y al que aludiremos más adelante.

Figura 6.3. Esquema básico de las principales conexiones en los ganglios banales. GPe:
globo pálido externo; GPi: globo pálido interno; NC: núcleo caudado; PTM: putamen;
SN: sustancia nigra; Sub: núcleo subtalámico.

6.2.2. Corteza cerebral


La corteza cerebral es una delgada capa de sustancia gris que recubre la totalidad de
ambos hemisferios cerebrales y es la estructura filogenéticamente más reciente del SN.
Es la responsable del procesamiento sensorial, de la motricidad voluntaria, de los
procesos cognitivos complejos, de las emociones o de la consciencia.

Con frecuencia, en diferentes textos se suele llamar de maneras diversas a las mismas
regiones corticales, algo que complica la comprensión a aquellos que no están
familiarizados con las diferentes nomenclaturas. Por ejemplo, se puede utilizar una
denominación topográfica (circunvolución precentral, situada por delante del surco
central), citoarquitectónica (corteza agranular), eponímica (área 4 de Brodmann) o
funcional (corteza motora primaria) para referirse a la misma región cortical. Una de las
representaciones más populares de la corteza cerebral se la debemos al neurólogo alemán
Korbinian Brodmann (1868-1918), quien en 1909 publicó una monografía en la que
describió 43 áreas corticales atendiendo fundamentalmente a criterios citoarquitectónicos
(Zilles y Amunts, 2010) (figura 6.4). Este mapa cortical sigue siendo utilizado como

146
medio de referencia para las localizaciones corticales, aunque ha experimentado algunas
actualizaciones necesarias que, entre otras cosas, han aumentado el número de áreas y
han cartografiado con más detalle las zonas situadas en el interior de los surcos, una
porción cortical cuya extensión supone dos tercios del total.

147
Figura 6.4. Áreas citoarquitectónicas de Brodmann.

En el ser humano, la mayor parte de la superficie cortical es filogenéticamente más


reciente (neocórtex) y posee una organización laminar más o menos homogénea con seis
capas de células; se denomina isocórtex. Una porción cortical filogenéticamente más
antigua, el alocórtex, es un tipo de corteza más simple, con un número variable de capas
según las zonas y característica del hipocampo y la corteza olfatoria. Desde un punto de
vista evolutivo, la aparición del isocórtex en el telencéfalo es una característica
relativamente tardía y tienen que ver con el crecimiento cortical al que nos hemos
referido en apartados anteriores. Además, hay que tener en cuenta que la variabilidad de
unas zonas del neocórtex a otras es muy alta porque hay importantes diferencias en la
densidad cortical.

A partir de diversos estudios con monos y humanos, la corteza cerebral se ha dividido


en varias regiones según sus características citoarquitectónicas:

-Límbicas y paralímbicas: forman una especie de anillo que separa las estructuras más
primitivas del SNC de las más nuevas, por ejemplo, las áreas de Brodmann
comprendidas entre la 23 y la 33 (23B, 24B, etc.).

-Corteza primaria sensoriomotora: áreas a donde llegan las proyecciones talámicas, en


el caso de las sensoriales, o de donde parten las proyecciones motoras que se
dirigen al tronco del encéfalo o la médula espinal. Así, el área visual primaria se
corresponde con el área 17B, la auditiva con la 41B, las áreas 1B, 2B y 3B
contienen la corteza somatosensorial primaria y el área motora está en 4B. Hay que
precisar que la correspondencia funcional de las áreas de Brodmann no es precisa y
que su utilización es para facilitar las localizaciones.

-Corteza de asociación unimodal: estas regiones se localizan junto a las áreas primarias
y las neuronas que las conforman responden preferentemente, y a veces
exclusivamente, a impulsos de una única modalidad sensorial, ya que reciben
aferencias de las áreas primarias respectivas. Por ejemplo, 18B y 19B son áreas
asociativas visuales, 42B es auditiva y 5B es somatosensorial. En el caso de la
corteza motora hay que considerar que las proyecciones van en sentido contrario,
ya que la corteza primaria no se caracteriza por recibir aferencias sino por emitir
eferencias. En este sentido, podemos considerar corteza motora de asociación
unimodal las regiones 6B y 44B de donde parten la mayoría de las señales que
recibe la corteza motora primaria.

-Corteza de asociación heteromodal: son regiones que se ubican en la intersección de


áreas unimodales o en la porción más anterior del cerebro. Las neuronas de estas
áreas responden a estímulos de diferentes modalidades ya que las aferencias
provienen de áreas unimodales y de heteromodales. Son ejemplos de áreas

148
heteromodales 9B y IOB en el lóbulo frontal, 39B y 40B en lóbulo parietal o 21B y
37B en el lóbulo temporal.

Desde siempre se han realizado intentos por establecer una correlación más o menos
fiable entre función y estructura cerebral con el fin de construir una cartografía funcional
del cerebro que nos permita conocer mejor la conducta. Ya hemos hecho referencia a
este asunto pero consideramos oportuno reiterarlo después de las alusiones que hemos
hecho a la correspondencia entre áreas de Brodmann y atribuciones funcionales, sobre
todo sensoriomotoras. En próximos capítulos nos referiremos de manera más detallada a
estos procesos e intentaremos precisar qué tipo de correspondencia hay en realidad.

6.2.3. Organización de los circuitos cerebrales


Una neurona se comunica con otra neurona y ya tenemos un esbozo de un circuito
cerebral; si a esto le añadimos un receptor y una fibra muscular tenemos el circuito
nervioso más sencillo, el que propicia una respuesta refleja como cerrar el párpado ante
un soplo de aire o estirar la pierna cuando nos golpean en la rodilla con un martillo de
reflejos. Claro que este tipo de reflejos implica a muchas neuronas pero con esa
organización, neuronas sensoriales que estimulan a neuronas motoras. A veces, entre
ambas neuronas se interpone una tercera que se conoce como interneurona, o más de
una, y el circuito empieza a adquirir complejidad porque esas neuronas se pueden
relacionar entre sí de muchas maneras. Podríamos considerar que la mayoría de las
neuronas que hay en el cerebro son interneuronas porque a él llegan las vías sensoriales y
de él salen las motoras, pero entre unas y otras se interponen miles de millones de
interneuronas. Los circuitos o redes neuronales son conjuntos de neuronas
interconectadas entre sí con diferentes grados de complejidad capaces de soportar
representaciones mentales acerca del mundo, del propio organismo y de la interacción
entre ambos. Los circuitos de la corteza cerebral son el principal soporte de
representaciones que son utilizadas en procesos como la percepción, la memoria y el
aprendizaje, la actividad motora o la toma de decisiones entre otros (De Charros y Zador,
2000), aunque el modo en que lo hace es poco conocido aún.

Hay un principio básico en la funcionalidad neural: la secuencia que se sigue en el


procesamiento de la información requiere una señal (o señales) de entrada que son
integradas para generar una respuesta (Kolb y Wishhaw, 2002). Este principio se puede
observar desde los niveles más elementales (neurona) hasta los sistemas más complejos
(cerebro o SN como un todo). Ya hemos visto que una neurona puede recibir miles de
contactos sinápticos procedentes de otras neuronas e integrarlos parta generar una señal
de salida que transmite a otras células; pues algo similar ocurre con el cerebro, que
integra múltiples señales procedentes de diversos canales sensoriales para poner en
marcha una conducta. Todas las vías que transmiten información sensorial, menos la
olfativa, hacen relevo en el tálamo y terminan en diferentes regiones de la corteza
cerebral (visual, auditiva, so matoestésica), pero luego necesitan ser integradas para

149
programar una conducta y llevarla a cabo de manera eficaz. La alta densidad de
intemeuronas que posee la corteza cerebral permite la integración de señales diferentes e,
incluso, las relaciona con otras procedentes de receptores internos o con lo almacenado
en nuestra memoria. Cuando oigo sonar el teléfono y veo quién me llama, reconozco a la
persona, experimento una emoción y decido pulsar o no la tecla para contestar.

La mayor parte de las neuronas del neocórtex son piramidales con funciones
excitatorias (70-80%) mientras que las demás son interneuronas con diferentes
características morfológicas o fisiológicas; muchas de estas interneuronas corticales son
inhibitorias (Markram et al., 2004). Las vías excitatorias que conforman los axones de las
neuronas piramidales pueden ser de dos tipos, pequeños axones que sinaptan cerca del
lugar donde se encuentra el soma de la neurona y proyecciones a larga distancia bien a
otras áreas corticales o a otras estructuras fuera de la corteza cerebral. Por su parte, las
interneuronas configuran circuitos locales con funciones principalmente inhibidoras que
contribuyen a dotar de cierta sincronía a esa red local, al menos en algunas regiones
(Klausberger y Somogyi, 2008). Se establece un cierto equilibrio entre actividad
excitatoria e inhibitoria en la corteza cerebral de manera que cuando se producen
desajustes pueden aparecer problemas funcionales. Al fin y al cabo, la actividad
inhibitoria sirve para modular la excitabilidad de un sistema y, podríamos decir, controlar
sobrecargas o picos de hiperactividad que no solo alteran la funcionalidad sino también la
adecuada estructura de un circuito. Prueba de esto es que en multitud de trastornos
psiquiátricos y neurológicos como la epilepsia, la esquizofrenia o el autismo, se pueden
encontrar pruebas de este desequilibrio (Marín, 2012). La mayor parte de las conexiones
en la corteza cerebral se producen en las proximidades de la propia neurona y son una
considerable minoría las que se establecen a larga distancia. Durante el desarrollo se
configuran primero las redes locales y más tarde lo hacen las conexiones de larga
distancia entre estas redes locales, permitiendo así un mayor grado de interrelación entre
los diferentes canales de procesamiento.

Tanto las conexiones de larga distancia como los circuitos locales tienen un carácter
señalizador, es decir, las señales que envía una neurona se dirigen a otro grupo de células
concretas y vinculadas de algún modo dentro de una red compartida. Estas conexiones
pueden ser excitatorias porque utilizan el neurotransmisor glutamato o inhibitorias las que
utilizan GABA. Están consideradas como el principal sustrato neuroanatómico para el
procesamiento de la información. Pero además, existen otros circuitos de carácter
modulador que tienen su origen en regiones troncoencefálicas principalmente y cuyas
proyecciones se expanden por amplias regiones de la corteza cerebral, por eso se las
denomina también proyecciones divergentes. Estas proyecciones utilizan
neurotransmisores como la dopamina, la serotonina o la norepinefrina y sus principales
dianas en la corteza cerebral son las neuronas GABA de los circuitos locales. Como ya
hemos comentado, estas interneuronas inhibidoras son las que modulan la actividad de
los circuitos corticales y su actividad resulta modulada a su vez por las aferencias

150
troncoencefálicas, algo que se conoce como modulación extrínseca (Bacci et al., 2005).
En resumen, las neuronas excitatorias generan señales en bruto, las neuronas GABA
refinan y modelan esas señales y las aferencias troncoencefálicas modulan el entorno
para que esta actividad ocurra en unas condiciones determinadas.

Las proyecciones divergentes que llegan a la corteza cerebral están ampliamente


distribuidas y su concentración en según qué áreas corticales puede tener unos efectos u
otros. Los neurotransmisores que utilizan son los responsables de que se establezcan
relaciones muy simplistas entre la presencia de determinadas moléculas químicas y
estados afectivos, sensaciones o conductas. Como en los neuromitos, a veces nos
encontramos con simplificaciones excesivas que sin ser explicaciones falsas sí ocultan
una buena parte de la verdad. Así, por ejemplo, a la dopamina se la relaciona con
diversos estados motivacionales (experiencias gratificantes), con actividad motora
(Parkinson), con procesos cognitivos (memoria de trabajo), alteraciones mentales
(esquizofrenia) o conductas adictivas (Seamans y Yang, 2004). En el caso de la
serotonina, se le atribuye un cierto papel en la regulación neuroendocrina, también en el
sueño y la activación cortical (arousal), la regulación del estado de ánimo (su disminución
se asocia con depresión), el apetito o la conducta sexual entre otros muchos procesos
(Vanderwolf, 1989). Por su parte, la norepinefrina está muy relacionada con la serotonina
en lo relativo a estados emocionales (se afectan mutuamente) o mantenimiento de la
atención. Estas proyecciones están muy distribuidas por el córtex y otras regiones, por lo
que se les ha atribuido un papel de resaltadoras de señales (Woodward et al., 1991), ya
que parecen potenciar las señales sinápticas, tanto excitatorias como inhibitorias, de otras
vías. Se considera el neurotransmisor de la ansiedad y del estrés porque se han
encontrado niveles altos en SN en estas situaciones

Hay otras proyecciones similares que utilizan neurotransmisores como la acetilcolina o


la histamina. En cualquier caso, sus efectos neurofisiológicos sobre las neuronas
corticales son muy variados dependiendo de factores como el tipo de neurona, la capa
cortical o la región donde se proyecta (Bacci et al., 2005). Esto nos lleva a insistir sobre
la necesidad de ser cautelosos a la hora de relacionar un neurotransmisor con un proceso
sin hacer más consideraciones sobre aspectos como la localización de los circuitos
afectados o, incluso, la especificación de a qué componentes del proceso cognitivo o
emocional nos estamos refiriendo.

Hay numerosas pruebas de que la conectividad cortical no sigue un patrón secuencial


jerárquico sencillo sino que la secuencia de procesamiento sigue cursos divergentes y
convergentes, además de circuitos de retroalimentación que proyectan en sentido
contrario al flujo principal de la información. Felleman y Van Essen (1991) propusieron
un modelo jerárquico, pero distribuido en vez de serial y con mayor variedad de áreas
asociativas implicadas. En este modelo sí se con templa una mayor interconexión tanto
proactiva como retroactiva entre todas las áreas corticales implicadas. Las conexiones
retroactivas (top-down) cumplen un papel relevante regulando el flujo de información

151
desde las áreas primarias a las asociativas. No hay que confundir este tipo de conexiones
con los circuitos de retroalimentación, en los que son axones de las neuronas del propio
circuito los que proyectando sobre esas mismas neuronas modulan la actividad del
circuito de una manera intrínseca. Por el contrario, las proyecciones top-down son vías
procedentes de centros superiores que regulan el procesamiento de la información en los
niveles inferiores. Esto es una constante no solo en la corteza cerebral sino en el resto de
circuitos del SN. Por ejemplo, en los sistemas sensoriales veremos que existen estas
proyecciones y su papel tiene que ver con la selección de estímulos relevantes y con la
integración perceptiva; por ejemplo, las proyecciones corticales al tálamo regulan el flujo
de información sensorial que permite pasar hacia la corteza dando prioridad a aquellos
estímulos que se consideran relevantes para la tarea que se esté llevando a cabo en ese
momento. En el caso de las áreas motoras, hay que considerar que el flujo de
información transcurre en sentido contrario, es decir, de las áreas asociativas al área
primaria, pero también existe esta retroalimentación que permite el ajuste preciso de los
actos motores, algo que veremos en detalle en el capítulo correspondiente.

6.3. Asimetría cerebral


Un aspecto fundamental para entender la organización y el funcionamiento del cerebro
son los conceptos de asimetría y lateralidad; los hemisferios cerebrales parecen iguales
pero encierran diferencias anatómicas, fisiológicas y bioquímicas que hacen que su
participación en procesos sensoriomotores, cognitivos o emocionales sea ligeramente
distinta. Las manifestaciones funcionales que mejor evidencian la lateralización son el
lenguaje y la destreza manual, pero el estudio de las asimetrías cerebrales sigue
presentando aspectos nebulosos que todavía requieren clarificación. Es cierto que cada
hemisferio recibe las sensaciones y controla los músculos de la parte contraria del cuerpo,
y también que, en la mayoría de los casos, el hemisferio izquierdo se ocupa del lenguaje
mientras que el derecho opera mejor con estímulos espaciales. Pero también sabemos
que el hemisferio derecho asume determinadas funciones lingüísticas y que el izquierdo
también puede operar con material no estrictamente verbal. Esto nos confirma que la
lateralidad funcional no se puede entender en términos absolutos sino relativos.

Ya en tiempos de Hipócrates se aludía a estos aspectos aunque no llegaron a sacar


conclusiones al respecto. Por un lado, describieron las alteraciones motoras que
afectaban a un lado del cuerpo cuando se producía una herida en el lado contrario de la
cabeza; por otro, también describieron que, en ocasiones, estas altera ciones motoras
iban acompañadas de problemas en el lenguaje. Muchos otros médicos, filósofos o
científicos se han interesado por las asimetrías cerebrales y sus correlatos funcionales
hasta el punto de acuñar el término de hemisferio dominante, refiriéndose al lenguaje, ya
que casi siempre que se aborda el tema de las asimetrías se recurre a este proceso que en
la mayoría de los humanos depende del correcto funcionamiento del HI. Con el
desarrollo de técnicas de neuroimagen y de registro funcional más precisas se va abriendo
el abanico de procesos cerebrales que se diseccionan bajo la lupa de la especialización

152
hemisférica.

Ni la asimetría cerebral ni la lateralización funcional son exclusivas de la especie


humana, lo cual descarta la idea de que sea una configuración ventajosa propia del SN de
nuestra especie. Además de hallazgos en cráneos de nuestros antepasados homínidos que
dan cuenta de estas asimetrías, se ha comprobado que numerosas especies de
vertebrados muestran una cierta preferencia lateral (Ghirlanda y Vallortigara, 2004). Por
ejemplo, se ha observado en algunas especies de peces, anfibios o aves que reaccionan
más rápidamente ante un depredador que se les acerque por la izquierda. También en
estudios con tareas más específicas de laboratorio se ha demostrado la existencia de
preferencias laterales en diferentes especies, lo que hace suponer una constante
filogenética en este patrón y una base genética en su configuración. En investigaciones
realizadas con parejas de gemelos se ha comprobado que la base genética de las
asimetrías cerebrales varía de unas regiones a otras, pero que sí hay un cierto
componente genético junto a los efectos de factores ambientales a lo largo del desarrollo,
ya que las asimetrías cerebrales no son algo estático sino que se modifican con la edad.

6.3.1. Asimetrías estructurales


Las observaciones neuroanatómicas permiten comprobar la existencia de ciertas
diferencias entre ambos hemisferios cerebrales. En primer lugar, ambos están ligeramente
desplazados el uno con respecto del otro. El polo frontal del HD termina ligeramente por
delante de su homólogo izquierdo y lo contrario ocurre con el polo occipital, el polo
izquierdo termina un poco por detrás del derecho. El HD es mayor que el HI, el lóbulo
temporal izquierdo es mayor que el derecho y el lóbulo frontal derecho mayor que el
izquierdo. La corteza prefrontal lateral y la parietal inferior son mayores en el HD,
mientras que la corteza prefrontal medial y orbital y la corteza cingulada son mayores en
el HI (Goldberg et al., 2013). Existen otras asimetrías como el grosor de los paquetes de
axones motores que descienden hasta la médula espinal (corticoespinal) o la profundidad
de los surcos corticales, pero donde se pueden apreciar las asimetrías estructurales con
mayor claridad es en las áreas relacionadas con el lenguaje. Por ejemplo, el área auditiva
primaria es ligeramente superior en el HD, mientras que el plano temporal, una región
que forma parte del área de Wernicke, es mayor en el HI. También el área de Broca,
relacionada con la producción del habla, presenta un volumen mayor en el HI, aunque
esta asimetría es menos evidente que las dos anteriores y está menos generalizada.

A nivel microscópico también se han encontrado asimetrías cerebrales. Un


razonamiento bastante simple ha promovido la investigación acerca de las características
histológicas de diferentes regiones cerebrales: si dos áreas corticales homólogas son
aparentemente similares pero están implicadas en funciones diferentes (lateralización), es
que tienen que existir diferencias estructurales a nivel microscópico. También en este
caso las áreas más estudiadas son las relacionadas con el lenguaje, encontrando por
ejemplo que, en el área de Broca del HI, existen arborizaciones dendríticas más densas o

153
un mayor grado de mielinización (Hutsler y Galuske, 2003). Esto pone de manifiesto que
las asimetrías microscópicas afectan tanto a la sustancia gris como a la blanca y no
siempre de manera proporcionada. En el caso de las áreas lingüísticas, las asimetrías se
observan desde el nacimiento, pero con la edad se van haciendo más pronunciadas, algo
que puede explicarse por una mayor mielinización de estos circuitos en el HI que de sus
homólogos en el HD.

Últimamente han proliferado estudios que demuestran la importancia de las asimetrías


en la conectividad neuronal a la hora de comprender la lateralización funcional. Esta
asimetría se ha observado tanto en las conexiones intrahemisféricas como en el modo en
que están conectados ambos hemisferios, lo cual podría explicar o justificar la idea de
que ambos hemisferios procesan la información de diferente manera (Stephan et al.,
2007). Y es que parece más razonable explicar la lateralización funcional en términos de
asimetrías en la conectividad que de asimetrías estructurales localizadas; es como si
comparáramos dos circuitos eléctricos que poseen similares componentes pero con el
cableado organizado de distinta manera: el resultado no es el mismo.

6.3.2. Asimetrías funcionales


Los estudios sobre lateralización funcional se refieren mayoritariamente al lenguaje por
ser el proceso que mejor refleja la especialización de un hemisferio en una determinada
tarea. Por este motivo, el contenido verbal o no del material con el que se trabaja parece
ser determinante para diferenciar la participación de un hemisferio u otro. En el caso del
sistema visual, por ejemplo, se ha comprobado que los estímulos verbales se procesan de
manera más eficiente con el HI, es decir, cuando se presentan en el campo visual
derecho. Por el contrario, el HD es más eficaz a la hora de procesar rostros, figuras
geométricas, mapas o, en general, contenidos espaciales. El caso del sistema auditivo es
más complejo porque las vías no están totalmente lateralizadas, cada oído proyecta a
ambos hemisferios aunque la proyección al hemisferio contrario (contralateral) es más
potente y rápida que la del mismo lado (ipsilateral). Los trabajos pioneros de Doreen
Kimura utilizando escucha dicótica (1961 y 1967), procedimiento por el que representa
un estímulo auditivo distinto en cada oído, demostraron que el oído derecho
(procesamiento en HI) muestra superioridad en el procesamiento de palabras, cifras o
sílabas sin sentido, mientras que el oído izquierdo (procesamiento en HD) procesa mejor
melodías, acordes musicales o sonidos ambientales en general.

No siempre es fácil segregar los componentes que son soportados por un hemisferio u
otro dentro de un proceso cognitivo complejo. Es frecuente recurrir a la observación de
los efectos ocasionados por una lesión cerebral y a partir de ahí sacar conclusiones
acerca de la lateralización de funciones cognitivas complejas según la localización del
daño. Nuevamente, las conclusiones más contrastadas hacen referencia a las alteraciones
lingüísticas derivadas de lesiones en el HI. Pero hay un tipo de pacientes que ha aportado
bastante información sobre las asimetrías funcionales y también sobre el modo en que los

154
hemisferios trabajan conjuntamente, son los pacientes con cerebro dividido o
comisurotomizados que sufren una desconexión entre ambos hemisferios cerebrales. Una
comisurotomía es la resección quirúrgica de las fibras que comunican ambos hemisferios
(comisurales), especialmente el cuerpo calloso. Este es un procedimiento que se aplica en
ocasiones para aliviar la sintomatología epiléptica en pacientes que no responden
adecuadamente a otros tratamientos menos agresivos.

La resección del cuerpo calloso provoca que cada hemisferio solo pueda percibir los
estímulos que se encuentran en el campo visual del lado contrario o recibir señales
únicamente del lado contrario del cuerpo. Ahora, cada hemisferio tiene sus propias
sensaciones, percepciones, emociones y recuerdos que no puede compartir con el otro.
Uno de los científicos que más ha estudiado a estos pacientes es Michael S.Gazzaniga,
de la Universidad de California. Para este propósito, presentaba diferentes estímulos en
un campo visual u otro de los pacientes comisurotomizados y luego les pedía que
verbalizasen lo que habían visto (Gazzaniga, 1964 y 1969). Comprobó que el paciente
podía nombrar los objetos presentados en el campo visual derecho porque eran
procesados en el hemisferio lingüístico, pero no podían hacerlo con los objetos
presentados en el campo visual izquierdo (procesados en HD), sin embargo, si se le pedía
que eligiera un objeto entre varios, cogía con la mano izquierda el que se le había
mostrado (figura 6.5). En el caso de presentar estímulos verbales, el sujeto solo podía
leer lo que se le presentaba a su HI ya que el HD no reconocía los símbolos como letras.

Hay un tipo de desconexión hemisférica congénita, la agenesia del cuerpo calloso, en


las que las consecuencias son algo distintas. Se trata de una malformación congénita que
hace que las fibras del cuerpo calloso no se desarrollen, por lo que las conexiones entre
ambos hemisferios no se establecen de manera adecuada. Sin embargo, como se trata de
una anomalía congénita, desde las etapas iniciales del desarrollo se produce una
reorganización de las conexiones nerviosas que, entre otros efectos, hace que otras
comisuras que existen en el cerebro sean mucho mayores permitiendo cierto grado de
interconexión hemisférica. Esto permite que estos niños puedan alcanzar niveles
razonablemente normales en lenguaje o desarrollo motor, si bien necesitan atenciones
especiales durante su desarrollo.

155
Figura 6.5. Un paciente comisurotomizado no puede utilizar ambos hemisferios de
manera coordinada. En A, el paciente puede nombrar el objeto presentado en su campo
visual derecho pero no el presentado en su campo visual izquierdo; sin embargo, puede
cogerlo con la mano izquierda movida por el HD. En B, si presentamos estímulos
verbales, el HD no los reconoce como letras y palabras.

6.4. Daño cerebral


A lo largo de este libro aludimos continuamente a personas que padecían o padecen
algún tipo de daño cerebral para ejemplificar cómo la destrucción de determinadas zonas
del cerebro puede manifestarse a través de alteraciones sensoriomotoras, cognitivas o
emocionales. Este tipo de acercamiento, clásico en neuropsicología, supone inferir el
papel que desempeña determinada región cerebral en el cerebro sano a partir de la
observación de los efectos de su destrucción. El daño cerebral puede estar producido por
diferentes causas:

-Traumatismo eran eo encefálico. Está ocasionado por golpes en la cabeza como


consecuencia, principalmente, de accidentes. Puede ser abierto o cerrado, según
haya o no rotura de los huesos del cráneo. En el caso de traumatismo cerrado
puede haber varios focos de lesión por las sacudidas (o rebotes) que experimenta en
cerebro contra el cráneo. Por ejemplo, un fuerte golpe en la parte posterior de la
cabeza puede provocar lesiones tanto en la región occipital como en la frontal.

Accidentescerebrovasculares (ictus). Se refieren a cualquier alteración que se produzca


en el flujo sanguíneo cerebral y que impida la llegada de sangre a ciertas

156
poblaciones neuronales ocasionando su muerte; esto puede ocurrir por ruptura de
un vaso sanguíneo (hemorrágico) o por obstrucción (isquémico). La ruptura de un
vaso sanguíneo puede estar ocasionada por diversos motivos pero uno de los más
frecuentes es la ruptura de un aneurisma, un debilitamiento de la pared del vaso que
hace que este se hinche como un globo por la presión de la sangre hasta que se
rompe. Un coágulo o la acumulación de colesterol pueden ser la causa de la
obstrucción de un vaso impidiendo el flujo sanguíneo. Según el calibre de los vasos
afectados y la región que irrigan las consecuencias del ictus serán más o menos
graves, pero en cualquier caso, es frecuente que queden secuelas que afecten al
rendimiento cognitivo de estos pacientes.

-Enfermedades neurodegenerativas. Procesos en los que ciertas poblaciones de


neuronas van degenerando y muriendo de manera acelerada. Siempre que se habla
de estos trastornos los asociamos a la edad y pensamos en casos como la
enfermedad de Alzheimer pero también podemos encontrar enfermedades que se
manifiestan en etapas más tempranas (enfermedad de Huntington) e incluso en la
infancia y adolescencia (lipofuscinosis).

-Otros. Diferentes situaciones clínicas pueden derivar en daño cerebral, por ejemplo,
tumores cerebrales, infecciones, anoxias (la privación de oxígeno al cerebro puede
ocurrir en cualquier momento, no solo durante el parto) o envenenamientos. Las
zonas lesionadas pueden estar más o menos localizadas y las consecuencias
neuropsicológicas ser muy variables en función de la extensión y localización de la
zona afectada.

Cuesta trabajo asociar este tipo de trastornos a la etapa infantil, pero por desgracia es
posible que ocurran. Bien es cierto que la incidencia es mucho menor que en la población
adulta, pero la prevalencia de algunos de estos problemas es considerable. No obstante,
lo que sí es frecuente encontrarnos en la infancia son las consecuencias de un desarrollo
anómalo del cerebro, algo a lo que ya nos hemos referido en el capítulo anterior. En
cualquier caso, a la hora de diseñar intervenciones es necesario conocer el origen ya que
las implicaciones para la rehabilitación e integración son importantes.

157
158
Los organismos necesitan un medio interno estable, independiente de los cambios que
puedan producirse en su entorno, que facilite el adecuado desarrollo de todos los
procesos biológicos necesarios para la supervivencia. Las células son auténticos
laboratorios bioquímicos en permanente actividad, la cual ocurre de manera óptima
cuando se dan unas ciertas condiciones en el interior del cuerpo. Un regulador fisiológico
es un mecanismo que mantiene constantes las características de un medio interno frente
a la variabilidad externa. Para conseguir este estado óptimo el organismo recurre a
diversos reguladores fisiológicos que aseguran la estabilidad de ese medio interno, por
ejemplo, manteniendo la temperatura corporal o los niveles de agua y sales dentro de
unos límites estrechos. El término homeostasis fue acuñado por Walter B.Cannon (1871-
1945) en la década de los veinte para referirse a esa estabilidad del medio interno
necesaria para el correcto funcionamiento celular y que el organismo se esfuerza por
mantener. Los mecanismos encargados de ello no siempre son capaces por sí mismos de
asegurar esta homeostasis interna y por ello propician conductas encaminadas a ayudar
en este propósito (la disminución del nivel de glucosa o del agua corporal hace que
experimentemos hambre y sed, lo que nos lleva a buscar comida y agua). Es como si
tuviéramos un termostato interno que pone en marcha estas conductas cuando ciertos
parámetros internos se sitúan por encima o por debajo de los niveles adecuados. Los
sistemas de los que se sirve el organismo son diversos pero las hormonas juegan un papel
fundamental, por eso iniciaremos este capítulo hablando del sistema endocrino.

7.1. Sistema endocrino


Las hormonas son moléculas orgánicas que resultan activas en concentraciones muy
bajas y que son secretadas por las glándulas endocrinas a la sangre por donde se
difunden a todo el organismo. No obstante, aunque pueden llegar a cualquier parte del
cuer po, solo ejercen sus efectos sobre aquellas células que posean receptores específicos
para cada una de ellas en particular. Aspectos como el estado de ánimo, la afectividad, el
deseo sexual o la conducta alimentaria pueden verse modificados de manera significativa
como consecuencia de pequeñas variaciones en los niveles de hormonas. Estos niveles
no son estables y pueden variar a lo largo del día; además, las hormonas interactúan
entre sí, de manera que los efectos de una pueden afectar a los de otra. Esto nos da una
idea de la dificultad que supone identificar el efecto último que una hormona tiene sobre
la conducta. Las glándulas endocrinas son órganos especializados en la síntesis,
almacenamiento y secreción de hormonas que, como carecen de conductos excretores,
liberan directamente al torrente sanguíneo. En el cerebro podemos encontrar estructuras

159
que secretan hormonas como es el caso de ciertos núcleos hipotalámicos, la hipófisis o la
glándula pineal; en el resto del cuerpo se localizan glándulas como el tiroides, el páncreas
o las suprarrenales. Hay también otros órganos que, a pesar de que no los consideramos
glándulas en sentido estricto, también pueden liberar hormonas como es el caso del
hígado, los riñones o el intestino.

Hay muchas hormonas diferentes pero se pueden agrupar en tres tipos:

-Esteroides: hormonas derivadas del colesterol. Secretadas por la corteza suprarrenal y


las gónadas (testículos y ovarios). Juegan un papel importante en el desarrollo, en la
diferenciación sexual y en la conducta.

-Peptídicas: son cadenas de aminoácidos de longitud variable. También se utiliza la


denominación de hormonas proteicas para referirse a ellas, sobre todo a las de
mayor tamaño. Entre otras, son secretadas por el hipotálamo y la hipófisis.

-Monoamínicas: derivadas de un aminoácido. Son liberadas por la médula suprarrenal


y el tiroides.

El funcionamiento del organismo requiere una constante interacción entre los


diferentes sistemas; al fin y al cabo, la mayor parte de las células se comunican entre sí o
utilizan moléculas químicas para influir sobre otras. En el organismo hay una permanente
comunicación química entre las células y para ello solo se necesitan tres componentes,
una célula emisora, un mensajero químico y un receptor específico para ese mensajero
(Martínez Sanchís, 2007). En el SN, por ejemplo, una neurona (célula emisora) libera
neurotransmisores (mensajero químico) que actúan sobre otras neuronas en las que se
localizan receptores postsinápticos adecuados. La comunicación nerviosa es mucho más
rápida y sus efectos son prácticamente inmediatos, por el contrario, la comunicación
endocrina es más lenta y sus efectos pueden notarse horas o días después, según los
casos. No obstante, ambos tipos de comunicación química están estrechamente
relacionados hasta el punto de que hay neuronas que liberan NT al torrente sanguíneo y
hay hormonas que actúan como NT en el SNC. Además, como veremos más adelante,
son los circuitos del SN los que regulan el nivel de hormonas en el organismo y controlan
sus modificaciones.

7.1.1. Ejes neuroendocrinos


Como ya vimos el hipotálamo es responsable de la homeostasis y del control endocrino
gracias a sus conexiones con la hipófisis, conocida también como glándula pituitaria. Se
ocupa de mantener el equilibrio corporal, por ejemplo los niveles de agua y nutrientes, la
temperatura, la presión arterial, etc. Además, es responsable de respuestas
neurovegetativas como las que aparecen en situaciones de estrés o en estados
emocionales intensos. La hipófisis está situada en la base del cerebro y es considerada la
glándula de glándulas porque libera hormonas que estimulan la actividad de las otras

160
glándulas endocrinas. En realidad, como está conectada al hipotálamo es este el que
regula su actividad, el cual, salvo porque está constituido por neuronas y células gliales,
podría ser considerado como la auténtica glándula de glándulas. No obstante, hay
neuronas hipotalámicas que pueden liberar hormonas al torrente sanguíneo
(neurosecrección) y también se han identificado receptores para hormonas en diferentes
estructuras del SN.

La hipófisis consta de dos partes diferenciadas, una formada por tejido glandular
(anterior, adenohipófisis) y la otra por tejido neural (posterior, neurohipófisis). La
adenohipófisis se comunica con el hipotálamo a través de una red de capilares sanguíneos
muy localizada, el sistema porta hipofisario. Es en estos capilares donde las neuronas
hipotalámicas secretan los factores de liberación que van a actuar sobre las células
hipofisarias. Por su parte, la neurohipófisis recibe proyecciones neuronales del
hipotálamo que liberan hormonas a la circulación sanguínea general. El hipotálamo
secreta diferentes hormonas; dos de ellas (oxitocina y vasopresina), vía neurohipófisis,
actúan directamente sobre los órganos diana y las otras, que se denominan factores de
liberación hipotalámicos, estimulan la liberación de otras hormonas y otros factores de
liberación hipofisarios por parte de la adenohipófisis. Estos factores hipofisarios van a las
glándulas periféricas para provocar la liberación de sus respectivas hormonas (figura 7.1).
Tanto el hipotálamo como la hipófisis necesitan información para controlar
adecuadamente los niveles circulantes de cada hormona. Es el propio sistema el que se
autorregula ya que las moléculas secretadas por las glándulas influyen sobre la hipófisis y
el hipotálamo para detener la secreción de factores de liberación.

El hipotálamo es el responsable último del sistema neuroendocrino y recibe conexiones


de diferentes áreas cerebrales, lo que determina que la actividad de dicho sistema esté
mediada en buena medida por el entorno. Controla la actividad de la hipófisis y está la
del resto de glándulas, lo que permite estudiar el funcionamiento de los ejes funcionales
neuroendocrinos.

161
Figura 7.1. Esquema resumido del sistema neuroendocrino (modificado de Abril et al.,
201 1).

A) Eje hipotálamo-hipofisario-tiroideo (HPT)


El hipotálamo libera la hormona liberadora de tirotropina (TRH), factor de liberación
hipotalámico que estimula la adenohipófisis para que libere la hormona estimulante del
tiroides (TSH), también denominada tirotropina. La TSH es liberada a la circulación
sanguínea a través de la cual llega al tiroides haciendo que este libere hormonas como la
tiroxina (T4; no confundir con el aminoácido tirosina, del cual deriva) o la triyodotironina
(T3) (figura 7.2). Estas hormonas participan en el desarrollo y crecimiento del organismo
junto con la hormona del crecimiento (HC) o somatotropina. Los niveles bajos de yodo
(fundamental para la síntesis de estas hormonas) durante el embarazo pueden alterar el
desarrollo del SN del feto ocasionando alteraciones diversas según el momento del
desarrollo en el que se produzca. Durante la etapa postnatal, el exceso (hipertiroidismo) o
defecto (hipotiroidismo) de yodo puede ocasionar alteraciones conductuales, cognitivas y
emocionales. En el caso del hipotiroidismo, suele aparecer bradipsíquia (enlentecimiento
del pensamiento) y bradicinesia (enlentecimiento de la motricidad), alteraciones de la
memoria, ánimo deprimido o aislamiento social. Por su parte, los sujetos que padecen
hipertiroidismo pueden sufrir problemas de atención y concentración, alteraciones de la

162
memoria de trabajo y fluctuaciones del estado de ánimo con brotes de agresividad.

Figura 7.2. Ejemplo de un eje neuroendocrino, en este caso el eje hipotálamo-


hipofisariotiroideo con las principales hormonas y factores de liberación que intervienen.

B) Eje hipotálamo-hipofisario-gonadal (HPG)


En este caso, el hipotálamo secreta la hormona liberadora de gonadotropinas (GnRH)
que hace que la adenohipófisis libere gonadotropinas, dos hormonas denominadas
hormona luteinizante (LH) y hormona foliculoestimulante (FEH). Estas hormonas
estimulan las gónadas (ovarios y testículos) para que secreten andrógenos, estrógenos y
testosterona. Tanto los ovarios como los testículos pueden producir andrógenos y
estrógenos pero en cantidades muy diferentes, ya que los ovarios producen muchos
estrógenos y pocos andrógenos, mientras que los testículos lo hacen al contrario. En los
ovarios se encuentras los ovocitos que van a dar lugar a los óvulos; en el nacimiento ya
están presentes todos ellos y a partir de la pubertad, uno o más de ellos van a madurar
para convertirse en uno o varios óvulos susceptibles de ser fecundados (ovulación). El
hecho de que los ovocitos estén presentes desde el nacimiento explica por qué la edad
avanzada de la madre se puede considerar en ocasiones un factor de riesgo para el
desarrollo del feto, ya que cuanto más tiempo pasa más posibilidades de resultar
afectados existen.

Los estrógenos contribuyen al desarrollo del fenotipo femenino aunque el factor inicial

163
sea la ausencia de andrógenos. Son necesarios para el correcto desarrollo de este fenotipo
y la aparición de los caracteres sexuales secundarios femeninos en la pubertad. La
presencia de testosterona (andrógeno) durante el desarrollo embrionario hace que el
embrión se diferencie como varón (fenotipo masculino) provocando el desarrollo de los
genitales y órganos reproductores masculinos. Durante el desarrollo puberal, los
andrógenos son responsables de los caracteres sexuales secundarios masculinos y del
inicio de la espermatogénesis. Tanto los estrógenos como los andrógenos pueden incidir
sobre diferentes circuitos cerebrales durante el desarrollo, modificando su configuración
(dimorfismo cerebral), o en la etapa adulta provocando manifestaciones cognitivas,
conductuales y emocionales diferentes, lo que se conoce como dimorfismo conductual,
es decir, diferencias en el comportamiento como consecuencia del sexo.

C) Eje hipotálamo-hipofisario-adrenal (HPA)


El hipotálamo secreta la hormona liberadora de corticotropina (CRH), la adenohipófisis
libera corticotropina (ACTH, también se la conoce como adrenocorticotropina) y la
corteza suprarrenal libera glucocorticoides, mineralocorticoides y, en menor medida,
andrógenos y estrógenos. En humanos, el principal glucocorticoide que secreta la corteza
suprarrenal es el cortisol, que puede ser reconocido por receptores localizados por todo el
organismo, por eso su acción es muy importante para el desarrollo y la conducta. Los
glucocorticoides son las hormonas del estrés ya que en este tipo de situaciones son
liberados en grandes cantidades. Su función primaria es la de preparar al organismo para
dar una respuesta eficiente a una situación de peligro potencial, sobre todo activando el
aporte de glucosa a las células. Esta respuesta es adecuada cuando hay un peligro real o
hay que afrontar una tarea que supone un esfuerzo (huir de un perro agresivo, preparar
un examen...), sin embargo, el problema surge cuando su liberación se produce de
manera continua en una situación de estrés crónico, entonces, estas hormonas pueden
dañar células en otros sistemas, especialmente en el cerebro.

No toda la actividad endocrina depende de estos tres ejes, hay otras hormonas que
también juegan un papel importante en la conducta. Por ejemplo, las neuronas de los
núcleos paraventricular y supraóptico del hipotálamo liberan oxitocina y vasopresina en
los capilares de la neurohipófisis desde donde pasan a la circulación sanguínea. La
primera juega un papel importante en la conducta reproductora, ya que interviene en la
fecundación, el parto y la lactancia. Se la relaciona con el establecimiento de vínculos
afectivos, ya que se ha comprobado en modelos animales que los niveles de oxitocina
correlacionan con la conducta maternal, de manera que aquellos animales que muestran
unos valores más altos se ocupan de sus crías en mayor medida que los que tienen
niveles más bajos. La vasopresina es conocida también como hormona antidiurética
porque su acción incrementa la retención de líquido por parte de las células para regular
sus niveles en el organismo, por lo que está relacionada con funciones que contribuyen a
la homeostasis. También se la ha relacionado, en machos, con la conducta de apego y el
establecimiento de vínculos. La adenohipófisis también libera hormonas como la

164
prolactina, que contribuye a la producción de leche en la madre después del parto, y la
hormona del crecimiento (HC) que, como su nombre indica, contribuye al crecimiento de
huesos y tejidos especialmente durante el desarrollo. La glándula pineal secreta
melatonina, que participa en el control de los ritmos circadianos (un día) como el sueño-
vigilia y también en la maduración sexual durante la pubertad. Por último, la médula
suprarrenal (la porción que está envuelta por la corteza suprarrenal) libera adrenalina y
noradrenalina en respuesta a las señales procedentes de la división simpática de SNA, es
decir, cuando se requiere una respuesta exigente por parte del organismo, generalmente
en situaciones de estrés.

7.1.2. Hormonas, desarrollo y aprendizaje


La actividad del sistema neuroendocrino durante el desarrollo adquiere una importancia
crucial porque es la base sobre la que se asientan aspectos tan fundamentales como la
diferenciación sexual, la correcta configuración de áreas cerebrales o el adecuado
desarrollo cognitivo y emocional. Son muchos aspectos a tomar en consideración, desde
el papel de las hormonas sexuales en la configuración del SN hasta los efectos de las
hormonas tiroideas sobre el desarrollo cerebral, pasando por el papel de las hormonas
corticosuprarrenales en procesos cognitivos como la memoria y el aprendizaje, por poner
los ejemplos más conocidos. Un primer aspecto que se ha de tener en cuenta es que las
hormonas sexuales pueden ejercer dos tipos de efectos sobre el SN según el momento en
el que actúen (Sisk y Zehr, 2005; Vigil et al., 2011), estructurales y activacionales.

-Estructurales: actuando sobre la configuración temprana de las conexiones del SN y


produciendo cambios permanentes en la estructura de los circuitos nerviosos. Son
las responsables de los denominados comportamientos "femeninos" y "masculinos".

-Activacionales: efectos puntuales sobre los circuitos nerviosos que se manifiestan


mientras está presente la hormona y remiten en la medida en que se reducen los
niveles hormonales. Por ejemplo, un incremento de los niveles de testosterona
puede producir comportamientos agresivos puntuales. O las variaciones en las
habilidades de memoria según el nivel de estrógenos circulante.

Ya durante el desarrollo intrauterino, las hormonas sexuales juegan un papel relevante


en la configuración del SN a través de diferentes mecanismos (Brunton y Russell, 2010);
pero quizá, el papel fundamental lo juegan en la diferenciación sexual del individuo, ya
que la presencia o no de ciertas hormonas determinará que el SN del embrión derive
hacia una configuración masculina o femenina. La diferenciación sexual no se produce
plenamente en el útero, también en el periodo postnatal las hormonas sexuales pueden
intervenir en el desarrollo de ciertos circuitos neurales ya que, durante la pubertad y la
adolescencia, están implicadas en aspectos evolutivos como la regulación de las espinas
dendríticas, la poda sináptica o la mielinización (Vigil et al., 2011). Esto significa que en
este periodo, el cerebro en desarrollo es muy vulnerable a los efectos de estas hormonas

165
y que la presencia excesiva o la ausencia de ellas puede inducir una configuración
determinada feminizando o masculinizando el cerebro. Es una etapa del desarrollo en la
que pueden ocurrir tanto efectos estructurales como activacionales, ya que hay circuitos
nerviosos todavía en proceso de maduración. Es decir, el dimorfismo sexual no solo se
produce en el periodo embrionario, según esté presente o no el cromosoma Y, sino que
puede continuar en la adolescencia (Giedd et al., 1997) completando la configuración
cerebral en coherencia o no con los caracteres sexuales genéticos primarios.

También las hormonas tiroideas son importantes para el desarrollo cerebral y pueden
ejercer sus efectos tanto en el periodo prenatal como en la etapa postnatal; incluso
pequeñas modificaciones durante las etapas iniciales del embarazo pueden provocar
alteraciones aunque los niveles de estas hormonas sean normales después en el
nacimiento (Gilbert y Lasley, 2013). El exceso o el defecto de hormonas tiroideas puede
ocasionar alteraciones estructurales irreversibles en la configuración de diferentes
circuitos nerviosos ya que afectan a la proliferación, migración, sinaptogénesis y
mielinización de las neuronas (Hora y Heuer, 2010), aunque los mecanismos bioquímicos
y moleculares implicados son todavía objeto de controversia. El hipotiroidismo,
congénito o adquirido, es una causa importante de deterioro cognitivo. Se ha observado
que en personas mayores con deterioro cognitivo es frecuente encontrar hipotiroidismo
subclínico, es decir, niveles bajos de alguna o varias hormonas del eje HPT, que no
manifiesta los signos propios de este cuadro clínico pero que puede estar interfiriendo en
diferentes sistemas, entre ellos, el SNC (Volpato et al., 2002; Hogervorst et al., 2008). En
la actualidad, en la mayoría de las sociedades con un sistema sanitario razonablemente
avanzado, a todos los bebés recién nacidos se les practican varias pruebas clínicas para
detectar diferentes trastornos congénitos, entre ellos el hipotiroidismo. Antes de que esta
práctica se generalizara, el hipotiroidismo congénito provocaba alteraciones del desarrollo
que derivaban en un tipo de retraso mental que se conocía con el nombre de cretinismo.
Estos niños presentaban un nivel intelectual por debajo de lo normal, dificultades severas
de aprendizaje y alteraciones de la motricidad (Dattani y Brook, 1996).
Afortunadamente, hoy es raro (insisto, depende en qué sociedades) encontrar niños con
este tipo de alteración hormonal y, en el peor de los casos, el diagnóstico y la
intervención temprana pueden proporcionarles un desarrollo y una integración
prácticamente normales.

Ya hemos comentado que las situaciones de estrés ponen en marcha el eje HPA, cuya
actividad se inicia en los núcleos del hipotálamo y culmina en la corteza suprarrenal con
la liberación masiva de glucocorticoides. En la respuesta al estrés pueden diferenciarse
dos fases, una primera que se pone en marcha de manera inmediata como consecuencia
de la activación de la división simpática del SNA y hace que la médula suprarrenal libere
adrenalina y noradrenalina preparando al cuerpo para una respuesta adecuada. Es en la
segunda fase cuando entra en juego el sistema HPA secretando cortisol, algo que ocurre
de un modo más lento puesto que puede tardar varios minutos en alcanzar la

166
concentración máxima y bastante más en manifestar sus efectos conductuales (Sapolsky
et al., 2000). Es un mecanismo que permite la adaptación progresiva a los estímulos
estresantes de cara al futuro. Así, la exposición repetida a un mismo estímulo estresante
puede reducir la respuesta del sistema HPA (como si hubiera una habituación al
estímulo), sin embargo provoca una mayor sensibilidad a estímulos estresantes nuevos,
incrementando la reactividad de este sistema (Armario et al., 2008). Como ya hemos
dicho, el cortisol contribuye a que el organismo disponga de energía para realizar el
esfuerzo que supone afrontar la situación de estrés, sin embargo, también incide sobre
estructuras cerebrales que poseen una alta densidad de receptores como las áreas
prefrontales, el hipocampo o la amígdala, que por tanto son muy sensibles a sus efectos
(Ulrich-Lai y Herman, 2009). Esto demuestra la importancia de estas hormonas en los
procesos de memoria y aprendizaje.

Un cierto grado de estrés durante la realización de una tarea de aprendizaje resulta


positivo porque favorece la consolidación de la información gracias al efecto que ejercen
la noradrenalina y los glucocorticoides sobre las conexiones sinápticas de los circuitos
activados durante la adquisición de la tarea (Bisaz et al., 2009). Sin embargo, el estrés
crónico y elevación sostenida de los niveles de glucocorticoides ocasionan alteraciones en
los sistemas cerebrales implicados en la memoria, sobre todo el hipocampo, la amígdala y
la corteza prefrontal medial (McCormick y Mathews, 2010). Estos efectos en adultos son
reversibles cuando los niveles hormonales se normalizan, sin embargo, durante la
pubertad y adoles cencia pueden ser de tipo estructural modificando los circuitos
implicados y configurando un sistema cerebral para la memoria menos eficiente.

Para terminar, no podemos dejar de referirnos al peligro que suponen los denominados
disruptores endocrinos, moléculas que alteran el funcionamiento hormonal y que
podemos encontrar ampliamente distribuidos en nuestro entorno, en aditivos
alimentarios, en pesticidas, en plásticos y en otros muchos elementos. Hay evidencia
empírica en modelos animales de que pueden afectar a procesos en los que intervienen
hormonas, como la reproducción, la actividad del sistema inmunitario o la memoria y
otros procesos cognitivos; la cuestión es si afectan de igual manera a los humanos
(Waring y Harris, 2009). En el caso de los procesos de memoria y aprendizaje hay
estudios que demuestran los efectos negativos de estos componentes sobre diferentes
especies animales, incluidos los humanos (Jacobson y Jacobson, 1996; Ryan y
Vandenbergh, 2006; Schantz y Widholm, 2001). Sin embargo, han sido cuestionados,
entre otros motivos, por el hecho de que la dosis utilizada en los estudios de laboratorio
es muy superior a la que podemos encontrar en nuestro entorno. Sin embargo, en estos
estudios la dosis se suele suministrar de una sola vez mientras que en la vida cotidiana la
exposición continuada puede ir ocasionando un efecto acumulativo, por lo que dosis
mucho menores pueden llegar a producir concentraciones considerables en el organismo.
Es un tema controvertido por los intereses económicos que lleva implícitos y todavía es
necesaria mucha más investigación, pero es indudable que la precaución frente a este tipo

167
de sustancias es una conducta de lo más inteligente.

7.2. Sueño y ritmos biológicos


Dormimos aproximadamente un cuarto de nuestra vida, es decir, una persona que
llegue a los ochenta años habrá dormido unos veinte años. Como además, dormimos más
en la infancia, un joven de veinte años ha dormido aproximadamente siete y medio.
Habrá quien considere que es una pérdida de tiempo, ¡la cantidad de cosas que se
pueden hacer en siete años y medio! Sin embargo, cuando estamos en ese estado de
somnolencia previa o posterior a una buena siesta no consideramos que sea una pérdida
de tiempo. En realidad es una necesidad y puesto que la mayoría de las especies
duermen (o pasan por estados equivalentes) debe ser una necesidad filogenéticamente
importante. Salvo desfases horarios, turnos de trabajo rotatorios, fiestas prolongadas u
otras situaciones excepcionales, casi siempre sentimos sueño y nos despertamos a una
hora similar del día, como si tuviéramos un reloj interno que nos avisa de que es el
momento de una cosa o la otra. De esto vamos a tratar en este apartado, del sueño y de
los relojes biológicos que marcan muchos de los ciclos a que están sometidos procesos
fisiológicos y conductuales.

7.2.1. Sueño y vigilia


El sueño no es lo opuesto a la vigilia sino que es un estado complejo del organismo en
el que tienen lugar funciones fisiológicas necesarias para la supervivencia y adaptación
del organismo. Además no es un estado uniforme sino que va pasando por fases
diferentes, concretamente cinco, que dan lugar a dos tipos de sueño, la fase de sueño
REM y el sueño NO-REM, que incluye cuatro fases con diferente grado de profundidad.
El sueño REM se denomina así por una de las características más evidentes de este
estado, el movimiento rápido de los ojos (Rapid Eye Movements) que puede observarse
fácilmente gracias al abultamiento del párpado por la forma de la cornea (pídanle a
alguien que cierre los ojos y mueva los globos oculares, podremos comprobar este
efecto). También se le conoce como sueño paradójico debido al hecho de que, a pesar de
estar dormidos, el cerebro mantiene un patrón de actividad similar al de la vigilia. Por
desgracia, no hay un tipo de movimiento ocular específico para cada momento del sueño,
por lo que para saber en qué fase se encuentra una persona dormida tenemos que acudir
a una serie de indicadores fisiológicos. Los más frecuentes son el Electrooculograma
(EOG), que registra los movimientos oculares; el Electromiograma (EMG), para el tono
muscular y el Electroencefalograma (EEG), que registra actividad de la corteza cerebral.
La información proporcionada por este último es la más utilizada y clarificadora.

Las ondas que podemos registrar con el EEG se clasifican según su intensidad
(amplitud) y frecuencia (ciclos por segundo, hertzios - Hz). Esto permite deducir qué
partes de la corteza cerebral están más o menos activas según las ondas tengan una
mayor o menor frecuencia, respectivamente. Así, por ejemplo, en la vigilia predomina un
patrón de ondas de baja amplitud y alta frecuencia (ondas beta), mientras que en el

168
sueño profundo predominan ondas lentas de mayor amplitud (ondas delta). Según esto
las fases del sueño quedarían así:

-Vigilia. Combinación de ondas alfa (8-12 Hz) y beta (13-30 Hz). Patrón poco
sincronizado de ondas de baja amplitud y alta frecuencia.

-Relajación y somnolencia. Predominio de ondas alfa.

-Fases 1 y 2 de sueño. Patrón más sincronizado con ondas theta (4-8 Hz). Aparecen
esporádicamente algunos signos EEG prototípicos (sobre todo en fase 2) y que
permiten confirmar la entrada en esta fase de sueño.

-Fases 3 y 4 de sueño. Patrón predominante de ondas delta (0,5-2 Hz) sobre todo en
fase 4. A este periodo se le conoce como sueño profundo o de ondas lentas.

-Fase REM. Patrón similar a la vigilia con pérdida de tono muscular, ya que si no fuera
así, reproduciríamos los patrones de actividad cortical activados (saldríamos
corriendo o saltando). Se produce un incremento de la actividad y del metabolismo
cerebral, hay activación genital y es cuando tenemosunos sueños más intensos y
realistas (como si los estuviéramos viviendo).

El ciclo completo dura en torno a 90-100 minutos y se repite 3-5 veces cada noche
(figura 7.3). Obviamente no solemos despertamos cada 90-100 minutos ni la sucesión de
estas fases ocurre siempre de manera sistemática en cada ciclo. Suele haber un
alternancia de sueño REM y NO-REM y en este último una fluctuación entre fases. El
adormecimiento o somnolencia que indica el final de la vigilia da paso a la fase 1 de
sueño para después ir adquiriendo más profundidad hasta llegar a la fase 4. Después hay
un ascenso (pérdida de profundidad del sueño) que culmina con una fase REM para
después volver a adquirir profundidad, y así sucesivamente.

169
Figura 7.3. Ejemplo de un ciclo de sueño con sus diferentes fases.

El total de sueño REM en una noche puede suponer en tomo a un 20% del tiempo
total de sueño, una sola fase REM puede durar entre 20 y 40 minutos y suelen tener
mayor duración al final de la noche que al comienzo. La mayor parte del sueño profundo
o de ondas lentas ocurre en la primera parte de la noche, siendo menos profundo a
medida que avanza el periodo de sueño. Este ciclo de sueño y la duración total del
mismo varían a lo largo de la vida; los recién nacidos duermen mucho más que los
adultos y en la vejez disminuye el tiempo total de sueño, afectando especialmente al de
ondas lentas. Además, la proporción de sueño REM en la infancia es mucho mayor que
en la edad adulta y la vejez. Un recién nacido duerme mucho tiempo y solo suele
despertarse para comer, cuando está incómodo por suciedad o sufre algún dolor; poco a
poco, va incrementando el tiempo de la vigilia no asociada a necesidades. Bien, pues
prácticamente la mitad de su sueño es sueño REM, porcentaje que va disminuyendo a lo
largo de la vida hasta que en la vejez no supera el 15%.

En realidad, al referimos al sueño REM y al sueño NO-REM, especialmente el sueño


de ondas lentas, estamos hablando de dos tipos de sueño diferentes que probablemente
contribuyen de diferente manera a la homeostasis y a la fisiología en general del
organismo. Por ejemplo, los circuitos neurales que soportan ambos tipos de sueño son
ligeramente diferentes hasta el punto de que los responsables del sueño REM se
superponen con algunos de los circuitos responsables de la vigilia (Monti, 2010). La
actividad endocrina en uno y otro es diferente, durante el sueño REM el eje HPA está

170
activado mientras que en la fase NO-REM está inhibido y se incrementa la liberación de
somatotropina, la hormona del crecimiento (Boro y Wagner, 2009). Durante el sueño
NO-REM hay un cierto grado de tono muscular mientras que en la fase REM se produce
una desconexión troncoencefálica que impide que las señales generadas por la actividad
cortical alcancen las vías medulares y así evitar contracciones musculares y movimientos.
Por eso es durante el sueño de ondas lentas cuando se habla en sueños o cuando se dan
los casos de sonambulismo. También existen diferencias respecto a la actividad onírica;
siempre se había pensado que los sueños ocurrían durante la fase REM (por la activación
cortical presente), pero hoy se sabe que también soñamos durante el sueño de ondas
lentas. Si se despierta a una persona durante la fase REM y se le pregunta por sus sueños
dará todo lujo de detalles y describirá su sueño como una historia, con una estructura
narrativa organizada. Por el contrario, durante el sueño de ondas lentas los sujetos
describen sensaciones e impresiones pero sin que sean capaces de narrar lo que estaban
soñando. En la fase REM se pueden tener sueños muy agradables pero también
pesadillas, sin embargo, los terrores nocturnos ocurren durante el sueño de ondas lentas.

El sueño es necesario para la supervivencia. Aunque los resultados de diferentes


estudios no siempre se han podido considerar concluyentes por cuestiones
metodológicas, la privación total de sueño en modelos animales acarrea la muerte al cabo
de un tiempo por alteración de diversos sistemas orgánicos, especialmente el sistema
inmunitario. También hay resultados diversos en relación con los efectos conductuales,
cognitivos y emocionales que acarrea la privación de sueño en humanos. El primer
problema que se nos plantea es determinar cuánto tiempo es necesario dormir como
mínimo para que el organismo esté en buenas condiciones. Las habituales 8 horas que
solemos considerar como adecuadas en un adulto normal no constituyen una estimación
ajustada y las necesidades reales estarían por debajo, aproximadamente entre 5 y 6
horas. Claro que esto cambia con la edad ya que los niños y los jóvenes necesitan dormir
mucho más que las personas mayores. También importa la calidad del sueño y las
circunstancias de la persona en cada momento de su vida. Lo que coloquialmente
denominamos como sueño reparador puede implicar dormir menos horas de las
habituales para conseguir un buen nivel físico y cognitivo; también, en situaciones de
estrés sostenido o ciertas enfermedades las necesidades de sueño pueden verse
modificadas.

Parece que hay dos tipos de mecanismos que podrían intervenir conjuntamente para
determinar el momento y la duración del sueño en cada persona (ver Ramos Platón,
2005). Por un lado, mecanismos que controlan los ritmos biológicos (de los que
hablaremos más adelante) determinarían el momento en el que experimentamos la
necesidad de dormir (ciclo sueño-vigilia). Por otro lado, intervendrían mecanismos
homeostáticos que determinarían la cantidad de sueño que necesitamos en función del
estado fisiológico del organismo (vigilia prolongada, esfuerzo mental, modificaciones
hormonales...), es decir, ni siquiera en una misma persona las necesidades de sueño son

171
estables y constantes. Pero además, se conocen algunos casos curiosos de personas que
pueden mantener un estado fisiológico y cognitivo normal durmiendo menos tiempo
todavía, hasta situaciones extremas (menos de dos horas al día). Parecen casos
excepcionales que no se pueden tomar en consideración para responder a la pregunta de
cuánto tiempo necesita dormir una persona por término medio para vivir saludablemente.
Resulta difícil computar objetivamente el tiempo total de sueño incluso en los
laboratorios adecuados para ello porque a lo largo del día pueden darse lo que se
denominan microsueños (unos pocos segundos) que pueden actuar como compensación
a la reducción del tiempo de sueño nocturno; salvando las distancias, algo similar ocurre
en personas mayores que se quejan de que duermen mal por la noche y durante el día
suelen dar "cabezadas" con frecuencia. En una persona que necesita pocas horas de
sueño, estos breves episodios pueden ser suficientes para reducir la horas de sueño
efectivo en el periodo nocturno.

7.2.2. Circuitos cerebrales del sueño y la vigilia


El sueño no es un proceso pasivo ni homogéneo; buena prueba de ello son los
diferentes patrones de actividad cerebral observados en las diversas fases y la implicación
de varios circuitos nerviosos en su mantenimiento y modificación. La vigilia, por su
parte, tampoco es un estado homogéneo ya que los niveles de activación varían a lo largo
de la misma. Con frecuencia se utiliza el término anglosajón arousal para referirse a este
nivel de activación, el cual puede variar desde el simple hecho de estar despierto hasta los
niveles de activación que desarrolla el cerebro cuando se enfrenta a contextos complejos.
Como demostraron los trabajos clásicos de Moruzzi y Magoun (1949), una de las
estructuras cerebrales que juega un papel fundamental en el mantenimiento de la vigilia
es la formación reticular troncoencefálica, cuyas neuronas proyectan a amplias regiones
corticales manteniendo el nivel de activación de la misma. Curiosamente (o quizá no
tanto) también hay neuronas de la formación reticular implicadas en la inducción del
sueño REM, una similitud más con el estado de vigilia. Desde la formación reticular y
otros núcleos del tronco del encéfalo ascienden proyecciones colinérgicas,
noradrenérgicas y serotoninérgicas que mantienen activada la corteza cerebral y son las
principales responsables del estado de vigilia. El nivel de arousal depende del grado de
actividad de estos circuitos nerviosos que permiten al cerebro mantenerse alerta e
interactuar adecuadamente con el entorno.

Por el contrario, los circuitos responsables del sueño los vamos a localizar
preferentemente en el hipotálamo. Si reflexionamos sobre ello podemos pensar que como
el sueño tiene propiedades homeostáticas, es lógico que sea el hipotálamo, como gestor
fundamental de la homeostasis, uno de sus principales inductores. Una región del
hipotálamo, el área preóptica, está formada por neuronas inhibidoras que reducen o
bloquean la actividad de los circuitos anteriores produciendo una disminución del arousal
y por tanto somnolencia (Uschakov et al., 2007). Esta inhibición es recíproca, ya que las
neuronas del área preóptica también reciben aferencias inhibidoras de los circuitos

172
troncoencefálicos responsables de la vigilia. Así, cuando predomina la activación
hipotalámica experimentamos somnolencia y cuando predomina la actividad
troncoencefálica estamos despiertos. Algo similar ocurre con el sueño REM y NO-REM,
dos centros troncoencefálicos llamados REM-ON y REM-OFF se inhiben mutuamente
(Saper et al., 2005), de manera que, cuando predomina la actividad de REM-ON, la
persona entra en esta fase de sueño. Además, este centro REM-ON es el responsable de,
por ejemplo, la paralización que experimentamos durante esta fase de sueño. Este
mecanismo de inhibición recíproca implica que ambos circuitos no puedan ejercer sus
efectos simultáneamente; igual que no podemos estar despiertos y dormidos a la vez no
podemos estar en fase REM y NO-REM al mismo tiempo.

Ya conocemos entonces los centros nerviosos que provocan el sueño y la vigilia pero
¿qué determina la activación dominante de uno u otro? El reloj biológico nos dice cuándo
hay que dormir, pero también, independientemente de ese reloj, si llevamos mucho
tiempo despiertos tenemos sueño aunque sean las doce del mediodía. Una pista la
proporciona la orexina, un péptido liberado por un pequeño grupo de neuronas del
hipotálamo lateral que se proyectan a amplias regiones cerebrales y a la formación
reticular. La demostración de que pacientes con narcolepsia presentaban carencia de
orexina llevó a incrementar la investigación en esta dirección hasta demostrar su papel en
la regulación del sueño y la vigilia (Sakurai, 2005; Ohno y Sakurai, 2008). Otra sustancia
que se libera a lo largo de la vigilia, cuando las neuronas cerebrales están activas, es la
adenosina, que actúa también como un potente regulador del ciclo sueño-vigilia (Basheer
et al., 2004) ya que su acumulación ralentiza la actividad neuronal (después de un
esfuerzo mental prolongado nuestra capacidad cognitiva disminuye) e induce
somnolencia. Durante el sueño, la concentración de adenosina se reduce, especialmente
en el tronco del encéfalo, y el cerebro recupera su capacidad de procesamiento.
Curiosamente, la adenosina igual que la orexina también está relacionada con el
metabolismo energético (Porkka-Heiskanen y Kalinchuk, 2011), lo cual nos ayuda a
entender por qué después de una comida copiosa experimentamos somnolencia. Por
supuesto, hemos descrito aquí algunos de los circuitos más relevantes en la regulación del
ciclo sueño-vigilia, pero de forma muy simplificada ya que conforman una red de
conexiones mucho más amplia entre ellos y con otras estructuras nerviosas que permite
comprender todos los pormenores de este proceso.

7.2.3. Trastornos del sueño


El trastorno más frecuente del sueño es el insomnio, la incapacidad para dormir
adecuadamente un número suficiente de horas. Se puede manifestar de diferentes
maneras como dificultades para conciliar el sueño, despertares frecuentes o periodos
cortos de sueño. Ya hemos comentado que es frecuente en las consultas del médico de
familia escuchar quejas reiteradas acerca de la incapacidad para dormir adecuadamente
sin que haya indicadores objetivos de que esto sea cierto. Si la cantidad de sueño que
necesita una persona puede ser variable, descender con la edad y distribuirse a lo largo

173
del día (siestas, cabezadas...), es posible que dichas quejas estén enmascarando otro tipo
de problemas relacionados con la ansiedad u otros trastornos. Además, el ciclo sueño-
vigilia es susceptible de sufrir alteraciones como consecuencia de múltiples factores, uno
de los más frecuentes es el estrés y otro, aunque parezca paradójico, la propia
medicación para dormir que puede favorecer el desarrollo de tolerancia e incrementar las
dificultades para conciliar el sueño.

La narcolepsia es un trastorno en el que el paciente experimenta episodios repentinos


de sueño en cualquier momento y lugar sin que pueda evitarlos. Este trastorno puede
llevar asociadas crisis de catalepsia, en las que experimenta una debilidad muscular
repentina que puede hacerle que se desplome aun sin perder la consciencia. Estas crisis
de catalepsia suelen ser más frecuentes cuando la persona experimenta emociones
intensas o realiza esfuerzos musculares. También pueden experimentar lo que se conoce
como parálisis del sueño, la incapacidad para moverse al inicio del sueño o en el
momento de despertar. Otro síntoma de la narcolepsia son las alucinaciones
hipnagógicas, una especie de ensoñaciones (como sueños) que ocurren durante la vigilia.
Por supuesto que un paciente narcoléptico no necesariamente tiene que experimentar
todos estos síntomas (en clínica se suelen indicar todos los síntomas que pueden aparecer
en un trastorno; luego cada paciente experimenta su particular conjunto de ellos).
Además, no es infrecuente que una persona normal experimente algún episodio aislado
de la sintomatología anterior: despertarse y recuperar la consciencia pero ser incapaz de
mover los miembros, experimentar un sueño repentino y aparentemente incontrolable en
un entorno monótono y aburrido o alucinaciones hipnagógicas en esos estados fronterizos
entre el sueño y la vigilia.

Una de las causas más frecuentes de alteraciones del sueño en población normal es la
apnea obstructiva del sueño (AOS), trastorno en el que el paciente deja de respirar unos
instantes cuando está dormido y esto hace que se despierte. Está provocada por una
obstrucción parcial o total de las vías aéreas superiores provocando una especie de
espasmo respiratorio cuando el paciente consigue respirar de nuevo. En la mayoría de los
casos el paciente no es consciente de estos episodios, que se repiten varias veces durante
el sueño, y después durante el día sufre una marcada somnolencia que interfiere en su
actividad cotidiana y en su rendimiento cognitivo. Este trastorno afecta más a los
hombres que a las mujeres y la edad, el tabaquismo y la obesidad incrementan su
prevalencia. La AOS se puede considerar como el extremo de una serie de trastornos de
la respiración durante el sueño que afectan a la calidad y cantidad de este. En el extremo
contrario podemos situar a los ronquidos, una dificultad respiratoria que se considera más
una molestia para los demás que un problema para quienes los padecen. Sin embargo, es
un trastorno bastante habitual que supone una alteración del sueño y que tiene
consecuencias negativas especialmente en niños. Mientras que la AOS en niños tiene una
prevalencia entre el 2 y el 4%, los ronquidos afectan a un 16% de la población infantil
(Halbower y Mahone, 2009).

174
Parece que el sueño permite descansar al cerebro y recuperarse. La presencia de
actividad delta (ondas lentas) indica que la corteza cerebral está poco activada, lo que
lleva a suponer que se trata de un periodo de recuperación neuronal. Es obvio pensar que
si no se permite ese periodo de recuperación funcional de los circuitos cerebrales darán
muestras de mal funcionamiento. A pesar de que los datos de diferentes estudios no
siempre presentan conclusiones definitivas, sí parece que la privación de sueño o sus
alteraciones afectan en mayor o menor medida a la mayoría de conductas y procesos
cognitivos estudiados (Killgore, 2010). Sí es cierto que unos procesos resultan más
afectados que otros, igual que hay diferentes necesidades de sueño y diferentes
alteraciones del mismo. Además de los cuadros clínicos a que nos hemos referido
anteriormente, cuando hablamos de alteraciones del sueño también hay que tomar en
consideración múltiples situaciones cuya consecuencia es un menor tiempo o una menor
calidad de sueño, como el sueño fragmentado con múltiples despertares a lo largo de la
noche, la privación total de sueño o solo de sueño REM (esto en laboratorios de sueño
de modo experimental) o cualquier otra situación con consecuencias similares, por
ejemplo los turnos rotatorios en el trabajo. Además, este tipo de situaciones afecta al
funcionamiento diario en la escuela o en el trabajo, es causa frecuente de accidentes
laborales y de tráfico y ya se consideran como un importante problema de salud pública
(Durmer y Dinges, 2005; Phillip y Akerstedt, 2006) por lo que deben ser tomados en
consideración desde edades tempranas.

Muchas de estas situaciones se han estudiado experimentalmente en humanos y en


modelos animales encontrando afectadas la conducta y el funcionamiento cognitivo
(McCoy y Strecker, 2011). Los trastornos del sueño provocan alteraciones en la
capacidad y precisión perceptiva, en habilidades atencionales, funciones ejecutivas,
memoria implícita y explícita y también a nivel emocional incrementan la reactividad
(Durmer y Dinges, 2005; Walker, 2008). Por el contrario, hay estudios que demuestran
que un nivel adecuado de sueño en cantidad y calidad tiene efectos beneficiosos para el
funcionamiento cognitivo y el estado de ánimo (Stickgold y Walker, 2007; Walker, 2008).
Esto es especialmente importante en los procesos de aprendizaje y memoria. Una de las
funciones que se le atribuye al sueño es la de consolidar el aprendizaje, por lo que la falta
de sueño ocasionaría problemas en la fijación tanto de los recuerdos explícitos como de
las habilidades implícitas. Diferentes estudios han demostrado además que el sueño REM
interviene en la consolidación de estas últimas mientras que el sueño de ondas lentas
interviene en la consolidación de la memoria explícita (Boro y Wagner, 2009; Marshall y
Borra, 2007; Tucker et al., 2006; Walker y Stickgold, 2006). Esto puede explicar por qué
durante las etapas tempranas del desarrollo hay un porcentaje mayor de sueño REM y de
ondas lentas, ya que es una etapa fundamental para el aprendizaje y se requiere más
tiempo para consolidar lo aprendido (Wilhelm et al., 2012). Teniendo en cuenta esto,
parece razonable que se considere el sueño y sus alteraciones como un aspecto que se ha
de considerar durante el desarrollo infantil.

175
Existen bastantes estudios que demuestran que las alteraciones del sueño en niños y
adolescentes afectan a su rutina diaria y comprometen su funcionamiento cognitivo (ver
Beebe, 2011), llegando incluso a la aparición de indicios de daño neuronal (Halbower et
al., 2006). Si atendemos a los trastornos de la respiración durante el sueño, por ser los
más frecuentes, podemos encontrarnos que una buena parte de ellos no motivan
consultas médicas por no considerarse relevantes clínicamente a pesar de que afectan de
manera importante a la calidad de vida del niño. Diferentes estudios sobre el
funcionamiento cognitivo de niños con este tipo de alteraciones han encontrado efectos
negativos relevantes sobre su rendimiento en atención, velocidad de procesamiento,
habilidades visoespaciales, memoria y aprendizaje o funcionamiento ejecutivo y también
sobre su nivel intelectual (Halbower y Mahone, 2009; Karpinski et al., 2008; Mitchell y
Kelly, 2006). Además, también muestran cambios conductuales y emocionales,
depresión, agresividad, impulsividad, problemas de autoestima y, en general, un deterioro
significativo de su calidad de vida (Rosen et al., 2002; Ohayon, 2003). Todo esto nos
ratifica en la idea de que durante el desarrollo infantil es necesario tomar en
consideración la calidad y cantidad de sueño, no solo de cara al rendimiento académico
sino también de cara al desarrollo personal y emocional adecuado de estos niños. En el
caso de adolescentes es todavía más preocupante porque estas dificultades se añaden a la
reducción crónica de sueño como consecuencia de su habitual costumbre de permanecer
despiertos hasta altas horas de la madrugada, bien participando en redes sociales o con
cualquier otra actividad recreativa en Internet.

7.2.4. Ritmos biológicos


El SN tiene sus propios mecanismos para medir y regular el tiempo, son los relojes
biológicos. Estos mecanismos regulan diferentes ritmos biológicos que afectan no solo a
la fisiología del organismo, sino también como es obvio a la conducta y a la cognición.
Cuando estos ritmos tienen ciclos con una duración cercana a las 24 horas se denominan
circadianos (se puede traducir como uno al día o casi un día) y el ejemplo prototípico es
el ciclo sueño-vigilia. Cuando su duración es superior a un día (por ejemplo, el ciclo
menstrual de la mujer) se les denomina infradianos y cuando ocurren varias veces en un
día, se denominan ultradianos, por ejemplo, la alternancia de sueño REM y NO-REM.

En general, estos ritmos biológicos son mecanismos de adaptación a las condiciones


terrestres. Uno de los principales reguladores de estos ritmos biológicos es el ciclo de luz
oscuridad (día-noche), que depende de los movimientos terrestres de rotación y
translación. La duración de los días y las noches difiere mucho entre el ecuador y los
polos, en el primer caso la duración es casi igual y se mantiene todo el año mientras que
en el segundo hay mucha diferencia entre la duración del día y de la noche y con
variaciones estacionales. Por eso, podemos observar adaptaciones de ritmos biológicos
diferentes entre sí en especies endémicas de una zona u otra. En el caso del ser humano
también podemos encontrar algunas diferencias, sin embargo, son mucho menos
evidentes ya que hace mucho tiempo que usamos luz eléctrica y no dependemos

176
exclusivamente del ciclo díanoche para organizar nuestra conducta. La modificación
artificial de este ciclo provoca adaptaciones de nuestro reloj biológico. La luz es el
principal sincronizador que ayuda al reloj interno del organismo a regularse, por eso,
cuando se produce una desincronización entre las señales externas y la actividad del reloj
interno hay un periodo en el que se experimentan ciertas alteraciones fisiológicas (por
ejemplo, el jet lag) mientras el reloj biológico se adapta al nuevo ciclo díanoche.

El reloj interno podemos ubicarlo en el núcleo supraquiamático (NSQ) del hipotálamo,


situado en la parte anterior del hipotálamo por encima del quiasma óptico. Su alteración
modifica los ritmos circadianos y hace que estos se produz can de manera menos regular
(Hastings et al., 2008), por ejemplo, durmiendo de manera discontinua. Este núcleo
recibe proyecciones desde la retina (la vía retinohipotalámica) y así puede sincronizarse
con el ciclo de luz-oscuridad externo. Si sometemos a un grupo de animales a ciclos de
luz-oscuridad con intervalos horarios diferentes de las 24 horas del día, la actividad de su
núcleo NSQ se adapta a estos nuevos ciclos. Por el contrario, si las condiciones de luz (u
oscuridad) se mantienen constantes, el NSQ establece su propio ritmo intrínseco (ritmo
de curso libre) que dura unas 25 horas, un poco más que la duración del ciclo día-noche.
Hay estudios que han demostrado que las neuronas del NSQ poseen sus propios ritmos
circadianos que afectan a su actividad bioquímica y eléctrica (Brown y Piggins, 2007).
De esta manera, manifiestan una tasa de disparo rítmica que, al organizarse en circuitos,
sincronizan para regular los ciclos en el organismo. Esto es lo que permite a este núcleo
establecer los ritmos de curso libre cuando no hay estímulos externos. Además, mantiene
conexiones con otras regiones hipotalámicas que intervienen en el sueño y la vigilia, por
lo que regula esta actividad de acuerdo con el ciclo de luz-oscuridad activando durante el
día los circuitos responsables de la vigilia y durante la noche los del sueño (Mistlberger,
2005).

Pero el NSQ no es el único reloj biológico del organismo. El cerebro posee una
glándula de larga tradición neuroanatómica, la glándula pineal (GP), que, aunque no se
haya podido demostrar que sea la sede del alma como postulaba Descartes, al menos
sabemos que cumple ciertas funciones en la regulación estacional (Macchi y Bruce,
2004). Determinados animales están mucho más sujetos que los seres humanos a las
conductas estacionales (por ejemplo, la época de celo en hembras), las cuales parecen
estar reguladas por la GP. Esta glándula secreta melatonina, una hormona que es más
abundante por la noche, especialmente durante el inicio, y que disminuye su liberación
durante el día. Además, la GP también muestra diferentes tasas de liberación de
melatonina según la época del año ya que responde a cambios en los ciclos de
luminosidad (día-noche) y así "calcula" en qué época del año estamos. En algunos
animales (ciertos batracios y reptiles), la delgadez del cráneo permite que la mayor o
menor claridad exterior incida directamente sobre un tipo de fotorreceptores que hay en
la GP, pero en mamíferos esto no es posible, así que recibe conexiones de otras
estructuras, especialmente del NSQ. De este modo, interviene también en el control

177
circadiano aunque el papel que desempeñan ambas estructuras, NSQ y GP, presenta
alguna controversia sobre cómo se produce esta regulación (Turek y Gillette, 2004).

Es importante considerar que los ritmos biológicos no se limitan al ciclo sueñovigilia y


que a lo largo del día no mantenemos un estado homogéneo de alerta, igual que por la
noche no mantenemos un estado homogéneo de sueño. Esto pone de manifiesto que
nuestra capacidad cognitiva no es la misma a lo largo del día; cualquiera ha podido
experimentar estas situaciones en las que nos cuesta concentrarnos para poco después
volver a estar en plena forma. En ausencia de estímulos externos diferenciales, hay
momentos en los que nuestro nivel de atención y concentración es mayor o menor, lo
que se traduce en una mayor o menor capacidad cognitiva (Chaudhury y Colwell, 2002).
Existen conexiones entre el NSQ, los centros troncoencefálicos relacionados con la vigilia
y la corteza prefrontal que intervienen en la regulación de este rendimiento cíclico
(Deurveilher y Semba, 2005). La actividad de estos circuitos va modulando el nivel de
activación de la corteza prefrontal y determinando así su capacidad operativa en
actividades que requieren atención, memoria o funcionamiento ejecutivo. Esto debería
ser tenido en cuenta en el ámbito escolar a la hora de programar las actividades diarias de
los alumnos considerando el modo de optimizar la distribución de contenidos y tareas
académicas de acuerdo a la fluctuación cíclica del potencial cognitivo.

7.3. Sed, hambre y nutrición


La estabilidad del medio interno requiere también un equilibrio hídrico que garantice un
medio isotópico donde puedan desarrollarse los procesos celulares con normalidad.
Procesos celulares que requieren consumo de energía y la utilización de ciertas moléculas
que solo podemos conseguir mediante la dieta. En los siguientes apartados vamos a echar
un vistazo a los mecanismos que regulan la ingesta de líquidos y las sensaciones de
hambre y saciedad.

7.3.1. Regulación del líquido corporal


Hablamos al principio del capítulo de la importancia de mantener unas características
constantes en el medio interno para facilitar los procesos fisiológicos que son necesarios
para el correcto funcionamiento y la supervivencia del organismo. Bien, el nivel de
líquido y sus componentes es una de estas características que es necesario mantener
estable. Nuestro organismo posee aproximadamente un 70% de agua que está distribuida
entre el interior y el exterior de las células; en el interior (intracelular) se encuentran unas
dos terceras partes del total, mientras que el resto, el líquido extracelular, se reparte entre
el plasma sanguíneo, el líquido cefalorraquídeo (LCR) y el líquido intersticial (LI) que
baña a las células. Obviamente, no es agua pura, sino que contiene una serie de
elementos en disolución (soluto); uno de los más importantes para comprender el
mecanismo de regulación es el sodio o, más concretamente el cloruro sódico (C1Na), la
sal común. Como una rémora evolutiva, el LI es similar al agua del mar, donde se
originaron las primeras células vivas y de donde arrancó la evolución de los seres vivos.

178
En condiciones normales, el LI y el líquido intracelular tienen la misma concentración
de sal, decimos que es isotópico. Esto es necesario para que la activi dad de la célula
progrese sin problemas, ya que las variaciones de estas concentraciones pueden afectar a
procesos diversos. Las células intercambian moléculas con su entorno y ese intercambio
depende, entre otros factores, de la concentración molecular a ambos lados de la
membrana celular. Cuando se modifica la concentración del soluto dentro o fuera de las
células, entra o sale agua para igualar esa concentración, es lo que se conoce como
presión osmótica. Las modificaciones en el nivel del líquido o en la concentración del
mismo van a dar lugar a la sed. No hace falta explicar qué es la sed, todos la hemos
experimentado en algún momento y por diversas circunstancias (calor, comida salada...),
sin embargo, hay dos tipos de sed, provocadas ambas por causas diferentes.

-Sed osmótica: ocurre cuando la concentración de sodio en el LI se eleva. Esto puede


ocurrir como consecuencia del agua que perdemos, por ejemplo, durante la
respiración o cuando ingerimos una comida salada. Esto hace que se incremente el
nivel de sodio en el exterior de las células (el agua que perdemos en la respiración
es pura, sin elementos en disolución) y, por ese motivo, la presión osmótica empuja
el agua intracelular hacia el exterior haciéndole salir. Existen receptores que detectan
las variaciones de la concentración de soluto en una región denominada lámina
terminal, en la pared anterior del tercer ventrículo.

-Sed hipovolémica: tiene lugar cuando se produce una pérdida de agua y soluto al
mismo tiempo, por ejemplo cuando se sufre una hemorragia, vómitos o diarrea (en
las películas de guerra, los heridos suelen pedir agua). En este caso, la
concentración del medio interno y externo no varía. Los receptores que detectan la
disminución del volumen de líquido se localizan fundamentalmente en el corazón y
los riñones.

Un grupo de neuronas de la lámina terminal, el núcleo preóptico mediano, integra las


señales procedentes de ambos tipos de receptores. Existen conexiones con circuitos de la
corteza prefrontal anterior, que procesa estas señales, les atribuye una valencia negativa
(no es agradable sentir sed) y pone en marcha la conducta de beber.

7.3.2. Metabolismo y nutrición


Dice un clásico adagio que hay que comer para vivir y no vivir para comer. Y en
realidad, a lo largo de la historia de la evolución hemos podido encontrar ambas
opciones. Muchas especies de animales, y el propio ser humano en sus orígenes, dirigen
buena parte de su actividad a la obtención de alimentos, especialmente en épocas y
contextos en los que dicho alimento es escaso. Esto implicaba comer todo de lo que
fueran capaces mientras hubiera comida disponible porque no sabían cuándo tendrían
una nueva ocasión de alimentarse. Acumular una cantidad considerable de energía en
forma de tejido adiposo era una ventaja adaptativa para sobrevivir en épocas de

179
hambruna; era una obesidad beneficiosa. Cuando la cantidad de alimento disponible es
abundante y estable, el ser humano empieza a reducir el tiempo que ocupa en su
consecución y lo dedica a otras actividades. Sin embargo, conservamos algunos hábitos
filogenéticos que hacen que, en sociedades desarrolladas, dediquemos mucho tiempo a
ingerir grandes cantidades de alimento que no son necesarias porque tenemos asegurada
su disponibilidad futura. Así surge un problema frecuente en estas sociedades, la
obesidad. Actualmente, el sobrepeso y la obesidad son problemas sanitarios que afectan a
una población cada vez más joven.

Los mecanismos que regulan las sensaciones de hambre y saciedad y que propician la
conducta encaminada a la obtención de alimentos son más complicados que los que
regulan el equilibrio de agua y sal. Quizá porque la supervivencia depende de la ingesta
de alimentos y la evolución no se arriesga a que un aspecto tan determinante dependa de
un único mecanismo que puede resultar alterado o suprimido por múltiples causas.
Además, en este caso se trata de regular el equilibrio de muchos elementos ya que
mediante la alimentación obtenemos la energía que necesitan las células para su
funcionamiento pero también los nutrientes necesarios para los procesos metabólicos.

En el proceso de utilización de la energía podemos diferenciar dos fases, la de


absorción y la de ayuno. La primera tiene lugar cuando estamos comiendo o hay
alimento en el tracto digestivo; el objetivo de la digestión es descomponer la comida en
sus elementos (lípidos, aminoácidos, glucosa...) para que puedan ser absorbidos y
utilizados. La glucosa es la forma más importante de energía, así que durante esta fase
obtenemos la energía directamente del contenido del tracto digestivo. El cerebro solo
puede utilizar glucosa como fuente energética mientras que las células del resto del
cuerpo pueden obtener energía de la glucosa y del tejido adiposo, de la grasa que
acumulamos como reserva energética a largo plazo. Para que las células del cuerpo
puedan utilizar la glucosa es necesario que haya insulina disponible, una hormona
secretada por el páncreas. Esta hormona, además, interviene en la conversión de la
glucosa en glucógeno para que de esta forma pueda ser almacenado en el hígado y los
músculos como depósito de reserva. Durante la fase de ayuno los niveles de glucosa
descienden, entonces el páncreas deja de secretar insulina y libera glucagón que convierte
el glucógeno en glucosa nuevamente. Durante todo el proceso se da prioridad al cerebro
en la utilización de la glucosa, ya que, en caso de necesidad, el resto de células pueden
utilizar los ácidos grasos, porque además, como cesa la secreción de insulina no pueden
incorporar la glucosa.

En muchas especies de animales la reducción de los depósitos de energía les lleva a


buscar alimento nuevamente, sin embargo, en el ser humano este proceso es más
complejo porque intervienen factores cognitivos, sociales y culturales que se sobreponen
a los mecanismos primarios que impulsan a cualquier animal a obtener comida. Muchas
veces comemos sin hambre e incluso hemos adaptado el ciclo del hambre a un horario de
conveniencia. Tres comidas diarias, a horas concretas y aunque el transcurso de tiempo

180
intermedio sea irregular, experimentamos hambre a las horas señaladas. Regulamos la
sensación de hambre según lo apetitoso o no de la comida, pero estimando este
parámetro en función de criterios no nutricionales, sino experiencias anteriores o el valor
de incentivo que atribuyamos a cada alimento. Existen diversos tipos de señales para
indicarle al cerebro la necesidad de ingerir alimentos. Desde el sistema digestivo,
especialmente el estómago y el inicio del intestino delgado, se liberan una serie de
hormonas que transmiten al cerebro la sensación de hambre o de saciedad (Patel y
Ebenezer, 2008; Stengel et al., 2010). Niveles altos de grelina, una hormona relacionada
con la sensación de hambre, impulsa a comer mientras que otras como la
colecistoquinina (CCK) o la leptina generan señales de saciedad que hacen finalizar esa
conducta. Pero no son las únicas, recordemos por ejemplo que la adenosina y la orexina
también están relacionadas con el metabolismo energético. Sin embargo, ya hemos dicho
que en humanos además hay que contemplar otros factores además de los homeostáticos
puesto que no solo comemos para regular los niveles de energía.

Los circuitos cerebrales que controlan la ingesta de alimentos se localizan en las


regiones filogenéticamente más primitivas del SN. Durante muchos años se consideraban
dos centros hipotalámicos como responsables del las sensaciones de hambre y saciedad.
La lesión en el hipotálamo lateral hacía que los animales no comieran aunque tuvieran
comida disponible, no experimentaban sensación de hambre; por el contrario, la
estimulación de este centro les provocaba hiperfagia. Al revés ocurría con el hipotálamo
ventromedial, la lesión provocaba hiperfagia y la estimulación hacía que rechazaran la
comida aun estando privados de alimentación regular. Un proceso tan complejo no podía
estar regulado de una marera tan simple y una revisión metodológica de estos estudios
demostró que la explicación era un poco más compleja. Diferentes circuitos
hipotalámicos (algunos localizados en esas áreas) poseen receptores específicos para
detectar las señales generadas en el sistema digestivo y mediante conexiones con otras
áreas cerebrales poner en marcha la conducta apropiada.

Fisiológicamente, hay más mecanismos que controlan la sensación de hambre que los
que controlan la de saciedad (es más probable morir de inanición que de un atracón), por
ese motivo hay una circuitería cerebral más compleja para ocuparse del hambre. Las
señales fisiológicas homeostáticas son las que actúan inicialmente para generar la
sensación de hambre, sin embargo, también intervienen señales ambientales que
compiten con aquellas y que suelen imponerse; ya hemos dicho que comemos sin
hambre en bastantes ocasiones. Además de los circuitos hipotalámicos, se han
identificados otras regiones como el hipocampo, la amígdala o la corteza prefrontal que
poseen receptores para las hormonas antes referidas (Figlewicz y Sipols, 2010;
Petrovich, 2013) y que pueden determinar las sensaciones de hambre (sin necesidades
energéticas) o saciedad (en condiciones de hiponutrición). Estos circuitos están
incorporando factores motivacionales para considerar la comida como una recompensa o
como un estímulo aversivo y actuar en consecuencia. Pensemos que en las sociedades

181
modernas la comida está considerada en muchos aspectos como placer más que como
necesidad, y gracias a ello, ha surgido toda una industria gastronómica.

Esta situación nos obliga a pagar un alto precio: los problemas alimenticios por exceso
(obesidad) o por defecto (anorexia) se han convertido en una preocupación sanitaria de
primer orden. La desregulación de los mecanismos implicados puede llevar a una persona
a estas situaciones. La obesidad solo se considera clínicamente en ocasiones muy
puntuales, dejando el sobrepeso como un simple problema de imagen. Por su parte, la
anorexia nerviosa o la bulimia sí tienen esta consideración pero todavía hay mucho
camino que recorrer para conocer mejor estos trastornos y diseñar intervenciones
eficaces que ayuden a quienes los padecen. Una adecuada educación nutricional (en el
colegio y en la familia) desde etapas tempranas puede ser un paso inicial, pero no debe
ser el único ya que hay factores emocionales relacionados con la autoestima y la
autopercepción y presiones sociales y mediáticas que tienen que ser tomadas en cuenta.

182
183
Para que el cerebro pueda organizar la conducta de manera eficiente es necesario que
posea información actualizada de lo que ocurre en nuestro entorno y del estado de
nuestro cuerpo. De esta tarea se encargan los sentidos. Nos relacionamos con el mundo
que nos rodea a través de ellos. Vemos, oímos, tocamos... y todo ello es enviado al
cerebro para que podamos actuar de manera eficaz. Efectivamente, es nuestro cerebro el
que ve y oye, sin embargo no tiene ninguna ventana abierta al exterior, por lo que tiene
que interpretar las señales que recibe. Las sensaciones son el resultado de la acción del
estímulo sobre el órgano sensorial, sin embargo, la percepción es el resultado de la
elaboración e interpretación del estímulo que hace el cerebro basándose en el
conocimiento que posee, en lo que recuerda del significado del estímulo o en las
expectativas acerca de lo que espera percibir, llegando incluso a reconstruir un estímulo a
partir de los elementos percibidos (figura 8.1). Es por tanto, a través de las sensaciones
que experimentamos con nuestros sentidos como nuestro cerebro realiza una
representación del mundo real, lo que convierte al proceso perceptivo algo más que una
mera acumulación de sensaciones.

Todo lo que nos rodea es materia y energía; los sistemas sensoriales se han ido
especializando en detectar parte de esa energía. La visión o la audición solo pueden
responder a una pequeña franja del espectro electromagnético o a una limitada gama de
frecuencias sonoras. Esto significa que la realidad que nosotros percibimos está
determinada por las posibilidades de nuestros receptores. ¿Cómo veríamos la naturaleza
si pudiéramos ver las ondas ultravioletas o infrarrojas? ¿Cómo escucharíamos a Mozart o
a Queen si pudiéramos oír los ultrasonidos? Otros animales sí pueden percibir ondas
ultravioletas como las abejas o ultrasonidos como los perros o los delfines, pero eso no
significa necesariamente que tengan acceso a un espectro perceptivo superior al ser
humano, no, simplemente diferente. No existe una realidad absoluta ahí fuera, son
nuestros sistemas sensoriales y nuestro cerebro los que, respondiendo a determinadas
señales, reconstruyen lo mejor posible el entorno para interactuar con él.

184
Figura 8.1. Ilusión de Kanizsa y animal parcialmente oculto. A la izquierda no hay
dibujado ningún triangulo blanco y a la derecha resulta muy fácil para el cerebro
completar la imagen y saber de qué animal se trata.

Los receptores sensoriales son células especializadas en convertir diferentes tipos de


energía en impulsos nerviosos. La transducción sensorial es el proceso por el que la

185
energía se transforma en potenciales de acción; diferentes tipos de energía, ya que los
órganos de los sentidos son receptores especializados que pueden responder a la energía
lumínica (retina), mecánica (audición, tacto) o a moléculas químicas (gusto y olfato). Los
potenciales nerviosos son iguales para cualquier circuito sensorial, sin embargo, la
representación que forma nuestro cerebro de esas señales es distinta. A pesar de todo, los
sistemas sensoriales comparten algunos atributos más. Por ejemplo, todas las vías
sensoriales, a excepción de la olfativa, establecen relevo en núcleos talámicos antes de
llegar a la corteza cerebral y en dicha corteza suele haber una cierta organización
topográfica referida a los campos perceptivos.

Otra característica común de los sistemas sensoriales es una cierta organización


jerárquica en lo que a procesamiento de la información se refiere. Es decir, las neuronas
de la vía sensorial realizan un procesamiento cada vez más complejo a medida que
avanzamos; comienzan respondiendo a las características más simples del estímulo para
ir integrándolas en sucesivos niveles de procesamiento. Ya en la corteza cerebral, destino
último de la información, los impulsos procedentes del tálamo se procesan en las
respectivas cortezas sensoriales pri marías. Las neuronas de la corteza primaria
proyectan a la corteza secundaria donde se realiza una integración de las señales para
llevar a cabo un procesamiento más complejo antes de enviar nuevas señales a la corteza
de asociación polimodal, donde se integran con señales procedentes de otras modalidades
sensoriales para construir una representación perceptiva compleja. No obstante, si bien la
mayor parte de las proyecciones siguen este esquema, se han descrito proyecciones
retrógradas desde áreas asociativas a la corteza primaria e incluso a regiones
subcorticales. Esto es razonable si consideramos que el proceso perceptivo también se ve
influido e, incluso, modificado por la experiencia previa y las expectativas.

En este capítulo nos vamos a ocupar únicamente de los sistemas visual y auditivo, a
los que dedicaremos más tiempo por su especial relevancia para los seres humanos.
Ambos sistemas se complementan a pesar de las diferencias obvias. El sistema visual
procesa de manera óptima en la dimensión espacial, mientras que el auditivo lo hace en la
temporal. Cuando vemos una escena no solo identificamos los diferentes componentes
de la misma sino que también procesamos las relaciones espaciales entre ellos; por su
parte, el sistema auditivo puede procesar de manera óptima secuencias de estímulos y
detectar cualquier pequeña variación de las mismas. El sistema visual es integrador ya
que procesa los componentes del estímulo para formar la representación visual
(pensemos en los colores como mezcla de longitudes de onda) mientras que el sistema
auditivo descompone las frecuencias del estímulo percibido para identificar la fuente que
lo produce.

Parece claro que los seres humanos dependemos en gran medida de la información
visual para interactuar con nuestro entorno y eso se traduce en una mayor porción de
tejido cerebral a su disposición. También tenemos buena capacidad auditiva para detectar
y discriminar sonidos, gracias a un desarrollo de la corteza auditiva proporcionalmente

186
superior al observado en otras especies de animales. Esta habilidad es relevante para el
desarrollo del lenguaje y la comunicación verbal, pero también para otro tipo de
interacciones con nuestro entorno ya que vista y oído se complementan. Por ejemplo, la
visión nos permite detectar rápidamente los componentes de una escena, pero el sonido
nos puede ayudar a detectar aquellos que permanecen ocultos. También en el ámbito
social, cuando nos relacionamos con alguien es importante saber escuchar y expresarse
para intercambiar información o ideas, pero la información visual es un complemento
básico para dotar de contenido y significado a muchos de los mensajes verbales. En
cualquier caso, son dos sistemas que resultan fundamentales para el aprendizaje y, por
tanto, son la base de la mayoría de los procedimientos utilizados en la educación.

8.1. Sistema visual


Los humanos dependemos en gran medida de nuestro sistema visual. De hecho, en
nuestro cerebro hay en tomo a un 20% de las áreas corticales dedicadas al procesamiento
de información visual, algo que no ocurre en otras especies que dependen más de otros
sentidos. A pesar de que solo percibimos una estrecha franja del espectro
electromagnético (figura 8.2), procesamos esas señales para reconstruir un entorno
complejo donde se combinan formas, colores, distancias y relaciones entre estímulos. La
correcta integración de todas estas señales permite al cerebro planificar acciones de
manera precisa y eficaz.

Figura 8.2. Representación del espectro electromagnético. El espectro visible para el ojo
humano se sitúa entre 380 y 760 nanómetros.

8.1.1. Receptores y vías del sistema visual


El ojo es el órgano de la visión y contiene receptores para responder a la luz que
reflejan los objetos. Por eso es necesaria una fuente de luz, sea el sol o cualquier
dispositivo artificial, porque en oscuridad absoluta no es posible la visión. Podemos
percibir objetos con una luminosidad muy baja, pero en ausencia total es imposible. El
ojo está formado por tres membranas, la esclerótica más externa y opaca salvo en la
porción anterior donde está la córnea, la coroides y la retina, la capa más interna que
contiene los fotorreceptores. En la parte anterior, por detrás de la córnea se sitúan el iris

187
y el cristalino; el primero es un músculo circular cuya abertura central es la pupila, el
lugar por donde accede la luz al interior del ojo y que modifica su apertura según el grado
de luminosidad. El cristalino actúa como una lente permitiendo que la luz incida
adecuadamente sobre la retina, para lo que puede modificar su grosor gracias a los
músculos ciliares, es lo que se conoce como acomodación visual.

La retina contiene los receptores para la visión, conos y bastones, y es ahí donde se
inicia el proceso visual. En realidad, la retina es tejido nervioso, por eso está organizada
en capas celulares: la capa más interna la forman los fotorreceptores, después hay una
capa de neuronas bipolares y por último una de neuronas ganglionares cuyos axones
conforman el nervio óptico. Las células de la retina están organizadas en conexiones casi
lineales y convergentes de manera que varios receptores proyectan a una neurona bipolar
y varias bipolares proyectan a una ganglionar (figura 8.3). Hay otros tipos de células que
establecen conexiones transversales entre las líneas anteriormente descritas, son las
amacrinas y las horizontales. La fóvea es la región de la retina situada en la zona central
y donde la visión es más precisa, mientras que el punto ciego o papila óptica es donde
convergen los axones de las neuronas ganglionares y el inicio del nervio óptico, por lo
que no hay fotorreceptores. Sería lógico pensar que si hay una zona de la retina que no
contiene receptores para la visión, no veríamos una parte de nuestro campo visual; sin
embargo no es así gracias a los movimientos sacádicos (sacudidas) que hacen que
nuestros ojos se muevan bruscamente de un lado a otro del campo visual. Gracias a estos
movimientos hacemos un barrido constante de nuestro campo visual, realizando breves
paradas (fijaciones) en diversos puntos del mismo para reconstruir la totalidad, algo
necesario, por ejemplo, en la lectura (Heinzle et al., 2010). Los movimientos sacádicos
tienen múltiples funciones visuales, como por ejemplo corregir errores de la mirada o
relacionar e integrar diferentes estímulos de una escena visual. Hay otro tipo de
movimientos, microsacádicos, que son más breves y, aunque hay discrepancias al
respecto, parece que los sacádicos cumplen sus funciones durante la conducta
exploratoria y los microsacádicos durante la fijación (Martínez-Conde et al., 2013).

Hay tres tipos de conos que responden a diferentes longitudes de onda; esto es debido
a que poseen tres variantes de un pigmento, la opsina, que reaccionan de manera
diferente mostrando cada una mayor sensibilidad a las longitudes de onda corta (azul),
media (verde) y larga (rojo). El gen relacionado con el desarrollo de los conos sensibles a
las longitudes de onda largas está localizado en el cromosoma X y se han descrito casos
de heterocigosis en mujeres, lo que algunos consideran como la existencia de un cuarto
cono. Aunque hay varios casos descritos de esta heterocigosis no había pruebas de que
dicha dotación implicara una ventaja en la percepción del color. Sin embargo, se ha
descrito un caso de tetracromía en una mujer que puede percibir una gama de colores
muy superior a la media (Jordan et al., 2010). Por su parte, los bastones contribuyen a
percibir los contrastes luz-oscuridad por lo que son muy efectivos para ver en
condiciones de baja luminosidad. A veces, para discriminar contrastes de baja

188
luminosidad los conos resultan ineficaces y hay que recurrir a los bastones. Podemos ver
un ejemplo cualquier noche despejada en la que sean apreciables las estrellas en el cielo.
A veces, queremos ver una poco brillante y parece que se oculta cuando la miramos de
frente (como si fuera vergonzosa), pero si desplazamos nuestro foco visual unos pocos
grados reaparece; esto es porque hacemos que la luz que refleja incida sobre los bastones
de la periferia de la retina, en vez de sobre los conos de la fóvea.

Figura 8.3. Capas de la retina. No se han representado las células horizontales y


amacrinas. Los axones de las ganglionares convergen en el punto ciego para formar el
nervio óptico.

Los axones de las neuronas ganglionares forman el nervio óptico que se dirige al
cerebro. Sin embargo, antes de entrar en el cerebro propiamente dicho está el quiasma
óptico, el lugar donde las fibras del nervio óptico se bifurcan de modo que, parte de ellas
van al hemisferio cerebral del mismo lado y la otra parte al hemisferio contrario. Solo
decusan, es decir, solo cambian de lado los axones procedentes de la mitad de la retina

189
medial, la que está más cerca de la nariz, mientras que los axones de la mitad lateral o
temporal (cerca del hueso temporal) se dirigen al hemisferio del mismo lado. El resultado
es que las dos mitades izquierdas de ambas retinas proyectan al HD y las dos mitades
derechas al HI (figura 8.4); así, cada mitad del campo visual se procesa en el hemisferio
contrario.

La mayor parte de los axones del nervio óptico se dirigen al núcleo geniculado lateral
(NGL) del tálamo y de ahí a la corteza cerebral. Esta vía se conoce como vía
geniculoestriada, haciendo referencia al relevo talámico y a la corteza visual primaria
(V1), llamada estriada por el aspecto que presenta bajo ciertas tinciones para su
observación al microscopio. Sin embargo, no es la única vía visual que existe en el SN
humano ya que hay otras de carácter secundario.

190
Figura 8.4. Esquema de la vía óptica donde se aprecia la decusación de las porciones
mediales del nervio óptico. Ambos ojos reciben la luz reflejada por ambos estímulos,
pero la organización de la vía hace que cada uno de ellos se procese en el hemisferio
contrario.

Desde la retina parten axones con destinos diversos como el pretectum, el núcleo
óptico accesorio o el núcleo supraquiasmático del hipotálamo, que tiene que ver con el
ajuste del organismo a los ciclos de luz-oscuridad. También se ha identificado la

191
denominada vía tectopulvinar que se dirige hacia el tectum y posteriormente al núcleo
pulvinar talámico desde donde proyecta a la corteza visual asociativa parietotemporal.
Tanto esta como la vía geniculoestriada confluyen en la corteza visual de asociación,
pero la tectopulvinar no pasa por VI, lo que nos permite comprender el fenómeno de
visión ciega del que hablaremos más adelante. La vía geniculoestriada es
filogenéticamente más reciente e incluye aproximadamente al 90% de los axones que
salen de la retina, está considerada como la vía visual principal y ha sido la más estudiada
hasta ahora. Por su parte, las otras vías participan en funciones más primarias y
automáticas como la contracción de la pupila, la acomodación del cristalino, los
movimientos oculares o las respuestas de orientación y localización espacial de los
estímulos percibidos. Son vías filogenéticamente más antiguas y rápidas que nos
permiten reaccionar de manera rápida y automática ante estímulos inesperados, como
por ejemplo un movimiento en nuestra periferia visual.

Después del relevo sináptico en el NGL, los axones de la vía GS (radiaciones ópticas)
llegan a la corteza visual primaria localizada en el polo caudal del lóbulo occipital. Esta
región cortical no es la única que se ocupa del procesamiento visual ya que podemos
identificar otras muchas áreas visuales más tanto en el lóbulo occipital como en el parietal
y en el temporal. Las proyecciones que llegan a VI son retinotópicas, es decir,
reproducen con bastante fidelidad la topografía de la retina. Dos estímulos que incidan
sobre dos regiones contiguas de la retina van a ser procesadas en dos regiones contiguas
de la corteza V1. Esta región es funcionalmente heterogénea ya que es donde se realiza
un primer análisis de las características más elementales del estímulo que luego se
completará para la percepción de la forma, el color y el movimiento en otras áreas de
procesamiento visual posterior. Las otras áreas visuales se denominan corteza
extraestriada y abarca regiones occipitales, parietales y temporales donde podemos
encontrar áreas visuales que responden a atributos específicos de la imagen visual.

8.1.2. Codificación y procesamiento cortical de la información visual


Mucho de lo que conocemos acerca del funcionamiento del sistema visual se lo
debemos a los trabajos pioneros de David Hubel, Torsten Wiesel y Semir Zeki,
investigaciones por las que los dos primeros recibieron el premio Nobel en 1981. Uno de
los aspectos más relevantes fue el descubrimiento de que en las vías visuales había
neuronas que se activaban de manera alternativa ante la presencia o ausencia de luz y
que podían responder de modo diferente según la luz se situara en el centro o en la
periferia del campo receptor de cada una de ellas. El campo receptor de una neurona es
la parte del espacio a la que responde dicha neurona y generalmente es de forma circular.
En realidad, las neuronas visuales tienen un cierto grado de actividad constante (como la
mayoría de las neuronas del SN) por lo que, cuando la luz incide sobre ellas, responden
modificando la tasa de disparo, es decir, el número de potenciales de acción por segundo.
Así, las neuronas ganglionares denominadas centro ON incrementan su tasa de disparo
cuando la luz incide sobre el centro de su campo receptivo, y disminuye cuando la luz

192
incide sobre la periferia; por el contrario, las células centro OFF responden de manera
inversa (figura 8.5). Esta forma de responder es especialmente útil para percibir los
bordes y los contornos de los objetos del campo visual. A fin y al cabo, los contornos
vienen definidos, entre otros aspectos, por una diferencia de luminosidad entre dos áreas
y marcan la ruptura de una continuidad estimular. El modo de respuesta de estas células
produce un incremento de los contrastes a causa de la excitación/inhibición que se
produce en células contiguas. En la naturaleza es fundamental percibir los contornos
para, entre otras cosas, poder identificar los objetos y diferenciar unos de otros o poder
apreciar la perspectiva (aquí también interviene la comparación de tamaño que realiza el
cerebro entre el apreciado y el esperado).

Figura 8.5. Células ON y OFF y su tasa de disparo según donde incida la luz. Cuando
incide sobre la mayor parte de su campo receptivo, las neuronas no modifican su
respuesta.

En VI existe una representación topográfica de la retina pero no es proporcional


porque la región foveal ocupa una porción cortical mayor que el resto de la retina. En
esta región de la corteza se encuentran unas neuronas que responden a una orientación
en particular de una línea o un borde y permanecen en silencio cuando cambian de
orientación. Es decir, unas responden ante una línea o un borde vertical, otras ante una

193
con una inclinación de 100, otras de 20° y así sucesivamente. Estas neuronas,
denominadas células simples, también funcionan como células on-off, solo que en este
caso sus campos receptivos son rectangulares y responden de manera óptima cuando la
luz incide sobre una franja del mismo y no sobre la totalidad. El tipo de respuesta de
estas células resulta de la integración de las señales generadas por las neuronas del NGL,
lo que supone elevar el nivel de complejidad de las señales procesadas. Otro tipo de
neuronas en la corteza estriada son las células complejas, con campos receptores más
grandes que las células simples y que responden a la orientación de líneas y bordes pero,
en este caso, siempre que el estímulo incida en cualquier parte de su campo receptivo.
Integran las señales procedentes de las células simples antes de enviar sus señales a un
tercer tipo de neuronas, las células hipercomplejas, que también responden
preferentemente a la orientación de líneas pero con la peculiaridad de que son capaces de
detectar los extremos de las líneas (el comienzo y el final) gracias a una región inhibidora
en su campo perceptivo. En resumen, el procesamiento de la información en la corteza
visual primaria consiste en la integración progresiva de señales simples, permitiendo la
construcción de una representación visual compleja a partir del procesamiento de sus
características más elementales.

En la corteza V1 se procesa e integra la información procedente de los núcleos


talámicos para formar una primera representación del estímulo visual pero
posteriormente debe ser procesada en otras áreas cerebrales hasta completar el proceso
perceptivo en toda su dimensión. El flujo de información sigue hacia la corteza
extraestriada donde se localizan áreas visuales secundarias como V2, V3, V3a, V4 y V5
(figura 8.6). Estas regiones realizan funciones cada vez más especializadas, ya que están
formadas por neuronas que responden a campos receptores más amplios y procesan
estímulos visuales más complejos, como el área V5 (denominada también MT como
abreviatura de medial temporal), con neuronas que responden al movimiento o el
complejo V4/V8 que está implicado en la percepción del color (Grill-Spector y Malach,
2004). Ya hemos hablado que en la retina existen tres tipos (o cuatro) de conos que
responden a diferentes longitudes de onda con lo que tenemos una primera
representación de las características cromáticas del estímulo. La cantidad de luz que
refleja un objeto puede variar sensiblemente según la luz que lo está iluminando, sin
embargo, no tenemos dificultades para reconocer el color rojo de un objeto cuando lo
ilumina el sol o cuando lo vemos a la luz de una vela. Es lo que se denomina constancia
del color y resulta de los ajustes que hace el cerebro sobre las señales que recibe de la
reti na comparando la luz que refleja el objeto con la del resto del entorno. Este proceso
facilita el reconocimiento visual aun cuando se modifiquen las condiciones de
iluminación. Por último, las áreas secundarias envían información a la corteza de
asociación multimodal. No obstante, hay proyecciones retrógradas hacia VI y V2
(Rockland y Ojima, 2003), lo que relativiza la organización jerárquica del sistema en
términos absolutos. Además, también hay proyecciones desde la corteza estriada al NGL
(Sherman y Guillery, 2002), por lo que parece habitual que una vía sensorial incluya

194
proyecciones retrógradas para afinar su funcionamiento.

Figura 8.6. Vista de algunas de las áreas visuales en un corte sagital del encéfalo
(izquierda). Corrientes occipitoparietal (dorsal) y occipitotemporal (ventral) de las
proyecciones visuales (derecha).

195
También V2 se ocupa del procesamiento preliminar de forma, color y movimiento,
pero además es responsable de la disparidad binocular, proceso que resulta fundamental
para la percepción de la profundidad. De V1 y V2 surgen dos nuevas vías de
procesamiento, las denominadas corrientes ventral (occipitotemporal) y dorsal
(occipitoparietal) respectivamente (figura 8.6). La vía ventral progresa hacia la corteza
temporal y nos permite identificar las características del estímulo y reconocerlo, por eso
se le denomina también vía del qué; por su parte, la corriente dorsal, que se adentra en la
corteza parietal, nos permite percibir la ubicación de los estímulos en el espacio y
programar la coordinación visomotora para el movimiento, por eso se la denomina
también vía del cómo o del dónde.

Si avanzamos por la vía ventral nos encontramos regiones corticales que se ocupan del
procesamiento de atributos más específicos de la imagen visual, co mo la región V4 para
el color o V5 para el movimiento. Como hemos dicho, una buena parte de la corteza
cerebral se dedica al procesamiento visual ya que la percepción de las imágenes es algo
más que un mero registro de experiencias visuales y requiere de la integración de las
mismas en redes más amplias que almacenan otras representaciones visuales. Esto lo
podemos apreciar fácilmente con la constancia del objeto, es decir, con la facilidad que
tenemos para reconocer un objeto aunque lo veamos desde posiciones distintas y con
diferentes ángulos de rotación. Para ello, necesitamos comparar lo percibido en un
momento determinado con las representaciones de ese mismo estímulo que tenemos en
nuestra memoria. Cuando percibimos un estímulo por primera vez formamos una
representación simple del mismo que irá ganando complejidad a medida que la
vinculamos con nuevas experiencias visuales. Por su parte, la vía dorsal está más
relacionada con la localización del objeto en el espacio y con los movimientos oculares y
conductas motoras dirigidas a un objeto, por ejemplo, para cogerlo con la mano.
Podemos simplificar diciendo que los circuitos de la vía ventral nos permiten identificar
los estímulos y los de la vía dorsal guiar nuestra conducta en relación con ellos.

8.1.3. Alteraciones de la percepción visual


La vía geniculoestriada es la que contribuye de manera más importante a la percepción
visual en humanos, motivo por el que la mayor parte de las alteraciones visuales están
causadas por lesiones en esta vía o en la corteza cerebral. La lesión de un ojo o del tramo
de nervio óptico correspondiente hasta el quiasma supone la ceguera de ese ojo, sin
embargo, más allá del quiasma, las lesiones del tracto óptico pueden ocasionar
alteraciones de la percepción en regiones del campo visual de ambos ojos, como la
hemianopsia o la cuadranopsia. Tanto la una como la otra son pérdidas de la visión en
determinadas partes del campo visual. La hemianopsia afecta a la mitad del campo visual
de uno o ambos ojos, la cuadranopsia afecta a un cuadrante del campo visual. Ambas
alteraciones pueden estar provocadas también por lesiones focales en la corteza estriada,
pero no es frecuente encontrar una lesión tan localizada. Es más frecuente la aparición de
escotomas, pequeñas regiones del campo visual donde se ha perdido o alterado

196
significativamente la visión. En todos estos casos va a resultar afectado un lado del
campo visual o ambos, según la lesión se localice en un hemisferio cerebral o en ambos.
En el caso de los escotomas, si las lesiones en la corteza estriada son pequeñas, pueden
pasar desapercibidos como consecuencia de los movimientos sacádicos y de la
reconstrucción que hace el cerebro del espacio visual cuando hay discontinuidad en sus
componentes.

Un fenómeno que todavía sigue intrigando al colectivo científico es la denominada


visión ciega (blind sight). Se trata de las curiosas consecuencias de una lesión en la
corteza estriada: el sujeto es ciego, no tiene consciencia visual en la parte del campo
visual afectada, pero puede emitir respuestas basadas en señales visuales aunque no sea
consciente de ello. Este fenómeno ya fue descrito hace muchos años por el psicólogo
inglés Lawrence Weiskrantz y su equipo (Weiskrantz el al., 1974) y desde entonces sigue
habiendo controversia sobre el alcance real de la capacidad perceptiva de los sujetos
aquejados de visión ciega, discutiéndose aún si perciben únicamente atributos elementales
del objeto o puede ir un poco más allá (Alexander y Cowey, 2010; Trevethan el al.,
2007). Podrían quedar zonas de tejido cerebral indemne en V1 que fueran las
responsables de ese procesamiento, sin embargo hay trabajos con neuroimagen funcional
que demuestran que no hay restos de tejido activo en la corteza estriada de estos
pacientes (Azzopardi y Cowey, 2001; Stoerig el al., 2002). Otra posible explicación
radica en las rutas visuales alternativas a la geniculoestriada. Una de ellas, la vía
tectopulvinar, podría explicar el fenómeno ya que la lesión del tectum altera estas
habilidades en casos experimentales de visión ciega (Kato el al., 2011). Esto no significa
de modo definitivo que no existan algunas contribuciones de las otras vías visuales, pero
es algo que todavía requiere una mayor clarificación.

Otro tipo de alteraciones de la percepción visual tienen que ver con el reconocimiento
de lo que se está viendo, son las agnosias. Cuando percibimos un estímulo hacemos algo
más que verlo; identificamos su forma y color, su ubicación y si se mueve o permanece
estático, le asignamos un significado y lo vinculamos con representaciones mentales que
tenemos almacenadas en nuestro cerebro. Una agnosia visual es una dificultad en el
reconocimiento de estímulos visuales sin que haya alteraciones de la sensibilidad y
agudeza visuales u otras alteraciones atencionales, lingüísticas o mentales que pudieran
justificar este déficit. La persona que la padece puede ver correctamente el estímulo pero
es incapaz de reconocerlo aunque puede apreciar otros atributos como el tamaño, la
posición o el movimiento. Según las características del trastorno, la incapacidad puede
ser mayor o menor ya que hay casos en los que el sujeto puede proporcionar alguna
información sobre el objeto, su uso o su similitud con otros aunque no pueda
denominarlo. Esto ha llevado a que se establezcan subcategorías (agnosia perceptiva,
asociativa...) pero sin consenso unánime a la hora de definirlas y caracterizarlas.

Un tipo de agnosia bastante peculiar es la que impide al sujeto reconocer los rostros, es
la prosopagnosia, ocasionada por una lesión en el área fusiforme, una porción de corteza

197
cerebral situada en la base del lóbulo temporal. En este trastomo el sujeto no puede
reconocer los rostros y por tanto tiene dificultades para identificar a su dueño, teniendo
que valerse de indicios indirectos ligados al rostro como señales, cicatrices, gafas o barba
y ligados a la persona, como el habla, la forma de andar o cualquier otra peculiaridad
física. Se plantea entonces una duda con respecto al reconocimiento visual de estímulos
¿Existen áreas diferenciadas para reconocer diferentes categorías de estímulos? ¿Si hay
un área para el reconocimiento de rostros, hay otras para el reconocimiento de plantas,
animales, herramientas o edificios? Las respuestas a estas cuestiones son, en parte,
contradictorias. Por un lado, parece que el reconocimiento de rostros y el de otros
objetos no son procesos equiparables por la especial relevancia evolutiva que tiene para
los humanos el reconocimiento de rostros. No en vano, durante las primeras semanas de
vida el bebé prefiere mirar rostros que otros estímulos. Además, determinadas lesiones
apoyan la idea de que existen conexiones más complejas en las regiones de
reconocimiento facial que almacenan representaciones referidas a información semántica,
afectiva e, incluso, biográfica asociada al rostro (Fox et al., 2008). Las evidencias a favor
o en contra de si se produce un almacenamiento modular de las categorías de estímulos
en el cerebro no son concluyentes ya que, si bien se han encontrado casos en los que una
lesión afecta de manera selectiva a una categoría, y estudios con neuroimagen que
parecen apoyar esta idea, no hay consenso a la hora de tipificar las categorías ni el grado
de especificidad de las mismas (Gale y Laws, 2006; Gerlach, 2009; Gerlach et al., 2006;
Wolk et al., 2005). Así, en algunos casos se diferencia únicamente entre estímulos
animados (equivalente a seres vivos, con su relevancia evolutiva correspondiente) o
inanimados, mientras que en otros se apuesta por categorías más específicas.

Diferentes lesiones a lo largo de la vía ventral pueden ocasionar otros tipos de agnosias
visuales como la acromatopsia y la acinetopsia. La primera implica una pérdida de la
visión del color como consecuencia de una lesión en la región V4 y que no debe ser
confundida con la acromatopsia periférica, ocasionada por alteraciones en los
fotorreceptores. El sujeto que la padece ve el mundo en diferentes tonos de gris, como
una película en blanco y negro. En la acinetopsia, la lesión se localiza en V5 y el sujeto es
incapaz de percibir el movimiento, es como si viera una sucesión de imágenes estáticas,
de fotografiar, lo que le ocasiona dificultades en su vida cotidiana. Por ejemplo, no puede
calcular la velocidad a la que se acerca un vehículo cuando va a cruzar una calle ya que
desaparece y aparece en su campo visual a diferente distancia pero sin que pueda percibir
la continuidad, o tiene problemas para llenar un vaso de agua porque puede ver cómo el
nivel del agua alcanza diferentes alturas sin poder calcular cuándo se acerca al borde. En
alguna ocasión habremos experimentado el efecto de una luz estroboscópica (iluminación
mediante destellos) sobre una rueda girando o sobre un chorro de agua y nos parece que
no se mueven (o gira al revés en el caso de la rueda).

En el caso de lesiones en la vía dorsal parecen afectar más a procesos de atención y


rastreo visual. Una de las alteraciones mejor descritas es el síndrome de Balint, que

198
implica dificultades para fijar la atención visual o para alcanzar objetos guiándose por la
vista, lo que se conoce como ataxia visomotora. Suele llevar asociado simultagnosia, un
trastorno por el que el sujeto es incapaz de ver más de un objeto a la vez, es como si, en
una escena compleja, solo pudiera dirigir su atención a un estímulo cada vez. Esta
situación puede detectarse fácilmente con pruebas como el test de figuras superpuestas
de Poppelreuter o el de dibujos mezclados de Lila Ghent (figura 8.7), en los que el
paciente tiene que detectar los contornos que identifican a cada figura.

Todas estas alteraciones suelen presentarse dentro de un marco clínico más amplio y
pueden ser consecuencia de un daño unilateral o bilateral y afectar a todo o parte del
campo visual. Por desgracia, la mayor parte de lo que sabemos sobre ellas se ha obtenido
a partir de estudios con pacientes que han sufrido algún tipo de daño cerebral que no
suele circunscribirse a localizaciones tan concretas como las que hemos referido.
Actualmente, las técnicas de neuroimagen proporcionan información complementaria en
sujetos sanos pero también, conociendo las características técnicas del proceso de
obtención de las imágenes, hay que ser cautelosos a la hora de atribuir localizaciones
estrictas y olvidar que estamos hablando de circuitos estrechamente interconectados.

199
Figura 8.7. Imágenes del test de Poppelreuter (A) y del de Lila Ghent (B y C). Para
confirmar que la dificultad perceptiva solo aparece ante la superposición de estímulos, en
el segundo el sujeto debe identificar los estímulos mezclados y por separado.

200
8.2. Audición
Al igual que las imágenes visuales, el sonido es una creación de nuestro cerebro en
respuesta a determinados cambios en la energía que nos rodea. Por ese motivo,
responderíamos que no a la clásica pregunta: ¿si un árbol se cae en medio del bosque y
no hay ninguna persona en las cercanías, hace ruido? Si eso ocurriera, la caída del árbol
en medio del bosque produce una serie de cambios en la presión del aire circundante
haciendo que las moléculas del mismo se agrupen o separen (vibren) de forma cíclica.
Solamente si estas vibraciones llegan hasta nuestros oídos y estimulan el tímpano
iniciarían un proceso complejo mediante el cual nuestro cerebro experimentaría una
sensación que denominamos sonido. La vibración de las partículas se puede representar
gráficamente mediante ondas a lo largo de un continuo temporal (figura 8.8) y reflejar las
tres características físicas del sonido, la frecuencia (número de ciclos por unidad de
tiempo) la amplitud de la onda y la complejidad de la misma. El correlato psicológico de
estas tres propiedades físicas, es decir, las características perceptivas que le atribuimos al
percibir el sonido son el tono (frecuencia), el volumen (amplitud) y el timbre
(complejidad).

Figura 8.8. Representación gráfica de una onda sonora. Arriba: características de la onda.
La onda representa un tono puro, la complejidad deriva de la superposición de diversas
ondas simultáneas. Abajo: Agrupamiento o expansión de las moléculas de aire como
consecuencia de la vibración de un objeto.

201
La frecuencia de un sonido se mide en ciclos por segundo y se expresa en hercios (Hz;
1 Hz es un ciclo por segundo). Las frecuencias bajas las percibimos como sonidos graves
y las altas, como agudos. Cada especie posee un espectro receptivo ligeramente distinto;
el oído humano es capaz de percibir frecuencias entre 20 y 20.000 Hz, el del perro entre
20 y 65.000 Hz, el del gato desde 45 a 64.000 Hz o el caso del murciélago que puede
percibir sonidos entre 2.000 y 110.000 Hz. El espectro audible en seres humanos puede
variar de una persona a otra y se va reduciendo con la edad a medida que los
componentes del sistema auditivo se van deteriorando. Los sonidos que están por debajo
o por encima del espectro audible humano los denominamos infrasonidos y ultrasonidos,
respectivamente. Por su parte, la amplitud de la onda sonora (el volumen) se mide en
decibelios (dB). Por ejemplo, el habla normal (conversación) puede alcanzar los 40-50
dB, el ruido de una aspiradora unos 70-90 dB o la música en una discoteca por encima
de los 110 dB. El timbre de un sonido es lo que nos permite identificarlo y diferenciarlo;
gracias al timbre distinguimos el sonido de una guitarra del de una trompeta o la voz de
dos personas. Los tonos puros son muy raros como tales en la naturaleza y todos los
sonidos que escuchamos están formados por superposición de frecuencias que dan como
resultado el timbre característico que los diferencia. Los sonidos en la naturaleza son,
pues, la conjunción de dos o más tonos puros en combinaciones prácticamente infinitas.

8.2.1. Receptor, vías y procesamiento auditivo


El órgano receptor del sistema auditivo es la cóclea, situada en el oído interno junto a
los componentes del sistema vestibular, que informa al cerebro de la posición y
movimientos de la cabeza. Antes de que las ondas lleguen a la cóclea para convertir la
energía mecánica en potenciales nerviosos, deben ser conducidas a través del oído
externo y medio. La vibración del tímpano es amplificada por la cadena de huesecillos ya
que concentran el movimiento de la superficie del tímpano en otra superficie mucho más
pequeña, el soporte del estribo, que se asienta sobre la ventana oval de la cóclea. La
cóclea o caracol es una especie de tubo enrollado (como la concha de un caracol) que
contiene líquido en su interior. En los extremos, posee dos aberturas selladas con
membranas, son la ventana oval y la redonda. Sobre la primera se asienta la base del
estribo y su vibración provoca en el líquido interno una onda que se desplaza a lo largo
de la cóclea gracias a que la otra ventana actúa como válvula de expansión. De esta
manera, las vibraciones de las moléculas de aire se convierten en vibraciones del líquido
que llena la cóclea; como las ondas que se desplazan en un estanque cuando arrojamos
una piedra, solo que en este caso las ondas se desplazan unidireccionalmente.

202
Figura 8.9. Esquema de las vías auditivas. En trazo continuo se han representado las
proyecciones principales.

El interior de la cóclea está separado en tres conductos, el vestibular, el medio y el


timpánico, aunque dos de ellos, los conductos vestibular y timpánico están unidos en la
zona del vértice. Es en el conducto medio donde se localiza el receptor auditivo, el
órgano de Corti, que consta de una membrana (basilar) sobre la que se asientan unas
células con cilios (pequeños filamentos) en su extremo superior y organizadas
longitudinalmente en una fila interna y varias externas. Sobre ellos se sitúa otra
membrana (tectoria) a modo de tejadillo o marquesina. El desplazamiento de la onda
provocada por el líquido, consecuencia de la presión del estribo sobre la membrana oval,
hace que se "aplaste" la membrana tectoria contra los cilios de las células del órgano de
Corti deformándolos. Este doblamiento de los cilios de las células internas provoca la
generación de potenciales nerviosos (Raphael y Altschuler, 2003) que son transmitidos a
neuronas bipolares cuyos axones forman el nervio auditivo o coclear, el cual forma parte
del VIII nervio craneal, el vestibulococlear. Los axones del nervio auditivo se dirigen al
núcleo coclear en el tronco del encéfalo, desde donde salen proyecciones a los núcleos de

203
la oliva y de ahí a los colículos inferiores. Por último, los axones alcanzan el núcleo
geniculado medial (NGM) del tálamo antes de llegar a las áreas auditivas de la corteza
cerebral (figura 8.9). La corteza auditiva incluye varias áreas que responden de manera
específica a diferentes atributos del estímulo sonoro (Shamma, 2001). Las vías auditivas
no están totalmente contralateralizadas ya que llegan proyecciones a la corteza del mismo
lado aunque las más importantes sí estén cruzadas. Así, cada hemisferio cerebral recibe
proyecciones de ambos oídos aunque son más potentes las procedentes del lado contrario
(Lipschutz et al., 2002).

En el NGM se diferencian dos regiones, una ventral que proyecta sus axones a la
corteza auditiva primaria (Al) y otra dorsal que proyecta a las áreas auditivas secundarias.
El área Al está situada en la circunvolución temporal superior (circunvolución de Heschl)
ocupando la parte media de la misma (figura 8.10). Está rodeada por las áreas auditivas
secundarias (Morosan et al., 2001), denominadas áreas del cinturón (rodea a Al) y del
paracinturón, entre las que se incluye parte del área de Wernicke.

204
Figura 8.10. Localización de las áreas corticales para la audición incluida el área de
Wernicke.

En la cóclea existe una primera organización tonotópica en respuesta al sonido, ya que


la porción más cercana a los huesecillos, el comienzo de la cóclea, responde a
frecuencias altas mientras que la porción más alejada, el vértice, responde a las
frecuencias bajas. En la corteza auditiva, las neuronas de Al parece que también están
organizadas de manera tonotópica, sin embargo, el modo concreto en que se produce
esta organización en humanos todavía es objeto de discusión. Aunque tradicionalmente
se ha considerado una organización lineal con las frecuencias bajas en un extremo de Al
y las altas en otro (Bilecen et al., 1998; Wessinger et al., 1997) hay otros estudios que
defienden una organización centroperiferia, con regiones centrales más sensibles a las
bajas frecuencias y extremos que responden a las altas (Engelien et al., 2002; Formisano
et al., 2003).

Una vez que el sonido ha sido detectado por nuestro sistema auditivo, el objetivo de
procesamiento es doble: por un lado, identificar la fuente que produce dicho sonido y,
por otro, localizar la ubicación de dicha fuente. En este sentido, parece que también
existen dos rutas, una para la identificación del sonido (ventral, temporal) y otra para la
localización del mismo (dorsal, parietal). Es decir, hablaríamos de dos rutas de
procesamiento, una que se adentra hacia porciones rostroventrales del lóbulo temporal y
otra hacia la corteza parietal (Barrett y Hall, 2006; Warren y Griffiths, 2003). La corteza
Al responde preferentemente a los atributos más elementales del estímulo sonoro (Hart et
al., 2002), mientras que la corteza asociativa se encarga de las características más
complejas, que suelen ser resultado de la conjugación de componentes más elementales
(Talavage et al., 2000; Zatorre y Belin, 2001). En primates, las neuronas del área
auditiva secundaria responden mejor a vocalizaciones de sus congéneres que a tonos
puros, señal de que se han desarrollado para integrar componentes básicos de los
estímulos sonoros (Poremba y Mishkin, 2007). Esta especificidad para reconocer los
sonidos emitidos por los propios congéneres puede tener una importante relevancia
evolutiva ocasionando un cableado más rico en los circuitos que se ocupan de ello, ya
que también se ha confirmado en humanos pero no se ha observado lo mismo para otras
categorías de sonidos (Joly et al., 2012; Sharda y Singh, 2012).

La localización espacial de una fuente sonora requiere del análisis de diversas


características de la misma (Middlebrooks y Green, 1991). El proceso comienza en los
receptores auditivos, puesto que la posición de los oídos, uno a cada lado de la cabeza,
hace que la onda sonora llegue a cada uno de ellos con una ligerísima diferencia de fase.
Es decir, un sonido procedente del lado derecho alcanzará el oído homónimo unos
milisegundos antes que el izquierdo. Este proceso no es válido para las frecuencias altas;
en su lugar, las diferencias que se computan en este caso son de intensidad ya que la
cabeza actúa como pantalla de modo que, siguiendo el ejemplo anterior, las frecuencias
altas alcanzarían el oído derecho con una intensidad ligeramente superior que el

205
izquierdo. Por último, como se ha podido deducir, ambos procesos resultan inútiles
cuando la fuente sonora se ubica en un punto situado delante o detrás del sujeto. Para
ello, hay un tercer recurso evolutivo: la forma y colocación de los pabellones auriculares.
Percibimos con sutiles diferencias en el timbre los sonidos situados delante o detrás de
nosotros como consecuencia de que la forma de las orejas y su colocación producen
leves distorsiones de las ondas sonoras. El procesamiento de estas señales comienza ya
en los núcleos del tronco del encéfalo (May, 2000) y es la corteza auditiva de asociación
la que ubica con bastante precisión la fuente sonora en el espacio.

Un aspecto importante en el procesamiento de los sonidos es el sistema de


retroalimentación top-down que comunica la corteza auditiva con los niveles iniciales del
sistema auditivo (Mulders y Robertson, 2000; Schofield y Coomes, 2005). La corteza
auditiva almacena representaciones de sonidos conocidos agrupados categóricamente más
allá de sus meras propiedades físicas (Staeren et al., 2009). Incluso parece existir una
cierta diferenciación cortical para el almacenamiento de sonidos propiamente humanos,
procedentes de otros animales, sonidos de tipo mecánico o artificial y sonidos
ambientales (Engel et al., 2009). En condiciones estimulares desfavorables, por ejemplo
en ambientes ruidosos, las proyecciones retrógradas intervienen en el procesamiento
inicial de los sonidos de manera que completan o reconstruyen los estímulos percibidos;
es el resultado del aprendizaje auditivo. Además, también permite orientar la atención
auditiva cuando estamos a la espera de que aparezca un estímulo sonoro, rechazando
aquellos que no se ajustan a las características del patrón almacenado. Este proceso,
junto con la activación de otros patrones, es fundamental en la adquisición del habla
(Davis y Johnsrude, 2007) ya que permite ir vinculando representaciones auditivas para
formar nuevos patrones a medida que adquirimos vocabulario o reglas sintácticas.

8.2.2. Procesamiento del habla y de la música


Aunque distinguimos perfectamente el acto de escuchar música del de escuchar una
voz humana, son procesos que comparten muchas características y que se retroalimentan
de manera efectiva. En el plano más básico, tanto el habla como la música utilizan
características físicas del sonido como el tono, el timbre o el ritmo en su procesamiento
(Kraus et al., 2009). Pero además, si ascendemos hasta el nivel cognitivo, ambos
procesos requieren similares habilidades atencionales, se sirven de las representaciones
almacenadas en la memoria y utilizan reglas organizativas (sintaxis) para la percepción
compleja y efectiva de los respectivos estímulos (Patel, 2003). Generalmente asociamos
la idea de la música con el arte y la cultura, sin embargo, la percepción musical tiene una
base innata, al igual que el lenguaje, que requiere de la estimulación adecuada durante el
desarrollo del cerebro para su correcta adquisición. Además, tanto la percepción como la
producción requieren un análisis detenido ya que vamos desarrollando la percepción en
contacto con los estímulos adecuados pero, tanto para hablar como para producir música
se requiere un entrenamiento que puede determinar nuestra ejecución (obviamente, se
necesita mucho más entrenamiento para ser un buen cantante que un buen orador).

206
En la corteza auditiva hay circuitos especializados en responder a estímulos verbales y
musicales. De forma bastante generalizada se ha mantenido la creencia de que la
comprensión y producción del habla radica en el HI y la de la música en el HD. Sin
embargo, en el cerebro las cosas nunca son así de simples. Con técnicas de neuroimagen
se ha demostrado que Al responde bilateralmente a cualquier tipo de estímulo sonoro y
que ambos hemisferios se activan tanto con estímulos verbales como musicales
(Schirmer et al., 2012) con patrones de activación bastante similares. Sí es cierto que el
HI es dominante para el habla en la mayoría de los sujetos, pero eso no significa que el
HD permanezca al margen. Por ejemplo, es importante para percibir los componentes
prosódicos del habla (entonación, acento...) o los pragmáticos (significado en función del
contexto) y cuando resulta dañado, el paciente tiene dificultades para ello (Nicholson et
al., 2003; Holtgraves, 2012). Por su parte, el HI también participa en algunos aspectos
del procesamiento musical como el reconocimiento del timbre, el procesamiento
sintáctico musical o el acceso a las representaciones de memoria semántica para los
contenidos musicales (Koelsch y Siebel, 2005; Sammler et al., 2011). No obstante, una
de las explicaciones más plausible es la de que existe efectivamente una asimetría
hemisférica para el habla y la música, izquierda y derecha respectivamente, pero que
ambos hemisferios contribuyen de algún modo teniendo en cuenta las características
físicas de ambos tipos de estímulos (Dehaene-Lambertz et al., 2010; Zatorre et al.,
2002). En cualquier caso, parece claro que no existe una lateralización radical para el
habla y la música sino una posible distribución de tareas de procesamiento en las que sí
se da una cierta dominancia hemisférica.

Algo de sobra conocido en el ámbito educativo es que la música contribuye al


aprendizaje. Muchos de nosotros hemos adquirido conocimientos gracias a cantinelas
musicales que facilitaban su recitado, como las tablas de multiplicar. Pero por si acaso no
es suficiente con las experiencias personales, esto también ha sido comprobado por la vía
experimental (Schón et al., 2008). La atención a los estímulos es fundamental para el
aprendizaje y parece que es más fácil atraerla hacia estímulos musicales, al menos
durante periodos cortos de tiempo (los publicistas lo saben bien). Esto se manifiesta ya
desde las primeras semanas de vida; Nakata y Trehub (2004) llevaron a cabo un
experimento en el que demostraron el interés que los bebés muestran por el habla o por
las canciones de la madre. Participaron bebés entre 22 y 26 semanas de vida a los que se
les grabó mientras se les mostraban vídeos en los que aparecían sus madres hablándoles
o cantándoles. Cuando las madres cantaban los niños mostraron más atención (fijación
visual, ausencia de movimientos...) que cuando hablaban dando a entender que se
mostraban más atraídos por las canciones, algo que debería tenerse más en cuenta en la
escuela.

El entrenamiento musical produce neuroplasticidad en la corteza auditiva (Peretz y


Zatorre, 2005; Zatorre y McGill, 2005) y esta capacidad de cambio del SN es la base del
aprendizaje. Esto demuestra que el entrenamiento determina la destreza que se pueda

207
alcanzar en el ámbito musical. Por supuesto que la plasticidad del SN no es igual en
cualquier edad y que el entrenamiento en etapas tempranas, como en otros ámbitos,
resulta mucho más efectivo. Un estudio reciente ha comprobado que el procesamiento
verbal no activa las mismas áreas cerebrales en músicos profesionales que en otros
sujetos que no lo son. Utilizando ERP comprobaron que la presentación de palabras o
notas musicales activaba regiones bilaterales en el cerebro de los músicos, mientras que
en los controles, la activación ante las palabras era claramente izquierda (Proverbio et al.,
2013), lo que suponía una reorganización de los circuitos verbales en el cerebro de los
músicos.

La cuestión es hasta qué punto esta plasticidad, o esta capacidad de aprendizaje, se


transfiere a otros contenidos que no sean estrictamente musicales. Parece ser que sí, que
el entrenamiento musical puede tener beneficios colaterales y mejorar el rendimiento en
otros aspectos como el lenguaje y, en general, en habilidades auditivas más amplias
(Forgeard et al., 2008; Kraus y Chandrasekaran, 2010; Magne et al., 2006; Tallal y
Gaab, 2006). Hay indicios suficientes para considerar la música como una herramienta
de aprendizaje y como un potenciador del mismo por lo que hay que tomar en
consideración incorporar la práctica musical a las escuelas como un componente básico y
no como un mero relleno.

8.2.3. Alteraciones auditivas


Los problemas auditivos son más difíciles de determinar que los visuales ya que no se
trata únicamente de la percepción cuantitativa sino que hay aspectos que pueden afectar
a la percepción cualitativa que van a interferir sobre el modo en el que se reacciona ante
los estímulos sonoros. Es fundamental que los niños pasen una revisión audiométrica
completa ante la menor sospecha de dificultades auditivas o, incluso, cuando observemos
problemas de aprendizaje, sobre todo en lectura.

Las alteraciones auditivas periféricas hacen referencia a cualquier mal funcionamiento


de los mecanismos que intervienen en la transmisión de las vibraciones, en la
excitabilidad de la cóclea o en la propagación de las señales por el nervio auditivo. Por su
parte, la sordera central es causada por lesiones en las estaciones de relevo
troncoencefálicas o talámicas y en la corteza cerebral. La sordera de conducción es la
disminución o pérdida de audición como consecuencia de alteraciones en el oído externo
o medio ocasionadas por obstrucción, infecciones u otras causas. La sordera
neurosensorial hace referencia a la pérdida auditiva por lesión o destrucción de las células
sensoriales (ciliadas) o por deficiencias en la transmisión de los impulsos al nervio
auditivo. Las causas pueden ser muy diversas: trastornos hereditarios, traumatismos,
enfermedades, ruido intenso, consumo de medicamentos...

La hemianacusia se refiere a la pérdida de audición en un oído y es el equivalente


auditivo a la hemianopsia visual. Las lesiones bilaterales en el giro de Heschl son muy

208
poco frecuentes, de ahí que en clínica no se encuentren muchos casos de sordera cortical
pura, que sería una forma de anacusia completa. El NGL talámico proyecta también a la
corteza auditiva secundaria, por lo que se hace difícil detectar los déficits. Además, ya
hemos dicho que las proyecciones auditivas no están completamente lateralizadas. Por
estos motivos, en el caso de la hemianacusia es necesario recurrir a pruebas de escucha
dicótica para su correcta detección. Como ya vimos, las pruebas de escucha dicótica
consisten en presentar simultáneamente dos estímulos auditivos distintos, uno en cada
oído, y determinar en qué medida son percibidos por el sujeto en lo referido a intensidad,
velocidad y discriminación. Generalmente, cuando hay lesiones en la corteza auditiva
primaria no se pierde la capacidad auditiva por completo pero sí pueden aparecer
dificultades para detectar, localizar e identificar los sonidos.

Uno de los trastornos auditivos que más relevancia tiene para el ámbito educativo es el
trastorno de procesamiento auditivo central (TPAC) ocasionado por algún tipo de
disfunción en la corteza auditiva. La definición del trastorno, y su diagnóstico, todavía se
presta a interpretaciones y valoraciones diversas. Timothy D.Griffiths, define el
procesamiento auditivo como la eficacia y la efectividad con que el SN utiliza la
información auditiva (Griffiths, 2002); una definición sumamente amplia que no permite
objetivar de manera concisa las posibles alteraciones de dicho procesamiento. Podemos
tomar como referencia la definición que propone la American Speech-Language-Hearing
Association (ASHA, 2005) al definir el TPAC como las dificultades en el procesamiento
perceptivo de la información auditiva en el SNC que se ponen de manifiesto por una
pobre ejecución en una o varias de las habilidades perceptivas auditivas como la
discriminación y localización de la fuente sonora, el reconocimiento de patrones
auditivos, la integración y discriminación temporal de las secuencias de sonidos o el
procesamiento de sonidos simultáneos, entre otras. Para facilitar su identificación y poder
actuar en consecuencia, Munar et al. (2008) resumen los principales síntomas de este
trastorno:

-Dificultades en la segregación figura-fondo. Problemas para discriminar sonidos en


ambientes ruidosos.

-Problemas de memoria auditiva.

-Dificultades para discriminar entre sonidos o palabras parecidas.

-Problemas atencionales dependientes de la audición.

-Problemas que afectan a la comprensión auditiva de información verbal compleja


(conversaciones, juegos de palabras, enunciados matemáticos...).

Aunque se trata de un trastorno derivado de una disfunción del SNC, puede estar
causado por determinadas alteraciones periféricas como las otitis de repetición (Moore et

209
al., 2003) y persistir después de haber resuelto estas alteraciones. Los niños que padecen
este trastorno muestran dificultades auditivas en cualquier ambiente (Smoski et al.,
1992), aunque son más evidentes en ambientes ruidosos como sucede en el aula con
frecuencia. Esto puede ser debido a que estos niños tienen más dificultades en ignorar
sonidos irrelevantes (Elliott et al., 2007), lo cual afecta no solo a la capacidad atencional
sino también al modo en que procesan la información auditiva. La relevancia educativa
de este trastorno radica en que es la causa de un buen número de problemas de
aprendizaje, sobre todo los relacionados con el lenguaje (Dlouha, 2003; Dlouha et al.,
2007). Se estima que entre un dos y un cinco por ciento de los niños en edad escolar lo
padecen, pero entre niños disléxicos el porcentaje puede multiplicarse por diez. Esto nos
da una idea de la importancia que tiene detectar indicios para un diagnóstico temprano
preciso que permita poner en marcha intervenciones adecuadas.

Las lesiones corticales localizadas en áreas auditivas secundarias son las responsables
de las agnosias auditivas que, al igual que hemos visto para el sistema visual, hacen
referencia a dificultades en el reconocimiento auditivo de las fuentes sonoras en ausencia
de trastornos que afecten a la detección acústica y que pudieran explicarlas. Así, por
ejemplo, la agnosia auditiva pura hace referencia a la incapacidad de reconocer sonidos
familiares del entorno. No se incluyen en este trastorno los sonidos lingüísticos y
musicales que tienen sus propias categorías. Es el caso de la agnosia musical, que se
refiere a la pérdida de la capacidad de reconocer sonidos musicales o de la amusia,
distinta de la anterior, y que tiene que ver con la pérdida de alguna capacidad musical. Es
decir, este trastorno no se refiere al reconocimiento de estímulos musicales sino a la
capacidad de reconocer aspectos como la tonalidad o el timbre o de hacer música, leerla
o interpretarla.

Si los seres humanos dependemos básicamente de la visión para nuestras relaciones


con el mundo que nos rodea, la audición es fundamental para el aprendizaje de destrezas
fundamentales para el progreso académico, la más importante de ellas, el lenguaje.
Aprendemos a hablar reproduciendo los sonidos que vamos adquiriendo vía sistema
auditivo. Si la percepción de estos sonidos verbales es deficiente estaremos formando
representaciones fonéticas incorrectas, lo que se traduciría en un habla plagada de errores
que tendría repercusiones negativas posteriores en el aprendizaje de la lectura y la
escritura.

210
211
Hemos visto en el capítulo anterior que los seres humanos disponemos de receptores
apropiados para detectar y analizar la energía que nos rodea. Además, disponemos de
otros tipos de receptores que pueden detectar e identificar la materia a nuestro alrededor.
Es de estos últimos de los que vamos a tratar en este capítulo. Nos vamos a ocupar de la
sensibilidad somatoestésica, es decir, de las sensaciones corporales, y de manera
relacionada del modo en que nuestro cerebro recrea un mapa de nuestro cuerpo y, por
extensión, del espacio que nos rodea. También abordaremos los denominados sentidos
químicos, gusto y olfato, que deben su nombre a que detectan las moléculas que hay en
el aire o en los alimentos que ingerimos.

Cuando hablamos de sensaciones somáticas hacemos referencia a algo más que al


tradicional sentido del tacto, estamos hablando también de temperatura o dolor. Pero,
además, se pueden considerar dentro de este sistema las sensaciones propioceptivas,
provenientes de músculos y articulaciones, que son fundamentales para la correcta
ejecución de los movimientos, por lo que es un sistema estrechamente relacionado con la
motricidad. Por último, habría que añadir las sensaciones interoceptivas que transmiten
señales de los órganos internos. Todo ello contribuye a que seamos capaces de formar
una representación mental de nuestro cuerpo que contribuya a nuestra sensación de
individualidad. Por su parte, los sentidos del gusto y del olfato, a pesar de ser sistemas
sensoriales más primitivos y contar con una representación cortical menor, también
tienen relevancia funcional en la medida en que nos permiten detectar potenciales
peligros (un escape de gas, una comida en mal estado...) o experimentar emociones
placenteras derivadas de la ingesta de alimentos o del disfrute de aromas agradables.

9.1. Sensaciones somáticas


Como hemos dicho, este tipo de sensaciones incluye un conjunto de señales muy
diversas. Las hay que informan al cerebro sobre el contacto de objetos sobre la piel,
otras lo hacen de la temperatura de esos objetos y del entorno, también las que
responden a un daño en los tejidos mediante el dolor, o las que facilitan el movimiento de
las articulaciones o contribuyen a la consciencia de nuestra posición en el espacio. Este
sistema nos permite interactuar con el mundo, pero al mismo tiempo ser conscientes de
nuestro propio cuerpo en esa interacción.

212
9.1.1. Receptores y vías somatosensoriales
Las sensaciones somáticas son las sensaciones del cuerpo y tienen su origen en
multitud de receptores distribuidos por todo el organismo pero con una presencia más
determinante en la piel. La piel es el órgano más grande del cuerpo y resulta fundamental
para la supervivencia ya que nos protege y aísla del entorno y regula la temperatura
corporal. Hay dos tipos de piel, vellosa y lampiña. La piel lampiña, también llamada
glabra, es la que carece de vello y se refiere únicamente a las yemas de los dedos, las
palmas de manos y pies o los labios ya que el resto, aunque en algunos sujetos varíe la
distribución y cantidad de vello cutáneo, se considera piel vellosa. La piel está formada
por dos capas, la epidermis más externa y en contacto con el exterior y la dermis, por
debajo de la anterior y donde se localizan la mayoría de los receptores somáticos. Hay
una mayor densidad de receptores en la piel lampiña por lo que es la que utilizamos
generalmente para realizar discriminaciones táctiles precisas; reconocemos mejor un
objeto con la yema de los dedos que con el dorso de la mano y tenemos más cosquillas
en la planta del pie que en el empeine.

Existen varios tipos de receptores cutáneos; terminaciones nerviosas libres, que son las
terminaciones dendríticas de una neurona sensorial, terminaciones nerviosas
encapsuladas, recubiertas por una especie de cápsula de tejido y por último, también
podemos encontrar un receptor específico que sinapta con una neurona. Las
terminaciones nerviosas libres se localizan por toda la piel y responden a estímulos
térmicos y nociceptivos (nocivos, dañinos, producen dolor). Estas neuronas pueden tener
grandes axones mielinizados o axones más pequeños amielínicos; los primeros son los
responsables de la sensación de dolor agudo (un pinchazo, una quemadura...) mientras
que los amielínicos transmiten la sensación de dolor crónico, mantenido (el que persiste
después del daño inicial). Las sensaciones térmicas están mediadas por ambos tipos de
neuronas, que, en realidad, responden a modificaciones de la temperatura, no a valores
absolutos. Por eso, la sensación térmica es relativa, algo que podemos comprobar con un
ejemplo muy conocido: metemos simultáneamente una mano en agua caliente y la otra
en agua fría, después ponemos ambas en agua a temperatura ambiente para comprobar
que la percibimos como fría en una mano y como caliente en la otra.

Las sensaciones táctiles son percibidas por diferentes receptores: los corpúsculos de
Pacini, Meissner y Ruffini y los discos de Merkel. Responden a la presión (fuerte o
suave) y a la vibración, por lo que permiten discriminar la textura o la dureza de un
objeto y si se mueve o permanece estático. La distribución de los receptores en la piel es
desigual, por lo que diferentes partes del cuerpo no muestran la misma sensibilidad a
según qué estímulos. Por ejemplo, tenemos mucha más sensibilidad táctil en las yemas
de los dedos que en la piel de la espalda. No solo ocurre con los receptores táctiles; si
queremos hacer un experimento rápido, probemos a pellizcar la piel del codo con fuerza
durante cinco segundos; después, hagamos lo mismo en la de la cara interna del brazo
cerca de la axila; la sensación que experimentamos es diferente y es probable que

213
tengamos dificultades para aguantar los cinco segundos. Los campos receptivos de la piel
se organizan en parcelas que se denominan dermatomas. Cada uno de estos dermatomas
está inervado por un par de nervios espinales (las ramas homónimas derecha e izquierda)
por lo que podemos hacer un mapa de la piel del cuerpo denominando a cada parcela
según el nervio que la controla (Ti, T2... L1, L2...). La piel de la cara está inervada por
el nervio trigémino, un nervio craneal que, al fin y al cabo, guarda similitudes con los
espinales.

Las neuronas receptoras del sistema somatosensorial son neuronas pseudounipolares


que tienen su soma en los ganglios de las raíces dorsales de los nervios espinales, ganglios
que están situados en las proximidades de la médula espinal. Estas vías ascienden por la
médula hasta el tálamo y después hasta la corteza somatosensorial. Hay dos grupos de
vías, las que conducen información relativa al tacto y la propiocepción y las que lo hacen
de la temperatura y el dolor. Las primeras discurren por la parte dorsal de la médula y
por eso reciben el nombre de vías dorsales o lemniscales (el trayecto troncoencefálico lo
realizan por una zona conocida como lemnisco medio). Están formadas por axones
grandes muy mielinizados y transmiten la información táctil y propioceptiva de manera
muy rápida. Por su parte, las vías que transmiten temperatura y dolor lo hacen por las
porciones ventral y lateral de la médula, recibiendo el nombre de antelolaterales o
extralemniscales. Sus neuronas tienen axones poco o nada mielinizados, por lo que su
conducción es más lenta y la localización espacial de sus señales es más imprecisa.
Ambos tipos de vías están formadas por tres neuronas, la primera desde los receptores al
SNC, la segunda que llega hasta el tálamo y la tercera que se proyecta a la corteza
somatosensorial.

A pesar de esta similitud, el recorrido de cada neurona no es exactamente igual en


ambos sistemas. La primera neurona del sistema dorsal penetra en la médula espinal y
asciende ipsilateralmente (por el mismo lado) hasta los núcleos de las columnas dorsales
(núcleos de Goll y Burdach), situados en el bulbo raquí deo; la segunda neurona decusa,
es decir, cambia de lado porque cruza el neuroeje y alcanza el núcleo ventral posterior
del tálamo, donde sinapta con la tercera que se dirige a la corteza somatosensorial. La
primera neurona del sistema ventrolateral sinapta con la segunda nada más entrar en la
médula espinal, en el mismo nivel por donde accede; la segunda neurona es la que
decusa y asciende contralateralmente (por el lado contrario) hasta el tálamo donde, al
igual que el anterior, sinapta con la tercera que alcanza la corteza cerebral. Otra
diferencia es que algunos axones del sistema anterolateral llegan a otras estructuras
troncoencefálicas además de al tálamo, cosa que no ocurre en el lemniscal. La particular
configuración de ambas vías hace que pueda aparecer una peculiar alteración en las
sensaciones somáticas, el denominado síndrome de Brown-Sequard. Este trastorno está
ocasionado por una lesión que afecta a la mitad de la médula y provoca la pérdida de la
sensibilidad táctil y propioceptiva por debajo de la lesión en el mismo lado del cuerpo y
alteración de la sensibilidad térmica y nociceptiva en el lado contrario a la lesión. Las vías

214
somatosensoriales están cruzadas pero la decusación de unas y otras ocurre a diferente
nivel, lo que ocasiona esta afectación en lesiones parciales de la médula. Las
proyecciones procedentes de la cara son transmitidas por el nervio trigémino (V par
craneal). Estas proyecciones alcanzan el tálamo, núcleo ventral posterior, donde se
incorporan a las demás para alcanzar la corteza somatosensorial primaria.

9.1.2. Procesamiento cortical de las sensaciones somáticas


La corteza somatosensorial primaria (SI) se localiza en la circunvolución postcentral,
es decir, la que está situada inmediatamente por detrás de la cisura central (figura 9.1) y
en las profundidades de dicha cisura central, que se corresponde con las áreas 3,1 y 2 y
de Brodmman. Esta región cortical está situada junto a la corteza motora (circunvolución
precentral) y mantiene con ella una alta densidad de conexiones recíprocas ya que las
sensaciones somáticas son fundamentales para el movimiento y su alteración puede
producir diferente grado de deterioro motriz. La corteza somatosensorial secundaria (Sil)
se localiza junto a la porción inferior de la corteza primaria alcanzando zonas de la ínsula
y del interior de la cisura central. Ambas cortezas reciben proyecciones talámicas y
mantienen conexiones recíprocas, por lo que la información puede llegar a SII por una
vía directa o a través de SI (Rowe et al., 1996). Situada caudalmente a la corteza
primaria se encuentra la corteza parietal posterior (CPP) que también recibe
proyecciones somatosensoriales y participa en el procesamiento de los estímulos de esta
modalidad. No obstante, esta región también interviene en procesos cognitivos más
complejos ya que integra información procedente de otras áreas.

215
Figura 9.1. Localización de la corteza somatosensorial en la circunvolución postcentral y
otras regiones relacionadas con el procesamiento de la información somática.

La distribución de las aferencias en SI sigue una organización somatotópica, es decir,


representa la topografía de la piel, si bien de manera fragmentada y desproporcionada
formando lo que se denomina homúnculo somatosensorial (figura 9.2). Esta
desproporción se debe a que no todas las partes del cuerpo tienen la misma
representación cortical ya que no todas tienen la misma sensibilidad. Si las yemas de los
dedos o la piel de la cara son regiones con una mayor sensibilidad (pensemos en qué
regiones del cuerpo utilizamos para apreciar una textura o para identificar un objeto al
tacto) es porque hay un mayor número de neuronas corticales dedicadas a procesar las
señales que generan y eso se traduce en un mayor espacio en la corteza primaria. Este
homúnculo no es inmutable ya que puede modificar su configuración como consecuencia
de la experiencia o en respuesta a lesiones. En realidad, en SI no hay un único mapa
somático, sino cuatro (figura 9.2), ya que se pueden identificar cuatro franjas de corteza
que responden a la actividad de diferentes tipos de receptores.

-Área 3a: receptores musculares.

216
-Área 3b: receptores cutáneos de adaptación lenta.

-Área 1: receptores cutáneos de adaptación rápida.

-Área 2: receptores para presión profunda en tejidos y articulaciones.

217
Figura 9.2. Homúnculo sensorial y esquema de las cuatro franjas corticales identificadas
en la circunvolución postcentral. Prácticamente podríamos registrar un homúnculo en
cada una de ellas. Las regiones del cuerpo que tienen mayor sensibilidad táctil ocupan un
área cortical proporcionalmente mayor.

Como en los anteriores sistemas sensoriales descritos, las sensaciones elementales se


combinan e integran para formar representaciones más complejas. Así, dentro de SI hay
proyecciones desde las regiones 3a y 3b a las regiones 1 y 2, pero para un procesamiento
más complejo se necesita llevar a cabo la integración de las señales de múltiples
receptores que detectan las características de los objetos o del propio cuerpo, integración
que tiene lugar en SII y en la CPP. La complejidad de los procesos que ocurren en la
corteza parietal es tal que en la actualidad se tienden a agrupar estos procesos en dos
grandes vías de procesamiento, las que son de tipo cognoscitivo y las que participan en la
regulación de la actividad motora (Munar et al., 2008). A pesar de una evidencia
científica insuficiente, parece haber cierto consenso a la hora de considerar estas dos vías
de procesamiento, sobre todo a partir de las observaciones de pacientes con daño

218
cerebral. Al fin y al cabo, la información que el sistema somatosensorial proporciona al
cerebro está en la base, no solo del reconocimiento táctil de los estímulos, sino también
del movimiento o las emociones.

Las lesiones en la corteza somatosensorial pueden producir alteraciones en el


reconocimiento táctil de los objetos pero también en el reconocimiento del propio cuerpo.
Así, además de una agnosia táctil (estereoagnosia) que implica dificultades en el
reconocimiento de objetos por el tacto, también puede manifestarse asomatoagnosia,
dificultades en el reconocimiento del propio cuerpo o anosoagnosia, un cuadro clínico en
el que la persona que lo padece se muestra indiferente ante la discapacidad o las
limitaciones que padece; no son conscientes de sus propios síntomas. Una manifestación
curiosa de las lesiones en las regiones somatosensoriales es la heminegligencia, en la que
el paciente ignora la mitad de su espacio, incluyendo el propio cuerpo. Lo habitual es que
la lesión se encuentre en el HD por lo que el paciente ignora la mitad izquierda del
espacio; así, por ejemplo, si le pedimos que dibuje un reloj o una margarita, ignorará los
números de la izquierda de la esfera o los pétalos de ese lado. También puede llegar a
pensar que el brazo o la pierna izquierda pertenecen a otra persona. Por último, las
lesiones parietales también pueden afectar a la actividad motora en la medida en que se
requiere una retroalimentación somatoestésica para que sea correcta. Es necesario que el
cerebro conozca la posición de las extremidades para realizar adecuadamente un
movimiento y que reciba retroalimentación sensorial para corregir y ajustar el mismo. El
ejemplo más claro lo tenemos cuando cogemos con la mano un objeto que pesa más de
lo que habíamos apreciado a simple vista y necesitamos ajustar la fuerza muscular para
que no se nos caiga.

9.1.3. Percepción del dolor


Dentro de las sensaciones somáticas, el dolor merece especial atención. Asociamos el
dolor con emociones negativas y estados de malestar. Sin embargo, el dolor cumple una
función adaptativa primordial y quienes por una alteración genética nacen sin poder
experimentar sensaciones dolorosas, tienen problemas para sobrevivir. Y es que el dolor
informa al cerebro de que algo no va bien en el organismo, de que ha sufrido un daño o
de que está a punto de sufrirlo para que ponga en marcha los mecanismos necesarios y
así minimizar sus efectos o alejarse del potencial peligro. Por ese motivo, una persona
con insensibilidad congénita al dolor puede tener problemas de supervivencia ya que, si
no hay señal dolorosa que avise de un trastorno, no se toman las medidas oportunas.
Pensemos por ejemplo, en la inflamación del apéndice; el dolor avisa de ello y permite
acudir al médico antes de que se propague la infección. O algo mucho más cotidiano,
durante el tiempo que dedicamos a leer estas líneas hemos cambiado varias veces de
postura. Esto es debido a que percibimos señales de incomodidad en nuestras
articulaciones (dolor, leve, pero dolor) y modificamos su posición para corregirla. Una
persona que no perciba esas señales podría sufrir problemas articulatorios y musculares
de consecuencias imprevisibles. No es que el dolor sea bueno, simplemente es un mal

219
necesario.

Ya hemos dicho que los receptores para el dolor lo constituyen las terminaciones
nerviosas libres y las fibras mielínicas y amielínicas que conducen las señales a diferente
velocidad. Sin embargo, estas sensaciones son más complejas que el simple contacto de
un objeto sobre la piel y por eso son varios los circuitos que, de un modo u otro,
contribuyen a transmitir la señal nociceptiva y a formar la experiencia del dolor en el
cerebro. En primer lugar, en esas terminaciones libres se han identificado tres tipos de
receptores; mecánicos, que responden a la deformación y rotura del tejido, térmicos, a la
elevación de la temperatura y polimodales, que reaccionan a diferentes tipos de
estímulos. Luego, estas neuronas alcanzan el cerebro a través de las vías anterolaterales
que ya hemos descrito. Pero también hay vías descendentes que modulan e, incluso,
inhiben la señal de dolor.

A nivel cortical no se ha podido identificar una región donde se proyecten las señales
dolorosas de manera clara. No podemos localizar con certeza la ubicación de la "corteza
dolorosa" ni siquiera en las regiones SI y SII. Aunque en estas regiones se ha registrado
activación simultánea como consecuencia de un estímulo doloroso (Kanda et al., 2000),
hay evidencia clínica de que la lesión de amplias regiones de la corteza somatosensorial
no anula la percepción del dolor. Un estudio con neuroimagen funcional (Bingel et al.,
2004) mostró una cierta organización somatotópica en SI y SII para estímulos dolorosos
(solo manos y pies) utilizando un tipo de láser a fin de evitar la estimulación táctil que,
obviamente, hubiera activado las neuronas corticales de las regiones correspondientes.
Resulta complicado hacer un mapa cortical del dolor porque estos estímulos activan
numerosas áreas corticales además de SI y SII; áreas como la ínsula, el cíngulo anterior,
córtex parietal, premotor y motor suplementario o regiones prefrontales (ver una revisión
en Apkarian et al., 2005). Y es que la propia sensación dolorosa genera una
representación compleja que incorpora un componente puramente sensorial pero también
una dimensión afectiva relacionada con el malestar emocional que genera el dolor. En
este sentido, Donald D.Price (2000) propone un circuito que contempla estas dos
dimensiones, más una tercera que tendría que ver con la representación emocional a
largo plazo en función de nuestras expectativas en relación con el dolor (figura 9.3). Así,
las vías medulares que alcanzan el tálamo y la corteza somatosensorial serían
responsables de la dimensión sensorial del dolor. Las proyecciones talámicas al cíngulo
anterior y las aferencias que recibe de la corteza somatosensorial a través de la ínsula se
ocuparían de la dimensión afectiva relacionada con el malestar emocional que genera el
dolor. Por último, los circuitos de la corteza prefrontal que reciben proyecciones del
cíngulo serían los responsables de la representación emocional a largo plazo, que
consideraría el dolor como una amenaza futura que condicionaría la toma de decisiones y
la libre planificación de la conducta.

220
Figura 9.3. Esquema del circuito propuesto por Price (2000) para explicar la dimensión
afectiva a corto y largo plazo del dolor.

El dolor es bueno porque nos avisa de que algo no está bien, pero una vez que ya
sabemos eso y hemos tomado las medidas oportunas, si el dolor persiste se convierte en
una molestia importante. El dolor produce conductas de evitación y alejamiento al tiempo
que propicia el reposo y la autoprotección. Sin embargo, hay actividades biológicamente
importantes cuya supresión o aplazamiento pueden complicar la supervivencia del
individuo. Pensemos, por ejemplo, que la búsqueda de alimento por parte de cualquier
animal se viera interrumpida porque experimenta dolor o que tuviera que luchar por la
comida o una pareja y al primer rasguño evitara al competidor cediéndole los derechos;
tendría pocas probabilidades de sobrevivir y perpetuar sus genes. Si vamos a ejemplos
más cercanos, todos hemos visto por televisión (o en persona) situaciones en las que un
sujeto sufre una aparatosa caída o es volteado por un toro y se levanta como si no
hubiera pasado nada. ¿Es qué no le ha dolido el golpe? Como se suele decir
coloquialmente, esos golpes duelen más tarde, en frío. Lo que ocurre es que el SN ha
desarrollado diversos mecanismos para generar una respuesta de analgesia en
determinadas situaciones para permitir que el sujeto pueda mantener su conducta. Según
parece hay más vías descendentes implicadas en la modulación del dolor y la analgesia
que vías ascendentes que lleven las señales nociceptivas al cerebro.

Pensemos en la siguiente experiencia: caminamos descuidadamente y nos golpeamos


en el brazo o la pierna con la esquina de una mesa, con un picaporte o cualquier otro

221
objeto puntiagudo; inmediatamente, tratamos de atenuar el dolor frotando la zona donde
nos hemos golpeado ¡Y funciona! Melzack y Wall (1965) propusieron la teoría de la
compuerta o de la puerta de control del dolor para explicar este fenómeno. Describen un
circuito en el asta posterior de la médula espinal en el que las fibras que transmiten
sensaciones dolorosas y las que transmiten sensaciones táctiles sinaptan con las neuronas
de proyección que ascienden hasta el tálamo. En una región concreta del asta posterior
de la médula, la sustancia gelatinosa, hay intemeuronas inhibidoras que juegan un papel
relevante en la transmisión del dolor. Estas intemeuronas pueden inhibir la señal dolorosa
cuando activamos las vías que transmiten la sensibilidad táctil de la misma zona. Frotar el
área donde nos hemos golpeado estimula las neuronas táctiles, las cuales, además de
enviar las señales a través de neuronas ascendentes al cerebro, activan a las
interneuronas inhibidoras que actúan sobre las fibras dolorosas disminuyendo la
intensidad de su señal.

Los estados de analgesia y la modulación del dolor dependen tanto de circuitos


ascendentes como descendentes. Se han identificado determinadas áreas cerebrales cuya
estimulación produce analgesia porque activan circuitos que inhiben la actividad de las
vías nociceptivas. Una de las regiones que de manera más significativa se ha relacionado
con el control del dolor es la sustancia gris periacueductal (SGP), situada en tomo al
acueducto que comunica el tercer y el cuarto ventrículo en la parte superior del tronco
del encéfalo. Desde esta zona parten neuronas que se dirigen hacia otras regiones
ventrales del bulbo raquídeo y a la médula espinal, al asta posterior, donde establecen
contactos sinápticos con las neuronas que transmiten las sensaciones dolorosas. Muchos
de estos circuitos poseen receptores específicos para un grupo de neurotransmisores que
se conocen con el nombre de opioides endógenos y cuya actividad produce una analgesia
intensa. Se denominan así porque su estructura es similar a la de los derivados del opio,
alguno de los cuales, como la morfina, se utilizan tradicionalmente como potentes
analgésicos. Los neurotransmisores opioides son los responsables, por ejemplo, de la
activación de las neuronas de la SGP que proyectan sobre el bulbo y la médula espinal
inhibiendo las señales nociceptivas (Eippert et al., 2009).

Para añadir complicación a la percepción del dolor hay que considerar, primero, que
existen diferencias individuales para la sensibilidad nociceptiva y, segundo, que el dolor
puede ser modulado por aspectos como la atención o los estados emocionales. Una de las
situaciones más estudiadas es la analgesia inducida por estrés, algo fácilmente observable
en escenas como las que hemos referido antes (caídas, golpes...) o en los relatos de, por
ejemplo, soldados que en plena batalla sufren una herida y no parecen darse cuenta de
ello hasta que no disminuye la intensidad del enfrentamiento. En este caso, parece que
hay varias áreas cerebrales implicadas que proyectarían a los circuitos medulares a través
de las neuronas de la SGP (Yilmaz et al., 2010). Más curioso es el hecho de que la
atención o el estado de ánimo puedan modificar la percepción del dolor. Es frecuente no
experimentar una sensación de dolor mientras no nos hemos dado cuenta de qué la

222
provoca (no sabemos cómo nos hemos hecho una herida pero una vez que somos
conscientes, cuesta trabajo dejar de prestarle atención). Algo similar ocurre con el estado
de ánimo, un ánimo positivo nos permite afrontar mejor el dolor mientras que estados
depresivos nos llevan a una mayor sensibilidad nociceptiva haciendo que el daño nos
parezca insoportable. Los mecanismos cerebrales que subyacen a estos fenómenos
implican prácticamente a los mismos circuitos aunque también se incluyen aquí
estructuras del sistema de recompensa cerebral (SRC), ya que la relación entre dopamina
y analgesia ha sido probada en diversos estudios (Villemure y Bushnell, 2002). Sin
embargo, no hay todavía consenso sobre el papel que juegan los diferentes circuitos en el
resultado final. Mientras esto se clarifica, habrá que seguir afrontando el dolor con actitud
positiva y no prestarle atención.

9.1.4. Representación del cuerpo y del espacio


La sensibilidad somatoestésica permite que nuestro cerebro reciba señales de diferentes
partes del cuerpo y elabore una representación del mismo. No tenemos ninguna dificultad
(salvo si hay daño cerebral) en localizar la zona de nuestra piel donde recibimos un
contacto o tocamos con el dedo cualquier parte del cuerpo (a la que alcancemos) aunque
tengamos los ojos cerrados. Sin embargo, la representación corporal no depende en
exclusiva del mapa topográfico de SI y SII sino de la integración supramodal de más
circuitos cerebrales (Mancini et al., 2011). No es lo mismo la percepción del cuerpo que
la representación del mismo; la primera sí tiene lugar en la corteza somatosensorial, pero
la segunda depende de más factores que las propias señales somáticas, como por ejemplo
factores emocionales, cognoscitivos o el propio conocimiento acerca del cuerpo y su
estructura (Longo et al., 2010). No podemos entender la representación del cuerpo como
un concepto unitario, tendríamos que considerar tres aspectos básicos (Coslett et al.,
2002): el propio conocimiento acerca del cuerpo y su funcionamiento (imagen corporal);
el conocimiento de la representación espacial del cuerpo (estructura corporal) y una
representación activa del cuerpo en el espacio (esquema corporal). A veces podemos
encontrar discrepancias acerca de estos conceptos y, sobre todo, una utilización
indiscriminada de uno u otro.

En tomo a los 24 meses de vida, los niños son capaces de reconocerse en un espejo o
manifestar emociones como la vergüenza, una clara señal de que son conscientes de sí
mismos como una entidad diferenciada del resto del mundo. Sin embargo, esto no
significa que antes de esa edad no exista ninguna consciencia del propio cuerpo. Hay
indicios que nos permiten comprobar que el niño tiene un sentido implícito de su propio
cuerpo diferenciado del resto. Por ejemplo, un recién nacido reacciona con el reflejo de
succión cuando le acercamos un dedo a los labios y no lo hace cuando se toca él mismo
accidentalmente. Este sentido básico y primitivo de su propia corporeidad se irá haciendo
progresivamente explícito hasta alcanzar una dimensión pública y social a medida que
maduren ciertos circuitos prefrontales (Rochat, 2010). Parece que la consciencia del
propio cuerpo no ocurre de manera intrínseca, sino que se va desarrollando en relación

223
con el entorno tanto físico como social, es decir, mediante un proceso de aprendizaje.
Los bebés aprenden progresivamente a percibir su propio cuerpo como entidad
diferenciada de los demás a base de interacciones gratificantes tanto para el niño como
para sus padres, como es el caso de los juegos cara a cara, ocultaciones (cucu, tras...) o
el contacto físico intencionado.

Este progresivo aprendizaje culmina con el desarrollo de la plena autoconsciencia del


cuerpo. Esto requiere la integración de tres componentes: la experiencia del propio
cuerpo (mi cuerpo es mío), la posición en el espacio (mi cuerpo está aquí) y la
perspectiva en primera persona (mi cuerpo es desde donde veo el mundo) (Blanke,
2012). Para integrar estos tres componentes participan circuitos neuronales de la corteza
premotora, parietal posterior, temporoparietal y extraestriada (áreas asociativas
multimodales). La alteración de algunos de estos circuitos, sobre todo cuando ocurre en
el HD, ocasiona un cuadro clínico que se conoce con el nombre de somatoparafrenia, en
el que el paciente puede pensar que una parte de su cuerpo no es suya (un brazo, una
mano, una pierna...) o, al contrario, considera como propia una extremidad de otra
persona. Pueden llegar a desarrollar verdaderas confabulaciones para justificar su errónea
representación corporal.

Manos Tsakiris, propone un modelo neurocognitivo para explicar cómo tiene lugar en
el cerebro la sensación del propio cuerpo (body-ownership), es decir, por qué somos
conscientes de que nuestro cuerpo es nuestro (Tsakiris, 2010). Basa su modelo en tres
ideas fundamentales:

-Existe una representación previa del cuerpo (primitiva) almacenada en nuestro cerebro
que permite distinguir nuestro cuerpo del mundo exterior (idea básica de nuestro
cuerpo y sus fronteras). Esta representación implicaría a circuitos temporoparietales
del HD.

-Almacenada en SII poseemos una representación anatómica y postural del cuerpo


(por ejemplo, tenemos un brazo y sabemos si lo tenemos doblado o estirado). Al
mismo tiempo, la CPP y la corteza premotora ventral integran información
multisensorial para actualizar el sistema de coordinadas visuales y táctiles (cómo
veo y cómo siento las diferentes partes de mi cuerpo, cuando hago algo o estoy en
reposo).

-Las referencias obtenidas a partir de las señales táctiles permiten la experiencia


subjetiva de nuestro propio cuerpo, algo de lo que se ocuparía la región posterior de
la ínsula del HD.

Desarrolla su modelo a partir de la conocida ilusión de la "mano de goma" (Botvinick y


Cohen, 1998), procedimiento que se usa a menudo para poner a prueba el sentido de
corporeidad o la representación neurocognitiva de nuestro propio cuerpo. Esta ilusión

224
consiste en hacer creer a una persona que una mano de goma es su propia mano. Para
ello, colocamos al sujeto con ambas manos apoyadas sobre la mesa, pero una de ellas la
ocultamos de su vista con una mampara; en la supuesta posición que le correspondería,
colocamos una mano de goma tapada con ropa de manera que simule ser la propia mano
del sujeto. Estimulamos suavemente y de manera simultánea ambas manos, la real
(oculta a la vista del sujeto) y la de goma. Esto hace que el sujeto llegue a considerar la
mano de goma como propia, algo que queda patente cuando simulamos golpearla y
vemos como el sujeto experimenta un sobresalto. Para que esta ilusión ocurra es
necesario que la mano de goma esté colocada en una posición y postura anatómicamente
congruentes, ya que, si ponemos la mano en una postura anatómicamente imposible, por
ejemplo, en ángulo de 900 con respecto al brazo o a una distancia impropia, aunque
estimulemos de manera adecuada la ilusión no se produce.

Este fenómeno pone de manifiesto la importancia de la estimulación táctil, pero


también de la visual, a la hora de construir una representación del propio cuerpo; también
que la representación del cuerpo puede verse distorsionada cuando esta estimulación es
manipulada. La corriente visual dorsal (occipitoparietal) nos permite ubicar los objetos en
el espacio para interactuar con ellos. Parece que una región de esta corteza parietal (área
5B) integraría estímulos de diferentes modalidades sensoriales para crear la
representación neural del cuerpo (Graziano et al., 2000) ya que son varios los trabajos
que han demostrado que dicha representación y la del espacio dentro del cual puede
actuar, se construye de un modo multisensorial (Maravita et al., 2003). Si el sistema
somatosensorial nos informa del contacto que establecen con el cuerpo los objetos del
mundo exterior, el sistema visual nos proporciona información previa a esos contactos
para poder actuar en consecuencia (si no modifico mi ruta, me golpearé con la mesa en la
pierna). La representación del propio cuerpo adquiere todo su sentido en relación con el
espacio en el que nos desenvolvemos porque su importancia radica en que es
imprescindible para ejecutar movimientos eficaces en nuestro entorno. Por ese motivo,
una representación distorsionada del cuerpo puede ser la causa de movimientos torpes,
imprecisos y mal orientados que tantos problemas ocasionan a los niños en la etapa
escolar. Los estímulos visuales y táctiles son fundamentales para una adecuada
representación del espacio próximo al cuerpo integrando además información postural y
patrones motores preaprendidos (Macaluso y Maravita, 2010), es decir, secuencias
motoras almacenadas previamente.

Para poder ejecutar adecuadamente cualquier movimiento es necesario que la


representación corporal sea adecuada, pero también algo más, el cerebro necesita
conocer la posición del cuerpo, sobre todo de las extremidades. En realidad, es como si
nuestro cerebro formara dos representaciones del cuerpo; una básica relativa a la forma y
al tamaño (tengo dos brazos, dos piernas y sé dónde están situados) y otra relativa a la
postura, que se actualiza constantemente para planificar los movimientos (para alcanzar
un vaso de agua, tengo que planificar diferentes secuencias motoras según tenga el brazo

225
encima o debajo de la mesa). A este respecto, la información cinestésica y propioceptiva
es fundamental para integrar postura y movimiento y es la CPP la responsable de
actualizar constantemente la representación corporal en el espacio (Bolognini y Maravita,
2007) para optimizar el movimiento y las interacciones con los objetos del entorno
(esquivar la mesa).

También necesitamos formar una representación de las relaciones existentes entre los
objetos que hay en el espacio y nuestro cuerpo, lo cual nos permitiría saber si un objeto
está o no al alcance de la mano o planificar movimientos dependiendo de si vamos
cargados o no. Por ejemplo, realizamos movimientos ligeramente diferentes al cruzar una
puerta si vamos descargados o con maletas en las manos ya que calculamos su tamaño
como una extensión de nuestro cuerpo. Para establecer estas relaciones entre los objetos
y el cuerpo, el cerebro recurre a dos tipos de estrategias (Neggers et al., 2006). Por un
lado, circuitos de la corteza parietal estiman la distancia que hay entre los objetos y el
propio cuerpo (estrategia egocéntrica); por otro lado, circuitos localizados en el lóbulo
temporal, incluido el hipocampo, se encargan de calcular las distancias entre los objetos
independientemente del observador (estrategia alocéntrica). La integración de ambas
estrategias, con participación de la corteza prefrontal, permite la reconstrucción del
espacio y de los objetos que nos rodean.

9.2. Gusto
El sentido del gusto permite que los animales sean capaces de diferenciar los alimentos
comestibles de los tóxicos y actuar en consecuencia. La capacidad para discriminar
estímulos gustativos es muy reducida si la comparamos con el resto de los sentidos; solo
se han identificado cinco tipos de receptores para el gusto. Algo diferente es cuando
hablamos de los sabores, que son muchos pero que resultan de la activación combinada
de estos receptores más el componente olfativo de los alimentos (con los resfriados todo
parece más insípido). Supone un salto cualitativo importante ya que los seres humanos
no dependemos del gusto para identificar los alimentos comestibles (confiamos en los
controles sanitarios y en las etiquetas) y hemos desarrollado toda una cultura
gastronómica, cultural y social en torno a los sabores.

Las sustancias químicas que componen los alimentos tienen que disolverse en la saliva
para poder alcanzar las papilas y llegar hasta los receptores gustativos, por eso, con la
lengua seca cuesta más apreciar el sabor de los alimentos. Los receptores para el gusto
son células especializadas que se agrupan formando los botones gustativos, los cuales se
encuentran en número variable en el interior de las papilas (es frecuente, por error,
considerar las papilas como receptores para el gusto). En cada botón gustativo puede
haber entre 50 y 100 células receptoras que se regeneran cada 10 días aproximadamente
(ver Scott, 2005). Aunque somos capaces de discriminar muchísimos sabores solo se han
identificado cinco tipos de receptores para el gusto: dulce, ácido, salado, amargo y
umami. El umami se ha incorporado recientemente al demostrarse claramente su

226
presencia. Su nombre proviene del japonés y se traduciría como sabor delicioso (el
jamón ibérico contiene umami). Es un receptor que responde al aminoácido glutamato y
de manera menos específica a otros aminoácidos. Evolutivamente, el sabor dulce y el
umami son indicadores de sustancias nutritivas y agradables al paladar, mientras que el
sabor amargo lo es de alimentos en mal estado o tóxicos. Podríamos decir que hay tres
tipos de células gustativas que responden de manera específica a estos sabores (Scott,
2004). ¿Qué ocurre entonces con los estímulos salados y ácidos o agrios? No se han
identificado receptores específicos para estos estímulos ya que los tres mencionados no
responden a ellos. Parece que los estímulos ácidos y agrios abren directamente canales
fónicos en las células receptoras (Bigiani et al., 2003; Miyamoto et al., 2000). Una
especulación evolutiva sostiene que estos estímulos permiten al animal detectar sales
minerales necesarias para mantener el equilibrio homeostático del organismo y reponer
las pérdidas.

Está muy asentada la creencia errónea de que las sensaciones gustativas se localizan en
partes diferentes de la lengua. Así, el dulce se localizaría en la parte anterior de la lengua,
el ácido y el salado en los lados o el amargo en la parte posterior. Es fácil demostrar el
error si acercamos un poquito de sal a la punta de la lengua. Se puede experimentar
cualquier sabor en toda la superficie de la lengua (Smith y Margolskee, 2001). Se ha
comprobado que los receptores gustativos pueden responder a distintas moléculas
químicas; por eso, los diferentes sabores parecen ser más el resultado de una
combinación de patrones de actividad de los receptores que de la activación específica de
un grupo de ellos (Verhagen, 2007; Verhagen y Engelen, 2006). Células gustativas
localizadas en varios botones gustativos diferentes proyectan de manera convergente
hacia neuronas bipolares. Las sensaciones gustativas son conducidas al cerebro a través
de varios nervios; el VII par craneal (facial), que transmite las sensaciones gustativas de
la parte anterior de la lengua y del paladar blando; el nervio glosofaríngeo (IX par) desde
las regiones posterior y lateral y el nervio neumogástrico o vago (X par), que transmite
señales gustativas desde la laringe y la epiglotis (Scott, 2005). Estas fibras convergen en
el núcleo del trato solitario del tronco del encéfalo, el cual proyecta al núcleo talámico
ventral posterolateral y, desde ahí, a la corteza gustativa primaria localizada en el
opérculo frontal y la ínsula.

La corteza gustativa primaria responde no solo ante estímulos de esta modalidad sino
también ante la temperatura, la textura e incluso estímulos olfativos (De Araujo y Rolls,
2004; Small et al., 2004). Un área gustativa secundaria se ha localizado en la corteza
orbitofrontal y podría estar relacionada con la valoración emocional que guía nuestra
conducta alimentaria y la selección de alimentos. La corteza orbitofrontal integra
información gustativa y olfatoria pero también otras características de los alimentos como
la temperatura o la textura (Kadohisa et al., 2004), lo que significa que podría ser una
región crítica para determinar si un alimento es agradable al paladar o no. Según esto,
parece que la corteza gustativa primaria procesaría la identificación y la intensidad de los

227
sabores y la corteza secundaria los aspectos emocionales vinculados al sabor de los
alimentos. Además, regiones como el hipotálamo y la amígdala reciben aferencias
gustativas desde otros relevos gustativos en el tronco del encéfalo. Esto ha llevado a
proponer la existencia de dos vías gustativas diferenciadas pero relacionadas, una que se
ocuparía del procesamiento gustativo en sí y otra de tipo emocional relacionada con el
refuerzo o la aversión que evocan los alimentos (Sewards, 2004; Yamamoto et al.,
1994). Además, para añadir complejidad al circuito, se ha confirmado algo recurrente en
los sistemas sensoriales: hay proyecciones top-down desde áreas corticales a los relevos
gustativos iniciales (Hayama y Ogawa, 2001). Como decíamos al principio del capítulo,
el gusto es algo más que la mera activación neuronal ante cinco grupos de moléculas y es
un sistema estrechamente implicado en conductas motivadas tanto en los seres humanos
como en otros animales.

9.3. Olfato
Los receptores para el olfato se encuentran en el epitelio olfativo, una región de unos 2-3
cm2 situada en la parte superior de la cavidad nasal. Está compuesto por tres tipos de
células, receptoras, de sostén y basales. Las células receptoras contienen cilios que se
hallan inmersos en la mucosa que recubre el epitelio; esto significa que las moléculas
odoríferas deben atravesar este moco para alcanzar el epitelio y que, si varían sus
condiciones, puede variar la capacidad olfatoria (pensemos en el resfriado). El segundo
tipo de células son de sostén, aíslan las neuronas receptoras unas de otras e intervienen
en la constitución de moco y en la protección del epitelio ante agresiones externas. Por
último, las células basales se localizan en la base de la mucosa configurando la estructura
por donde emergen las otras células (Doty, 2001). En el epitelio olfativo, las moléculas
olorosas se acoplan a los receptores de las neuronas sensoriales cuyos axones proyectan
a los glomérulos del bulbo olfatorio para establecer sinapsis con células mitrales, un tipo
de neuronas denominadas así por la forma de su soma y que se localizan en esta región.
Los glomérulos son agrupaciones de dendritas de las células mitrales y terminales
axónicos estrechamente interconectados que se distribuyen por todo el bulbo olfatorio.

Las células receptoras del epitelio olfativo son neuronas bipolares cuyos axones forman
el nervio olfatorio. Poseen la capacidad de regenerarse, por lo que en el epitelio olfativo
podemos encontrar células jóvenes, células adultas y células muertas en cualquier
momento del desarrollo. Esto es porque al ser células expuestas al exterior, son
especialmente vulnerables a agentes infecciosos y tóxicos. El bulbo olfatorio es uno de
los lugares donde se produce neurogénesis durante toda la vida, continuamente están
apareciendo nuevas neuronas que son necesarias para la integridad de este sistema. Entre
otras funciones, se ha podido demostrar su papel en el mantenimiento de los circuitos del
bulbo olfatorio ya que reemplazan a las neuronas que van muriendo. Pero además,
parecen jugar un papel relevante en procesos de memoria y aprendizaje olfativo (Lazarini
y Lledo, 2011).

228
Los axones de las células receptoras forman fibras olfativas que atravesando la placa
cribiforme, un hueso perforado de la base del cráneo, proyectan al bulbo olfatorio. En el
bulbo olfatorio están los glomérulos, a donde llegan los axones de las células receptoras
para establecer sinapsis con otro tipo de neuronas, las células mitrales. Los axones de
estas células forman el tracto olfatorio y se dirigen a diversas regiones como el núcleo
olfatorio anterior, la amígdala, la corteza piriforme y la corteza entorrinal, todas ellas
consideradas conjuntamente como la corteza olfativa primaria y localizadas en el lóbulo
temporal medial y en la base del frontal (Doty, 2001; Gottfried, 2010). Desde esta
corteza primaria, las proyecciones se dirigen a la corteza orbitofrontal y a otras regiones
como el hipotálamo, la corteza perirrinal y el hipocampo. Ya vimos que el sistema
olfativo no establece relevo en el tálamo antes de llegar a la corteza cerebral. En este
caso, existe una vía secundaria que se dirige al núcleo dorsomedial del tálamo y de ahí a
la corteza orbitofrontal, en la misma zona donde se reciben las aferencias de la corteza
olfativa primaria (Price y Slotnick, 1983; Doty, 2001). Parece que el tálamo no estaría
implicado en tareas de detección olfatoria, pero sí en la identificación de estímulos o en
las sensaciones agradables producidas por ciertos olores (Sela et al., 2009). Las
conexiones olfatorias con áreas prefrontales y límbicas ponen de manifiesto el valor de
este sistema sensorial en las conductas emocionales.

Stevenson y Wilson (2007) acuñaron el término "objetos olfativos" para referirse tanto
al olor en sí como a la fuente que lo produce, y de esta manera poder simplificar el
concepto estimular que tan escurridizo es en este sistema sensorial. En nuestro entorno
podemos percibir gran cantidad de olores como consecuencia de las infinitas posibles
mezclas de partículas olorosas que pueden alcanzar los receptores olfativos. Según los
trabajos de Leslie M.Kay y su equipo, las propiedades físicas de estas mezclas y un
cierto grado de solapamiento de la acción de unas partículas sobre otras a la hora de
estimular los receptores, hace que el sistema olfativo elabore una configuración
perceptiva de carácter más global en vez de percepciones olfativas elementales (Kay et
al., 2005). Esto significa que, ya desde los primeros niveles perceptivos, se elaboran una
especie de patrones olfativos que luego darán lugar a las correspondientes
representaciones corticales para esos olores. Pero es que además, la acción de un "objeto
olfativo" sobre los receptores de la nariz puede cambiar ligeramente en función de
factores como la temperatura o la humedad del aire, los cuales pueden modificar las
características físicas de las partículas volátiles y ocasionar diferencias perceptivas en la
sensación olfativa. También en este caso existen proyecciones desde la corteza piriforme
hacia el bulbo olfativo (Markopoulos et al., 2012; Oswald y Urban, 2012), las cuales no
solo modulan las señales olfativas ascendentes, sino que también podrían participar en
funciones de "reseteado olfativo". Se ocuparían de eliminar rastros olfativos previos y así
preparar al epitelio para una nueva estimulación. Quizá esto ayude a comprender por qué
el olfato es un sentido que se adapta tan rápidamente a los olores; pensemos en lo que
ocurre cuando entramos en una estancia con un olor determinado y cómo, a los pocos
minutos, no detectamos ese olor con la misma intensidad. El sistema olfativo tiene una

229
burra capacidad para detectar cambios olfativos y para ello necesita borrar rápidamente la
estimulación anterior.

230
231
El movimiento es la expresión del funcionamiento de muchos circuitos del SN y el
componente del comportamiento más fácil de estudiar y describir porque es observable.
Otra cosa es comprender los mecanismos neurales que subyacen a los movimientos y
acciones, ahí nos vamos a encontrar con más dificultades como consecuencia de las
lagunas de conocimiento que persisten todavía. Es conveniente diferenciar entre
movimientos y acciones, considerando los primeros como actividad muscular simple o
básica (flexión de un dedo, giro de cuello...) y las segundas como conductas motoras más
o menos complejas que sirven a un propósito e integran varios movimientos. Cuando
hablamos de actividad motora en general pensamos en actos sencillos o más complicados
pero sin paramos a analizar toda la complejidad intrínseca que conlleva la realización
precisa de los mismos. Solamente pensemos en la actividad sensorial (por ejemplo, visual
o somatoestésica) que desplegamos junto a un acto motor cuyo objetivo es alcanzar un
objeto.

10.1. Componentes del sistema motor


Un acto motor implica a sistemas sensoriales y también a otros como los que soportan
la memoria o la motivación, por lo que prácticamente todo el SN está al servicio de la
motricidad, por eso, vamos a centrar el contenido de este apartado en los principales
componentes encargados de programar y ejecutar los movimientos. Ya nos hemos
referido a la importancia del sistema somatosensorial en el comportamiento motor, pues
algo similar ocurre con el sistema visual, necesitamos ubicar los objetos en el espacio
para actuar con y sobre ellos. Por último, precisar que nos vamos a ocupar del sistema
motor somático, ya que en su momento abordamos el SN autónomo que también posee
circuitos motores. Así, podemos dividir los componentes del sistema motor en periféricos
y centrales.

10.1.1. Componentes periféricos del sistema motor


Con componentes periféricos nos estamos refiriendo a los músculos y a las
motoneuronas que los inervan y producen su contracción. Hay tres tipos de músculos,
estriado, liso y cardiaco, pero los responsables de la motricidad voluntaria son los
primeros, llamados así por el aspecto que presentan las fibras musculares al microscopio.
Las fibras musculares del músculo estriado, empaquetadas en fascículos musculares,
están formadas por multitud de miofibrillas. Pues bien, cada miofibrilla está formada por
una sucesión de segmentos que se denominan sarcómeros (figura 10.1) y que constituyen
el elemento contráctil más simple de los músculos. Cada sarcómero está delimitado por

232
dos láminas de tejido que se denominan discos Z; en su interior hay dos tipos de
filamentos, unos delgados formados por una proteína llamada activa y que están
adheridos al disco Z y otros gruesos de miosina intercalados entre los anteriores. Cuando
llega un impulso nervioso a la fibra muscular, los filamentos de activa y miosina se
desplazan unos sobre otros (existen unas moléculas adherentes que actúan como ganchos
tirando de los filamentos) y así se acorta la longitud del sarcómero. Como esto ocurre
simultáneamente en muchos de ellos, se produce una contracción de las fibras
musculares.

En el músculo, hay dos tipos de fibras, intrafusales y extrafusales. Las primeras se


denominan así porque se localizan dentro del huso muscular, un receptor sensorial que
detecta el grado de estiramiento del músculo e informa de ello al cerebro. Las
extrafusales están unidas por los tendones a los huesos y son las responsables del
movimiento. En los tendones se encuentra el órgano tendinoso de Golgi, otro receptor
sensorial que transmite información sobre el grado de tensión del músculo. Ambos
receptores mantienen informado al cerebro sobre el estado de cada músculo antes,
durante y después de ejecutar un movimiento. Las motoneuronas, como su nombre
indica, son neuronas cuyos cuerpos celulares se localizan en el asta anterior de la médula
espinal (sustancia gris) o en los núcleos motores del tronco del encéfalo y sus axones se
proyectan fuera del SNC hacia los músculos. Estas neuronas establecen sinapsis con las
fibras motoras para producir su contracción; esta sinapsis neuromuscular, que se
denomina placa motora, tiene la peculiaridad de que los terminales axónicos se invaginan
en la membrana de la fibra muscular y quedan prácticamente cubiertos por ella, con una
configuración que incrementa notablemente la eficacia del NT, la acetilcolina.

Una unidad motora está formada por una motoneurona y el conjunto de fibras
musculares que inerva. Las unidades motoras que se ocupan de movimientos finos y
precisos están formadas por una neurona y pocas fibras musculares, mientras que las
unidades motoras con muchas fibras musculares proporcionan mucha menos versatilidad
a los músculos. Por ejemplo, las unidades motoras de los músculos que mueven los ojos
poseen entre 3 y 6 fibras motoras, mientras que en el tronco o las piernas podemos
encontrar unidades motoras formadas por varios cientos de fibras musculares cada una.
Según esto, hablamos de proporción o tasa de inervación (el cociente entre el número de
neuronas aferentes y el de fibras musculares); así, en músculos donde predominan
unidades motoras de pocas fibras, la tasa de inervación es alta (dedos de las manos)
mientras que en el músculo donde predominan unidades motoras con muchas fibras, la
tasa es baja (espalda). Las fibras musculares pueden ser rápidas o lentas, las primeras se
contraen rápidamente pero dura poco tiempo porque se "fatigan" fácilmente al cabo de
unas pocas estimulaciones (por ejemplo, las de los músculos de los ojos); las lentas, por
el contrario, experimentan una contracción más lenta pero son mucho más resistentes y
pueden responder durante mucho más tiempo (las de los músculos implicados en el tono
postural y la marcha).

233
Figura 10.1. Esquema de una miofibrilla y ampliación de un sarcómero (A). Cuando llega
el impulso nervioso, los filamentos se desplazan y el sarcómero se acorta (B).

10.1.2. Componentes centrales del sistema motor


En este caso sí que tenemos que incluir todas las divisiones del SNC, ya que podemos
encontrar circuitos motores en la médula, en el tronco del encéfalo, en el cerebelo, en el
diencéfalo y en el telencéfalo. Existe una cierta organización jerárquica inversa a la vista
en los sistemas sensoriales ya que la información (órdenes) va desde centros superiores
hasta los músculos; no obstante, hay vías de procesamiento paralelas con centros de
control en niveles intermedios. Las órdenes iniciales para que un músculo se contraiga y
se produzca un movimiento se originan en la corteza cerebral desde donde llegan al
tronco del encéfalo (músculos de cabeza y cuello) o a la médula espinal (músculos de
tronco y extremidades), directamente o después de un relevo sináptico en núcleos del
tronco del encéfalo (figura 10.2).

234
Figura 10.2. Esquema de las estructuras que forman parte del sistema motor. En
diferentes tonos de sombreado aquellas que intervienen directamente en la transmisión de
las órdenes motoras. La línea discontinua hace referencia a distintos grados de
modulación de las señales motoras.

Otras estructuras como el cerebelo o los ganglios basales actúan modulando las señales
corticales para proporcionar coordinación, sincronía y la fuerza adecuada al movimiento
ejecutado. También hay que tomar en consideración la intervención de núcleos del
tálamo y del hipotálamo a la hora de propiciar y regular el componente motor de ciertas
conductas, por ejemplo, durante una crisis de ansiedad.

10.2. Control neural de la motricidad


La decisión de realizar un movimiento voluntario la toma la corteza prefrontal a partir
de las señales que integra procedentes de los sistemas sensoriales, tanto exteroceptivos
como interoceptivos. Por ejemplo, tenemos sed y alargamos el brazo para coger un vaso
de agua situado frente a nosotros, o bien, cruzamos o descruzamos las piernas para
aliviar la incomodidad que supone llevar mucho tiempo en la misma postura. Una vez
que la decisión está tomada hay que transmitírsela a los centros responsable de

235
ejecutarla, la corteza motora.

Como corteza motora solemos referimos a un conjunto de áreas que participan en la


motricidad, pero en realidad hay que diferenciarlas porque cumplen distintos cometidos.
Por un lado está la corteza motora primaria (M1), de donde salen la mayor parte de los
axones motores descendentes; por otro, la corteza premotora (CPM) y el área motora
suplementaria (AMS) que, en ocasiones, reciben conjuntamente el nombre de corteza
motora secundaria. La corteza Ml está situada en la circunvolución precentral y por
delante se sitúa la CPM; el AMS se localiza en la región dorsomedial, también por
delante de Ml (figura 10.3). A partir de estudios con primates, se ha comprobado que
estas dos regiones pueden subdividirse en otras áreas; en la CPM pueden diferenciarse
dos porciones, una dorsal y otra ventral y en el AMS una anterior conocida como
presuplementaria (Matsuzaka et al., 1992). Además, también hay dos áreas para los
movimientos oculares (Kaas y Stepniewska, 2002) situadas por delante de las anteriores.

La CPM y el AMS son centros encargados de programar la secuencia de movimientos


necesaria para ejecutar una acción prevista (Lau et al., 2004; Picard y Strick, 1996) pero
quien realmente se ocupa de mandar las órdenes a los músculos es M1. Cualquiera que
use el ordenador con regularidad sabe que el manejo del ratón es algo automático que no
supone mayor dificultad, sin embargo, las primeras veces que lo utilizamos sí costó
trabajo coordinar los movimientos. Los circuitos de la CPM y el AMS poseen patrones
motores almacenados, es decir, redes que codifican determinadas secuencias de
movimientos y que cuando se activan mandan las señales adecuadas a Ml para que las
traslade a los músculos. La existencia de estos patrones motores nos permite realizar
multitud de acciones en la vida cotidiana sin tener que asignar demasiados recursos
neurales, de manera prácticamente automática. No obstante, estos patrones son revisados
y actualiza dos en cada situación en función de las exigencias del contexto y de la tarea;
por ejemplo, tenemos almacenado un patrón para estirar el brazo o para cerrar la mano
sobre un objeto, pero el ratón puede estar a distintas distancias cada vez o ser de mayor
o menor tamaño. Si observamos el desarrollo de los bebés podemos comprender cómo
van practicando y almacenando estos patrones motores.

236
Figura 10.3. Áreas corticales implicadas en la motricidad.

Al igual que vimos en la corteza somatosensorial, Ml también posee una representación


de los músculos del cuerpo, sin embargo en este caso no es tan ajustada como las
representaciones somáticas. Es cierto que hay una representación cuasitopográfica de los
músculos del cuerpo, sin embargo, con las técnicas actuales de registro y neuroimagen,
se ha demostrado un alto grado de superposición de estas representaciones, sobre todo
las correspondientes a las extremidades. Además, parece que estos mapas topográficos
de los músculos del cuerpo pueden verse modificados (Graziano, 2006). Esto supone la
existencia de más de un homúnculo, ya que algunas partes de cuerpo aparecen
representadas repetidamente, algo que quizá tenga que ver con la versatilidad funcional
de las mismas; es por eso que se usa el término somatotopía funcional (Cunningham et
al., 2013).

Las neuronas de M1 envían señales descendentes hacia los núcleos del tronco del
encéfalo y de la médula espinal (ver Lemon, 2008) desde donde salen moto neuronas a
los músculos. El principal grupo de axones descendentes se denomina fascículo
corticoespinal, por dirigirse a la médula espinal. La mayor parte de ellos decusan a la

237
altura del bulbo raquídeo, en la decusación de las pirámides bulbares; por eso este
fascículo recibe también el nombre de piramidal, aunque parte de las fibras no decusan
en esta zona. El tronco del encéfalo recibe proyecciones corticales y desde varios de sus
núcleos emergen fascículos motores descendentes (Kuypers, 1981) como el tectoespinal
(desde el colículo superior o tectum), el rubroespinal (desde el núcleo rojo), el
vestibuloespinal (desde los núcleos vestibulares) o el reticuloespinal (desde núcleos de la
formación reticular). Algunas de estas vías descienden por la porción lateral de la médula
y se les relaciona principalmente con los movimientos voluntarios de las extremidades,
mientras que otras lo hacen por la porción ventromedial y se les relaciona con la postura,
el equilibrio o la marcha. Algunos estudios recientes cuestionan esta segregación
funcional tan marcada y consideran que ciertas vías pueden tener implicaciones
funcionales más complejas (Lemon, 2008). Muchas de estas investigaciones se han
realizado con modelos animales y se ha comprobado que existen diferencias en cuanto a
la configuración de las proyecciones motoras; esto nos permite pensar que puede haber
mecanismos adaptativos que hayan contribuido a esas diferencias; por ejemplo, la
bipedestación en algunos vertebrados requiere una cierta reasignación de los circuitos
encargados de la postura y el equilibrio.

En el tronco del encéfalo hay varios núcleos que controlan la motricidad de la cabeza,
enviando sus axones a través de los nervios craneales hacia los músculos de la cara o los
ojos. Los centros motores del tronco del encéfalo están implicados es funciones como la
respiración, la masticación o el habla. La médula espinal es el destino de las fibras
motoras descendentes donde sinaptan con las motoneuronas que se dirigen a los
músculos. Pero la médula es algo más que una mera autopista neuronal por donde suben
y bajan señales nerviosas ya que, aparte de los circuitos locales en el mismo nivel o en
diferentes niveles medulares (mediante interneuronas), las propias motoneuronas
muestran diferentes patrones de actividad que podrían estar relacionados con diferencias
funcionales (Zhu et al., 2012). Además, incluso hay respuestas motoras, los reflejos, que
pueden ocurrir en ausencia de control superior en animales a los que se les ha
desconectado la médula del cerebro o en personas que han sufrido una lesión medular.

En un buen número de estudios con diferentes especies de animales, vertebrados e


invertebrados, se han descrito determinadas redes de neuronas que se ocupan de generar
patrones rítmicos de actividad y que producen una amplia gama de movimientos
automáticos o semiautomáticos. Cada una de estas redes se conoce con el nombre de
generador central de patrones o generador de patrones motores (GPM) y consiste en un
circuito neural que puede producir patrones autónomos de conducta sin necesidad de
recibir señales sensoriales (Grillner, 1985). Tienen la capacidad de generar por sí mismos,
sin aferencias procedentes de centros su periores, actividad espontánea y periódica para
cierto tipo de movimientos como los de la respiración o la masticación, los localizados en
el tronco del encéfalo, o la locomoción los localizados en la médula espinal (Barlow y
Estep, 2006; Marder y Bucher, 2001). Incluso podría haber redes algo más complejas

238
implicadas en acciones instintivas como la risa, el grito o posturas y movimientos
defensivos. (Wise y Shadmehr, 2002). Es posible que los GPM localizados en la médula
estén implicados en otro tipo de actor motor ya que, por ejemplo, se le atribuye una
participación mayor en la regulación de movimientos complejos (Bizzi et al., 2000)
gracias a, entre otros factores, las redes de interneuronas medulares que regulan los
circuitos ascendentes y descendentes. Hay muchos estudios que demuestran la existencia
de estos circuitos en mamíferos, pero no hay evidencia contundente de su presencia en el
SNC humano. No obstante, hay datos suficientes para suponer que en humanos, al
menos la locomoción está regulada por este tipo de redes (Duysens y van de Crommert,
1998; Dietz, 2003).

El sistema motor cuenta además con otras estructuras que juegan un papel
fundamental para entender el resultado final de los actos motores y cuya lesión altera
significativamente la capacidad de realizar movimientos eficaces y precisos, son los
ganglios basales y el cerebelo. Como ya sabemos, los ganglios basales son un conjunto de
estructuras subcorticales (núcleo caudado, putamen, núcleo pálido...) estrechamente
interconectadas entre sí y con la corteza motora que además mantienen conexiones con
otros núcleos como la sustancia negra del tronco del encéfalo y el núcleo subtalámico.
Las conexiones entre estos centros siguen un patrón más o menos regular ya que la
corteza proyecta al estriado (caudado y putamen), de aquí al núcleo pálido y, este
proyecta al tálamo, el cual envía conexiones de vuelta a la corteza. Se les han atribuido
muchas funciones, entre otras, la de intervenir en la preparación de los movimientos, en
la automatización de los mismos, en la adaptación a situaciones nuevas o en conductas
que proporcionan consecuencias positivas (Brooks, 1995). Su papel preciso sigue siendo
objeto de controversia ya que los resultados, tanto clínicos como experimentales, son
objeto de diferentes interpretaciones. También, desde el ámbito clínico, se les ha
atribuido una función básicamente inhibidora sobre movimientos innecesarios, ya que el
daño en estas estructuras se manifiesta por la presencia de movimientos involuntarios y
otras alteraciones del tono muscular y de la postura. Esto es lo que ocurre en trastornos
como el de Huntington, la enfermedad de Parkinson o el síndrome de Tourette. Sin
embargo, actualmente hay pruebas evidentes de que sus funciones van más allá y con
una complejidad mayor porque las alteraciones en estos circuitos pueden provocar tanto
hiperquinesia como hipoquinesia (Gittis y Kreitzer, 2012). También parecen estar
relacionados con la formación de hábitos (Yin y Knowlton, 2006), es decir, la
automatización de conductas que inicialmente se ejecutan dirigidas a un objetivo pero
que la repetición convierte en automatismos (por ejemplo, accionar el interruptor de la
luz al entrar en una habitación a oscuras). Esto es una forma de aprendizaje, y es que a
los ganglios basales también se les atribuye una cierta implicación en procesos de
aprendizaje motor, al igual que el cerebelo, y de otras modalidades (Doga, 2000). No
obstante, queda todavía mucho que aclarar sobre su participación y la función (o
funciones) que desempeñan estos circuitos.

239
El cerebelo también es una estructura importante del sistema motor y participa en
aspectos muy básicos como el equilibrio o la postura (áreas mediales) y en otros más
complejos como los movimientos intencionados de precisión (áreas laterales). También
se le han atribuido diferentes funciones en la motricidad, como por ejemplo, corrección,
ajuste, determinación de velocidad u orientación de los movimientos o la adquisición de
habilidades motoras (Ito, 2000). En el ámbito clínico, al cerebelo se le implica en
funciones como la iniciación o detención del movimiento, en los movimientos oculares o,
de modo más general, en proporcionar precisión y sincronía a los movimientos, ya que
su lesión no impide la motricidad pero hace que esta se realice de manera imprecisa y
descoordinada. Así, pueden aparecer dificultades para, por ejemplo, agarrar un objeto
pequeño, calcular correctamente la distancia de un objeto que se quiere alcanzar o
coordinar actividades bimanuales. El cerebelo juega un papel importante en el
aprendizaje de habilidades motoras ya que recibe aferencias de la corteza motora, de los
núcleos troncoencefálicos y de los receptores musculares, por lo que puede valorar si un
movimiento ha alcanzado su objetivo o no (por ejemplo, cuando lanzamos un dardo y no
acertamos en el centro de la diana) y corregirlo. Los trabajos de David Marr (1969)
sobre la corteza cerebelosa dieron pie a James S.Albus (1971) a formular la teoría de que
la plasticidad de determinadas conexiones sinápticas en la corteza cerebelosa era la
responsables de lo anterior. El cerebelo compara la información del movimiento realizado
con el movimiento previsto y efectúa las correcciones necesarias que traslada a la corteza
motora para que las incorpore al siguiente intento. Actualmente, con técnicas de
neuroimagen funcional, se ha comprobado que el cerebelo sí se activa cuando el
resultado de una acción no es el previsto (Fautrelle et al., 2011). Por el contrario, su
implicación en los mecanismos de corrección para los intentos sucesivos no están tan
claros pero no se puede descartar de manera radical la explicación que aporta la teoría de
Marr-Albus (Ito, 2000).

10.3. Movimiento y acción


El sistema motor humano lleva a cabo acciones con una intención, dirigidas a un
objetivo, que puede ser alcanzar el vaso de agua situado encima de la mesa o conseguir
que el vehículo se mueva en la dirección adecuada y a la velocidad precisa. Para
cualquiera de estas acciones, tiene que diseñar un plan motor que implica la
programación de una secuencia de movimientos más o menos flexible que permita
alcanzar el objetivo o que, en caso contrario, admita las modificaciones necesarias para
ello. Aunque haya circuitos especializados en determinadas funciones, un acto motor es
el resultado de la actividad conjunta de los circuitos que hemos visto en apartados
anteriores. Parte de la motricidad básica está codificada genéticamente si consideramos
como tal la mera contracción muscular o la flexión de las articulaciones. Esto lo podemos
apreciar en las respuestas motoras de un recién nacido (incluso en los movimientos
fetales), pero también en las mutaciones genéticas que ocasionan alteraciones motoras
tempranas (Gennaro et al., 2010; Paulson y Paulson, 2003). Después, a lo largo del
desarrollo cada persona va a ir almacenando su propio repertorio de actos motores en

240
función de combinaciones y secuencias de estos patrones de actividad básica. Algunos
patrones serán universales (caminar, agarrar objetos, mover los ojos en el campo visual..
.); otros serán más específicos y adquiridos solo por algunas personas (tocar el violín,
tejer...), lo que nos plantea la posible diferenciación entre acciones adaptativas y acciones
idiosincrásicas.

Un reflejo es el movimiento más elemental, un movimiento que solo requiere de la


participación de dos neuronas, una sensorial y otra motora (representación esquemática
del circuito). Un reflejo es una respuesta innata ante un estímulo, por lo tanto es
automática, no aprendida, forma parte de nuestro repertorio motor congénito y suelen
tener carácter adaptativo y defensivo. Además, se produce a nivel medular y no requiere
la participación de centros superiores, por eso puede observarse en pacientes con lesiones
medulares. En realidad un circuito reflejo implica cuatro o cinco componentes: un
receptor, una neurona sensorial, una neurona motora y un músculo; el quinto
componente puede estar presente o no, se trata de intemeuronas localizadas entre la
neurona sensorial y la motora. Un reflejo sencillo en el que no intervienen intemeuronas
se denomina monosináptico, mientras que cuando lo hacen lo denominamos polisináptico
(figura 10.4). Uno de los reflejos más conocidos es el de extensión o reflejo miotático,
que se da, por ejemplo, cuando el médico golpea con un martillo de caucho para reflejos
en el tendón rotuliano y la pierna se eleva levemente.

Pero los reflejos de manera aislada no pueden guiar la motricidad de un animal, por
eso se integran en procesos motores más complejos. Por ejemplo, los reflejos
contribuyen al mantenimiento de la postura junto con la actividad de los circuitos que
controlan el tono muscular o el equilibrio. Pensemos en la locomoción; un bebé
manifiesta el reflejo de marcha (si lo sostenemos para que sus pies rocen una cinta
andadora, mueve las piernas como si caminara) pero es incapaz de desplazarse porque
no ha integrado ese reflejo en un patrón más complejo que incluye el control del
equilibrio, la fuerza necesaria y adecuada para sostener el cuerpo y la coordinación de
todo ello durante una trayectoria, procesos en los que intervienen los circuitos superiores
(Windhorst, 2009). Con el aprendizaje posterior será capaz de ello y además también
será capaz de correr, saltar o evitar obstáculos eficazmente, señal de que ha adquirido un
patrón motor complejo a partir de la integración de movimientos o patrones más
sencillos.

241
Figura 10.4. Esquema de un reflejo monosináptico y otro polisináptico.

En el extremo contrario estarían los movimientos voluntarios dirigidos a un objetivo en


situaciones en las que no se trate únicamente de aplicar un automatismo adquirido (estirar
el brazo, asir un objeto...) y que, por tanto, requiera un plan motor complejo. Pensemos
en una situación tan habitual como la de alguien que tiene sed y desea tomar un vaso de
agua. La CPF es la que se ocupa de guiar la conducta y tomar decisiones,
independientemente de que estas acaben en un acto motor o no. Por tanto, es la que,
atendiendo a las señales de sed que recibe del hipotálamo, decide llevar a cabo la
conducta de beber agua y cómo hacerlo. Para ello, lo primero que se necesita son las
aferencias sensoriales que nos proporcionan información externa e interna acerca de
detalles que necesitamos para llevar a cabo nuestro objetivo, desde el lugar donde se
encuentran los vasos hasta la posición de nuestro cuerpo. Esto significa que diferentes
circuitos nerviosos deben convertir las señales procedentes de estas áreas sensoriales en
planes motores que implican una cascada de señales a los músculos (Bizzi, 1999). Hay
que tener en cuenta que una acción como esta requiere de la realización de muchos
movimientos, desde desplazarnos hacia el objeto a manipularlo o utilizarlo según el plan
de acción, siguiendo una secuencia correcta, algo en lo que participan los circuitos que ya
conocemos pero en lo que la CPM juega un papel importante (Tanji, 2001). Parece que,
una vez que la CPF toma la decisión de beber agua, envía señales a las regiones motoras
secundarias para que pongan en marcha los patrones motores que puedan servir a este
propósito. Así, antes de iniciar el movimiento, el AMS y el área pre-suplementaria se
activan bilateralmente con una organización somatotópica difusa mientras que la CPM y
la corteza M1 del lado contrario al del miembro con el que vamos a realizar el
movimiento lo hacen con una organización somatotópica un poco más precisa (Shibasaki,
2012). No olvidemos lo ya comentado respecto a la organización somatotópica, no
hablamos de una localización exacta, pero sí de localizaciones más restringidas.

242
Nuestra corteza motora almacena multitud de patrones motores que se han ido
adquiriendo mediante aprendizaje sobre la base de respuestas motoras primarias
(reflejos). Un patrón motor se puede entender como una secuencia rítmica y repetitiva de
actividad en las neuronas motoras corticales que tiene lugar durante un acto motor real o
imaginado. De manera similar a cómo construimos representaciones perceptivas a partir
de la integración de múltiples detalles, también las representaciones motoras se
configuran a partir de movimientos simples. Los patrones motores no son acciones
cerradas sino que codifican aspectos generales del movimiento que luego aplicamos en
cada situación ajustándolos a las características de la misma. El almacenamiento de estos
patrones nos permite ejecutar multitud de habilidades motoras de manera prácticamente
automática, lo cual libera recursos cerebrales para atender a otros estímulos o ejecutar
otros procesos cognitivos simultáneamente. Pensemos en un niño pequeño que está
aprendiendo a caminar; necesita poner toda su atención en mantener el equilibrio, en
adaptar el balanceo de su cuerpo o en alternar adecuadamente los movimientos de
piernas. Después de un tiempo de práctica, es capaz de integrar todas estas habilidades al
tiempo que habla, juega o planea otras acciones.

El aprendizaje motor es el proceso por el que adquirimos habilidades motoras, las


cuales, redundando, son conductas aprendidas que requieren la activación de diferentes
grupos de músculos. Igual que el niño aprende a andar, el adulto aprende a conducir, a
Jugar al futbol o a tocar la guitarra. Este proceso de aprendizaje está presente en todo
momento en el que haya algún tipo de entrenamiento motor y es responsable del
desarrollo del habla o del aprendizaje del uso de herramientas, habilidades absolutamente
adaptativas y evolutivamente ventajosas. Pero también es el que permite la adquisición
de otras habilidades que nos permiten adaptamos a entornos cambiantes y sacar partido
de ello, lo que demuestra que es una función primordial del SN. Dado que estas
habilidades motoras son consecuencia del aprendizaje, el repertorio de habilidades
motoras de un sujeto será diferente del de otro que se haya desarrollado en un entorno
sociocultural distinto (por ejemplo, el uso del tenedor o de palillos para comer). El
aprendizaje motor puede ocurrir por la observación de actos motores realizados por otros
sujetos y la posible imitación de los mismos; en el caso de la infancia y la adolescencia,
esta imitación está considerada como una fuente de aprendizaje primordial (Meltzoff,
2007). Cuando observamos a otro ser humano realizar determinados movimientos, se
activan en nuestro cerebro regiones premotoras y motoras equivalentes (Binkofski y
Buccino, 2006; Morin y Grézes, 2008) debido a la presencia de neuronas espejo en las
mismas (Rizzolatti et al., 1996). Esto también nos permite comprender la acción e
interpretar las intenciones del ac tuante, algo que va más allá de la motricidad y que se
puede relacionar con la interacción social y la empatía.

Vemos que una acción voluntaria requiere una planificación, a partir de información
sensorial y propioceptiva, que pone en marcha diferentes patrones motores aprendidos
que podemos ajustar según la situación. Pero para comprender completamente cómo se

243
lleva a cabo una acción voluntaria es importante insistir en el papel que juegan los
circuitos parietales y las aferencias somatosensoriales que llegan a la corteza motora y
prefrontal (Desmurget y Sirigu, 2009; Rushworth et al., 2003). La planificación y
ejecución de un acto motor requiere constante información acerca de la posición de
brazos y piernas, algo de lo que se ocupan los circuitos parietales que contienen una
representación del propio cuerpo y de su posición en el espacio además de información
actualizada sobre el estado de músculos y tendones. También posee representaciones del
espacio que nos rodea y de la posición relativa de los objetos en el mismo. Todo ello,
junto con la información sensorial (sobre todo visual) es utilizado en la planificación de
los movimientos. Pero esta habilidad también es el resultado de un proceso de
aprendizaje. Un estudio con niños de entre 7 y 13 años (Kinga et al., 2010) demostró
que en edades tempranas utilizan preferentemente la información visual para planificar
sus movimientos mientras que en edades más avanzadas utilizan la información
propioceptiva somatosensorial. Esto es consecuencia de la mejora en la utilización de
información somatosensorial que permite una progresiva independencia de los recursos
visuales para destinarlos a otras necesidades.

Podemos concluir afirmando que la actividad motora voluntaria recluta circuitos


neuronales de la mayor parte del SN en un proceso de ajuste fino que desemboca en
habilidades motoras muy especializadas adquiridas fundamentalmente gracias al
aprendizaje. Es importante resaltar que el aprendizaje depende del entrenamiento por lo
que se debe conceder mayor consideración al aprendizaje motor y al desarrollo de este
tipo de habilidades durante el periodo escolar.

10.4. Alteraciones de la motricidad


Como acabamos de ver, la complejidad que subyace a la motricidad es grande y la
mayor parte de estructuras nerviosas están implicadas directa o indirectamente en la
actividad motora. Por este motivo, cuando hablamos de alteraciones de la motricidad o
del sistema motor nos enfrentamos a un amplio abanico de síntomas y síndromes. Por
ejemplo, una alteración de la unión sináptica neuromuscular ocasiona un trastorno
conocido como miastenia gravis, una enfermedad autoinmune causada por un ataque del
sistema inmunitario a los receptores colinérgicos de la membrana muscular (Hughes et
al., 2005). Otro ejemplo es la esclerosis múltiple o la tristemente famosa esclerosis lateral
amiotrófica (ELA), cuadros en los que las neuronas motoras medulares resultan dañadas
y mueren. La primera, a causa también de una reacción autoinmune que provoca que el
propio sistema inmunitario no reconozca la mielina como tejido propio y lo ataque (Bo et
al., 1994). En el caso de la ELA, una alteración genética hace que sean las neuronas
motoras las que directamente degeneren y mueran provocando además una marcada
atrofia muscular por falta de aferencias nerviosas (Harms y Baloh, 2013).

En el entorno educativo uno de los cuadros que supone el mayor desafío rehabilitador
es la parálisis cerebral (PC). Consiste en una alteración del sistema motor producida por

244
una lesión cerebral ocurrida cuando el cerebro está aún en desarrollo y que afecta a la
postura y a la motricidad. No se trata de un trastorno progresivo, aunque por ocurrir
durante el desarrollo cerebral, la sintomatología podría hacer que lo pareciera en los
primeros años postnatales. Como el cerebro está en desarrollo no se puede determinar el
alcance de la discapacidad sino que, a medida que van creciendo estos niños, se va
valorando si alcanzan o no los hitos del desarrollo motor en el momento en que deberían
hacerlo. El daño cerebral puede ocurrir durante el periodo prenatal, en el postnatal
temprano o durante el parto, siendo una de las causas más frecuentes la anoxia. Los
niños con PC tienen dificultades en el control del movimiento y la postura, alteraciones
del tono muscular y una serie de trastornos sensoriales, cognitivos y comportamentales
que, en mayor o menor medida, pueden acompañar a aquellos (Rosenbaum et al., 2007).
Es fundamental resaltar que la PC no implica retraso mental. Es cierto que las
dificultades sensoriales o cognitivas (cuando están presentes, que no ocurre siempre)
pueden lastrar su desarrollo intelectual, pero estos niños, con sus dificultades motoras o
de otro tipo, son perfectamente educables e, incluso, bastantes de ellos pueden
desarrollar un nivel intelectual y académico considerable.

La triste consecuencia de muchos accidentes de tráfico (o laborales) es una lesión


medular que, según el nivel que se produzca, ocasionará una paraplejia o una tetraplejia.
La paraplejía es una parálisis bilateral de la parte inferior del cuerpo afectando sobre todo
a ambas piernas y con pérdida de sensibilidad por debajo de la lesión. Por su parte, la
tetraplejia afecta a brazos, piernas y tronco ya que la lesión suele localizarse en los
niveles cervicales de la médula espinal. Aunque se parezca el nombre, la hemiplejia es
una alteración considerablemente distinta de las anteriores. En este caso, se trata de una
parálisis de los miembros de un lado del cuerpo como consecuencia de una lesión en la
corteza motora o en los fascículos motores descendentes. La parálisis motora se localiza
en el lado contrario al de la lesión y su manifestación dependerá de la extensión y
localización concreta del daño. Frente a estos trastornos cuya causa suele ser un daño
cerebral sobrevenido (traumatismos, accidentes cerebrovasculares...), hay otros de
carácter neurodegenerativo que afectan sobre todo a estructuras como los ganglios
basales; es el caso de la enfermedad de Parkinson, el corea de Huntington o el síndrome
de Tourette. Generalmente, las dos primeras se suelen asociar con edades avanzadas, sin
embargo, el síndrome de Tourette es característico de la infancia ya que se estima que en
tomo a un 1% de los niños en edad escolar pueden presentar este trastorno. En ocasiones
puede pasar desapercibido, ya que la severidad de los síntomas puede ir desde simples
tics vocales o motores hasta complejos movimientos involuntarios repetitivos junto con
ciertos trastornos asociados como el trastorno por déficit de atención con hiperactividad
(TDAH) o el trastorno obsesivo compulsivo (TOC) (Stem, 2006).

Uno de los trastornos motores que más investigación neuropsicológica ha generado en


los últimos años es la apraxia, la dificultad o incapacidad completa para realizar
movimientos voluntarios aprendidos en ausencia de otro trastorno sensoriomotor o

245
cognitivo (por ejemplo, parálisis, debilidad, deficiencia sensorial o trastorno mental) que
pueda explicar el déficit. Se considera que el movimiento alterado debe ser voluntario,
aprendido y con un propósito (se descartan así automatismos) y la dificultad se puede
manifestar de diferentes maneras, el paciente puede ser incapaz de realizar un
movimiento siguiendo órdenes verbales, imitar un movimiento observado, utilizar un
objeto o simular que lo utiliza (CalvoMerino, 2008). El paciente no puede realizar un
movimiento que antes de una lesión cerebral sí podía y sabía hacer, por ejemplo, le
pedimos que simule pasarse un peine por la cabeza y es incapaz de hacerlo. Sin embargo,
a veces resulta difícil comprobar el déficit ya que en algunos casos, estos pacientes son
capaces de realizar ese movimiento de manera automática; si le ponemos frente a un
espejo con un peine en la mano, probablemente se lo pasaría por la cabeza. Y es que hay
diferentes tipos de apraxia. Los intentos por clasificarlos han sido poco fructíferos porque
no hay un consenso generalizado a la hora de establecer los criterios de clasificación, ya
que las manifestaciones clínicas pueden ser muy variopintas y a las mencionadas se
pueden sumar, por ejemplo, la incapacidad de simular el uso de herramientas, relacionar
objetos que participen en un acto motor (una pelota y una raqueta) u ordenar viñetas que
representen una acción con sentido. Tampoco es fácil delimitar una región cortical que
explique las dificultades de un paciente apráxico ya que se han identificado diferentes
áreas, tanto anteriores como posteriores, cuya lesión ocasiona algún tipo de dificultad de
estas características (Goldenberg y Karnath, 2006).

En realidad, la determinación de los circuitos implicados en la apraxia o en otro tipo de


alteraciones cerebrales siempre supone una dificultad metodológica considerable. En
modelos animales es difícil representar todas las características que un determinado
cuadro clínico presenta en humanos, por eso, muchos de estos modelos intentan
reproducir síntomas aislados para ir componiendo el puzle que supone el trastorno
completo. En los estudios con humanos el problema radica en el tipo de lesiones que
podemos encontrar. Los trastornos del neurodesarrollo o los neurodegenerativos, pero
sobre todo el daño cerebral adquirido, no suelen afectar a localizaciones aisladas del
cerebro sino que el daño puede comprometer diferentes regiones en grado variable. Esto
supone la presencia de una sintomatología combinada donde es difícil determinar la
relación exacta entre el circuito dañado y la manifestación clínica. Además, seguimos
enfrentándonos al problema de que las manifestaciones conductuales o cognitivas no
siempre se plantean con el suficiente nivel de simplificación como para poder
correlacionarlas con redes neuronales más o menos discretas. Por ejemplo, hemos visto a
lo largo del capítulo que un reflejo implica un circuito sencillo pero, a partir de ahí,
cualquier otra idea de movimiento o acción nos lleva a considerar no solo circuitos
motores sino también perceptivos.

246
247
El proceso educativo es una sucesión de aprendizajes cognitivos, motores y
emocionales que van a contribuir a la formación de un individuo autónomo e
independiente en una sociedad determinada. Por ese motivo, comprender el proceso de
aprendizaje y la importancia de la memoria como soporte del mismo es fundamental en
el ámbito educativo. El cerebro está diseñado para aprender. Filogenéticamente, surge de
la necesidad de almacenar información para no tener que ensayar patrones de conducta
una y otra vez como comprobar si un alimento es comestible o si otro ser vivo es un
potencial depredador. En un mundo complejo, solo un sistema que permita almacenar y
clasificar información de manera eficaz permitirá al individuo optimizar su conducta e
incrementar sus probabilidades de sobrevivir.

Básicamente, el aprendizaje es la capacidad de adquirir conocimiento y habilidades de


todo tipo (motoras, cognitivas y emocionales), aunque podamos encontrar definiciones
mucho más precisas o sofisticadas, que hagan hincapié en una cualidad u otra, o que
destaquen diferentes componentes del proceso. Aún así, podemos tratar de simplificar
diciendo que el aprendizaje es el resultado de la capacidad que posee un sistema para
almacenar experiencias, relacionarlas y, potencialmente, utilizarlas en un momento
distinto al de su adquisición. Es decir, el aprendizaje es la expresión de la capacidad de
memoria que posee un sistema. Algunas definiciones dan prioridad a la adquisición de
información y conocimiento, otras al cambio conductual que se deriva de la experiencia
aprendida; en realidad, es un continuo ya que adquirimos conocimientos que
incorporamos a nuestros almacenes de memoria y el cambio conductual puede ser
inmediato o futuro, es decir, adquirimos la capacidad de emitir una conducta nueva
aunque no lo hagamos inmediatamente. En cualquiera de los casos, es necesario que el
SN almacene información y la recupere posteriormente en el momento de llevar a cabo la
conducta; el aprendizaje depende de la memoria.

11.1. Tipos de aprendizaje y sistemas de memoria


El interés por la memoria y el modo en que recordamos el pasado se remonta a la
antigüedad y muchos han sido los filósofos y científicos que se han interesado por este
proceso. Uno de los momentos decisivos en el estudio de las bases neurológicas de la
memoria lo dieron el neurocirujano William Scoville y la psicóloga Breada Milner con su
famoso caso H. M., siglas bajo las que se preservaba el anonimato de Henry G.Molaison
(1926-2008), uno de los pacientes más estudiados de la historia de la neuropsicología.
Henry padecía ataques epilépticos desde los diez años que no respondían al tratamiento

248
farmacológico al que se veía sometido. Para paliar esta situación, cuando tenía 27 años
se sometió a la extirpación bilateral de la porción medial de ambos lóbulos temporales,
afectando al hipocampo. Como consecuencia de esta intervención, padeció una severa
amnesia anterógrada, es decir, una severa incapacidad para recordar acontecimientos
ocurridos con posterioridad a la operación. Conservaba una memoria aceptable para
sucesos ocurridos antes de la operación, sobre todo aquellos que se remontaban a su
infancia y Juventud, pero era incapaz de formar nuevos recuerdos, no podía retener la
información por períodos duraderos de tiempo. Brenda Milner fue quien realizó la mayor
parte de las exploraciones neuropsicológicas poniendo de manifiesto la relación entre la
memoria y las estructuras mediales del lóbulo temporal (Scoville y Milner, 1957). Los
datos aportados sobre H. M. y la implicación del hipocampo en la memoria fueron
fundamentales a la hora de acotar el estudio neurocientífico de este proceso cognitivo.

A partir de estudios con pacientes que sufrían lesiones similares a las de H. M. se puso
de manifiesto que cuando las lesiones eran unilaterales o la porción de hipocampo
afectado era menor, no aparecía una amnesia tan severa. Además, H. M. era capaz de
recordar acontecimientos de su niñez y podía aprender determinadas tareas perceptivas y
motoras (escritura en espejo, puzles...), aunque no recordara haber realizado esas tareas
antes. Esto puso de manifiesto que no toda la capacidad de memoria, y por tanto de
aprendizaje, resultaba afectada como consecuencia de la extirpación del lóbulo temporal
por lo que debían existir otros tipos de aprendizaje o formas de memorizar. En los
párrafos siguientes abordaremos los diferentes tipos de aprendizaje y los sistemas de
memoria que los soportan. No deja de ser una organización algo artificial en aras de
facilitar su estudio ya que, por un lado, las fronteras no están claras entre unos tipos y
otros, y por otro lado, resultan casi indisolubles aprendizaje y memoria. Por ese motivo,
la clasificación de tipos de aprendizaje se basa más en manifestaciones conductuales
mientras que el estudio de los sistemas de memoria tiene una tradición neuropsicológica
basada en la sintomatología clínica de pacientes con daño cerebral.

El aprendizaje puede ser de tipo asociativo o no asociativo. En el caso más simple, el


aprendizaje no asociativo, el sujeto almacena información referida a un único estímulo,
es decir, la mera presentación repetida del estímulo puede propi ciar respuestas nuevas
consecuencia del aprendizaje. Por su parte, en el aprendizaje asociativo se aprenden las
relaciones entre dos o más elementos, con la peculiaridad de que estos elementos pueden
ser estímulos simples o complejos, un estímulo y una respuesta, una conducta y sus
consecuencias, el contexto o configuraciones que incluyan varios de los componentes
mencionados.

Dentro del aprendizaje no asociativo incluimos la habituación y la sensibilización,


términos utilizados frecuentemente en el lenguaje coloquial con una acepción bastante
próxima a su significado neurofisiológico. La habituación tiene lugar cuando se produce
una disminución de la intensidad de una respuesta ante la presentación repetida de un
estímulo. Normalmente, en el laboratorio se estudia a nivel de respuestas reflejas

249
elementales pero también podemos acudir a ejemplos más cotidianos. Es probable que en
alguna ocasión, si hemos cambiado de domicilio, hayamos tenido dificultades para
conciliar el sueño como consecuencia de ruidos que no nos resultan familiares; al cabo de
pocos días, nos hemos acostumbrado a esos ruidos, nos hemos habituado, reduciendo la
respuesta de sobresalto que nos producían los primeros días. La respuesta de
sensibilización es un poco más compleja. Se trata de una intensificación de la respuesta a
un estímulo cuando previamente se ha experimentado otro estímulo nocivo o aversivo.
Por ejemplo, la pérdida de un ser querido en un accidente de tráfico puede sensibilizamos
hacia noticias similares y responder de un modo emocionalmente más intenso que como
lo hacíamos antes. Hemos recurrido a ejemplos que implican una complejidad cognitiva
mayor de la que poseen en realidad estos procesos, que son meras respuestas reflejas, en
aras a una mejor comprensión de ambos conceptos.

En el caso del aprendizaje asociativo podemos hacer más subdivisiones, ya que las
relaciones entre elementos pueden adoptar múltiples configuraciones:

-Perceptivo: permite identificar y reconocer estímulos previamente experimentados y


distinguirlos de otros similares. En la infancia formamos representaciones mentales
(redes de neuronas) de miles de estímulos de cualquier modalidad sensorial que se
activan posteriormente cuando volvemos a experimentar dicho estímulo o parte de
él.

-Condicionamiento: este tipo de aprendizaje implica la asociación entre estímulos


(condicionamiento clásico) o entre una conducta y sus consecuencias
(condicionamiento instrumental). El modelo descrito por Ivan Pavlov (1849-1936)
explica cómo un estímulo neutro adquiere la capacidad de provocar una respuesta
no propia cuando es emparejado repetidamente con otro que sí provoca dicha
respuesta de manera refleja. Por su parte, el condicionamiento instrumental
(operante) descrito por Burrhus F.Skinner (1904-1990) implica la asociación entre
un estímulo y una conducta en función de las consecuencias que se deriven de esta.
Así, una conducta seguida de una consecuencia gratificarte tiende a repetirse
mientras que si vaseguida de una consecuencia aversiva disminuye su ocurrencia y
tiende a desaparecer.

-Aprendizaje procedimental o motor: es la adquisición de habilidades y rutinas


motoras, destrezas y procedimientos. La denominación utilizada puede variar ya
que, por ejemplo, el término procedimental puede inducir a confusión porque, en
ocasiones, se utiliza para referirse de manera genérica a los aprendizajes implícitos.
Por otro lado, no se puede considerar un aprendizaje motor en sentido estricto. Sí
es cierto que en la mayoría de los casos el resultado de este tipo de aprendizaje se
manifiesta en secuencias más o menos complejas de movimientos, pero también
puede incluir ciertas habilidades cognitivas. Pensemos, por ejemplo, cómo aprenden
los niños a conjugar ciertas formas verbales aplicando reglas gramaticales que han

250
deducido implícitamente aunque las apliquen de manera incorrecta (he decido, por
he dicho).

-Aprendizaje relacional: es la forma más compleja, ya que implica el aprendizaje de las


relaciones entre múltiples componentes y cómo estos se asocian entre sí en cada
momento. En este caso el abanico de posibilidades es muy amplio, ya que los
componentes pueden agruparse formando configuraciones complejas (por ejemplo,
el propio contexto) en un número prácticamente ilimitado.

A partir de las observaciones realizadas en pacientes con lesión cerebral parecía quedar
clara la idea de que la memoria tampoco es un proceso unitario sino que existen diversos
sistemas que van a servir de soporte a los diferentes tipos de aprendizaje. En estos
pacientes se veía de manera recurrente que podían presentar alteraciones para un tipo de
recuerdo mientras permanecía intacto otro; por este motivo se empezó a hablar de
sistemas de memoria. Si bien fue el caso HM el que propició esta distinción, existían
antecedentes ya que T.A.Ribot (1839-1916) en 1881 afirmó que las funciones superiores
de memoria eran competencia de la corteza cerebral mientras que la memoria automática
lo era del tronco cerebral.

Existen varias dicotomías de la memoria para diferenciar aquella que se altera en las
lesiones del lóbulo temporal medial de la que permanece indemne. La división entre
sistemas de memoria más unánimemente aceptada es la que establece un sistema de
memoria explícita y otro de memoria implícita que también se pueden denominar como
memoria declarativa y no declarativa (Graf y Schacter, 1985; Squire, 1992). La primera
es una memoria referida a hechos y acontecimientos (conocimiento en general) que opera
conscientemente, puede ser compartida mediante enunciados declarativos (de ahí su
nombre) y es el soporte para el aprendizaje relacional. La segunda se adquiere con la
práctica y la repetición y tiene que ver con la adquisición de habilidades, destrezas y
rutinas. Solo podemos observar sus efectos mediante la mejora en la ejecución de las
tareas entrenadas motivo por el que también se la denomina memoria no declarativa. La
memoria explícita se adquiere con relativa facilidad pero es inestable y está sujeta a
múltiples interferencias. Por el contrario, la memoria implícita se adquiere lentamente con
la práctica y la repetición, pero es más resistente y estable durante largos periodos de
tiempo. Como ya hemos apuntado, estas distinciones no se pueden considerar en sentido
estricto ya que es difícil establecer una frontera claramente diferenciada en la
intervención de ambos sistemas a la hora de afrontar cualquier tarea. Existe un alto grado
de interrelación y, en la mayoría de los aprendizajes, se manifiestan ambos en mayor o
menor medida. Pensemos por ejemplo cuando aprendemos a conducir un vehículo; al
tiempo que adquirimos destrezas sensoriomotoras somos conscientes del momento en
que esto ocurre y almacenamos información explícita acerca de ello. Todavía podemos
hacer una división más dentro de la memoria explícita entre memoria episódica y
semántica (Tulving, 1972). La memoria semántica se refiere al conocimiento general de
hechos y conceptos, información genérica acerca del mundo que no está vinculada a

251
coordenadas espaciotemporales de ningún tipo. Por ejemplo, sabemos que un león es un
mamífero y que un paraguas nos protege de la lluvia. Por el contrario, la memoria
episódica está formada por el conjunto de recuerdos referidos a acontecimientos
ocurridos en algún momento y lugar de la vida del individuo, por eso a veces se
denomina memoria autobiográfica.

11.2. Circuitos cerebrales para la memoria


Prácticamente, todos los circuitos neuronales del SN están diseñados para ser capaces
de aprender y, de hecho, eso es lo que hacen. Se podría decir que los diferentes sistemas
de memoria o tipos de aprendizaje no son más que la manifestación cognitiva, conductual
y emocional de la capacidad de aprendizaje de los diferentes circuitos implicados. Como
afirma José María Fuster (1997), los mismos sistemas neuronales que utilizamos para
percibir o para movemos sirven para recordar. Y es que, aunque resulte tentador buscar
regiones o circuitos concretos implicados en uno u otro tipo de memoria, parece que la
memoria es una propiedad de los sistemas corticales, amplios y distribuidos por todo el
córtex, en vez de una función atribuible a circuitos concretos (Fuster, 1997). Esto
significa que, si queremos encontrar los circuitos nerviosos que soportan ciertos tipos de
memoria, tenemos que empezar a buscar en los circuitos que se ocupan de esos mismos
procesos. No es lo mismo recordar qué es una manzana que recordar la fábula de
Guillermo Tell, igual que no es lo mismo recordar cómo se sujeta un bolígrafo que cómo
se interpreta al piano una sonata de Mozart. Lógicamente, los circuitos implicados van a
depender del tipo de recuerdo abarcando un mayor o menor número de ellos según sea el
caso.

11.2.1. Memoria implícita


El aprendizaje no asociativo ha sido investigado en varias especies, sin embargo, la
complejidad de las conexiones neuronales en el SN de los mamíferos ha llevado a la
utilización de modelos más sencillos proporcionados por invertebrados. Uno de estos
animales es la Aplysia Californica, un molusco marino que fue utilizado por Eric Kandel
y su equipo para desentrañar algunos de los mecanismos sinápticos de los procesos de
memoria (Hawkins et al., 2006; Kandel et al., 1980; Rayport y Kandel, 1986). Con este
animal estudió los procesos de habituación y sensibilización, demostrando que la primera
implicaba una disminución de la cantidad de neurotransmisor liberado por las neuronas
sensoriales del circuito sensoriomotor que propiciaba la repuesta refleja. Por su parte, la
sensibilización estaba provocada por un incremento en la liberación de neurotransmisor
por parte de esas mismas neuronas sensoriales merced a la intervención de un grupo de
interneuronas. Estos mismos mecanismos sinápticos parecen ser la base de los procesos
de habituación y sensibilización que pueden apreciarse en conductas de escape o
sobresalto en diferentes especies, incluida la humana.

El aprendizaje perceptivo está soportado por circuitos neuronales en las respectivas


cortezas sensoriales. La mayor parte de las investigaciones se han centrado en el sistema

252
visual demostrando que tanto las áreas primarias como las asociativas son fundamentales
para el aprendizaje de discriminación de estímulos (Kumano y Uka, 2013; Pourtois et al.,
2008). No obstante, también hay estudios que demuestran la participación de la corteza
sensorial auditiva en el aprendizaje discriminativo con estímulos auditivos (Berlau y
Weinberger, 2008; Weinberger, 1998). El aprendizaje perceptivo incorpora elementos
automatizados o semiconscientes, como es el priming, una especie de facilitación
perceptiva hacia estímulos previamente experimentados en contextos diferentes que está
soportado por la corteza sensorial correspondiente y que implica la activación de una
representación neural previamente adquirida. Es decir, la exposición a una determinada
palabra (forma escrita o fonológica) en un momento dado activa la representación
formada previamente en el cerebro (aprendizaje perceptivo) o, si se trata de un estímulo
desconocido, establece un esbozo de una nueva representación neural. Esta activación
reciente podría, de algún modo, "colocar" a dicha representación con cierta ventaja para
reactivarse cuando se presenta una parte del estímulo en un ensayo posterior. Por
ejemplo, vemos la palabra PREMIO en una lista previa y luego, en un ensayo posterior
en el que debemos completar palabras, aparece PRE. A la hora de generar elementos que
cumplan el criterio de la tarea, sería más probable que evoquemos una representación
activada recientemente (PREMIO) que otras que, cumpliendo también el criterio, no
hayan sido activadas en un periodo de tiempo mayor (PRETEXTO, PRESA...). Este
fenómeno ha alcanzado mucha relevancia por estar preservado en pacientes que han
sufrido lesiones en el lóbulo temporal medial (LTM), pero al fin y al cabo, parece que es
el componente más automatizado del aprendizaje perceptivo que no siempre requiere un
procesamiento consciente, algo obvio si tenemos en cuenta el valor adaptativo que ha
tenido, a lo largo de la evolución, la automatización del aprendizaje perceptivo para la
supervivencia.

También en el aprendizaje por condicionamiento y en la adquisición de habilidades, los


circuitos donde se almacena la memoria serían los mismos que participan en tales
conductas. El principio que subyace en el condicionamiento clásico es que la asociación
entre un estímulo neutro y otro significativo provoca que el primero adquiera ciertas
cualidades del segundo. Emparejando un sonido (estímulo neutro) con la presencia de
comida (estímulo significativo o incondicionado, El) durante un cierto número de
ensayos, el sonido provocaba una respuesta de salivación (respuesta condicionada, RC)
que, en condiciones normales, aparece ante la visión de comida pero no al escuchar un
sonido. Este tipo de condicionamiento se ha estudiado frecuentemente, en humanos y
modelos animales, con una respuesta refleja como es el parpadeo (condicionamiento
palpebral). Un soplo en el ojo (El) provoca el cierre del párpado (RI); si emparejamos el
soplo con un sonido (EC), este adquiere la capacidad de provocar el parpadeo (RC).
Estudiando los circuitos nerviosos que son cruciales para este tipo de aprendizaje, se
encontró que el cerebelo es una de las estructuras críticas (Lavond y Steinmetz, 1989;
Medina et al., 2000). Cuando este tipo de condicionamiento implica respuestas
emocionales, por ejemplo, reaccionar con miedo (palpitaciones, respiración agitada...)

253
ante un estímulo inocuo que ha sido condicionado por el procedimiento anterior (por
ejemplo, las fobias), se ha demostrado que la participación de la amígdala es fundamental
(Cahill et al., 1999; Maren, 1999). En ambos tipos de condicionamiento, tanto la lesión
del cerebelo como la de la amígdala suprimen la aparición de la respuesta condicionada
pero no afecta a la respuesta incondicionada, lo que demuestra su papel esencial en este
tipo de aprendizajes.

En el condicionamiento instrumental unas palomas aprendían a picotear una placa


metálica dentro de una caja problema (caja de Skinner) cuando se producía un
determinado estímulo (luz, sonido...) para obtener comida o bebida. En este tipo de
aprendizaje, la conducta del animal incrementa su frecuencia si las consecuencias son
gratificantes y por tanto el aprendizaje se consolida, por el contrario, si las consecuencias
son aversivas, el aprendizaje decae y se extingue. Están implicados los ganglios basales,
sobre todo el caudado y el putamen (estriado) y la corteza motora, pero el mantenimiento
de la respuesta depende de las consecuencias de la misma, por lo que los circuitos
cerebrales de recompensa también participan en el proceso (Fields et al., 2007). Las
conexiones de este circuito con los ganglios basales o la corteza motora refuerzan la
asociación estímulo-respuesta en función de la consecuencia de la conducta. Pero
además, cada vez está más claro el papel de la CPF (Eliassen, et al., 2012), la cual
participaría en un amplio circui to responsable de la asociación entre estímulos, respuesta
y consecuencias de cara a futuros ensayos para guiar la conducta hacia su objetivo, la
recompensa.

El aprendizaje de destrezas y habilidades implica también a los circuitos que participan


en la conducta aprendida. Dado que se trata de una especie de aprendizaje estímulo-
respuesta, veremos que participan circuitos sensoriales y motores (en el caso de
habilidades sensoriomotoras) pero también otras áreas corticales. Al fin y al cabo, el
aprendizaje de cualquier tipo de destreza requiere la participación de diferentes recursos
cerebrales, ya que no es lo mismo el inicio del entrenamiento que el posterior
perfeccionamiento (Ungerleider et al., 2002). En las fases iniciales del aprendizaje se
activan preferentemente las áreas primarias y de asociación sensoriomotoras, mientras
que en etapas posteriores, esta activación se localiza en el cerebelo y en los circuitos
corticoestriatales (Halsband y Freund, 1993; Riek et al., 2012). Aunque el aprendizaje
procedimental se ha estudiado preferentemente en la adquisición de destrezas motoras,
también hay algunos estudios referidos a habilidades perceptuales y cognitivas que
demuestran patrones de activación similares y que parecen seguir unos mismos principios
en lo referente a progresión temporal o la interacción entre áreas primarias y de
procesamiento superior (Censor et al., 2012). En el caso de una habilidad cognitiva, se
trata del aprendizaje implícito y gradual de una tarea que requiera operaciones mentales,
pues bien, en este caso, también se ha comprobado la activación de circuitos prefrontales
y estriatales (Beauchamp et al., 2003; Seger y Cincotta, 2005). Esto pone de manifiesto
la existencia de un cierto patrón funcional en la adquisición de habilidades. Primero se

254
activarían aquellas áreas más directamente implicadas en la ejecución de la tarea para,
progresivamente, dar paso a circuitos que se encargarían de una cierta automatización de
la misma.

11.2.2. Memoria explícita


La memoria explícita es necesaria para el aprendizaje de relaciones complejas entre
elementos del entorno y del propio interior del organismo, es decir, el aprendizaje
relacional, que permite analizar, comparar y contrastar diferentes tipos de información
(Morgado, 2005). Para la memoria explícita (declarativa), resulta crucial el papel
desempeñado por las estructuras situadas en la región medial del lóbulo temporal (LTM),
incluyendo el hipocampo, la amígdala y las áreas corticales relacionadas (entorrinal,
perirrinal y parahipocámpica). No obstante, no parece que sean estas regiones las únicas
que se ocupan de la memoria explícita ya que también se han descrito múltiples circuitos
que implican conexiones bidireccionales entre estas regiones y el resto de la corteza
cerebral (Eichenbaum, 2000). Después del caso H. M. se han descrito otros muchos
casos parecidos, ninguno por una operación como la suya por supuesto, pero pacientes
que por un motivo u otro habían sufrido lesiones hipocámpicas. Por ejemplo, el caso R.
B., quien como consecuencia de un problema coronario, sufrió una interrupción del
aporte sanguíneo cerebral durante unos minutos (Zola-Morgan et al., 1986). Después de
esto padecía una amnesia similar a la de H. M. pero de menor intensidad. R. B. falleció
poco después y en el estudio anatomopatológico de su cerebro se descubrió una
importante degeneración neuronal en la región CAl del hipocampo, una prueba más a
favor de la participación de la formación hipocámpica en la memoria declarativa. Pero no
parecen ser las únicas lesiones que afectan a la memoria explícita. Hay otro caso bastante
conocido, N. A., un militar que sufrió una lesión talámica cuando jugaba con un florete
en miniatura (otras versiones le atribuyen armas distintas) con un compañero (Squire y
Moore, 1979). El florete penetró por la fosa nasal derecha y alcanzo la cavidad craneana
dañando el núcleo dorsomedial del tálamo. El resultado fue una amnesia similar a la del
caso H. M. pero, en este caso, sin lesiones aparentes en las estructuras del LTM. Esta
situación es similar a la observada en pacientes que padecen el síndrome de Korsakoff,
una severa alteración de memoria como consecuencia del consumo de alcohol y la falta
de tiamina (vitamina B1). Las regiones que parecen estar más implicadas son el núcleo
dorsomedial del tálamo y los cuerpos mamilares, lo cual lleva a pensar que la memoria
explícita puede resultar afectada por lesiones localizadas en otras estructuras además del
LTM.

Aunque hay discrepancias y los casos clínicos no son numerosos, hay evidencias de
que existen circuitos neurales separados para la memoria semántica y la episódica. Las
estructuras temporales son cruciales en ambos tipos de memoria, sin embargo, también
ciertas regiones dentro del lóbulo frontal juegan un papel importante en la memoria
episódica. También es muy conocido el caso K. C., un paciente que sufrió un
traumatismo craneoencefálico (TCE) como consecuencia de un accidente de moto

255
(Rosenbaum et al., 2000). Después del accidente sufría una importante amnesia
retrógrada y anterógrada para acontecimientos autobiográficos, mientras que el
conocimiento semántico y el aprendizaje implícito estaban conservados. Las lesiones
afectaban al LTM pero también a regiones corticales. Algo similar ocurrió con el paciente
M.L., también sufrió un TCE al ser atropellado por un coche cuando montaba en
bicicleta (Levine et al., 1998). En este caso, se localizaron lesiones en la región ventral
del lóbulo frontal, afectando al fascículo uncinado que comunica regiones frontales y
temporales. Aunque los pacientes con daño selectivo en el lóbulo prefrontal no presentan
una amnesia profunda, sí tienen una gran dificultad para recordar cuándo y dónde han
ocurrido acontecimientos recientes, o para recordar el orden temporal de una serie de
acontecimientos. Pueden presentar lo que se denomina amnesia de fuente o de origen
(del inglés, source amnesia) en la cual los pacientes pueden adquirir nueva información
pero cometen errores al recordar cuándo o dónde la han aprendido.

Tanto las estructuras mediales del lóbulo temporal como las diencefálicas no
constituyen el depósito definitivo de los recuerdos sino que formarían parte de un circuito
encargado de consolidar la memoria explícita, esto es, de pasar la información de un
almacén temporal inestable a otro más estable a largo plazo. Estos recuerdos se
almacenarían en las áreas corticales que participan en su codificación después de haber
pasado por el mencionado circuito. Hay bastantes evidencias de que la memoria se
almacena en redes ampliamente distribuidas de neuronas corticales que pueden solaparse
(formar parte de diferentes redes o recuerdos) y configurarse de infinitas maneras, lo que
le proporciona a cada individuo su memoria personal y única (Frankland y Bontempi,
2005; Fuster, 1997 y 2000a; McClelland et al., 1995). Por este motivo, ni Franz ni
Lashley pudieron encontrar la huella de memoria en el cerebro, porque casi todo el
cerebro es la huella.

11.3. Organización temporal de la memoria y consolidación


Una de las dicotomías más clásicas en el estudio de la memoria es la que hace
referencia a su curso temporal y distingue entre memoria a corto plazo (MCP) frente a
memoria a largo plazo (MLP). El concepto temporal referido a la memoria tal y como lo
hemos manejado hasta ahora tiene poco soporte empírico si buscamos sus correlatos
cerebrales; el cerebro no usa reloj, pero tiene su propio sistema para medir el tiempo.
Resulta anacrónico hablar de un sistema de memoria que tiene capacidad para almacenar
información durante unos pocos segundos o minutos, frente a otra que puede hacerlo
durante días, semanas o años. ¿Dónde está el límite temporal? ¿A partir de qué momento
un recuerdo pasa de ser MCP a ser MLP? Los estudios con pacientes como H. M. y
otros con lesiones similares han demostrado que la capacidad para el recuerdo inmediato
de pequeñas cantidades de información se mantiene intacta. Estas personas son capaces
de mantener una conversación razonablemente bien, aunque al cambiar de tema olvidan
el anterior, y pueden realizar determinadas tareas que requieran MCP. Sin embargo, la
revisión de algunos estudios clásicos con estos pacientes proporciona un nuevo enfoque

256
al curso temporal de la memoria.

Uno de los aspectos que queda fuera de toda duda es el de que no existen dos
almacenes separados para la memoria a corto y a largo plazo. Parece poco probable que
en nuestro cerebro existan circuitos cerebrales distintos para almacenar una misma
representación mental, por un lado de manera inestable y por otro como un recuerdo casi
permanente. ¿Se necesita un circuito neural para codificar el concepto "manzana" y otro
para el recuerdo de la manzana que me he comido hace unas horas y que, seguro,
olvidaré dentro de unos días? No parece probable ni útil en términos neuropsicológicos.
Una representación mental es una red neural, un conjunto de neuronas interconectadas
entre sí que codifican desde un estímulo sencillo hasta un recuerdo complejo. La red
neural que codifica "manzana" se integra en otra mayor que puede soportar el recuerdo
de la manzana que me he comido hace horas o de la fábula de Guillermo Tell. El circuito
de memoria más sencillo es una red de neuronas interconectadas que codifica un
estímulo simple (Fuster, 1997); la primera vez que vemos una manzana (que
experimentamos visualmente una manzana), un grupo de neuronas refuerzan sus
contactos sinápticos entre sí de manera que cada vez que se activen experimentaremos
nuevamente una representación mental de la manzana. Esta red de memoria se va a ir
asociando con otras redes para formar memorias más complejas, pero lo que queremos
resaltar es que, cada vez que en la evocación de cualquier recuerdo se incluya una
manzana, las neuronas de esta red van a resultar activadas.

Si no hay dos almacenes diferenciados, ¿qué es lo que determina que dicha red neural
se active en forma de recuerdo a corto plazo o de recuerdo a largo plazo? O dicho de
otra manera, ¿cuándo esa red pasa de codificar un recuerdo inestable y susceptible de
sufrir interferencias a codificar otro más estable, resistente y duradero? Quizá si
volvemos al caso H. M. podamos encontrar algún indicio de todo ello. Siempre se ha
hecho hincapié en la amnesia anterógrada que padecía como consecuencia de la
operación, pero no se daba tanta importancia a su amnesia retrógrada. H. M. padecía una
amnesia retrógrada que podía remontarse hasta unos 11 años antes de la operación, en
los cuales había perdido la mayor parte de los recuerdos episódicos. Esto solo puede
significar que la región cerebral extirpada contenía neuronas (circuitos) que estaban
implicados en la conservación de esos recuerdos. Pero volviendo a la reflexión anterior,
no parece probable que existan en el cerebro dos almacenes de memoria, uno para
recuerdos de los últimos 11 años y otro para recuerdos anteriores (H. M. conservaba
recuerdos de su infancia y juventud), máxime cuando en otros pacientes con lesiones
similares que afectan al LTM el periodo de amnesia retrógrada es diferente. La única
explicación es que esos recuerdos estaban todavía en fase de consolidación, es decir, se
conservan en estos circuitos cerebrales de un modo precario a la espera de ser
almacenados de un modo más estable. Lo que sí sabemos es que la participación del
hipocampo y el LTM en este proceso está fuera de duda (Squire y ZolaMorgan, 1988),
entonces parece que estas áreas son responsables, inicialmente, de la conservación y

257
recuperación de recuerdos pero, con el paso del tiempo, estos pasan a depender de otras
regiones (Frankland y Bontempi, 2005). Las diferencias en la amnesia retrógrada que se
pueden observar en estos pacientes dependerán por tanto de la magnitud de la lesión en
el LTM.

Parece claro que la MCP y la MLP comparten sustrato neural en buena medida y que
existe algún mecanismo por el cual se activan diferencialmente (o no) según estemos
evocando información adquirida recientemente o antigua. Donald Hebb (1949) ya
propuso que la MCP era consecuencia de la reverberación de los impulsos nerviosos a
través de las fibras recurrentes que poseen los circuitos neuronales, es decir, una vez que
ha desaparecido el impulso que inicia la activación de un circuito, las neuronas siguen
disparando (reverberación) ya que la activa ción mediante las fibras recurrentes sirve de
reestimulación. Esto hace que la representación mental del estímulo permanezca un
tiempo después de que este haya desaparecido. Por su parte, Fuster (2000a) considera
que la MCP requiere la activación de circuitos más amplios que los propuestos por Hebb.
No obstante, sugiere que es posible que estas neuronas reverberantes establezcan
conexiones sinápticas con otras dentro de una red ya existente y sean aquellas las que
activen la red de memoria correspondiente. Esta activación persistente en el tiempo
pondría en marcha la maquinaria genética de las neuronas implicadas para, mediante
síntesis de proteínas, producir cambios estructurales más estables que constituirían la
base de la MLP (Kandel, 2001). De esta manera, podemos considerar que la MCP sería
la consecuencia de una activación mantenida en una red de neuronas (la representación
mental del recuerdo) mientras que la MLP estaría soportada por los cambios
estructurales que experimentarían esas mismas neuronas.

El hipocampo actúa como un almacén temporal para la memoria dada su capacidad


para establecer asociaciones rápidas entre patrones de actividad diversos, sensoriales,
motores y orgánicos. Esta es la causa por la que las lesiones en el hipocampo afectan
más a la memoria reciente que a la remota. La mayoría de los modelos explicativos de la
memoria giran en tomo a esta idea, la de que el hipocampo es un almacén temporal y los
circuitos corticales el almacén permanente (McClelland et al., 1995; Squire y Álvarez,
1995). Un elegante estudio al respecto fue desarrollado por Frank Haist, que demostró
mediante neuroimagen que el hipocampo y el LTM se activan de manera diferente según
la antigüedad de los recuerdos evocados (Haist et al., 2001). Los sujetos debían
identificar rostros de personajes famosos pertenecientes a diferentes épocas, desde los
años setenta hasta el fin de siglo. Los resultados mostraron que estructuras como el
hipocampo o la corteza entorrinal se activaron intensamente cuando se mostraban rostros
de los noventa, algo menos cuando eran de la década de los ochenta y no lo hacían
cuando eran de épocas anteriores. Sin embargo, las regiones corticales implicadas en el
reconocimiento de rostros se activaron de manera similar independientemente de la época
de procedencia del rostro que se les mostraba. Los autores sugieren que existen dos fases
en el proceso de consolidación, una inicial y rápida dependiente del hipocampo y otra

258
posterior más lenta dependiente de la corteza entorrinal, lo cual explicaría por qué las
lesiones localizadas del hipocampo provocan una alteración de la memoria menos severa
que la ocasionada por lesiones que incluyan las regiones adyacentes.

Según el planteamiento anterior, el hipocampo actuaría como un primer paso en la


formación de asociaciones rápidas que después se irían integrando de manera progresiva
en las redes neurales ya existentes. Esto supone una permanente interacción entre
hipocampo y circuitos corticales donde se almacenan los recuerdos, un proceso lento
pero que permite una integración ordenada de las nuevas experiencias en las redes
preexistentes (Eichenbaum, 2001). Todavía quedan lagunas a la hora de comprender
cómo se produce el proceso de consolidación pero parece que existe una activación
simultánea del hipocampo y los circuitos corticales cuando se produce la codificación de
la experiencia. La participación del hipocampo permite el progresivo fortalecimiento de
las conexiones en los circuitos corticales hasta que dejan de depender de la actividad
hipocámpica y pasan a integrarse en otras redes corticales (Frankland y Bontempi, 2005)
(figura 11.1A). Esto significa que, mientras los recuerdos dependen, en mayor o menor
medida, del hipocampo, son más inestables y susceptibles de interferencia, pero cuando
son transferidos a la corteza se convierten en representaciones más estables al depender
de los circuitos corticales. Los recuerdos almacenados en los circuitos corticales
constituyen la MLP y pueden ser evocados voluntaria e involuntariamente. En ocasiones
queremos recordar una situación pasada, bien por necesidades del momento presente,
bien por mera satisfacción personal, y para ello necesitamos hacer un esfuerzo evocador.
En otras ocasiones, una persona, objeto o situación (las magdalenas de Proust) pueden
evocar el recuerdo y reactivar los circuitos neurales que lo codifican. En este proceso de
evocación de memorias remotas juega un papel importante la CPF (Frankland et al.,
2004; Maviel et al., 2004).

La CPF ocupa un lugar privilegiado dentro de la circuitería cortical ya que mantiene


conexiones recíprocas con el resto de la corteza cerebral y con muchas estructuras
subcorticales, lo que le permite integrar información de diferentes modalidades y vincular
diferentes representaciones mentales entre sí. Un papel similar al desarrollado por el
hipocampo en las fases iniciales, pero realizado de un modo más lento y ordenado,
permitiendo a las redes corticales de memoria independizarse progresivamente de los
circuitos hipocámpicos (Miyashita, 2004). Para ello, la CPF reforzaría las conexiones
entre los respectivos circuitos corticales y, al igual que hace sobre circuitos sensoriales,
podría ejercer un cierto control inhibitorio sobre el hipocampo para ir debilitando su
influencia sobre la memoria ya consolidada (Frankland y Bontempi, 2005) (figura
11.1B).

En la actualidad se utiliza con demasiada frecuencia el concepto de memoria de trabajo


(MT) como sinónimo de MCP, sin embargo no se pueden considerar conceptos
equivalentes ya que la memoria de trabajo opera también con contenidos de la MLP. El
propio Baddeley (2012), quien acuñó y definió el término, diferencia entre MCP y MT,

259
considerando que la primera consiste en el mero almacenamiento temporal de
información y la segunda implicaría almacenamiento y manipulación de información.
Además, reconoce que la MT conlleva la activación de múltiples áreas cerebrales en las
que se almacena MLP. Este tipo de memoria se refiere a la retención de información
durante un corto periodo de tiempo, la cual se usa para mantenerla actualizada y operar
con ella y con otra disponible en los almacenes a largo plazo en actividades cognitivas
básicas como la comprensión, el razonamiento o la resolución de problemas. El término
fue propuesto inicialmente por Baddeley y Hitch (1974) para describir un modelo en el
que interactuaban tres componentes, el ejecutivo central, el bucle fonológico (BF) y la
agenda visuoespacial (AV). El BF opera con todo lo referido al lenguaje, no solo verbal
sino también la identificación y el reconocimiento de signos y gestos; la AV sería una
forma de memoria visual que además posee una cierta capacidad operativa con
componentes espaciales (por ejemplo, recomponer mentalmente las relaciones espaciales
entre los elementos de una escena). El ejecutivo central sería el responsable de gestionar
los recursos aportados por los dos componentes anteriores y, entre otras funciones, se
ocuparía de centrar la atención en uno o varios estímulos según las necesidades de la
tarea o poder cambiar de tarea con facilidad si la situación lo requiere (Baddeley, 2012).
Posteriormente, se le añadiría un cuarto componente, el buffer episódico (Baddeley,
2000), que no sería otra cosa que un almacén de memoria intermedia que relacionaría la
memoria de trabajo con los almacenes de MLP. Como se puede deducir de la propuesta
original y las sucesivas revisiones, la memoria de trabajo, más que memoria en sentido
estricto, es un proceso que utiliza la capacidad de memoria del sistema para realizar otras
tareas, puesto que opera con información que acabamos de procesar pero también con
otra procedente de nuestros almacenes a largo plazo. Tiene por tanto un componente
ejecutivo que hace que actualmente se considere dentro de las funciones ejecutivas más
que de la memoria en sí (figura 11.2).

260
Figura 11.1. Modelo de consolidación propuesto por Frankland y Bontempi (2005). A)
La activación de los circuitos corticales es consecuencia de la activación hipocámpica.
Progresivamente y mientras se mantiene la activación hipocámpica, los circuitos
corticales fortalecen sus conexiones y dependen menos del hipocampo. B) La corteza
prefrontal va sustituyendo progresivamente al hipocampo como responsable de la
activación de los circuitos corticales que soportan la memoria, al tiempo que inhibe el
control hipocámpico sobre los mismos.

261
Figura 11.2. Modelo actualizado de memoria de trabajo (adaptado de Baddeley, 2012).

11.4. Amnesia y otras alteraciones de la memoria


Llegados a este punto, sabemos que la amnesia es la pérdida de memoria como
consecuencia de cualquier incidencia que afecte al normal funcionamiento del cerebro.
Sin embargo, habría que precisar que se refiere únicamente a dificultades en la memoria
explícita, ya que no se suelen incluir bajo ese término otras alteraciones que se identifican
como problemas de aprendizaje y que estarían más en la línea de la memoria implícita.
Como ya sabemos, la amnesia anterógrada es la incapacidad para formar nuevos
recuerdos después de una lesión o daño cerebral y la amnesia retrógrada es la
incapacidad para recuperar recuerdos ya almacenados antes de sufrir el daño cerebral.
Ambos tipos suelen ir ligados y lo que varía es la intensidad de uno y otro, generalmente
determinada por el alcance temporal de la pérdida de memoria. Son muchas las causas
que pueden provocar amnesia y es frecuente que en el ámbito clínico se tipifique a la
amnesia según las características relativas a su aparición, mantenimiento y progresión.

Dado que se trata de una denominación de amplio espectro, no resulta sorprendente


comprobar que la amnesia es un trastorno heterogéneo que varía en intensidad y cualidad
entre los sujetos que la padecen, es decir, produce efectos diferentes según las
características del daño que la produce y dificulta el acceso a contenidos diferentes
(aunque se altere el mismo tipo de memoria) según el sujeto de quien se trate.
Obviamente, en función de la experiencia personal de cada uno, hemos ido almacenando
contenidos de un tipo u otro y estos son los que resultan afectados tras la lesión. Otra
cuestión es lo relativo al tipo de memoria que se altera como consecuencia de un mal
funcionamiento cerebral. Los casos clínicos que hemos visto antes son solo una parte de

262
los que sirven como referencia para justificar el papel que diferentes circuitos cerebrales
juegan en la memoria. Sin embargo, el problema surge cuando intentamos crear un
modelo homogéneo que integre todos ellos para poder llegar a conclusiones definitivas.
Por un lado, los pacientes amnésicos suelen tener conservada la capacidad de memoria a
corto plazo, lo que indica que subyace un problema de consolidación, una incapacidad
mayor o menor para convertir información inestable en estable. Por otro lado, sí parece
claro que la memoria explícita resulta mucho más vulnerable que la implícita ya que
desde H. M. la mayoría de los estudios realizados se centran en la alteración de este tipo
de memoria. Recordemos que la memoria explícita es el soporte de la capacidad para
aprender relaciones complejas entre elementos, incluyendo diferentes modalidades
sensoriales, patrones de acción o estados internos del organismo (aprendizaje relacional).
Esto no ocurre en el caso de la memoria implícita donde se trata de fortalecer contactos
sinápticos en vías neurales concretas que participan en la conducta que se está
aprendiendo.

También podemos encontrar diferente afectación de la memoria semántica o de la


episódica. En una amnesia ocasionada por una enfermedad neurodegenerati va como las
demencias o, más específicamente, la enfermedad de Alzheimer, se observa lo que se
conoce como ley de Ribot, por ser él quien lo describió. El paciente empieza olvidando
las experiencias más recientes pero conserva una memoria bastante buena para
acontecimientos ocurridos mucho tiempo antes. En realidad, el paciente está perdiendo
su memoria episódica, primero olvida que se comió una manzana en el desayuno y
mucho después se olvida de qué es una manzana. Esto lleva a suponer que la memoria
semántica es más resistente que la memoria episódica porque la mayor parte de nuestro
conocimiento semántico lo adquirimos en etapas tempranas de nuestra vida, mientras que
la memoria episódica la vamos configurando cada día. Casos como el del paciente K. C.
al que nos hemos referido anteriormente nos permiten confirmar que los circuitos
cerebrales para ambos tipos de memoria son ligeramente distintos aunque se solapen en
parte. Un estudio de 16 años de seguimiento sobre un paciente que padecía una amnesia
severa a causa de una encefalitis mostró que mantenía su conocimiento semántico estable
e incluso pudo aprender el significado de algunas palabras nuevas (McCarthy et al.,
2005), lo cual puede ser explicado por la relativa conservación de algunas de las áreas del
LTM. No todo el conocimiento semántico se codifica y almacena por igual, hay factores
diversos, sobre todo emocionales, que pueden determinar estas diferencias. En sujetos
con demencia semántica, llamada así porque se altera significativamente esta capacidad y
se conservan razonablemente bien otras funciones cognitivas, se han observado
diferencias en la capacidad para recuperar información semántica según tenga
implicaciones personales o no para el sujeto (Westmacott et al., 2004), cosa que no
ocurre en otros pacientes amnésicos.

En el caso de amnesias del desarrollo con inicio en la infancia y bastante más


frecuentes de lo que pudiera parecer, se suele observan un nivel intelectual y una

263
memoria semántica razonablemente buenas, pero una severa incapacidad para formar
nuevos recuerdos episódicos (Narbona y Crespo, 2002; Temple y Richardson, 2004). Se
han descrito varios casos de niños y niñas que, como consecuencia de alteraciones
diversas, padecían una amnesia anterógrada severa de inicio temprano que les impedía
almacenar información episódica nueva pero que sí podían adquirir, en grado variable,
nuevos conocimientos semánticos. Este tipo de trastorno pone de manifiesto que la
adquisición del conocimiento semántico y episódico en las etapas iniciales del desarrollo
ocurre por caminos diferentes (Brizzolara et al., 2003; Gardiner et al., 2008; Temple y
Richardson, 2004; Vicari et al., 2007;). Probablemente habrá más diferencias en el
procesamiento de recuerdos semánticos y episódicos de lo que cabría suponer, o quizá
estamos dando un enfoque erróneo al estudio de estos sistemas. Al fin y al cabo, todo
recuerdo semántico empieza siendo episódico; la primera vez que aprendimos lo que era
una manzana codificamos esta información como memoria episódica, sin embargo, a
nadie le interesa ni necesita saber cuándo y en qué contexto lo aprendió, por lo que esos
detalles se suelen olvidar salvo que tengan un especial significado para el sujeto. Con
cualquier concepto, a medida que lo vemos, oímos, hablamos sobre él o lo imaginamos,
vamos olvidando cuándo lo adquirimos por primera vez (sería horrible que recordáramos
todas y cada una de las manzanas que nos hemos comido en la vida) y queda únicamente
el conocimiento del concepto, eso sí, asociado a otros dentro de lo que consideramos las
redes neurales del conocimiento semántico.

11.4.1. Distorsiones e imprecisiones de la memoria


A la hora de analizar las dificultades de memoria de los amnésicos topamos con un
problema considerable: la precisión del recuerdo autobiográfico. Podemos someter a los
pacientes a pruebas de laboratorio donde tengan que recordar listas de palabras,
conjuntos de objetos, imágenes o caras que han visto previamente o cualquier otra
prueba basada en presentar un material, dejar transcurrir un intervalo de tiempo variable
y evaluar la precisión del recuerdo. Sin embargo, en la vida cotidiana las manifestaciones
de la memoria no consisten en la recuperación literal de la información almacenada.
Como ya señaló F.C.Bartlett (1886-1969), la memoria es un proceso de reconstrucción
de los recuerdos a partir de detalles o sensaciones generales y dicha reconstrucción está
condicionada por la subjetividad, tanto durante la codificación y almacenamiento como
durante la posterior recuperación. Almacenamos detalles sobresalientes, con un valor
emocional subjetivo en ese momento, y posteriormente reconstruimos el recuerdo en
torno a esos detalles según nuestras expectativas y valoraciones.

Por este motivo, podemos encontrar ciertas alteraciones de la memoria que no


consisten exclusivamente en la incapacidad para formar o acceder a los recuerdos. Se
consideran distorsiones de la memoria porque el recuerdo evocado no se parece al
original y el grado de desviación pude ser muy variable. Daniel L.Schacter (2007),
psicólogo de la Universidad de Harvard y experto científico en temas de memoria, hace
una recopilación de este tipo de alteraciones y pone claramente de manifiesto que la idea

264
de la memoria como una grabadora fiel de experiencias está muy alejada de la realidad.
Nos muestra las pérdidas de memoria ocasionadas por el paso del tiempo (qué duro es
que te saluden y no reconozcas a la persona que lo hace), las derivadas de la falta de
atención que demuestran que un material mal codificado será recuperado con dificultad,
los bloqueos que nos impiden el acceso a un dato que "sé que lo sé" o cómo se puede
inducir a una persona a estar segura de haber experimentado algo que no ha ocurrido.

Una de estas distorsiones que aparece con frecuencia son los falsos recuerdos, es
decir, el creer reconocer un estímulo o situación que se experimenta por primera vez.
Una serie de experimentos clásicos pusieron esto de manifiesto al evaluar a los sujetos
con listas de palabras para comprobar la precisión de su recuerdo (Roediger y
McDermott, 1995). Por ejemplo, si utilizamos una lista con palabras como música,
canto, melodía, cuna, voz, letra, ritmo, nana, tono, sonata, ópera, guitarra, armonía,
festival y villancico, después de un intervalo de demora y al solicitar a los sujetos que
digan todas las palabras que recuerden, es frecuente que incluyan la palabra canción. Un
ejemplo claro de que los sujetos dan por hecho que han escuchado dicha palabra, cuando
en realidad lo han supuesto en función de la categoría semántica de las otras. Otro tipo
de distorsión de la memoria son las fabulaciones, en las que el sujeto "falsifica" los
recuerdos inintencionadamente porque no es consciente de la mentira y el recuerdo que
genera puede variar desde una leve distorsión hasta la historia más inverosímil
(Kopelman et al., 1997). Parece que la fabulación es consecuencia de la ansiedad que
experimenta el sujeto por sus dificultades mnemotécnicas y trata de completar su
recuerdo con información o datos coherentes desde su propia perspectiva, pero a veces,
totalmente inconsistentes con los parámetros espaciotemporales de la historia. En este
tipo de alteraciones de la memoria es frecuente encontrar afectadas regiones prefrontales
(Tumer et al., 2008a; Turner et al., 2008b), además del LTM. Parece que mientras los
circuitos corticohipocámpicos participan en la codificación, almacenamiento y
recuperación, las regiones prefrontales participarían además en la supervisión del proceso
(Bunge et al., 2004; Cruse y Wilding, 2009), gestionando los recursos y dotando de
sentido a los resultados. Todo esto pone de manifiesto nuevamente que la memoria es un
proceso estrechamente imbricado en la cognición tanto perceptiva como ejecutiva y que
las lesiones cerebrales que afectan a cualquier circuito cerebral van a provocar algún tipo
de distorsión o alteración de la memoria.

11.4.2. Trastornos del aprendizaje procedimental


A veces nos encontramos a niños que poseen un nivel de desarrollo aparentemente
normal, no tienen problemas sensoriomotores significativos, su inteligencia está dentro de
niveles adecuados pero se muestran torpes, desmañados, con dificultades para orientarse
e ingenuos y socialmente torpes en determinadas situaciones. Son niños que tienen
dificultades para incorporar toda una serie de habilidades y de rutinas automatizadas que
normalmente se van adquiriendo a lo largo del desarrollo de modo implícito como
consecuencia de la práctica repetida en situaciones en las que hay que desplegar dichas

265
habilidades. Así, en condiciones normales, los niños adquieren las habilidades necesarias
para el control de la postura y la coordinación de movimientos, la orientación espacial, la
percepción global de una escena y de los detalles significativos para su comprensión, el
uso de estrategias cognitivas para interactuar socialmente de manera adecuada y para
abordar actividades cotidianas, etc. Sin embargo, si esto no se adquiere en las etapas
evolutivas adecuadas, apare cen dificultades que han sido clasificadas y denominadas de
diferente manera, que se han asociado a otros trastornos o se han catalogado de modo
residual, pero que recientemente se están agrupando bajo la denominación de trastornos
del aprendizaje procedimental (TAP), propuesta por Juan Narbona y colaboradores
(CrespoEguílaz y Narbona, 2009; Narbona et al., 2011). Este trastorno se caracteriza
básicamente por una alteración de la memoria implícita que impide el aprendizaje gradual
de hábitos cognitivos, rutinas motoras y habilidades de integración perceptiva
automatizada que permiten la reducción de recursos atencionales en la ejecución de
múltiples tareas. El problema que subyace a la hora de tipificar y diferenciar
adecuadamente este grupo de trastornos es el enorme solapamiento de sus
manifestaciones clínicas, cognitivas y conductuales que se ha disfrazado bajo el paraguas
de la comorbilidad (Jongmans et al., 2003). Sin embargo, los trastornos que han
alcanzado una cierta entidad independiente prestan especial atención a los problemas
lingüísticos en detrimento de las alteraciones motóricas o de otro tipo y que también son
fundamentales para el desarrollo del individuo. Para cubrir este vacío han surgido
denominaciones como trastorno de la coordinación motora, dispraxia del desarrollo,
trastorno del aprendizaje no verbal o síndrome del HD, entre otras (Acosta, 2000;
Crespo-Eguílaz y Narbona, 2009; Rigau-Ratera et al., 2004). Sin embargo, de acuerdo
con Narbona y su grupo, parece más apropiado el concepto de TAP porque incluye toda
una serie de manifestaciones que las anteriores denominaciones no contemplan o no
precisan por ser muy genéricas.

Si tratamos de buscar los substratos neurológicos de este trastorno tenemos que


centrarnos precisamente en los circuitos implicados en el aprendizaje implícito y suponer
que cualquier tipo de disfunción podría estar comprometiendo el normal aprendizaje de
estas habilidades. Durante mucho tiempo se atribuía a una disfunción del HD (de ahí una
de sus denominaciones) por el hecho reduccionista o simplificador de que las habilidades
lingüísticas estaban conservadas y porque el HD parece estar más implicado en
aprendizajes nuevos y rápidos. Sin embargo, muchos de estos estudios proceden de
pacientes con lesiones cerebrales que comprometen gran cantidad de tejido y que pueden
enmascarar los verdaderos circuitos responsables. El aprendizaje procedimental está
soportado claramente por dos estructuras cerebrales, el cerebelo y la CPF (Gomez-
Beldarrain et al., 1998 y 1999) ya que las lesiones localizadas en estas áreas impiden o
comprometen seriamente este aprendizaje. Más allá del papel que juega en el aprendizaje
motor, el cerebelo participa en otros procesos cognitivos relacionados con la adquisición
de habilidades diversas y mantiene conexiones, vía tálamo, con la CPF (Middleton y
Strick, 2001) de la que ya sabemos su participación en casi todos los procesos cognitivos

266
y conductuales. Pero otra característica de estos niños son las dificultades de integración
visomotora (Bonifacci, 2004) prueba de que existe algún tipo de disfunción en las áreas
occipitoparietales responsables de este proceso. Podemos admitir (y las técnicas de
tractografía cerebral podrán ayudamos) que, sin llegar a sufrir un daño cerebral evidente,
es posible que la existencia de problemas de conectividad o de configuración de los
circuitos nerviosos responsables del aprendizaje implícito podrían ser la causa que
explique el TAP.

Siguiendo los trabajos de los autores ya mencionados (Crespo-Eguílaz y Narbona,


2009; Narbona et al., 2011) sabemos que estos niños tienen dificultades para adquirir un
buen nivel de coordinación motora y por eso los gestos y movimientos son torpes y
desmañados. Esta falta de coordinación se puede observar tanto en la motricidad gruesa
que utilizan para correr, saltar, montar en bicicleta o jugar al fútbol como en la fina, la
necesaria para hacer trabajos manuales, utilizar el bolígrafo o los cubiertos, atarse
cordones o abrocharse los botones, etc. También tienen dificultades en el control espacial
auto y aloreferido, en la administración del tiempo o en cuanto a la comprensión y
alcance del concepto de dinero. Son niños con un buen nivel verbal (por eso la utilización
del término trastorno del aprendizaje no verbal) pero en el componente pragmático
suelen presentar dificultades, por lo que su capacidad comunicativa es pobre por falta de
adaptación al contexto. Tienden a una comprensión literal del lenguaje, lo que limita su
capacidad comprensiva tanto en una conversación como frente a textos escritos. A nivel
académico suelen tener algunas dificultades, sobre todo en el aprendizaje de la lectura y
de las matemáticas, ya que les cuesta trabajo la descodificación leetoescritora y la
comprensión de los razonamientos matemáticos. También muestran dificultades en
actividades que conlleven un componente motor importante como gimnasia y actividades
deportivas pero también en otras como dibujar, colorear o recortar. A nivel escolar, son
niños con un nivel intelectual dentro de lo normal pero que tienen dificultades de
integración por su torpeza para participar en juegos y actividades de grupo o para
interactuar socialmente con sus iguales. En resumen, estos niños son candidatos para
intervenciones encaminadas a corregir estas dificultades y facilitar su integración, tanto
académica como social.

267
268
El lenguaje es una de las capacidades humanas que más atención ha recibido desde el
ámbito de la psicología, la pedagogía y la neurociencia porque se trata de un proceso
único entre los seres vivos. Sistemas de comunicación hay muchos y muchas especies de
animales han desarrollado los suyos propios para comunicarse, aunque sea de forma
rudimentaria, pero un lenguaje como el humano con el potencial y la versatilidad que este
tiene, solo el homo sapiens lo ha alcanzado. El lenguaje es la base de la conducta social.
No tiene sentido desarrollar un sistema de comunicación entre individuos aislados; el
lenguaje surge precisamente cuando los primeros homínidos forman grupos y necesitan
intercambiar información. El ser humano es un ser social por naturaleza y el lenguaje es
la herramienta que nos permite la socialización y la interacción con los demás miembros
de nuestra especie. El lenguaje ha permitido a los seres humanos convivir en grupos
organizados con reglas favoreciendo su desarrollo al economizar recursos en el
abastecimiento de alimentos y en la autoprotección. También ha permitido generar
conocimiento, acumularlo, compartirlo y transmitirlo de generación en generación
mediante la educación, facilitando el aprendizaje de los más jóvenes al no tener que
experimentar todos y cada uno de los aprendizajes necesarios para la convivencia en sus
respectivas sociedades.

12.1. Origen y evolución del lenguaje


El lenguaje humano tiene características que lo hacen único, no obstante, las
similitudes que presentan los idiomas entre sí hacen pensar en un tronco común o, al
menos, un soporte único para su adquisición. El lenguaje humano es ilimitado ya que
podemos hacer infinitas combinaciones y formar cualquier frase que se nos ocurra; no
existe un número finito de frases posibles. Además, es flexible; es decir, puede incorporar
nuevas palabras y también puede cambiar el significado de algu nas de ellas. Por otro
lado, la estructura idiomática comparte algunas características aunque se trate de lenguas
sin relación entre ellas y, en aquellas con un tronco común, las similitudes léxicas son
frecuentes. Todo esto apunta a la existencia de una base común que no necesita ser
aprendida (capacidad para el lenguaje) y otra que se adquiere en contacto con un grupo
específico (idioma). Esto significa que el cerebro humano posee unas características que
lo hacen apto para soportar el lenguaje pero que es necesario que se produzca una
estimulación adecuada para su aprendizaje. La base común necesariamente tiene que
venir determinada por el genoma de la especie ya que es la única explicación posible para
una característica del SN que no es resultado de la experiencia.

269
La existencia de esa base común de naturaleza genética nos lleva a pensar que el
lenguaje no puede haber surgido de manera repentina y espontánea en el homo sapiens
sin que haya antecedentes evolutivos, a pesar de que no hay ninguna otra especie que lo
posea con las mismas características que los humanos. Si comparamos especies próximas
a la humana en términos evolutivos, por ejemplo chimpancés, gorilas u orangutanes,
podemos observar que ningún individuo de estas especies es capaz de desarrollar el
lenguaje, a pesar de que se les adiestre de manera intensiva o, incluso, se desarrollen en
un entorno similar al de los humanos. Es cierto que muchas especies tienen su propio
sistema de comunicación, pero ninguna de ellas llega a desarrollar el grado de maestría
que ha alcanzado la especie humana. El lenguaje animal suele ser muy reducido y con
esquemas estereotipados para organizar el grupo o identificar a sus miembros, para
mantener la estructura del grupo y las jerarquías sociales, para proferir amenazas y para
algunas situaciones más muy determinadas por la especie de que se trate (por ejemplo,
los gritos de las mangostas para avisar a la colonia del tipo de depredador que se acerca,
si es por el aire o por tierra). Por su parte, el lenguaje humano posee múltiples
componentes que le dotan de complejidad (fonológico, sintáctico...), puede actualizarse
continuamente (nuevas expresiones según las necesidades del entomo) y permite expresar
ideas, sentimientos o intenciones.

A pesar de todas estas diferencias con otros animales, el lenguaje humano podría ser la
consecuencia de un proceso evolutivo ocurrido a partir de las vocalizaciones que se
pueden observar en ciertas especies; los primates poseen un amplio rango de
vocalizaciones que utilizan entre ellos para comunicarse. Aboitiz el al. (2006) proponen
que los circuitos audiovocales encontrados en el cerebro de primates son homólogos a los
existentes para el lenguaje en el cerebro humano. Partiendo de la definición operativa de
la memoria de trabajo, afirman que estos circuitos servían inicialmente para la retención
de las vocalizaciones (gritos) de otros congéneres, los cuales, como consecuencia de la
repetición, fueron adquiriendo cierto significado elemental. A medida que estas
vocalizaciones fueron adquiriendo mayor complejidad, los circuitos de memoria fueron
expandiéndose y desarrollaron la capacidad de retener un número cada vez mayor de
vocalizaciones; en consecuencia, emergió de manera progresiva la capacidad de combinar
estas vocalizaciones en secuencias más complejas. Es decir, el lenguaje habría
evolucionado en el cerebro humano como un proceso de memoria que permite codificar
y almacenar secuencias de sonidos y combinarlas de manera compleja.

Con frecuencia se recurre al estudio del canto de los pájaros para encontrar
homologías con el lenguaje humano. Al fin y al cabo, al igual que los humanos, estos
pájaros realizan vocalizaciones complejas y son capaces de combinar notas simples en
secuencias de complejidad creciente hasta formar lo que podríamos llamar una canción.
También pueden aprender patrones acústicos complejos de un modo similar al que se
produce durante el desarrollo del habla en humanos, para lo cual poseen circuitos
cerebrales análogos (Bolhuis et al., 2010). Sin embargo, no podemos establecer estas

270
comparaciones porque el habla no es más que una parte, importante eso sí, de la
capacidad lingüística del ser humano. La capacidad sintáctica del lenguaje humano o la
categorización semántica de las palabras, por no hablar del uso que hacemos del lenguaje
en función del contexto, marcan las diferencias con el canto de los pájaros, que como
hemos mencionado anteriormente es el resultado de conductas estereotipadas en mayor o
menor grado y al servicio de determinadas exigencias ambientales concretas.

Rizzolatti y Arbib (1998) propusieron una hipótesis basada en el sistema de neuronas


espejo para explicar la adquisición del lenguaje humano. Según estos, el lenguaje
evolucionó desde un mecanismo básico no relacionado originalmente con el lenguaje, el
sistema de neuronas espejo, que permite reconocer un conjunto de acciones efectuadas
por otros primates. El área de Broca en el cerebro humano contiene este tipo de
neuronas igual que el área F5 (homologa al área de Broca) en el cerebro del macaco, lo
cual proporciona las bases evolutivas para la paridad lingüística, es decir, para el hecho
de que una expresión signifique más o menos lo mismo para el emisor y para el receptor.
Sería el eslabón perdido para aquellos que sostienen que el lenguaje es el resultado de la
evolución de gestos y movimientos corporales primitivos (Stokoe, 2001). Los defensores
de estos planteamientos se basan en que el lenguaje verbal y el gestual están soportados
por circuitos cerebrales similares e interconectados. Sin embargo, no parece que estas
dos hipótesis acerca del origen del lenguaje humano sean mutuamente excluyentes.
Podemos aceptar que la gesticulación manual, y aún más, la mímica facial, se utilizarían
como medios rudimentarios de comunicación que, en ocasiones, irían acompañadas de
vocalizaciones y sonidos guturales (tal y como hacen otras especies). La formación de
grupos más amplios supondría una presión social adaptativa que favorecería el desarrollo
de sistemas de comunicación más eficientes. El aumento de la variedad y complejidad de
las vocalizaciones podría haber desplazado la gesticulación a un segundo plano
invirtiendo el sistema primitivo; ahora la vocalización es más importante y el gesto es un
comple mento de apoyo. El desarrollo de un sistema fonoarticulatorio adecuado y de
unas estructuras cerebrales preparadas para un tipo de procesamiento secuencial concreto
hizo el resto.

Las ideas de un origen motor o vocálico del lenguaje humano no son las únicas que
han surgido para explicar cómo pudo surgir el lenguaje humano. Existen muchas teorías
que tratan de hacerlo, algunas con planteamientos excesivamente simplistas (Ardila,
2006) e, incluso, teorías que se acercan a la idea de una aparición cuasi repentina y
espontánea de los circuitos cerebrales necesarios para el lenguaje. Este es el caso de la
idea propuesta por Steven Pinker (1994), quien sugiere que pudo producirse una
renovación de los circuitos cerebrales de ancestros primates que inicialmente no tenían
una función vocal además de la incorporación de algunos circuitos nuevos. Parece que
los estudios sobre vocalizaciones en primates aportan evidencias más fiables a favor de
las hipótesis evolutivas. Un estudio con técnicas de neuroimagen, que comparó la
activación cerebral en monos y humanos ante vocalizaciones específicas de la especie y

271
del habla humana (Gil da Costa el al., 2006), encontró que en los animales se activaban
áreas cerebrales homólogas a las regiones de Broca y Wernicke del cerebro humano.

El lenguaje es un proceso sumamente complejo y no parece que su aparición responda


a un proceso evolutivo lineal sino más bien a la confluencia de un cúmulo de
circunstancias. Es cierto que podemos encontrar homologías genéticas y neurales, por
ejemplo entre pájaros, primates y humanos, relacionadas con las áreas cerebrales
implicadas en la discriminación y aprendizaje auditivo y en la producción vocal (Berwick
el al., 2013). Sin embargo, la complejidad del lenguaje humano está más allá de lo
alcanzado por estas especies con sus respectivas configuraciones cerebrales y entornos
evolutivos; las posibilidades combinatorias, la flexibilidad semántica o la adecuación
contextual del discurso es algo que forma parte de las habilidades lingüísticas humanas en
exclusiva. En el estudio de la evolución del lenguaje tendríamos que considerar dos
escenarios; por un lado, está el desarrollo básico del lenguaje, es decir, de la capacidad de
comprender y producir un número importante de vocalizaciones para designar objetos o
acciones dentro de un colectivo, lo cual puede explicarse perfectamente por las teorías
evolutivas a las que hemos hecho referencia. Sin embargo, el segundo escenario tendría
más que ver con el grado de complejidad que el lenguaje ha alcanzado en la especie
humana como característica claramente diferencial, no solo con relación a los primates,
sino también a los ancestros humanos primitivos; este importante avance estaría
relacionado con el desarrollo cognitivo que ha experimentado la especie humana en unos
pocos miles de años, ya que no podemos desligar el lenguaje de procesos como la
memoria o algunas funciones ejecutivas, ni de aspectos como el nivel intelectual o,
incluso, de los estados emocionales.

12.2. Cerebro y lenguaje


Durante muchos años, las investigaciones sobre los circuitos cerebrales que intervienen
en el lenguaje se han realizado mediante estudios post mortem de los cerebros de
pacientes con afasia (imposibilidad para hablar o comprender el lenguaje). Ya
mencionamos en el capítulo primero la descripción que hizo Paul Broca en 1861 de la
lesión cerebral de un paciente afásico (Louis Leborgne, conocido como el paciente
"Tan") y los trabajos de Wernicke describiendo la afasia sensorial años más tarde y
apuntando a un tipo de afasia que se confirmaría tiempo después, la afasia de
conducción. Desde entonces, la mayoría de estos estudios sobre las bases
neuroanatómicas del lenguaje se centraron en las respectivas áreas descritas por Broca
(circunvolución frontal inferior) y Wernicke (parte posterior de la circunvolución
temporal superior) (figura 12.1); sin embargo, la proliferación actual de estudios con
técnicas de neuroimagen ha demostrado que hay otras muchas regiones cerebrales
distribuidas por ambos hemisferios relacionadas con el lenguaje.

272
Figura 12.1. Localización cortical de las áreas de Broca y Wernicke.

Además, hay que considerar que el lenguaje no es un proceso unitario ni homogéneo.


El acto tan simple de comprender el habla implica una serie de subprocesos que
requieren de la participación de diversos circuitos cerebrales: escuchar los sonidos,
identificar dichos sonidos como lingüísticos, reconocer las secuencias de sonidos como
palabras y frases... El lenguaje incorpora diferentes componentes que interactúan para
contribuir al resultado final, la comunicación lingüística en sus diversas manifestaciones.
Por este motivo, más que buscar localizaciones concretas para cada uno de estos
componentes, la investigación reciente trata de determinar qué red o redes son las
responsables de los diferentes subprocesos y de qué manera están relacionadas entre sí.
Desde la psicolingüística se propone una serie de componentes básicos del lenguaje:

-Fonético o fonológico. Referido a los sonidos del habla. Cada lenguaje está
compuesto por un número determinado de sonidos de entre todos los que el sistema
fonoarticulatorio puede producir, los fonemas. El cerebro del recién nacido posee la
capacidad de detectar y discriminar cualquier sonido del habla, sin embargo, con el
paso del tiempo esta capacidad se pierde dando relevancia a los sonidos que
escucha con cierta regularidad, es decir, los propios de su lengua materna.

273
-Léxico-morfológico. Hace referencia a las palabras de un idioma y a las reglas que
subyacen a su configuración y combinación; el sistema de combinación de los
sonidos del idioma en secuencias comprensibles con significado. Las palabras así
formadas representan elementos del mundo.

-Semántico. Se ocupa del significado de las palabras de una lengua. Para ello tenemos
que ir configurando un almacén en el que guardamos nuestro repertorio lingüístico
(las palabras) con sus correspondientes etiquetas de significado. Estos significados
parece que están almacenados en redes neuronales interconectadas que codifican
categorías semánticas, sin embargo, los criterios de agrupamiento varían de un
sujeto a otro. Probablemente, la red neuronal para la categoría de herramientas será
mucho más amplia en un ebanista que en un abogado.

-Sintáctico. La gramática de una lengua, las reglas que determinan la organización de


las palabras en secuencias ordenadas con sentido y significado comprensibles para
formar las frases. Implica la utilización de palabras que no tienen un significado
semántico pero que son fundamentales para dar sentido a las frases. "Hablé con
Ana" y "Hablé de Ana" tienen significados diferentes cambiando solo una
preposición.

-Prosódico. Se refiere a la entonación y la musicalidad del lenguaje. Este componente


varía mucho de unas lenguas a otras, pero en todos los casos sirve para dotar de
información emocional complementaria al significado lingüístico. Es uno de los
componentes del lenguaje que habitualmente se atribuye al HD.

-Pragmático. Tiene que ver con el modo en que usamos el lenguaje y los objetivos del
mismo en función del contexto. Un uso eficaz del lenguaje sueleadaptarse al
contexto en el que se produce, a las personas que intervienen y a los objetivos que
perseguimos. El doble sentido, la ironía o las metáforas son claros ejemplos de
adecuación lingüística. El componente pragmático transciende al propio lenguaje en
sí y entronca con el concepto de comunicación social, ya que determina en buena
medida el establecimiento de vínculos. Por ese motivo, lesiones en la CPF son las
que con frecuencia ocasionan una mala utilización del lenguaje y que su utilidad
como herramienta comunicativa sea considerablemente menor.

12.2.1. Comprensión y producción del habla


La primera experiencia lingüística que suele tener el ser humano es escuchar la voz de
su madre. A partir de ahí, iniciará el proceso de adquisición de esta potente herramienta
de comunicación e interacción social. En la corteza auditiva de asociación de ambos
hemisferios se han localizado tres áreas que responden de manera selectiva a las voces
humanas (Belio et al., 2000) y no lo hacen así a otros estímulos sonoros aunque estén
también emitidos por humanos. Se trata de circuitos localizados en el surco temporal

274
superior que podrían responder de manera más específica aún a características concretas
de los sonidos vocales como puede ser el timbre de la voz o detalles relacionados con la
identidad del hablante si es previamente conocido. Aunque la respuesta auditiva inicial es
bilateral, posteriormente es el HI el que se ocupa preferentemente del procesamiento de
aquellos sonidos vocales identificados como lenguaje (habla) gracias a los circuitos de la
ruta ventral. Lo que ocurre después y que nos permite comprender y producir el lenguaje
es algo en lo que, aunque se ha avanzado recientemente, todavía podemos encontrar
controversias y posturas diferentes a la hora de explicar cómo ocurre este proceso.

Karl Wernicke describió en 1874 diferentes tipos de afasias según los pacientes
sufrieran lesiones en alguna de las regiones ya descritas por él y Broca o en las
conexiones entre ambas (afasia de conducción) dentro de un modelo conexionista basado
en el procesamiento secuencial de la información entre las regiones implicadas.
Posteriormente, Ludwig Lichteim (1845-1928) amplió y completo este modelo
presentando su conocido diagrama de conexiones mediante el cual explicaba hasta siete
tipos de afasias diferentes (figura 12.2). La aportación relevante de estos modelos fue
tomar en consideración los denominados centros cerebrales de los conceptos, es decir,
circuitos cerebrales que almacenan información semántica y que, según el modelo,
estarían ampliamente distribuidos por todo el cerebro.

Norman Geschwind (1926-1984) retomó la propuesta inicial ampliándola y


completándola (Geschwind, 1965); desde entonces se conoce con el nombre de modelo
de Wernicke-Geschwind (algunos autores incorporan también el nombre de Lichteim) y,
entre otras aportaciones, propone las áreas corticales responsables del procesamiento
lingüístico y sus conexiones tanto para en lenguaje oral como para el escrito. Además de
las respectivas áreas sensoriales auditivas (escuchar palabras) y visuales (leer palabras),
propone la participación de las siguientes estructuras del HI (figura 12.3):

275
Figura 12.2. Modelo lingüístico de Wernicke-Lichteim. Representa los centros sensorial,
motor y conceptual junto con sus conexiones. Los números representan tipos de afasias.
1: Broca; 2: Wernicke; 3: conducción; 4: motora transcortical; 6: sensorial transcortical; 5:
dificultades motoras que impiden la articulación; 7: dificultades auditivas que impiden la
recepción del sonido.

-Área de Wernicke: aproximadamente corresponde con el área 22 de Brodmann (22B)


y se encargaría de la comprensión del lenguaje. Es la región donde los sonidos se
trasformarían en palabras reconocibles.

-Giro o circunvolución angular: área 39B, integra impulsos visuales y auditivos, por lo
que contribuiría a formar la representación sonora de la palabra leída.

-Fascículo arqueado: paquete de axones que comunica las áreas de Wernicke y de


Broca; permite que los contenidos auditivos accedan a la región de programación
articulatoria.

-Área de Broca: áreas 44-45B aproximadamente. Región donde se programan las


secuencias y patrones motores para la articulación del lenguaje.

-Corteza motora primaria: área 4B. Encargada de las contracciones musculares que
producen el movimiento articulatorio.

276
Figura 12.3. Modelo de Wernicke-Geschwind. Ruta de procesamiento para pronunciar
una palabra oída o leída. Las flechas indican el flujo de la información desde las
respectivas áreas sensoriales hasta la corteza motora encargada de la articulación.

Según este modelo, cuando se escucha una palabra, los estímulos sonoros alcanzan la
corteza auditiva primaria (omitimos estructuras subcorticales) desde donde se proyectan
al área de Wernicke, lugar donde se produce la comprensión lingüística del estímulo. Para
pronunciar esta palabra, las señales deben discurrir por el fascículo arqueado para llegar
al área de Broca, lugar donde se programa el esquema motor y se transmite a la corteza
motora para su ejecución. En el caso de una palabra escrita, el procesamiento
comenzaría en VI para de ahí proyectarse al giro angular, donde se crea el modelo
fonológico de la palabra leída. A continuación, la señal alcanza el área de Wernicke y
continúa la misma ruta anterior.

Actualmente, este modelo se considera obsoleto porque resulta demasiado simpe para
abordar un proceso tan complejo como es el lenguaje. No se le puede negar la utilidad
que ha tenido tanto en el ámbito investigador como en el clínico, sin embargo, a la luz de
los hallazgos más recientes, algunos de sus planteamientos han quedado superados y las
predicciones que realiza no siempre se cumplen. Lo primero que habría que cuestionar es
la concepción tan simplista del lenguaje, ya que lo entiende únicamente en términos de
comprensión y producción, sin considerar todos los componentes a los que nos hemos

277
referido antes. No parece que intervengan los mismos circuitos en la comprensión de
palabras con sentido o sin él, y no contempla la existencia de sistemas cerebrales para la
sintaxis o los contenidos semánticos. Uno de los aspectos que más se ha criticado es la
concepción de las afasias como cuadros clínicos fácilmente diferenciables, cuando la
realidad es que resulta frecuente encontrar solapamiento de síntomas entre un tipo u otro.
Además, el cuadro clínico de las afasias de Broca, Wernicke o conducción no siempre
están causadas por lesiones en las respectivas áreas corticales o en el fascículo arqueado
(Anderson et al., 1999; Poeppel y Hickok, 2004).

Por otro lado, el modelo solo considera la participación del HI y con regiones
lingüísticas bien diferenciadas, cuando hoy nadie duda del papel del HD, por ejemplo en
la percepción de los sonidos del lenguaje (Hickok y Poeppel, 2000), que las áreas
clásicas del lenguaje no son homogéneas o que se han identificado circuitos lingüísticos
fuera de las localizaciones básicas que describe el modelo (Wise et al., 2001; Damasio et
al., 2004). Además, también hay que considerar el papel que juegan estructuras como los
ganglios basales o el cerebelo en la comprensión y producción del lenguaje (Price, 20012)
y otros estudios que han encontrado patrones de activación cerebral en los que se
muestran diferencias con lo previsto en el modelo según las tareas lingüísticas que se
vayan a realizar. En resumen, el modelo de Wernicke-Geschwind no contempla los
circuitos subcorticales ni todos los circuitos corticales que intervienen en el lenguaje,
sobrevalora la participación de las áreas de Broca y Wernicke y homogeniza el
procesamiento verbal y escrito, cuando existen más diferencias de las que contempla.

Son muchos los autores que han propuesto otros modelos diferentes para explicar la
base neurobiológica del lenguaje, como por ejemplo Marsel Mesulam (1990), que
propone un modelo alejado de los postulados localizacionistas. Está basado en la
interconexión de diversas redes cerebrales corticales y subcorticales que además incluyen
al HD, especialmente en lo referido al componente semántico. También el matrimonio
Damasio (1992) propone una explicación alternativa según la cual el lenguaje requeriría
de la participación de tres sistemas cerebrales: uno localizado bilateralmente que sería el
responsable de almacenar representaciones de naturaleza no lingüística (aunque
podríamos considerarlo como un componente conceptual o semántico) y que se asienta
sobre grandes extensiones corticales de ambos hemisferios; el segundo sería un sistema
operativo o instrumental encargado de generar palabras y frases, asentado sobre la región
perisilviana del hemisferio dominante y que incluye las áreas de Broca y de Wernicke,
pero con atribuciones distintas de las contempladas en el modelo de WernickeGeschwind;
y un tercer sistema que actuaría como intermediario entre los dos primeros, localizado
alrededor del sistema instrumental.

Un modelo que ha recibido atención considerable en los últimos años es el propuesto


por Hickok y Poeppel (2007), el cual contempla la existencia de dos rutas de
procesamiento para el lenguaje (modelo de doble ruta o doble vía), una ventral
relacionada con el reconocimiento de las palabras como un todo (procesamiento léxico-

278
semántico) y una ruta dorsal implicada en el procesamiento fonético simple para
convertir sonidos lingüísticos en representaciones articulatorias. De manera similar a lo
que ya hemos visto en los sistemas visual y auditivo, a estas rutas se las considera como
rutas del qué y del cómo. Este modelo ha tratado de tomar en consideración la evidencia
científica y clínica aportada en los últimos años por otros autores y por su propia
investigación, especialmente algunas paradojas como el hecho de que las lesiones
prefrontales y parietales en el HI producen déficits en la comprensión del lenguaje, que
las lesiones en el entorno del área de Wernicke no producen problemas severos de
comprensión y sí de articulación (Zatorre et al., 1992), o que haya pacientes que
comprenden razonablemente bien las palabras pero son incapaces de identificar y
discriminar sílabas sencillas frente a otros que presentan un cuadro opuesto (Baker et al.,
1981). Además, incorpora definitivamente la participación de ambos hemisferios
cerebrales si bien con predominancia izquierda sobre todo en el proceso articulatorio.

El modelo de Hickok y Poeppel (2007) se basa fundamentalmente en la comprensión


del habla y considera que la etapa inicial de la misma implica un procesamiento bilateral
en las regiones corticales auditivas, es decir, los sonidos del habla activan regiones
corticales bilaterales en el giro temporal superior. Después, el resto de la propuesta parte
de dos premisas fundamentales. Por un lado, que las representaciones fonológicas
(auditivas) de los estímulos verbales están en contacto con sistemas conceptuales y con
sistemas motores y, por otro lado, que los sistemas conceptuales y motores implican a
redes neuronales diferentes. De esto se concluye que hay dos redes distintas para el
procesamiento del habla. Como puede verse en la figura 12.4, desde las regiones media y
posterior del surco temporal superior surgen las dos vías de procesamiento, una dorsal
que se dirige a regiones temporoparietales para terminar en el lóbulo frontal (área de
Broca, ínsula anterior y corteza premotora), y otra ventral que alcanza la porción anterior
de la circunvolución temporal media y el surco temporal inferior después de recalar en la
porción posterior de estas mismas regiones. Existe una asimetría a favor del HI, pero en
las etapas iniciales de este sistema el procesamiento es prácticamente bilateral. Además,
las conexiones bilaterales entre los circuitos articulatorios y semánticos o conceptuales
constituirían el cierre de este sistema comprensivoarticulatorio del habla.

La ruta ventral, considerada como la ruta léxica, es responsable del reconocimiento de


las palabras para después proporcionar el acceso al significado de las mismas, es decir, a
todos los contenidos de carácter semántico asociados a esa palabra. Por su parte, la ruta
dorsal, ruta subléxica, se centra únicamente en el análisis fonológico para activar el
patrón motor que permite su articulación, gracias a la activación de circuitos
temporoparietales en los que se integran estas representaciones sensoriomotoras. Esta
ruta nos permite articular palabras que no conocemos, por ejemplo de otro idioma, o
secuencias de sonidos verbales carentes de sentido (onomatopeyas o seudopalabras). La
vía dorsal estaría implicada en la percepción del habla mientras que la vía ventral lo
estaría en el reconocimiento. Esta, frente a la idea tradicional de la dominancia del HI, se

279
activaría bilateralmente (eso sí, con predominio izquierdo), explicando por qué las
lesiones unilaterales no afectan en exceso al reconocimiento de palabras. Por su parte, la
vía dorsal sí estaría lateralizada en el HI explicando así las alteraciones articulatorias y
perceptivas del habla cuando se daña este hemisferio (Hickok y Poeppel, 2007). Los
circuitos temporoparietales integran también estímulos visuales que permiten la
conversión de secuencias de símbolos gráficos en sus equivalentes fonológicos, es decir,
la base para el aprendizaje de la lectura y la escritura.

Figura 12.4. Modelo lingüístico de Hickok y Poeppel (2007) donde se diferencian las dos
rutas de procesamiento. Los recuadros sombreados se refieren a estructuras que se
activan bilateralmente aunque con predominio izquierdo.

También hay autores que cuestionan la tradicional distinción entre áreas implicadas en
la comprensión o en la producción del lenguaje, sosteniendo que todas ellas forman parte
de una red integrada donde cada una juega un papel relevante en ambos procesos. La
teoría motora de la percepción del habla sostiene que las señales auditivas se comparan
con patrones motores en vez de hacerlo con representaciones acústicas para así producir
el propio habla (Liberman y Mattingly, 1985). Según esta teoría, los fonemas se
reconocen al inferir los movimientos articulatorios que son necesarios para generar ese
sonido. Parte de esta argumentación se basa en la observación de que el área de Broca
también se activa durante la comprensión del lenguaje, especialmente durante la lectura
de labios en sujetos que estaban hablando, cosa que no ocurría cuando los sujetos hacían
muecas con la boca (movimientos no lingüísticos), incluso cuando los sujetos no podían

280
escuchar al hablante (Campbell et al., 2001; Hall et al., 2005). Otra parte de la
argumentación alude al sistema de neuronas espejo y al hecho de que la región F5 del
cerebro del macaco, equivalente al área de Broca en el cerebro humano, contiene
neuronas espejo (Rizzolatti y Craighero, 2004), lo que justificaría su activación al
observar los movimientos labiales en otra persona. Cualquiera de nosotros puede
comprobar que es más fácil comprender lo que nos dice otra persona si observamos sus
labios al hablar. Fridriksson et al. (2008) encontraron que los movimientos vocales
activaban las áreas temporales y frontales del lenguaje mientras que los movimientos no
verbales activaban la corteza parietal (en sintonía con el modelo de la doble ruta);
además, la exposición a sonidos verbales degradados o distorsionados activaba regiones
frontales y parietales (una activación intermedia entre percepción vocal y no vocal) pero
no activaban regiones temporales al carecer de significado los estímulos.

Todavía queda mucho camino para poder explicar completamente la red cerebral que
soporta el habla y la participación concreta que cada elemento del circuito juega en este
proceso. Para empezar, hay que distinguir entre procesos que pueden ser localizados en
regiones concretas, por ejemplo, sensoriales y motores, de aquellos otros que dependen
de la activación de circuitos muy distribuidos por diferentes regiones, las cuales, a su vez,
participan en otros procesos distintos del lenguaje (Price, 2012). No es lo mismo la mera
detección o la articulación de sonidos vocales que la comprensión y producción de frases
complejas con un significado concreto acorde al contexto en el que tiene lugar o en
función de las personas a las que se dirigen. Otra carencia estriba en el hecho de que la
mayoría de los modelos pasan de puntillas por dos aspectos fundamentales del lenguaje:
la sintaxis y la semántica. Cómo el cerebro organiza las palabras en frases coherentes con
sentido y significado y cómo atribuye y relaciona los significados con las secuencias
sonoras es algo que todavía plantea desafíos científicos. El área de Broca parece ser
crítica dentro de la red lingüística responsable de la sintaxis (Martín-Loeches, 2012) pero
la implicación de otras estructuras como el núcleo caudado o circuitos corticales de los
lóbulos temporal y parietal no está plenamente clarificada. Por su parte, al referimos al
componente semántico del lenguaje tenemos que considerar los propios circuitos de la
memoria semántica. Es cierto que algunos de los modelos que hemos visto aquí hacen
referencia a los circuitos conceptuales o semánticos, especialmente el de la doble ruta,
pero dejando abiertas numerosas incógnitas acerca del modo en que ocurre este proceso.
La principal es cómo se organizan las redes semánticas, es decir, cómo se vinculan las
redes neuronales que codifican conceptos semánticamente relacionados. Los estudios
realizados hasta ahora tanto con pacientes como con técnicas de neuroimagen en sujetos
sanos sugieren que esta organización depende de múltiples factores. No podemos olvidar
que estamos hablando de memoria, que el almacenamiento y recuperación de la
información incorpora un componente emocional y que dicho componente está vinculado
a experiencias concretas de cada sujeto. Todo esto nos da una idea acerca de las
incógnitas que todavía plantea el diseño de un modelo integrador acerca de la
neurobiología del lenguaje. La formulación de las preguntas adecuadas y la consideración

281
del lenguaje como el resultado de la integración de múltiples procesos podrán
proporcionar notables avances en este campo.

12.2.2. Lectura y escritura


Comparadas con el habla, la lectura y la escritura son habilidades que han aparecido
recientemente en la historia de la especie humana; además, la alfabetización generalizada
es una práctica reciente que solo se ha consolidado hace unas cuantas décadas, y no en
todas las sociedades, por lo que no es raro encontrar personas que carecen de estas
habilidades. Por lo tanto, una primera reflexión que tenemos que hacer para comprender
estos procesos es que, al contrario que el habla, la lectura y la escritura son habilidades
aprendidas que no se adquieren de forma natural sino como consecuencia del
entrenamiento. Un niño sin ningún tipo de disfunción cerebral solo necesita estar
expuesto a estímulos verbales para adquirir y desarrollar el habla con toda naturalidad y
aparentemente sin esfuerzo. Sin embargo, por mucho material escrito que esté a
disposición de sus circuitos visuales, si no hay un entrenamiento específico o un
aprendizaje intencional, las habilidades lectoras no se podrán adquirir. Esto significa que
el cerebro no dispone de unos circuitos preparados específicamente para la lectura y la
escritura por lo que debe reutilizar circuitos preexistentes que probablemente estuvieran
destinados en un principio a otras funciones. Es decir, el aprendizaje lectoescritor implica
una reorganización de circuitos cerebrales para poder realizar una tarea concreta como es
la de asociar sonidos con representaciones gráficas. La lectura y la escritura comparten
circuitos cerebrales con los procesos de comprensión y producción del habla, pero
también implican a otros distintos que participan de manera más específica.

La lectura requiere el reconocimiento rápido de las palabras escritas a través de los


canales visuales, es decir, la identificación de secuencias de símbolos gráficos que, según
su ordenación espacial, adquieren un significado u otro. Acto seguido, ese
reconocimiento visual debe emparejarse con secuencias fonéticas que representan la
forma sonora de la palabra y con representaciones semánticas que dotan de significado a
esos símbolos. Así, el proceso lector se inicia con la activación de circuitos corticales en
las áreas visuales, concretamente circuitos localizados en la ruta ventral occipitotemporal.
No obstante, en la actualidad existe bastante consenso a la hora de considerar la
existencia de dos rutas para la lectura, una ventral que permitiría reconocer las palabras
de manera global (ruta léxica) y otra que procesaría los componentes fonéticos de las
palabras y estaría basada en el deletreo (ruta subléxica). Pensemos por ejemplo que,
incluso un lector entrenado que lee con rapidez palabras frecuentes en su vocabulario,
cuando encuentra una palabra nueva o con cierta complejidad tiene que apoyarse en el
deletreo.

La idea de dos rutas para la lectura fue apuntada ya por el neurólogo francés Joseph
Dejerine (1849-1917). Observó que varios pacientes con lesiones en áreas cerebrales
posteriores ventrales (giro fusiforme) y dorsales (giro angular) del HI mostraban

282
diferentes tipos de alteraciones de la lectura (Bub et al., 1993). A partir de estas
observaciones y de otras similares como consecuencia de lesiones focales, surgió la idea
de una ruta directa que enlaza la imagen gráfica de la palabra con su significado y una
ruta indirecta que propicia la asociación entre las letras y sus sonidos (Harm y
Seidenberg, 2004). Esta segunda ruta (dorsal), considerada como ruta fonológica, puede
descomponerse en dos sistemas, uno posterior que incluye las circunvoluciones
supramarginal y angular y la parte posterior de la corteza temporal superior, y otro
sistema anterior que incluye a la circunvolución frontal inferior (área de Broca) y a parte
de la CPM (figura 12.5). El sistema posterior trabajaría preferentemente con
pseudopalabras o combinaciones desconocidas de letras en vez de con palabras reales
incluidas en el vocabulario del sujeto, es decir, integrando la información visual y
fonológica, mientras que el sistema anterior se ocuparía de articular las palabras
(Schlaggar y McCandliss, 2007). Por su parte, en la ruta ventral numerosos estudios
reconocen la existencia de una zona en la corteza visual que se ocupa del reconocimiento
de palabras y que ha recibido el nombre de área para la forma visual de la palabra
(VWFA, del inglés Visual Word Form Area).

La ruta ventral discurre desde las áreas visuales hacia la corteza inferotemporal de
ambos hemisferios y se ocupa en su etapa inicial del procesamiento visual básico.
Posteriormente, y ya con una clara lateralización izquierda, se han identificado ciertos
circuitos en la porción media de la circunvolución fusiforme que responden
preferentemente a la presentación de palabras, mientras que no lo hacen o lo hacen más
débilmente a la presentación de otro tipo de estímulos (McCandliss et al., 2003), motivo
por el que se la denominó VWFA (Cohen et al., 2000). Actualmente son muchos los
trabajos que han confirmado la activación de esta zona en tareas lectoras, por lo que
parece haber un consenso bastante unánime acerca de su papel en el reconocimiento
visual de las palabras. En primer lugar, han comprobado un mayor incremento de la
actividad en esta área a la vista de cadenas de letras que ante cualquier otro estímulo en
similares condiciones y que este incremento de la actividad está relacionado con la
experiencia del lector; por ejemplo, comparando lectores expertos en hebreo o en inglés,
la VWFA solo se activa ante las letras de sus respectivos alfabetos (Baker et al., 2007).
Sin embargo, esta región, aunque se activa preferentemente ante cadenas de letras, no
permanece en silencio ante otros estímulos, lo que significa que ha tenido que haber una
reutilización de estos circuitos para dar soporte a esta habilidad, algo a lo que ya nos
hemos referido anteriormente. Parece entonces que esta área se ocuparía de
proporcionar un apoyo perceptivo especializado durante la lectura permitiendo el
reconocimiento rápido de palabras que forman parte del idioma del lector (Schlaggar y
McCandliss, 2007). De este modo, con la práctica suficiente no es necesario ir
procesando letra a letra el texto escrito, sino que se procesarían palabras completas
permitiendo así una mayor rapidez lectora.

283
Figura 12.5. Rutas lectoras.

El reconocimiento rápido de palabras es un aspecto importante de la habilidad lectora


de las personas, sin embargo, no lo es menos la capacidad para establecer asociaciones
rápidas y eficientes entre la representación visual de las palabras y sus correlatos
fonológicos. En este sentido, las conexiones occipitotemporales son determinantes para la
relación palabra-sonido, sobre todo en la porción temporal superior, donde se han
encontrado circuitos responsables de esta integración que responden a estímulos tanto
auditivos como visuales (Van Atteveldt el al., 2004). Nuevamente, para conseguir que
estos circuitos respondan de manera rápida y eficiente activando las asociaciones entre la
representación visual y fonológica de la palabra, es necesario un entrenamiento regular ya
que esta eficiencia solo se observa en lectores habituales. Es decir, la capacidad plástica
del SN va a permitir que, gracias a la práctica repetida, se configuren las conexiones
adecuadas en estos circuitos para soportar las necesidades de procesamiento que implica
el proceso lector. La práctica de la lectura induce cambios sinápticos en diferentes áreas
cerebrales que, con el paso del tiempo, permiten un rápido reconocimiento de las

284
palabras y el establecimiento de asociaciones fonológicas y semánticas precisas.

Lectura y escritura han progresado de manera pareja a lo largo de la evolución. Para


que alguien descifrara una serie de símbolos ordenados otro tuvo que dibujarlos antes,
pero al hacerlo, estaba pensando en quien lo descifraría. Parece un juego de palabras
pero representa la esencia que define al lenguaje escrito, plasmar mediante símbolos una
idea con la intención de que pueda ser aprovechada por otros. Si Dejerine fue el primero
en ocuparse del estudio de las alteraciones de la capacidad lectora, en el caso de la
escritura ese papel lo desempeñó Sigmund Exner (1846-1926). A partir del estudio de
pacientes con lesiones cerebrales observó algunos con dificultades para la escritura
(agrafia) que presentaban lesiones en la parte posterior de la circunvolución frontal media
del HI; a esa región se la conoce como área de Exner y se la ha considerado como el área
cerebral para la escritura. Estas afirmaciones tuvieron mucha repercusión entre la
comunidad científica que, debido a los trabajos de Broca unos años antes, estaba
predispuesta favorablemente hacia este tipo de estudios (Roux el al., 2010). Sin embargo,
estudios posteriores y una revisión sistemática de los trabajos del propio Exner han
cuestionado esta localización; la escritura es un proceso complejo que no parece que
pueda ser llevado a cabo por una única área cerebral. De hecho, participa casi todo el
cerebro (López-Escribano, 2012) ya que hay que considerar que la escritura implica
planificación de 1o que se va a escribir, ejecución del acto motor correspondiente y
verificación del proceso, todo lo cual requiere de la participación de circuitos corticales
ampliamente distribuidos.

A pesar de la dificultad técnica que supone el registro de la actividad cerebral durante


la escritura, las técnicas de neuroimagen han permitido identificar al menos tres regiones
que desempeñan un papel importante, la mencionada área de Exner (o localizaciones
aproximadas), la porción anterosuperior del lóbulo parietal izquierdo y una porción
inferior en la circunvolución supramarginal izquierda (Sugihara el al., 2006); no obstante,
también se ha encontrado activación, aunque parece menos determinante, en regiones
como el AMS o áreas cinguladas y tem porales. El uso de estas técnicas tampoco
resuelve el problema ya que los resultados no siempre son homogéneos. Otros trabajos
incluyen estructuras como el tálamo o el cerebelo y atribuyen una extensión diferente en
aquellas zonas sobre las que hay más consenso, las regiones frontales y parietales
izquierdas (Planton et al., 2013). Además de utilizar las técnicas de neuroimagen más
conocidas, también se han tratado de localizar los centros de la escritura mediante
estimulación directa de la corteza cerebral. Combinando estas técnicas se ha localizado
una región en la circunvolución frontal media que, aparentemente, sirve para convertir
códigos ortográficos en escritura; esta zona ha recibido el nombre de área frontal
grafomotora (GMFA, del inglés Graphemic Motor Frontal Area) (Lubrano et al., 2004;
Roux et al., 2009) y coincide en buena medida con la propuesta por Exner. Esta área
puede actuar como una especie de interfaz entre las representaciones ortográficas del
mensaje y la programación motora de los movimientos de la escritura que darán lugar a

285
trazos gráficos únicos, propios de cada individuo, aunque puedan ser legibles para
cualquier otro sujeto; es decir, una persona programa una ejecución motora personalizada
según su destreza (caligrafía) pero de acuerdo a unos códigos generales compartidos por
otros individuos. La actividad puramente motora de la escritura no deja de ser una
expresión de las destrezas manuales de cada individuo (dibujar símbolos) y, en ese
sentido, no ha sido necesario reutilizar circuitos inicialmente destinados a otro fin, es
suficiente con la práctica y el entrenamiento de los circuitos motores del brazo, la mano y
los dedos.

En cualquier caso, la escritura es algo más que mover los dedos de la mano con mayor
o menor destreza cuando sujetamos un lapicero. Por ese motivo, la región GMFA está
interconectada con regiones posteriores implicadas en la lectura y el reconocimiento de
palabras, incluida por supuesto la VWFA. Además, parece que la activación de estos
circuitos no depende de factores culturales u ortográficos específicos, sino que formarían
parte de un sistema generalizado o universal (Nakamura el al., 2012) ya que, por
ejemplo, igual se activan ante idiomas alfabéticos (español, francés, inglés...) que
ideográficos (chino, kanji japonés...). No obstante, la práctica y el entrenamiento son
requerimientos relevantes para el aprendizaje de la escritura ya que se trata de consolidar
los patrones motores que permiten la representación de las letras. Incluso en casos
excepcionales, también se pueden apreciar los efectos de la práctica; por ejemplo, el
aprendizaje de escritura en espejo utilizando la mano no dominante se puede conseguir a
través de entrenamiento que, como era de esperar, produce un incremento de la actividad
en las áreas lingüísticas equivalentes del HD (Kushnir el al., 2013). No es extraño ver
personas que han sufrido alguna lesión que afecte a su mano dominante adquirir
habilidades básicas con la mano no dominante, incluida la escritura.

12.3. Alteraciones del lenguaje


La tradición clínica de la neuropsicología ha hecho que cuando se trata de hablar de
trastornos del lenguaje desde esta perspectiva aflore inmediatamente el concepto de
afasia como ejemplo paradigmático de las alteraciones lingüísticas asociadas con un daño
cerebral. Sin embargo, en ámbitos como el educativo, existen otras alteraciones que
despiertan más interés por ser mucho más habituales. Si la afasia es característica en
adultos que han sufrido un daño cerebral sobrevenido, en el caso de niños es un cuadro
poco frecuente que no alcanza una prevalencia elevada en la etapa escolar. En este
entorno se detectan numerosas dificultades lingüísticas, sobre todo en el desarrollo del
habla o el aprendizaje de la lectura y la escritura, que han motivado un incremento en su
diagnóstico en los últimos años. Sin embargo, este incremento va asociado al riesgo de
detectar un elevado número de falsos positivos, como es el caso de la dislexia.

Por otro lado, el abordaje de los trastornos del lenguaje desde ámbitos diversos pero
cercanos como pueden ser la psicología, la pedagogía terapéutica o la logopedia ha
llevado a utilizar denominaciones que no siempre se refieren a una clasificación común y

286
pueden dar lugar a confusiones. Uno de estos ejemplos es el caso del trastorno específico
del lenguaje (TEL), también conocido como disfasia. La referencia a clasificaciones
clínicas como el DSM-V o el CIE-10 no resuelve el problema ya que, en ocasiones, el
solapamiento de síntomas hace difícil un diagnóstico diferencial que permita etiquetar
correctamente el trastorno. Por ese motivo, es recomendable valorar las necesidades
concretas de cada sujeto en lugar de intentar etiquetarlo adecuadamente. En este
apartado vamos a referirnos a tres tipos de trastornos del lenguaje de aparición frecuente
y sobre los que pesan algunas de estas circunstancias a las que nos hemos referido; el
objetivo es conocer aspectos básicos de los mismos para poder considerarlos en relación
con sus implicaciones educativas.

12.3.1. Síndromes afásicos


El concepto de afasia es antiguo y se trata de una alteración de la comprensión o de la
producción del lenguaje oral. A lo largo de la historia, este concepto ha sido definido de
múltiples maneras, pero sintetizando y para que se pueda considerar como tal, el
trastorno debe cumplir tres criterios:

-Que esté ocasionado por un daño cerebral sobrevenido.

-Que el daño cerebral ocurra después de que el sujeto haya adquirido el lenguaje.

-Que la alteración del lenguaje no se pueda explicar por problemas sensoriomotores,


trastornos mentales u otras causas no directamente relacionadas con la lesión
cerebral.

La afasia no es un trastorno homogéneo puesto que las lesiones cerebrales pueden


tener una localización y una extensión variables. Esto ha ocasionado una proliferación de
clasificaciones de los síndromes afásicos que, en ocasiones, no diferían sustancialmente
entre sí. Alfredo Ardila (2008), un neuropsicólogo que ha escrito mucho sobre afasias,
utiliza un criterio neuroanatómico para clasificarlas en función de donde se localice la
lesión cerebral responsable (cuadro 12.1). Por un lado, divide las afasias en perisilvianas,
ocasionadas por lesiones en las regiones corticales lingüísticas localizadas en torno a la
cisura de Silvio, y extrasilvianas, ocasionadas por lesiones corticales en regiones alejadas
de la cisura de Silvio. Por otro lado, las divide en prerrolándicas, lesiones localizadas por
delante del surco central o cisura de Rolando, y posrolándicas, cuando las lesiones que
ocasionan el trastorno se localizan caudalmente al surco central.

Cuadro 12.1. Clasificación de las afasias según Ardila

287
Veamos las principales manifestaciones clínicas de cada una de ellas según esta
clasificación:

-Afasia de Broca: la principal característica es un lenguaje expresivo alterado, no


fluido, con pobreza articulatoria y agramatismos. La comprensión está
relativamente conservada pero sin llegar a ser normal y con importantes diferencias
entre pacientes. La repetición está siempre alterada aunque también varía de unos
sujetos a otros.

-Afasia de Wernicke: la comprensión alterada es el rasgo más característico de este


cuadro aunque puede variar según el sujeto y la complejidad de las frases. El
lenguaje expresivo es relativamente normal aunque comete frecuentes parafasias,
neologismos y errores gramaticales. La repetición está alterada también de modo
similar a la comprensión.

-Afasia de conducción: la característica más representativa de esta afasia es la


alteración de la repetición, ya que los pacientes muestran un lenguaje espontáneo
fluido aunque con algunas parafasias y una comprensión razonablemente buena.
Según los casos, los pacientes pueden ser capaces de repetir algunas palabras
sueltas según sean más o menos familiares. Este tipo es uno de los más discutidos
por la abundancia de evidencias aparentemente contradictorias.

-Afasias extrasilvianas: las afasias extrasilvianas están producidas por lesiones en las
zonas que circundan las regiones perisilvianas; también se les conoce con el nombre
de transcorticales. Con unos cuadros clínicos similares a las de Broca y Wernicke,
no suelen mostrar una sintomatología tan severa, lo que hace que, junto a la de
conducción, se les considere como síndromes menores (Marshall et al., 1998).
Lógicamente, las manifestaciones clínicas van a variar dependiendo de dónde se
localice la lesión, por eso de manera genérica se las denomina extrasilviana motora
y extrasilviana sensorial, pero con la peculiaridad de que en ambos cuadros está
conservada la repetición.

En esta breve exposición de los principales síndromes afásicos no se han considerado


otras manifestaciones clínicas lingüísticas y no lingüísticas que suelen acompañarlos.
Lógicamente, los trastornos afásicos cursan con alteraciones de lectura (alexias) y
escritura (agrafias) de diferente magnitud y cualidad. Por ejemplo, la lectura en voz alta
está severamente alterada en pacientes con afasia de Broca pero conservan una

288
capacidad de comprensión lectora relativamente buena, algo que no ocurre en pacientes
con afasia de Wernicke. En el caso de la escritura también hay diferencias, no solo entre
los síndromes (mayor alteración en la afasia de Broca) sino también entre pacientes con
un mismo cuadro clínico. No olvidemos que las lesiones cerebrales responsables de las
afasias afectan a circuitos cerebrales que se ocupan de procesos más allá de lo
estrictamente lingüístico.

A la hora de considerar los síndromes afásicos surgen una serie de problemas que no
se pueden obviar (Caplan, 2002). Una de las principales limitaciones en el estudio de
estos síndromes es que abordan la capacidad o no de los sujetos afectados para realizar
tareas lingüísticas complejas contempladas como un todo (comprensión, producción...)
más que analizar su habilidad en tareas específicas dentro del sistema global de
procesamiento lingüístico. Por otro lado, no es fácil clasificar a los pacientes de acuerdo a
estas tipologías porque es difícil encontrar perfiles bien definidos que se ajusten a estos
modelos, lo que lleva a desacuerdos acerca de la calificación de un paciente. Pero quizá
el problema que provoca un cuestionamiento más claro de esta taxonomía es que la
correlación entre las alteraciones y la localización de las lesiones no es todo lo precisa que
establece la teoría. Hay que ser extremadamente cautos a la hora de considerar de
manera estricta estos cuadros que, si bien son útiles para sistematizar el conocimiento,
han demostrado serlo menos para caracterizar de manera indiscutible los diferentes casos
clínicos y hacer predicciones al respecto (Kasselimis et al., 2012).

12.3.2. Dislexia
La dislexia es un trastorno del aprendizaje que afecta a la adquisición de la lectura, por
lo que los niños (o adultos) que la padecen poseen un nivel lector que no concuerda con
su nivel cognitivo e intelectual en general. Según Lyon et al., (2003), la dislexia es un
alteración específica del aprendizaje de origen neurobiológico; se caracteriza por
dificultades en el reconocimiento de palabras de manera precisa y fluida, mala ortografía
y dificultades de descodificación. En general, estas dificultades se deben a una alteración
en el componente fonológico del lenguaje que no está en concordancia con las
habilidades cognitivas ni con el nivel cognitivo del sujeto. Se considera este trastorno
cuando hay un nivel lector por debajo del esperado de acuerdo a la edad o al nivel
intelectual y educativo. Es en este aspecto en el que no hay acuerdo porque la diferencia
entre el cociente intelectual y el nivel lector no siempre es un buen indicador ya que hay
otros factores que pueden estar condicionándola en uno u otro sentido, es decir, pueden
concurrir factores que aumenten o disminuyan esa distancia sin que eso tenga que ver
con la gravedad del cuadro disléxico (Artigas-Pallarés, 2011).

A lo largo de las últimas décadas han surgido diversas teorías que tratan de explicar los
déficits cognitivos en la dislexia (ver Ramus et al., 2003):

-Teoría del procesamiento auditivo rápido (Tallal, 1980 y 2000). Según esta teoría, la

289
lectura implica la capacidad para detectar y discriminar de manera eficiente
secuencias de sonidos presentadas rápidamente. Las dificultades en el
procesamiento auditivo rápido provocan una discriminación defectuosa de los
fonemas, algo que ocurre en los disléxicos.

-Teoría visual (Livingstone et al., 1991; Lovegrove et al., 1980). Se basa en la


existencia de dificultades sensoriales concretas en el procesamiento visual de letras
y palabras escritas. Una variante de esta teoría es la magnocelular, que hace
referencia a esta vía visual, y cuya alteración impediría el adecuado procesamiento
de las secuencias de letras.

-Teoría cerebelar (Nicolson et al., 2001). El cerebelo juega un papel importante en el


aprendizaje motor y en la automatización de los patrones motores aprendidos. Esta
teoría sostiene que la lectura es un proceso que incorpora componentes motóricos
automáticos, por lo que la disfunción cerebelosa afectaría a su adquisición.

-Teoría fonológica (Ramus et al., 2003). Considera que la dificultad básica en los
disléxicos es la dificultad para asociar letras (representaciones gráficas de los
sonidos del lenguaje) y fonemas (representaciones mentales de los sonidos del
lenguaje). Esta teoría es la que tiene un mayor respaldo empírico y considera la
dislexia como un problema de aprendizaje de una habilidad lingüística y no un
problema visuoperceptivo (Artigas-Pallarés, 2011).

En un buen número de estudios realizados con diferentes técnicas de neuroimagen se


han encontrado muchas diferencias anatómicas y funcionales entre el cerebro de
disléxicos y no disléxicos (ver Sun et al., 2010). Se ha observado una reducción del
volumen de sustancia gris en las circunvoluciones temporal superior y fusiforme de
ambos hemisferios, en la circunvolución supramarginal derecha y en otras estructuras
como el tálamo, el núcleo caudado y el cerebelo. Aunque con datos más contradictorios,
parece que un porcentaje importante de disléxicos tiene alterada la asimetría del plano
temporal y muestra menor densidad de fibras en áreas del cuerpo calloso. El plano
temporal es una región adyacente a la corteza auditiva primaria que suele ser algo mayor
en el HI que en el HD, sin embargo en el disléxico se han encontrado tanto una
disminución como una inversión de esta asimetría. Con técnicas funcionales se ha visto
una disminución de la activación en áreas temporoparietales del HI y un incremento de la
actividad en el HD. Por último, mediante tractografia cerebral se ha puesto de manifiesto
una alteración generalizada de la conectividad cerebral (Steinbrink et al., 2008).

En línea con la teoría de la doble ruta, Shaywitz et al., (2002 y 2005) sostienen que la
dislexia está ocasionada por una disfunción del circuito lector posterior, afectando a las
regiones corticales parietotemporal y occipitotemporal, entre las que incluyen las áreas de
integración fonográfica y la VWFA. Este tipo de alteración en áreas posteriores parece
ser la causa de la dislexia tanto en lenguajes alfabéticos como logográficos (Ziegler,

290
2006), demostrando que la asociación entre símbolos y sonidos que tiene lugar en estos
circuitos no se refiere solamente a letras y palabras. Shaywitz y su grupo proponen una
explicación sobre lo que ocurre en el cerebro de niños y adultos disléxicos cuando tienen
que leer. Los niños sin dificultades lectoras echan mano con éxito del sistema lector
posterior, pero el fallo en estos circuitos en el cerebro de niños disléxicos hace que
recurran a mecanismos de compensación funcional reclutando para ello a circuitos
frontales inferiores y regiones del HD. Los circuitos frontales (incluyendo el área de
Broca) son fundamentales para la articulación de las palabras (Fiez y Peterson, 1998) así
que podrían ayudar al circuito lector posterior en la tarea de asignación fonológica a las
palabras escritas. La articulación subvocal, silabear en voz baja, podría ayudar al niño
disléxico a incrementar su conciencia fonológica de la palabra que está leyendo,
facilitando su aprendizaje lector, aunque fuera de un modo más lento y menos eficiente
que cuando se hace mediante el sistema de identificación de las palabras en los circuitos
posteriores. Al fin y al cabo, tanto durante la adquisición de la lectura en niños normales
como al enfrentarse a palabras complejas o novedosas los adultos lectores, se echa mano
de ese sistema de apoyo. Por su parte, el incremento de la actividad en las regiones
frontales de ambos hemisferios y la activación de otras áreas en el HD podría ser un
intento de apoyo en otros procesos perceptivos que compensen sus dificultades
fonológicas. Estos mecanismos de compensación parecen consolidarse con el paso del
tiempo, ya que las áreas implicadas muestran una mayor activación en disléxicos adultos
que en niños. El uso y la práctica con estos mecanismos es lo que les permite alcanzar un
cierto grado de habilidad lectora pero sin llegar nunca a ser lectores expertos.

12.3.3. Trastorno específico del lenguaje


El trastorno específico del lenguaje (TEL) es una alteración del desarrollo que se
caracteriza por dificultades en la producción y la comprensión del lenguaje en niños que
muestran un desarrollo relativamente normal en otros ámbitos y no presentan dificultades
sensoriomotoras, daño neurológico evidente, retraso mental o estados de privación
socioafectiva y educativa que pudieran explicar el problema. Esta denominación se utiliza
en la actualidad como un sustituto de progresiva implantación del término disfasia.
Además de este término, también ha recibido denominaciones como alteración del
lenguaje, trastorno del aprendizaje del lenguaje, trastorno del desarrollo del lenguaje,
retraso en el habla o disfasia del desarrollo, lo que nos da una idea de la complejidad
diagnóstica que encierra este cuadro. Este trastorno tiene un componente hereditario muy
marcado pero sigue patrones complejos en los que intervienen factores de riesgo
genéticos y ambientales (Bishop, 2009), por lo que resulta dificil identificar las causas
precisas para intervenir sobre ellas o realizar acciones preventivas. Los intentos de
documentar una base genética para ciertas alteraciones del lenguaje cuentan con un
importante apoyo en la familia KE, una familia en la que un alto porcentaje de sus
miembros presentan una alteración lingüística que se asemeja mucho al TEL. Los
trastornos del habla y del lenguaje que presentan algunos sujetos de esta familia se han
relacionado con una mutación de un gen localizado en el cromosoma 7 y que se

291
transmite según un patrón autosómico dominante, el gen FOXP2 (Lai et al., 2001). La
principal manifestación es una dispraxia verbal aunque algunos de los miembros
afectados muestran también otras alteraciones lingüísticas y un rendimiento por debajo
de lo esperado en otros procesos cognitivos. Aunque en sentido estricto no se trata de un
TEL, las similitudes que muestran en algunas de las dificultades del lenguaje han llevado
a considerar a esta familia como un referente clínico en el estudio de los problemas del
lenguaje.

Las investigaciones que tratan de identificar alteraciones cerebrales responsables de


este trastorno se han centrado en dos direcciones; por un lado, comprobar la existencia
de alteraciones estructurales o funcionales en las áreas lingüísticas perisilvianas y, por
otro, constatar la existencia de asimetrías interhemisféricas en ellas. Una de las zonas
claramente afectadas es la circunvolución frontal inferior (área de Broca) en la que se ha
encontrado tanto una reducción de su volumen como una asimetría anormal (De Fossé el
al., 2004; Gauger el al., 1997). Esta alteración de la asimetría a favor del HD también se
ha observado en las áreas lingüísticas posteriores, especialmente en el plano temporal y
en las áreas perisilvianas temporoparietales (Herbert el al., 2005). Básicamente, la
conclusión que se puede extraer de estos estudios es que la configuración anormal de las
áreas lingüísticas puede ser una consecuencia de la alteración genética que subyace a este
trastorno y la responsable de las alteraciones del lenguaje propias del mismo.

Con diversas técnicas funcionales se encontró una simetría anormal o una asimetría
funcional a favor del HD en adultos con TEL persistente comparados con controles (Ors
et al., 2005; Whitehouse y Bishop, 2008), algo que parece ser una constante en este tipo
de sujetos. Un estudio con técnicas estructurales y funcionales simultáneamente
(Badcock et al., 2012) comparó varios parámetros cerebrales en niños con TEL, sus
hermanos no afectados y sujetos control sin ninguna relación con los anteriores cuando
realizaban diferentes tareas lingüísticas. Encontraron resultados relevantes en áreas
lingüísticas anteriores (incluida área de Broca) y posteriores (incluida área de Wernicke)
del HI. Así, en las regiones anteriores los sujetos TEL tenían un volumen mayor de
sustancia gris que sus hermanos no afectados y que los controles, sin embargo, aquellos
mostraron una menor activación de estas áreas corticales durante la ejecución de las
tareas. El patrón disfuncional en las regiones posteriores fue ligeramente distinto, tanto el
volumen de sustancia gris como el grado de activación fueron menores en los sujetos
TEL. También observaron diferencias en estructuras subcorticales como el núcleo
caudado y el putamen, sin embargo, no encontraron ningún área cerebral que mostrase
mayor grado de activación (como vimos en disléxicos), lo que hubiera podido
interpretarse como un mecanismo cerebral para compensar la discapacidad funcional de
los circuitos del HI (Badcock et al., 2012).

Hemos visto tres ejemplos de alteraciones lingüísticas adquiridas o del desarrollo en las
que se pone de manifiesto que cualquier anomalía en los circuitos cerebrales responsables
del lenguaje se traduce en dificultades comunicativas. Sin embargo, también hemos visto

292
cómo el cerebro es capaz de desarrollar mecanismos de compensación que puedan paliar
en parte las dificultadas producidas por un trastorno y permitir la adquisición de
habilidades básicas que permitan la autonomía lingüística en la vida cotidiana. Es el
terreno sobre el que se deben diseñar las intervenciones encaminadas a la recuperación o
a la correcta adquisición de las funciones del lenguaje.

293
294
El estudio de las emociones en psicobiología y neurociencia ha estado bastante
relegado hasta no hace muchos años por diferentes motivos. Aparte de las dificultades
metodológicas que implica su estudio, es posible que uno de los motivos más relevante
sea el hecho de que tradicionalmente se ha considerado a las emociones como el polo
opuesto a la razón, proceso cognitivo de presunto máximo nivel frente al cual aquellas no
eran más que respuestas primitivas. Sin embargo, en la actualidad está superada esta
creencia ya que se considera a las emociones como motor fundamental de aspectos
básicos del comportamiento humano como la toma de decisiones. Hay diversos motivos
por los que las emociones deben ser consideradas como objeto de estudio preferente;
Damasio (1998) propone cuatro:

-En organismos complejos, las emociones son la expresión directa de más alto nivel de
los procesos de biorregulación tanto interna como en interacción con el entorno
(físico y social) en el que se desenvuelve.

-Son fundamentales para la supervivencia (sin miedo, afrontamos peligros que pueden
costamos la vida), motivo que por sí solo justificaría su interés para los humanos.

-Importantes en los procesos de memoria y aprendizaje, principal objeto de estudio en


psicobiología y neurociencia. Emoción y memoria están estrechamente unidas y no
se puede entender la una sin la otra.

-A pesar de las viejas creencias, las emociones juegan un papel relevante en el


razonamiento y la toma de decisiones, desde las aparentemente más elementales
hasta aquellas que implican consecuencias a medio y largo plazo. Además las
emociones también intervienen en la configuración de nuestro sistema de creencias
y en el desarrollo de principios que van a guiar nuestra conducta.

Parece que estos argumentos son suficientes para justificar el estudio de las
emociones, pero podríamos añadir otras consideraciones. Durante las etapas iniciales del
desarrollo, las emociones juegan un papel fundamental en la configuración de la
personalidad y el estilo cognitivo del niño. Durante la etapa educativa, centramos todo el
esfuerzo en el entrenamiento de habilidades vinculadas con el pensamiento lógico y la

295
razón (lengua, matemáticas...) o con el almacenamiento de datos (actualmente, no parece
prioritario aprenderse los ríos y recitarlos de memoria) y descuidamos el desarrollo
emocional, algo que también requiere aprendizaje, dejándolo a los vaivenes del azar en la
interacción social. Porque las emociones son fundamentales para la vida en sociedad y su
desarrollo o aprendizaje defectuosos son causa de trastornos mentales y sociopatías.

13.1. Emociones y sentimientos


Seguro que todos hemos experimentado miedo, tristeza o alegría en alguna ocasión y
reconocemos esas sensaciones con facilidad. El problema surge cuando tenemos que
definir, o simplemente explicarle a otro, qué es lo que estamos experimentando. Es difícil
definir qué son las emociones. Son reacciones adaptativas filogenéticamente antiguas, de
signo positivo o negativo, que experimentamos cuando nos enfrentamos a situaciones y
estímulos concretos; o también, estados del organismo producidos por la exposición a
refuerzos y castigos (Rolls, 2006); una más, esquemas de acción que preparan al
organismo para ejecutar conductas que son importantes o necesarias para la
supervivencia (Lave y Nadel, 2000). Podemos echar mano de otras definiciones
tentativas, pero nos arriesgamos a que cualquiera de ellas no tome en consideración los
múltiples matices de la experiencia emocional.

Para avanzar en su estudio debemos comenzar por diferenciar entre emoción y


sentimiento, términos que utilizamos frecuentemente como sinónimos. Es necesario
identificar los componentes básicos que intervienen en estos procesos y segregarlos
funcional y operativamente para su estudio. La emoción podemos considerarla como una
respuesta primaria del organismo a estímulos externos o internos que involucra a
componentes neurovegetativos del SN. Por su parte, los sentimientos son el resultado de
la experiencia subjetiva generada a partir de la representación mental de ese estado
neurofisiológico básico. Las emociones son respuestas con un componente reflejo
importante, mientras que los sentimientos incorporan una buena proporción de
aprendizaje. Primero experimentamos el estado emocional y con el paso del tiempo
aprendemos a ponerle nombre, a diferenciarlo e incluso a anticiparlo, pasos previos a la
capacidad de modularlo y adaptarlo a las situaciones.

Entonces, una forma de comprender la experiencia emocional es considerar los


componentes que la integran por separado, puesto que no se trata de un proceso unitario
ni de un estado corporal homogéneo. La mayoría de los autores coinciden en que las
emociones se pueden considerar como un estado autonómico, endocrino y cognitivo en
el organismo que relaciona la percepción de un estímulo con una respuesta adaptativa
(Davidson y Sutton, 1995; Heilman, 1997; Rolls, 1990). No obstante, aunque según qué
autores se pueden considerar más o menos componentes, hay tres que son
unánimemente aceptados:

-Fisiológico. Referido a la actividad del SNA y a las modificaciones que se producen a

296
nivel hormonal y visceral. Una respuesta emocional implica cambios en la tasa
cardiaca, la respiración, la presión arterial o la actividad del sistema digestivo entre
otros y liberación de hormonas que pueden afectar al cerebro y, por tanto, al modo
en que sus circuitos reaccionan en este estado.

Motor.Conductas propias de la especie que se asocian con el estado emocional de


base. La expresión facial, el tono de voz o la postura corporal son indicadores del
estado emocional. Son la etiqueta observable que muestra el sujeto que experimenta
una emoción y que permite a los demás obtener información acerca de lo que está
experimentando. Cada especie posee su propio repertorio, pero hay
comportamientos con una vinculación filogenética clara. Por ejemplo, la
paralización o la huida son respuestas propias de diferentes especies, incluida la
humana, como reacción al miedo.

-Cognitivo. Lo más parecido a lo que conocemos como sentimientos. Hace referencia


al componente subjetivo de la emoción, a la representación mental que crea nuestro
cerebro acerca de un estado somático determinado. Esta representación mental
incluye la representación del propio estado corporal (latido cardiaco o tensión
muscular), la representación acerca del estímulo que lo ocasiona y la información
almacenada en nuestra memoria referida a eventos similares y sus consecuencias.

Es posible añadir otros componentes si consideramos también la utilización que de


estos estados emocionales hace el cerebro (ciertas áreas) para planificar la conducta o
para sacar conclusiones de cara al futuro. Sin embargo, este aspecto está más relacionado
con componentes ejecutivos que toman en cuenta la experiencia emocional para guiar la
conducta. También podríamos incluir componentes motivacionales, pero podemos hacer
la misma consideración, la motivación puede ser el resultado de un estado emocional de
signo negativo (necesidad) presente o anticipado que lleva a la puesta en marcha de una
conducta para satisfacer esa necesidad.

¿Cuántas emociones puede experimentar un ser humano? La actividad fisiológica y


endocrina que se manifiesta en los diferentes estados emocionales es bastante similar y
con un solapamiento importante (el miedo, el enfado o la sorpresa producen taquicardia),
por lo que no es un criterio fiable para clasificar las diferentes emociones. A pesar de
todo, hay un modo de averiguar con bastante certeza el estado emocional básico de una
persona: la expresión de su cara. Paul Ekman y W.V.Friesen (1975) comprobaron que
estas expresiones faciales son prácticamente universales, por lo que es de suponer que los
estados emocionales que las provocan también lo son. A partir de los trabajos de Ekman
y otros posteriores en la misma dirección, hay un acuerdo generalizado acerca de que las
emociones básicas son seis: alegría, tristeza, ira (enfado), miedo, asco y sorpresa; por
supuesto que en seres humanos podemos identificar otras muchas, pero con un matiz
más complejo que sería el resultado de diferentes combinaciones de las seis emociones
básicas. Por ejemplo, la nostalgia puede incorporar aspectos tristes y alegres o los celos

297
miedo y enfado. En realidad, las emociones más complejas (culpa, desconfianza,
esperanza, orgullo...) se pueden considerar dentro del ámbito de los sentimientos, es
decir, representaciones mentales o experiencias subjetivas que configuramos a partir de
las sensaciones corporales y de los componentes sensoriales y cognitivos que concurren.

Las expresiones faciales son respuestas automáticas que, aunque se pueden inhibir, son
difíciles de ejecutar de manera voluntaria. Cualquier persona es capaz de detectar
expresiones fingidas, incluso de manera inconsciente, por ejemplo, cuando alguien nos
habla y el tono emocional de sus palabras y la expresión facial no son concordantes,
desconfiamos de lo que escuchamos ("parece muy simpático, pero hay algo... no sé").
Guillame Duchenne (1806-1875) ya reflexionó sobre las expresiones genuinas y las
fingidas. Afirmaba que la sonrisa fingida implica la actividad del músculo cigomático
(estira las comisuras de los labios), el cual es fácilmente controlado de manera voluntaria;
por el contrario, la sonrisa genuina requiere además la contracción de los músculos
orbiculares (rodean la cuenca de los ojos), por lo que para diferenciarlas hay que prestar
atención a esta parte de la cara. Además, entre las expresiones faciales y el estado
emocional que las ocasiona hay una cierta retroalimentación como bien conocen los
profesionales de la salud mental. Hagamos un sencillo experimento casero, cuando
tengamos un mal día y estemos enfadados o preocupados, situémonos frente al espejo
esbozando una sonrisa (solo forzando el cigomático) y mantengámosla unos minutos;
mirando al tipo del espejo, pronto notaremos cómo los orbiculares se tensan solos y
nuestro estado emocional tiende a mejorar. También podríamos probar el ejemplo
contrario, cuando estemos alegres ensayar una cara de enfado, pero no lo recomiendo
porque funciona.

13.1.1. Teorías de la emoción


A lo largo de la historia de la psicobiología ha habido varios intentos de explicar cómo
se producen las emociones. Charles Darwin (1809-1882) es mundialmente conocido por
su obra El origen de las especies, sin embargo, también publicó en 1872 una obra menos
conocida por el público en general pero de una transcendencia fundamental en el estudio
de las emociones, La expresión de las emociones en el hombre y los animales. En ella
abordaba este tema desde una perspectiva evolucionista y contemplaba la posibilidad de
que existieran nexos evolutivos comunes que explicarían su expresión conductual en
diferentes especies. Desde un acercamiento más psicológico, William James (1842-1910)
también se ocupó del estudio de las emociones y llegó a la conclusión de que no eran
más que cambios en la fisiología corporal en respuesta a estímulos con carga afectiva.
Sus reflexiones, junto con las efectuadas por Carl G.Lange (1834-1900) en la misma
dirección y de modo aparentemente independiente, dieron lugar a la teoría o modelo de
JamesLange. Este modelo propone que la presencia de un estímulo, en función de los
registros almacenados en nuestra memoria, provoca una serie de cambios fisiológicos que
la corteza cerebral interpreta como un sentimiento (experiencia emocional). Por ejemplo,
la visión de una serpiente ocasiona una activación fisiológica (taquicardia, sequedad de

298
boca, respiración agitada...) que provoca el sentimiento de miedo. Esta teoría, según su
concepción inicial, era errónea; sin embargo, a la luz de descubrimientos posteriores, ha
adquirido relevancia porque se ha comprobado la importancia que tienen las sensaciones
corporales en el desarrollo de las emociones, sobre todo, las de carácter negativo (Tyrer,
1973). Además, fue precursora de otros planteamientos actuales que intentan explicar la
experiencia emocional.

Años más tarde, Walter B.Cannon (1871-1945) planteó una serie de objeciones al
modelo de James-Lange, como que la activación fisiológica es muy similar en diferentes
emociones y que los cambios corporales son relativamente lentos comparados con la
reactividad emocional; por tanto, la activación fisiológica por sí misma no es suficiente
para provocar el sentimiento emocional. Además, consideraba que los sentimientos y la
activación fisiológica eran componentes independientes de las emociones (Friedman,
2010). Sus ideas fueron complementadas por su discípulo Philip Bard (1898-1977)
dando lugar a la teoría de Cannon-Bard, según la cual, la percepción de un estímulo
provoca simultáneamente dos reacciones, la activación fisiológica y un sentimiento o
experiencia subjetiva acerca del significado emocional de ese estímulo. Según este
modelo, la percepción de la serpiente provoca simultáneamente taquicardia y sensación
de miedo. También esta teoría fue cuestionada al demostrar que, por ejemplo, la
inyección intravenosa de colecistoquinina provoca reacciones muy intensas de ansiedad
(Harro y Vasar, 1991). Actualmente, se considera que también la percepción del estímulo
puede verse influida por el estado emocional o por una activación fisiológica no
relacionada con el estímulo; por ejemplo, para alguien a quien asusta el campo cualquier
palo en el suelo puede parecerle una serpiente. Por otro lado, una activación fisiológica
puede provocar que le atribuyamos un carácter amenazador a un estímulo neutro; por
ejemplo, alguien que experimenta un cuadro de malestar (mareo, náuseas...) en un
ascensor por cualquier motivo, puede desarrollar miedo condicionado (fobia) y convertir
el ascensor en un estímulo amenazador.

Recientemente ha habido un resurgimiento del modelo de James-Lange porque se


considera un punto de partida para la teoría del marcador somático, propuesta por
Damasio (1996 y 2011). Las emociones serían el resultado de la interacción entre áreas
corticales que almacenan las representaciones de los estados corporales (de la activación
fisiológica correspondiente), las que procesan y almacenan las representaciones
perceptivas y las que vinculan las dos anteriores para generar la experiencia emocional
(sentimiento). Los marcadores somáticos serían los circuitos que vinculan las situaciones
experimentadas previamente y almacenados con su correspondiente etiqueta emocional
(corteza cerebral y amígdala sobre todo) y las representaciones corticales de los estados
corporales (por ejemplo, en la corteza somatosensorial o la ínsula). Un trabajo de Craig
(2004) demuestra que la percepción del ritmo cardiaco en humanos es procesada por la
región anterior de la ínsula del HD. Según este trabajo, el tamaño y la actividad de esta
región cerebral correlacionan positivamente con la propia consciencia corporal del sujeto

299
y su capacidad emocional (su sensibilidad emocional). Según esta teoría, los circuitos que
soportan los marcadores somáticos se localizarían en la región ventromedial del lóbulo
frontal, ya que su lesión ocasiona una severa alteración de la capacidad de los sujetos
para tomar decisiones razonables (Bechara, 2004; Reimann y Bechara, 2010), lo que
hace que actúen de manera impulsiva. Damasio pone el énfasis en el papel que
desempeñan las emociones en la toma de decisiones ya que, contrario a la propuesta de
James-Lange, sí contempla la influencia inconsciente que los estados corporales tienen
sobre las decisiones que guían nuestra conducta.

13.2. Sistemas cerebrales de la emociones


A pesar de algunos tímidos intentos previos, la primera propuesta de un circuito
cerebral que soportara las emociones vino de la mano de James Papez (1883-1958),
quien formuló en 1937 un modelo de conectividad entre regiones cerebrales que
supuestamente eran las responsables de la experiencia emocional. Propuso que un
estímulo sensorial que llega al tálamo sigue desde ahí dos rutas, la del pensamiento y la
del sentimiento (Dalgleish, 2004). La ruta del pensamiento proyecta a regiones corticales,
especialmente a la corteza cingulada, de manera que las sensaciones se convierten en
percepciones, pensamientos y recuerdos. Por su parte, la ruta del sentimiento proyecta al
hipotálamo (a los cuerpos mamilares) lo que permite la puesta en marcha de la respuesta
fisiológica de la emoción mediante la activación de proyecciones descendientes al tronco
del encéfalo y la médula espinal. Además, el hipotálamo también proyecta a la corteza
cingulada a través del núcleo anterior del tálamo. El circuito se cierra con las
proyecciones desde la corteza cingulada al hipocampo y de este a los cuerpos mamilares
para efectuar un control cortical sobre la actividad emocional. Aunque algunas
estructuras y circuitos incluidos por Papez participan en las emociones, no todas parecen
fundamentales en estos procesos.

A partir de las propuestas de Papez, Paul D.MacLean (1913-2007) elabora un modelo


neuroanatómico de las emociones con algo más de soporte empírico. MacLean integró el
modelo de Papez con algunas ideas de las teorías ya existentes para formular su
propuesta, pero uno de los descubrimientos que más le influyó fue el realizado por
Heinrich Kluver y Paul Buey cuando produjeron experimentalmente el síndrome que
lleva su nombre. El síndrome de Kluver-Bucy consiste en la extirpación experimental de
la parte rostromedial de ambos lóbulos temporales, lo cual ocasiona ausencia de
reactividad emocional entre otras manifestaciones anómalas. El aspecto más relevante de
estos trabajos, y que sirvió a MacLean para su propuesta, es la implicación de los lóbulos
temporales en la emoción (Dalgleish, 2004). Denominó límbico (del latín limbus: borde,
frontera) al circuito que describió porque abarca estructuras que separan las porciones
troncoencefálicas más antiguas del SNC de otras áreas filogenéticamente más nuevas
como la corteza cerebral (figura 13.1).

300
Figura 13.1. Estructuras más relevantes del sistema límbico.

En este modelo el hipocampo sería la estructura principal ya que, al recibir aferencias


de toda la corteza, podría integrar información interoceptiva y exteroceptiva para
configurar la experiencia emocional. A pesar de ciertas críticas, el concepto de sistema
límbico sigue vigente y se utiliza como referente del cerebro emocional, sin embargo, ha
sido revisado ampliamente (LeDoux, 1999) porque algunas de sus estructuras juegan un
papel distinto al asignado por MacLean y no se considera que ese conjunto de estructuras
actúe como una unidad funcional.

A partir del síndrome de Kluver-Buey, Weiskrantz (1956) demostró que la estructura


responsable de los cambios emocionales que se producían en las lesiones del lóbulo
temporal medial era la amígdala, ya que su lesión bilateral provocaba la mayoría de los
signos del síndrome. Este estudio y otros similares confirmaron que la amígdala era una
estructura en el sistema límbico y que juega un papel relevante en la conducta emocional,
especialmente en el miedo.

13.2.1. Amígdala y corteza prefrontal

301
Durante mucho tiempo, los estudios sobre las bases cerebrales de las emociones se
limitaban a estructuras subcorticales, quizá debido al hecho de que estos procesos
estaban considerados como respuestas primarias que además, metodológicamente, era
complicado estudiarlas. Sin embargo, en las últimas décadas esta tendencia se ha
invertido, el papel de la corteza cerebral en las emociones ha cobrado relevancia
científica y ahora el abordaje de la experiencia y la conducta emocional ha despertado un
mayor interés. También, el estudio de las emociones se ha visto obstaculizado por la
abundancia de constructos psicológicos difíciles de operativizar para su utilización en
modelos animales (LeDoux, 2000) por lo que se ha recurrido a un tipo de conducta
emocional cuyas manifestaciones conductuales son fácilmente identificables en diferentes
especies, el miedo.

La amígdala está considerada como la principal estructura dentro de los circuitos


cerebrales relacionados con las emociones. Las lesiones de la amígdala ocasionan
diferentes alteraciones como menor reactividad emocional, dificultad en el
reconocimiento de expresiones faciales o distorsiones en la memoria emocional. Como ya
vimos en el capítulo 6, el núcleo basolateral recibe proyecciones de áreas corticales que
transmiten información sensorial e interoceptiva y el núcleo central proyecta al
hipotálamo, responsable de las conductas neurovegetativas que se asocian con las
respuestas emocionales. En ese sentido, la amígdala se encuentra en un cruce de
conexiones fundamental para la conducta emocional, especialmente para conductas
desagradables o potencialmente amenazadoras, y se la ha vinculado de manera especial
con el miedo (LeDoux, 2003; Loughead et al., 2008).

El miedo es una respuesta emocional básica ante cualquier amenaza que nos hace
tomar precauciones y prevenir potenciales peligros. Una de las características relevantes
en el síndrome de Kluver-Buey es la ausencia de miedo por parte de los animales
experimentales. Estímulos que antes de la operación provocaban respuestas de pánico
(por ejemplo, una serpiente de goma agitada por el experimentador), después de la
extirpación de la amígdala se convertían en juguetes que el animal exploraba con
curiosidad como con cualquier otro objeto dentro de su radio de acción. El miedo ha sido
un motor evolutivo fundamental ya que ha permitido la supervivencia; tanto es así que es
posible emitir respuestas emocionales ante un estímulo potencialmente dañino antes casi
de ser conscientes de su presencia. Esto ocurre gracias a la vía directa que hay entre el
tálamo y la amígdala que permite una rápida reacción que minimice el daño ante el
peligro, antes incluso de que las áreas corticales procesen el estímulo y le atribuyan
significado. Seguro que en alguna ocasión hemos dados un respingo ante una sombra o
un objeto que luego ha resultado ser inocuo. Cuando se produce una asociación
inadecuada entre la respuesta de miedo y determinados estímulos no peligrosos o
amenazantes estamos ante lo que se conoce como miedo condicionado (respuesta
emocional condicionada), es una fobia. La amígdala es importante para el aprendizaje
por condicionamiento emocional, pero su lado oscuro es la aparición de conductas

302
fóbicas (Demenescu et al., 2013; Schweckendiek, et al., 2011). En la mayoría de los
casos, las fobias se adquieren y se mantienen de acuerdo con los principios del
condicionamiento clásico, por asociación entre estímulos, y esos mismos principios son
los que se utilizan para corregirlas. De hecho, una de las técnicas más efectivas para
intervenir en estos problemas, la desensibilización sistemática, se basa en un
contracondicionamiento progresivo, es decir, asociar el estímulo fóbico con parámetros
fisiológicos contrarios a los del miedo, básicamente relajación.

Cuando se abandonaron los postulados que relacionaban las emociones con respuestas
básicas propiciadas por estructuras subcorticales y se buscó la implicación de áreas
corticales, la primera candidata fue la CPF. Dado que no existen dudas de la relevancia
que tienen las emociones a la hora de tomar decisiones y, en general, en la regulación de
la conducta, era lógico pensar que los circuitos tradicionalmente vinculados con las
emociones (estructuras límbicas) debían estar conectados con aquellos de nivel superior
que controlan el comportamiento, esto es, la CPF. Una de las evidencias más
contundentes fue proporcionada por las consecuencias del peculiar daño cerebral sufrido
por Phineas Gage, el segundo caso clínico más citado en la historia de la neuropsicología
después de Henry Molaison (H. M.). Phineas Gage trabajaba como capataz en la
construcción del ferrocarril en Estados Unidos y un día, colocando un barreno de pólvora
para volar unas rocas por donde debía discurrir el trazado de la línea, la barra de hierro
que utilizaba como atacador provocó una chispa haciendo que la pólvora estallara. La
barra metálica salió disparada como un proyectil y penetró en la cara de Gage por debajo
del pómulo y salió por la parte superior de su cabeza. Afortunadamente, sobrevivió al
accidente y, sorprendentemente, se recuperó en pocas semanas, sin embargo, algo
cambió en su forma de comportarse. Antes del accidente era un tipo responsable,
ordenado y sensato, pero se convirtió en un sujeto impulsivo, voluble, con frecuentes
ataques de mal humor y agresividad y cambios emocionales sin motivo aparente. La
barra había dañado la CPF de Gage, sobre todo la parte ventromedial, afectando a
circuitos que, de algún modo, debían de ser los responsables de su cambio de
personalidad y de sus perturbaciones emocionales.

Efectivamente, hay bastantes estudios que demuestran que las emociones no dependen
únicamente de áreas subcorticales, sino que también interviene la CPF, la cual mantiene
importantes conexiones con aquellas (Damasio el al., 2000; Mayberg el al., 1999).
Concretamente, las regiones orbital y medial de esta corteza son las más directamente
implicadas en la experiencia emocional (Fuster, 2001). Dado que las emociones resultan
fundamentales a la hora de tomar decisiones y organizar la conducta para alcanzar los
objetivos que nos proponemos, es necesario recordar el valor emocional de los mismos y
de otros componentes que intervienen en la conducta en ausencia de estímulos concretos
que provoquen estos estados emocionales. Es decir, si tengo hambre necesito saber qué
alimentos me gustan, dónde puedo conseguirlos fácilmente y qué esfuerzo o coste
emocional va a suponer su consecución. Edmund T.Rolls (2006), uno de los

303
neurocientíficos que más ha destacado en el estudio de las emociones tanto en humanos
como en modelos animales ha confirmado también este planteamiento a partir de datos
obtenidos en sujetos con lesiones cerebrales o en estudios basados en el
condicionamiento instrumental, es decir, observando la conducta de los animales para
obtener un refuerzo (agua o comida) o evitar un castigo (calambre en las patas),
consecuencias ambas emocionalmente atractivas para ellos.

La CPF es la zona donde confluye la información relativa a los estados emocionales


básicos positivos o negativos (región ventromedial) y las representaciones de los
objetivos que se desea alcanzar. Por otro lado, la CPF también posee representaciones de
la conducta que nos puede llevar a los objetivos, por eso juega un papel fundamental en
la toma de decisiones (Davidson e Irwin, 1999). Los circuitos ventromediales reciben
aferencias de regiones como la amígdala, tálamo y corteza temporal entre otras
estructuras y envían eferencias a la CPFDL, directamente implicada en la programación
de conductas. Es por tanto en la región ventromedial donde se produce la confluencia
entre las presiones emocionales y las argumentaciones de la lógica o la razón para
organizar y planificar la conducta dirigida hacia objetivos.

13.2.2. Otros circuitos cerebrales


Si durante mucho tiempo se eludió el estudio empírico de las emociones, hasta no hace
mucho la mayor parte de los estudios se centraron en el miedo y el papel de la amígdala
en este tipo de experiencia emocional. Sin embargo, los seres humanos, y otros animales,
expresamos un repertorio emocional un poco más variado. Además de estructuras del
sistema límbico, con técnicas de neuroimagen y de registro de la actividad cerebral se ha
demostrado la implicación de otras regiones cerebrales en el reconocimiento y expresión
de las emociones. Siguiendo las reflexiones de Damasio (1998), el resultado de las
emociones se puede manifestar hacia el exterior (conducta emocional) afectando a la
relación con los demás o hacia el interior (sentimientos) afectando al pensamiento, a la
planificación y a la conducta futura; todo ello es demasiado grande para el sistema
límbico. Cada vez parece más claro que no existen centros específicos para las
emociones. Cierto que el papel de la amígdala en emociones negativas como el miedo o
el enfado ha quedado demostrado y la implicación de diversos circuitos de la CPF
también, pero el miedo, por ejemplo, es una emoción compleja con diferentes
componentes y la amígdala no es el soporte neural de todos ellos. Las lesiones de la
amígdala impiden a los sujetos reconocer expresiones faciales de miedo o de enfado pero
no las que representan otro tipo de emociones, sobre todo positivas (Adolphs et al.,
1994).

Uno de los procedimientos que se utiliza con más frecuencia para tratar de conocer
mejor las estructuras cerebrales que participan en diferentes emociones es la presentación
de imágenes que muestran expresiones faciales o escenas con contenido emocional y
registrar la activación cerebral asociada al reconocimiento de las emociones

304
representadas. Un ejemplo de lo anterior podemos encontrarlo en el trabajo realizado por
M.Esslen y colaboradores (2004). Utilizando este procedimiento trató de comprobar qué
regiones cerebrales se activaban ante imágenes que representaban cinco de las emociones
básicas antes mencionadas (alegría, tristeza, asco, miedo y enfado) y si lo hacían de
manera simultánea o secuencial. Encontraron que emociones como la alegría, la tristeza y
el asco activaban extensas regiones en los lóbulos frontal y temporal y con patrones de
activación más diversos que el miedo o el enfado, con una distribución más restringida.
También encontraron una marcada activación en el polo temporal derecho (porción más
anterior del lóbulo temporal) o la corteza cingulada anterior ante imágenes que
representaban alegría, tristeza o asco, mientras que la corteza cingulada posterior lo hacía
únicamente ante alegría y tristeza. Además, también se activaban estructuras
subcorticales como el tálamo, el hipotálamo, los ganglios basales y el hipocampo, además
de la amígdala, quizá como consecuencia de sus conexiones recíprocas con las áreas
corticales implicadas. Una misma estructura cerebral puede estar implicada, aunque sea
de distinta manera, en más de una respuesta emocional dando lugar a diferentes
combinaciones de activación de los circuitos neuro hales (Murphy et al., 2003; Phan et
al., 2004) según el tipo, la intensidad y el contexto de la emoción. Es cierto que hay
estructuras que juegan un papel prominente como la amígdala, la corteza cingulada
anterior o el hipotálamo, pero sin olvidar a otras regiones de la CPF y estructuras
subcorticales o troncoencefálicas (Damasio, 1998) que se deben tener en cuenta para
comprender los circuitos emocionales. Estos estudios hay que tomarlos con cierta cautela
porque las técnicas utilizadas nos informan solo de que ciertas áreas muestran variaciones
en su actividad pero no de cuál es su papel exacto en el procesamiento que se está
llevando a cabo. Además, no es raro encontrar resultados aparentemente contradictorios
o que dejan más interrogantes que los que resuelven.

Por último, queremos incidir sobre la diferente implicación hemisférica en las


emociones, es decir, las asimetrías cerebrales en el procesamiento emocional. La
diferente participación de ambos hemisferios en la conducta emocional se conoce desde
mucho tiempo atrás debido a las diferencias de comportamiento observadas en pacientes
con lesiones cerebrales unilaterales, sin embargo, no hay una conclusión unánime acerca
de cómo se produce esta lateralización. Hay dos corrientes que tratan de explicarlo
(Román y Sánchez Navarro, 2008):

-Mayor implicación del HD. Hay un cierto número de investigaciones que consideran
que el HD es dominante para el reconocimiento de estímulos con contenido
emocional y también para la regulación del estado emocional. Buena parte de los
datos que apoyan esta idea provienen de investigaciones sobre el procesamiento de
las expresiones faciales, ya que han observado mayor expresividad en la mitad
izquierda de la cara controlada por el HD. También utilizando técnicas de registro
cerebral se ha demostrado que existe una mayor activación del HD cuando se
procesan estímulos emocionales y cuando se evocan experiencias emocionales.

305
-Implicación hemisférica diferente. Por otro lado están quienes consideran que hay una
implicación bilateral en la experiencia y la conducta emocional, pero con diferente
especialización. Según observaciones clínicas en pacientes con lesiones que afectan
solo a un hemisferio cerebral, el HD estaría especializado en procesar emociones
con significado negativo y el HI con significado positivo. La inhibición recíproca de
ambos hemisferios mantendría un equilibrio funcional en lo relativo a la conducta
emocional.

Este es un aspecto que sigue todavía generando controversia ya que las


interpretaciones de los resultados pueden ser ambivalentes. Al fin y al cabo, la atribución
en términos absolutos de valencia positiva o negativa a un estímulo puede ser algo
impreciso y sometido a condicionantes. En modelos animales es fácil investigar acerca de
las emociones porque la mayoría de los estudios se limitan a conductas prototípicas y
patrones emocionales básicos, sin embargo en humanos el asunto tiene la complejidad
que aporta la subjetividad. Guido Gainotti (2012) sostiene que la implicación del HD
estaría relacionada con el procesamiento automático y no consciente de las emociones,
mientras que el HI se ocuparía de los componentes cognitivos consciente e intencionales.
En este sentido, se apoya en el hecho de que esta distribución funcional también se ha
observado en otros procesos cognitivos (Gazzaniga, 1995), lo que lleva a pensar que el
hecho de que el HD está más implicado en el procesamiento de los aspectos automáticos
y el HI en los controlados o voluntarios puede deberse al papel que juega el lenguaje a la
hora de dotar de mayor consciencia e intencionalidad a estos procesos.

13.2.3. Motivación y sistema cerebral de recompensa


Uno de los grandes problemas a los que se enfrenta el sistema educativo es el de la
motivación, tanto de alumnos como de profesores. Siempre se ha dicho que el mejor
sistema para conseguir que alguien haga algo es conseguir que quiera hacerlo. ¿Cómo
conseguir que los alumnos quieran estudiar? ¿Cómo conseguir que los profesores
disfruten con la enseñanza y pongan todo su entusiasmo (esfuerzo ponen) en la labor que
desarrollan? No tenemos recetas mágicas pero conociendo un poco más acerca de los
circuitos cerebrales implicados en la motivación y el modo en que trabajan es posible que
a muchos profesionales de la educación se les ocurran ideas que mejoren está situación.

Como otros muchos conceptos que hemos venido manejando, no poseemos una
definición unánimemente aceptada de la motivación. Podemos entenderla como la fuerza
que guía la conducta para satisfacer una necesidad, entendiendo que su satisfacción
supone un estado positivo o agradable en oposición al estado o sentimiento de malestar
que ocasiona dicha necesidad. Para comprender qué entendemos por necesidad tenemos
que remitirnos al concepto de homeostasis que vimos en el capítulo 7. Cualquier
desequilibrio en el organismo pone en marcha una serie de mecanismos neurobiológicos
encaminados a restablecer el equilibrio; para ello es necesaria la participación de un
sistema detector que procesa diferentes señales relativas a los valores que se trata de

306
mantener y un sistema comparador que determina si esos valores están dentro de lo
normal o si se han desviado (Berridge, 2004). Si el sistema comparador encuentra algún
valor por encima o por debajo de sus niveles óptimos (punto de ajuste) induce un estado
de necesidad que pone en marcha una conducta encaminada a corregir dichos valores. Es
decir, si bajan nuestros niveles de glucosa (u otros nutrientes) experimentamos hambre,
lo que nos impulsa a comer. En humanos y en algunas otras especies animales este
sistema primario puede ser corregido y modulado por mecanismos cognitivos de control
superior, por ejemplo, experimento hambre pero no como porque quiero estar delgado.
La conducta que ponemos en marcha para satisfacer una necesi dad la denominamos
conducta motivada y podemos valorar la intensidad de la motivación en función del
esfuerzo o la complejidad del trabajo que tiene que realizar el sujeto para alcanzar su
objetivo. La conducta motivada busca consecuencias gratificantes, bien porque se
obtiene algo satisfactorio o bien porque se suprime o reduce la presencia de estímulos o
situaciones que ocasionen malestar; cuando ingiero comida disfruto de su sabor y dejo de
experimentar el malestar del hambre. Cuando se produce un estado de necesidad,
determinados circuitos cerebrales procesan las señales internas del organismo (sistemas
detector y comparador) y las procedentes del entorno para programar la conducta más
conveniente en cada momento. Estos circuitos no operan como un sistema reflejo de
procesamiento serial en el que un determinado estímulo produce una determinada
respuesta sino que la motivación implica un procesamiento de nivel superior que organiza
la conducta para garantizar la supervivencia y la adaptación (Kalivas et al., 1999). Y es
que la conducta motivada tiene que tomar en consideración no solo la relación entre la
necesidad y el modo de satisfacerla sino también el contexto, la oportunidad o el
coste/beneficio que implica su satisfacción inmediata.

Dentro de los circuitos cerebrales implicados en la motivación juega un papel relevante


el sistema cerebral de recompensa. Existe un circuito básico en el que destaca el núcleo
accumbens (NAc), un grupo de neuronas situado en la porción anteroventral de los
ganglios basales que mantiene importantes conexiones con la CPF. Este núcleo forma
parte de un circuito cerebral responsable de las sensaciones de placer (Berridge, 2003),
las cuales son fundamentales para el mantenimiento de conductas necesarias para la
supervivencia y la continuidad de la especie.

Si no fuera por el placer que produce la ingesta de comida cuando tienen hambre o el
apareamiento, los animales dejarían de esforzarse para obtener comida (caza y defensa
de lo cazado) o para reproducirse (competitividad y peleas con otros sujetos de su
especie). No obstante, además de este circuito primario que responde a necesidades
básicas (comida, bebida, sexo...) existe un circuito cerebral complementario mucho más
distribuido que contribuye a matizar esos impulsos en función de aprendizajes anteriores
(aquello me gustó), asignación de valencias a los reforzadores (no nos gusta lo mismo a
todos) o valoración del contexto (mejor en otra ocasión). Por ejemplo, el NAc recibe
proyecciones del hipocampo y de la amígdala entre otras estructuras (figura 13.2) que le

307
aportan información contextual y sobre los estados corporales. Gracias a las proyecciones
que envía a centros motores, el NAc actúa como un conector entre estructuras límbicas
(emocionales) y motóricas (Swanson, 2000). De este modo, cuando recibe señales
simultáneas de diversas estructuras que se activan en los estados de necesidad (CPF,
amígdala, hipocampo...), el NAc interviene en la programación de las conductas
necesarias para satisfacerlos (conducta motivada). La dopamina está considerada como el
neurotransmisor del placer porque el NAc recibe aferencias dopaminérgicas sobre todo
del área tegmental ventral (ATV), una estruc tura situada en el mesencéfalo junto a la
sustancia negra, el otro gran centro de neuronas dopaminérgicas. Los reforzadores
naturales (agua, comida, sexo...) incrementan los niveles de dopamina en el NAc, pero
también lo hacen otros estímulos como las drogas (alcohol, nicotina, opiáceos...) o
determinadas actividades y situaciones (jugar, estar con ciertas personas...). Diferentes
estudios con ratas y primates han demostrado que la novedad, las conductas
exploratorias o la ocurrencia de situaciones imprevistas pueden actuar como potentes
motivadores y provocar la liberación de dopamina en el NAc (Badiani et al., 2000;
Ljungberg et al., 1992).

Figura 13.2. Conexiones del núcleo accumbens, principal estructura del circuito de placer
en el cerebro. ATV: área tegmental ventral.

Los impulsos emocionales que ponen en marcha la conducta motivada pueden ser
modulados por circuitos prefrontales que valoran la oportunidad y la conveniencia de
satisfacer ese impulso de manera inmediata. La capacidad de negociar recompensas
inmediatas por otras mayores a largo plazo es una conducta aprendida y habitual en
humanos; sin embargo, influye mucho el tipo de consecuencia y el tiempo que transcurre
entre el momento presente y la posibilidad de que se presente la consecuencia. Si me

308
fumo un cigarro estoy valorando más el pequeño placer inmediato que me proporciona la
nicotina que el riesgo de cáncer que puede aparecer treinta años más tarde. Es lo que se
conoce como devaluación del refuerzo por demora (Reynolds, 2006); así, el valor
presente (positivo o negativo) atribuido a la consecuencia disminuye en función de la
duración del tiempo de demora requerido hasta que esta aparece.

La subjetividad del componente hedónico (qué nos gusta y cuánto nos gusta) tiene que
ver con nuestra memoria y con la asignación emocional que hacemos a los estímulos en
función de la experiencia. La región orbitofrontal juega un papel importante en este
proceso (Rolls et al., 2003) y su lesión provoca anhedonia, es decir, desinterés y ausencia
de sensaciones placenteras. Esto también ocurre en algunos trastornos psiquiátricos o en
drogodependientes donde los circuitos prefrontales están afectados. Estos circuitos suelen
estar en proceso de maduración durante la etapa escolar y especialmente en la
adolescencia. Por este motivo, no todos los estímulos tienen el mismo valor emocional ni
van a propiciar el mismo esfuerzo para su obtención en todos los sujetos. Este es uno de
los grandes problemas en educación, ser capaces de identificar los estímulos
motivacionales que pueden propiciar conductas académicas adecuadas. El cerebro está
diseñado para almacenar información y por tanto aprender. Saciar el instinto de aprender
es una conducta con una potente motivación, pero no hay pruebas concretas de que
aprender lengua o matemáticas implique motivaciones intrínsecas generalizadas. Ese es
unos de los desafíos en neuropsicología de la educación, ser capaces de generar
conductas motivadas hacia el conocimiento específico utilizando como base una
conducta instintiva, el impulso de aprender.

13.3. Emociones y conducta social


El ser humano es un animal social y es en sociedad donde ha desarrollado sus más
altas capacidades gracias al desarrollo cerebral. Pero cualquier grupo social, sea de
humanos o no, necesita utilizar algún sistema de comunicación. En el caso del ser
humano el sistema de comunicación por excelencia ya hemos visto que es el lenguaje, sin
embargo la comunicación emocional, aun considerándose un complemento de la
comunicación verbal, es un sistema filogenéticamente más antiguo y que produce mayor
impacto en los otros congéneres. Hasta tal punto son importantes las emociones en la
convivencia que la ausencia de ellas o su distorsión ocasionan problemas de conducta y
trastornos mentales. La relación entre emociones y conducta social es tan estrecha que el
comportamiento emocional de los seres humanos varía cuando está en compañía de
otros; no reaccionamos de la misma manera, por ejemplo, viendo una película o una
competición deportiva cuando estamos solos o con un grupo de amigos. Los niños, y en
especial los adolescentes, expresan más enfado y disgusto en presencia de sus padres que
de sus amigos; y en general, somos emocionalmente más expresivos en presencia de
personas cercanas que de desconocidos. Además, hay bastantes emociones complejas
que implican ser conscientes de la actitud emocional de los demás hacia nosotros, es
decir, expresamos emociones como la culpa, el orgullo, los celos o la vergüenza cuando

309
nos damos cuenta (o suponemos) qué sensación emocional expresan los demás hacia
nuestro comportamiento. Las emociones que expresa una persona tienen que ser
identificadas por otra y eso requiere una cierta habilidad. No es que sea muy dificil, ya
que desde los primeros meses de vida los bebés son capaces de reconocer las emociones
básicas, pero hay personas que en algunas circunstancias (disfunción cerebral) son
incapaces de hacerlo. El cerebro necesita interpretar lo que percibe para comprender la
situación y poder hacer predicciones acerca de lo que puede ocurrir. En este sentido,
reconocer el estado emocional de los demás ayuda a comprender sus intenciones y
programar conductas en consonancia.

El principal escaparate emocional de una persona es su cara (la cara es el espejo del
alma, o el chivato emocional), o mejor dicho, los gestos de su cara. Ya nos hemos
referido anteriormente a que las expresiones faciales de las emociones básicas son
universales, pero la sociedad y la cultura van incorporando matices que aportan algunas
diferencias entre unas culturas y otras. La habilidad para reconocer e interpretar
correctamente las expresiones faciales se va desarrollando durante la infancia y, a medida
que los niños crecen (maduran), van aprendiendo a acomodar sus expresiones faciales
según el contexto y lo socialmente correcto. En los primeros días de vida los bebés
pueden distinguir entre expresiones de alegría, tristeza y sorpresa y en tomo al quinto
mes manifiestan preferencia por las expresiones faciales que denotan felicidad frente a las
que expresan enfado; pocos meses después son capaces de distinguir la emociones
faciales que corresponden a la mayor parte de las emociones básicas (Erickson y
Schulkin, 2003). Además ya en estos primeros meses de vida es una herramienta de
comunicación mediante la cual el niño y la madre interactúan; el niño refuerza los
cuidados de la madre con expresiones de alegría y le comunica su malestar con gestos de
tristeza o enfado. Entre los 12 y los 18 meses, los niños aprenden a descifrar en las
expresiones faciales de los mayores señales de aprobación o reprobación hacia conductas
u objetos; el niño mira al padre o a la madre para ver qué cara ponen cuando hace
ademán de coger un objeto o realizar una conducta, como llevarse algo a la boca o
alejarse de ellos (Repacholi, 1998).

Si la habilidad para reconocer expresiones se adquiere progresivamente en los primeros


meses de vida, la expresión facial de las emociones es algo mucho más primario. Ya
desde el nacimiento podemos observar como los bebés reaccionan con gestos faciales a
los sabores dulce o amargo, incluso en recién nacidos anencefálicos (ausencia de
encéfalo), podemos observar gesticulación en respuesta a estimulación gustativa o táctil.
Estos niños reaccionan ante sabores o esbozan un amago de sonrisa ante las caricias, lo
cual sugiere que las estructuras del tronco del encéfalo son suficientes para algunas
reacciones faciales básicas ante estímulos placenteros o aversivos (Luyendijk y Treffers,
1992). Por su parte, el reconocimiento de las expresiones faciales implica las mismas
estructuras que el recono cimiento de rostros (giro fusiforme y corteza temporal superior)
pero además intervienen dos estructuras más, la amígdala y la corteza orbitofrontal

310
(Leppánen y Nelson, 2009). El papel de la amígdala es controvertido, sabemos sin lugar
a dudas que responde a expresiones amenazadoras, de miedo y, en general,
desagradables pero su papel ante otro tipo de expresiones no está claro. Por su parte, la
corteza orbitofrontal responde a un rango más amplio de expresiones faciales tanto de
signo positivo como negativo y además ejerce una regulación retrógrada sobre los
sistemas perceptivos.

En las relaciones sociales la interacción va más allá del mero reconocimiento del estado
emocional del otro, podemos llegar a sentimos como él, podemos compartir o
contagiamos de su estado emocional. Ya desde la infancia, los niños se echan a llorar si
ven hacerlo a otro niño y no podemos evitar ciertas sensaciones de malestar cuando
presenciamos el dolor ajeno. La empatía está considerada como la capacidad para
compartir las emociones del otro y es un componente fundamental de las relaciones
sociales. La empatía estaría articulada en tomo a dos factores:

-La capacidad para comprender al otro y ponerse en su lugar en función de lo que se


observa, de lo que deducimos de su comportamiento o de las representaciones
mentales propias acerca del significado de lo que vemos.

-La reacción afectiva de compartir el estado emocional, la complicidad emocional, que


puede producir en el observador emociones en consonancia con las del otro.

Sin embargo, también puede producirse un efecto contrario, es decir que


experimentemos lo contrario a las emociones que percibimos o interpretamos en el otro.
Esto estaría más relacionado con la motivación opuesta o con un concepto expresado
mediante un vocablo alemán, Schadenfreude, que significa alegría por el sufrimiento
ajeno, y que podría traducirse aproximadamente como regodeo (hay expresiones
populares mucho más explícitas). Afortunadamente, la empatía funciona mucho mejor en
el sentido positivo y los sentimientos que intuimos en el otro generan en nosotros una
predisposición afectiva favorable que es la base de la conducta prosocial.

Cuando un individuo se imagina u observa una situación de estas características en


otra persona, activa de manera automática una representación mental propia del estado
emocional que observa en el otro. Para ello, activa la mayor parte de los circuitos
funcionales implicados en dicho estado por lo que experimenta una sensación muy
similar. Se han realizado multitud de estudios que demuestran que el comportamiento
empático implica a las mismas regiones cerebrales que la expresión emocional propia
(Bernhardt y Singer, 2012). Como es un proceso automático no requiere aprendizaje ni
esfuerzo y además es difícil de inhibir (sí se pueden inhibir las conductas asociadas pero
no la activación de las representacio nes) o controlar salvo en algunos casos de
disfunción cerebral en los que tanto la percepción y comprensión como la expresión de
emociones se halla alteradas, como es el caso de la alexitimia, que con frecuencia se
observa en los trastornos del espectro autista (Silani et al., 2008). El descubrimiento de

311
las neuronas espejo (Rizzolatti y Craighero, 2004) vino a confirmar estos planteamientos.
Ya sabemos que las neuronas espejo son un tipo específico de neuronas descubiertas
inicialmente en la corteza premotora de monos que disparan tanto cuando el mono
ejecuta una acción como cuando observa a otro hacerlo. Este sistema de neuronas espejo
abarca otras áreas cerebrales como la corteza parietal y parece el responsable, aparte de
la empatía, del aprendizaje por imitación.

Hay dos manifestaciones relevantes de signo opuesto donde se vinculan de manera


especial las emociones y el comportamiento social, la agresividad y el afecto en sus
múltiples manifestaciones (amor maternal, romántico...) y la tentación de abordarlo aquí
es fuerte. Sin embargo, son temas que requerirían más de un libro para cada uno de ellos
si queremos contemplar todos los matices psicobiológicos que los impregnan. No
obstante, hay un tercer comportamiento o manifestación emocional que no me resisto a
pasar por alto a causa de la repercusión social que tiene su puesta en práctica: la risa.
¿Quién no se ha reído alguna vez? Si acaso Jorge de Burgos, el personaje de Umberto
Eco en El nombre de la rosa, que la considera un invento del diablo que deforma el
rostro de los humanos y les hace parecerse a los monos (¡si hubiera conocido a Darwin!).
¿Realmente se ríen solo los humanos o hay otros primates capaces de hacerlo también?
¿La risa es una respuesta innata o aprendida? ¿Por qué o para qué nos reímos? La
verdad es que podríamos seguir haciéndonos preguntas similares y es probable que lo
único que consigamos sea que se nos congele la sonrisa. Por cierto, ¿la risa y la sonrisa
son lo mismo? Vayamos por partes.

Está claro que la risa forma parte del repertorio comunicativo del ser humano y de
otros animales, o al menos, vocalizaciones o gritos que se asemejan a la risa humana.
Vilayanur Ramachandran, el prestigioso neurocientífico y divulgador de origen indio y
que posee un marcado sentido del humor, plantea la teoría de la falsa alarma (FA) para
explicar el origen de la risa (Ramachandran, 1998). Según él, la risa es el resultado
evolutivo de las vocalizaciones empleadas por los miembros de un grupo cohesionado
para comunicar a los demás que las consecuencias de un hecho inesperado o sorpresivo
son inocuas y no revisten peligro; el individuo utiliza la risa para comunicar a los demás
que se trata de una falsa alarma y que no necesitan gastar recursos energéticos porque no
existe peligro alguno. Según el autor, esto también permite comprender por qué la risa es
contagiosa (serviría para propagar el aviso, además del papel de las neuronas espejo) y
por qué inhibimos la risa en presencia de extraños (ajenos al grupo). Para justificar su
planteamiento, utiliza como argumento la estructura más o menos homogénea de los
chistes, gags o situaciones cómicas: una narración en la que se generan expectativas que
apuntan a un desenlace previsto y un giro sorpresivo al final, donde el desenlace, aun
siendo coherente con lo narrado, resulta totalmente inesperado. Esto implica que el
espectador tiene que comprender las implicaciones de lo narrado (que coja el chiste) ya
que si no carecerá de gracia para él. Además, el giro final de la historia debe ser inocuo
ya que a nadie le hace gracia un giro inesperado de los acontecimientos que tenga

312
consecuencias negativas. Además, esta teoría considera que la sonrisa es una forma
suavizada de risa consecuencia de un gesto agresivo interrumpido. Cuando un individuo
ve acercarse a otro hace una mueca agresiva (enseñar los colmillos, muchos mamíferos
lo hacen) pero al comprobar que es amigo y no supone un peligro interrumpe la mueca a
medio camino quedando la sonrisa. Posteriormente, esta sonrisa se convertiría en un
saludo ritual mediante el cual mostramos nuestra intención de no hacer daño al otro.

Claro, la teoría de la FA da por supuesto que hay un nivel cognitivo adecuado para
comprender la situación y, en consecuencia, entender el cambio de rumbo. Sin embargo,
¿qué ocurre con los bebés de corta edad'? Los recién nacidos son capaces de emitir
carcajadas a los pocos meses de vida y no parece que tengan una especial capacidad para
comprender determinados chistes, como mucho se ríen cuando les hacemos cosquillas o
gesticulamos delante de ellos. También deja de lado el hecho de que los bebés son
capaces de esbozar una sonrisa mucho antes de desarrollar la capacidad de reconocer
explícitamente quiénes son amigos o enemigos; sin embargo, sabemos que desde pocos
días después del nacimiento el bebé manifiesta preferencia por el rostro de la madre
frente a extraños. Nos encontramos en una controversia difícil de explicar. Hay otros
autores que consideran la risa y la sonrisa como elementos más de la comunicación que,
en este caso, tienen un marcado matiz afectivo (Meyer et al., 2007) y que puede
observarse en otras especies de mamíferos. En este caso, el énfasis se pone en el
componente comunicativo, ya que resulta dudoso pensar que los perros o, incluso, los
chimpancés tengan el necesario sentido del humor para comprender un chiste. Entonces
cabe preguntarse qué nos hace reír. Por supuesto un chiste, pero también una escena
cómica, las muecas de un mimo e, incluso, las cosquillas que no tienen componente
verbal ni visual alguno.

Si consideramos que la risa tiene un componente motor, otro afectivo y un tercero


cognitivo (Fried et al., 1998), no nos sorprende el hecho de que los circuitos cerebrales
implicados estén ampliamente distribuidos tanto a nivel cortical como subcortical; no hay
un centro de la risa cuya estimulación provoque todos los componentes que esta tiene en
su estado natural (sería estupendo). Así, diferentes estudios han demostrado la
implicación de áreas corticales en la confluencia parietotemporo-occipital y en el AMS, el
prefrontal izquierdo, la corteza temporal media y superior, el cingulado anterior, la
amígdala y el núcleo accumbens, entre otras (Bartolo et al., 2006; Moobs et al., 2003).
Con poco que recordemos de lo ya leído en este libro, vemos que la risa incorpora
circuitos relacionados con la integración cognitiva de la información, con las expectativas
esperadas en función del contex to, con circuitos emocionales básicos y con el sistema de
recompensa. Wild et al. (2003) plantean la existencia de dos sistemas cerebrales para la
risa, uno voluntario y otro involuntario. Este último sería impulsivo y básico implicando a
regiones diencefálicas (tálamo e hipotálamo), la amígdala y circuitos de los ganglios
basales y otro voluntario soportado por circuitos motores de la corteza cerebral y el
tronco del encéfalo. Por supuesto que no son circuitos independientes y su activación

313
implicaría más recursos de un lado u otro según los casos.

Resulta difícil decantarse por una idea u otra ya que no parece que la risa sea un mero
recurso de comunicación afectiva o las consecuencia de una falsa alarma. ¿Hay alguna
posibilidad de conciliar ambas posturas? Quizá si recordamos que en la risa están
implicados los circuitos cerebrales de recompensa podemos especular que el contacto
físico y el juego con el bebé generan una sensación de placer que activa el circuito
primario, provocando la aparición de las expresiones y vocalizaciones características.
Dado que las expresiones faciales provocan señales de retroalimentación que activan a las
propias áreas implicadas directa e indirectamente, podríamos estar ante una primera
asociación entre el componente afectivo, el motor y un esbozo cognitivo que le permite al
bebé intuir que determinadas prácticas son placenteras (tanto recibir el contacto físico
como emitir carcajadas). Más adelante, iría adquiriendo más peso la teoría de la FA
cuando la capacidad cognitiva de anticipación se vaya desarrollando (hay diferentes
edades para comprender según qué chistes). Se necesita investigación más precisa para
desentrañar el papel de los circuitos cerebrales, la evolución y el objetivo de la risa.

La teoría de la FA se desmoronaría por sí sola si considerase que la risa solo sirve para
tranquilizar a la tribu ante un hecho inesperado. Ramachandran (2005) sugiere que,
obviamente, el mecanismo neurocognitvo y afectivo de la risa ha sido interiorizado por el
individuo y ha ido evolucionando para ser útil a otros propósitos, no solo comunicar la
falsa alarma. Esta capacidad de establecer relaciones novedosas podría ser reutilizada
para asociar categorías, conceptos o esquemas de forma novedosa e ir más allá de las
pautas tradicionales de pensamiento y conducta, es decir, podría ser el germen de la
creatividad. Además, también considera que la risa se puede utilizar como un modo de
defenderse de los contratiempos creando una falsa alarma paradójica (reírse de las
adversidades) como modo de reducir la reacción emocional ante consecuencias
negativas. La interiorización en este caso llevaría al individuo a un diálogo consigo mismo
en el que puede llegar a utilizar la risa como mecanismo psicológico defensivo ante sus
propias adversidades (risa nerviosa) intentando reducir la tensión de la situación.

Afortunadamente hay en la actualidad bastante interés por comprender mejor los


mecanismos cerebrales de la risa así como su utilidad biológica. Uno de los aspectos más
controvertidos es que las interpretaciones de los datos (todavía escasos) que existen no
son concordantes y, por tanto, las conclusiones a las que se llega no están en una misma
línea. Sea como fuere, el ser humano es capaz de reír en múltiples situaciones y los
beneficios de esta práctica son evidentes; no sabemos si la risa adelgaza, tersa la piel,
retrasa el envejecimiento o cura el cáncer, pero está claro que quien se ríe disfruta y
quien disfruta con frecuencia está más cerca de la felicidad (por cierto, otra emoción o
sentimiento al que habría que prestar más atención).

13.4. Aprendizaje emocional

314
El título de este apartado va a tener una doble interpretación. Por un lado, nos vamos
a referir al modo en el que las emociones facilitan el aprendizaje en general y, por otro, a
la adquisición de habilidades emocionales. No es un secreto para nadie que aquellas
experiencias que poseen un significado emocional intenso se almacenan de un modo más
rápido y duradero en el cerebro. Tampoco resulta novedoso decir que muchos niños y
adolescentes tienen problemas emocionales durante el desarrollo precisamente porque no
comprenden lo que están experimentando y tienen que enfrentarse a una vorágine
emocional que cambia sin aparente sentido y que les lleva del cielo al infierno sin motivo
evidente.

El aprendizaje es gratificarte en sí mismo, pensemos la satisfacción que produce la


resolución de un problema sin ayuda o el descubrimiento de algo nuevo. Sin embargo,
como principio básico de supervivencia, debemos aprender algunas habilidades esenciales
y debemos recordar qué experiencias son buenas o malas; imaginemos un animal que no
recuerda qué frutos con comestibles y cuáles producen indigestión; va a tener serios
problemas para alimentarse. Pensemos igual en cualquier ser humano que no recordase
lo que ocurre al arrimar una mano al fuego o el significado de un gesto de fastidio. La
amígdala mantiene un sistema de conexiones que la vincula con muchas otras estructuras
cerebrales implicadas en los procesos de memoria (figura 13.3).

Hay un síndrome poco frecuente, la enfermedad de Urbach-Wiethe, que ocasiona la


destrucción bilateral de la amígdala. Se trata de un trastorno genético autosómico
recesivo que manifiesta cierta sintomatología cutánea y que produce un deterioro
progresivo de la amígdala bilateral. Estos pacientes tienen dificultades para recordar
palabras, historias e imágenes con contenido emocional después de un intervalo de
tiempo (Markowitsch et al., 1994). La amígdala actúa como una estructura facilitadora
de los procesos de memoria, tanto explícita como implícita, que tienen lugar en otros
circuitos cerebrales y lo hace interviniendo en las diferentes secuencias del
procesamiento, desde la codificación hasta la recuperación (LaBar y Cabeza, 2006). Si la
activación emocional de la amígdala coincide con la activación funcional de las otras
estructuras durante la consolidación de la memoria, se producen ciertos fenómenos de
plasticidad sináptica que agilizan y fortalecen este proceso. La amígdala produce la
facilitación emocional del apren dizaje y la memoria, pero esta implicación emocional
tiene un lado negativo ya que una excesiva activación puede provocar la evocación
recurrente de recuerdos muy dolorosos, como es el caso del trastorno por estrés
postraumático. Las consecuencias del estrés pueden ser adaptativas o patológicas, un
cierto grado de estrés puede facilitar el aprendizaje como es el caso de lo descrito
anteriormente, pero un estrés mantenido durante un periodo largo de tiempo puede
provocar bien trastornos del tipo mencionado o alteraciones de la memoria como
consecuencia de los efectos de los glucocorticoides sobre la formación hipocámpica.

315
Figura 13.3. Conexiones de la amígdala con otras estructuras implicadas en los procesos
de memoria. Las flechas continuas indican conexiones directas, las discontinuas
conexiones indirectas y las claras neurorregulación endocrina.

Con respecto de la habilidad para reconocer, controlar y manejar las emociones,


conviene decir que hasta el momento no se ha dado la importancia que merece a este
aprendizaje en el entorno educativo. Saber combinar el análisis racional y el
procesamiento cognitivo de alto nivel con los estados emocionales para guiar adecuada y
eficientemente la conducta es la base de lo que se denomina inteligencia emocional. El
concepto de inteligencia emocional se hizo mundialmente conocido gracias a los libros de
David Goleman, sin embargo el concepto no era nuevo, sino que era algo en lo que ya se
trabajaba desde bastante tiempo antes. Fueron Peter Salovey y John D.Mayer quienes
publicaron en 1990 un artículo en el que se planteaba este concepto por primera vez.
Según estos autores, la inteligencia emocional se puede considerar como la habilidad para
comprender y discriminar los sentimientos y las emociones, operar con ellos y utilizar
este conocimiento para guiar la propia conducta de manera eficiente (Salovey y Mayer,
1990). Según el modelo propuesto por estos autores, en 1990 y reformulado años más
tarde (Mayer y Salovey, 1997), la inteligencia emocional estaría estructurada en cuatro
bloques:

-Percepción y expresión emocional. La capacidad para identificar y valorar las propias


expresiones y las de los demás que se manifiestan a través del lenguaje, la conducta
o la cultura en general. Hace referencia tanto a la capacidad de identificación y

316
discriminación como a la capacidad de expresión.

-Facilitación emocional del pensamiento. La capacidad de hacer conscientes los


sentimientos como reflejo de las emociones y de utilizar este conocimiento para
guiar la atención hacia los aspectos relevantes. La consideración de que los estados
emocionales cambian la perspectiva y el modo en que vemos la realidad y facilitan
el afrontamiento, tanto de los problemas como ante los desafíos.

-Comprensión emocional. La habilidad para analizar y comprender las emociones.


Saber reconocerlas y atribuirles una causa, darles nombre y comprender el paso de
un estado a otro y los motivos que lo producen.

-Regulación emocional. La capacidad para controlar las emociones, que no reprimirlas.


La capacidad de atenuar las emociones negativas y potenciar las positivas, sin caer
en la distorsión o en la pérdida de perspectiva que genere falsas expectativas.

Es una lástima que solo de forma muy experimental se han ido realizando algunos
intentos por desarrollar este concepto e incorporarlo al currículo educativo. La educación
emocional es la asignatura pendiente de la mayoría de los colegios porque han dirigido
todos sus esfuerzos a la formación académica sin prestar atención a uno de los más
importantes motores de la conducta. Si hace unas décadas, la generalización de la
actividad física y el deporte en las escuelas fue un logro que poca gente recuerda ya, la
generalización de la educación emocional es el próximo desafío al que debe atender la
comunidad educativa. Según Rafael Bisquerra (2000), la educación emocional pretende
potenciar el desarrollo de las competencias emocionales como elemento fundamental del
desarrollo humano, con el objeto de capacitarle para la vida y con la finalidad de
aumentar su bienestar personal y social; parece que esta definición proporciona
argumentos suficientes que justifican su interés educativo.

Este tipo de aprendizaje se puede considerar como un entrenamiento inespecífico


puesto que su ámbito de aplicación puede ser tan diverso como situaciones plantea la
vida cotidiana. Es una capacitación preventiva que puede ser útil frente al consumo de
drogas, la violencia juvenil, los trastornos del estado de ánimo, pero también puede serlo
para facilitar la comunicación social, el trabajo en equipo o el disfrute de las relaciones
interpersonales. La educación emocional en niños tendría que desarrollarse de forma
paralela en el colegio y en el entorno familiar. El colegio es el entorno con mayor
diversidad de vínculos emocionales pero el entorno familiar posee unas características
que lo convierten en el banco de pruebas ideal para el aprendizaje emocional. El
entrenamiento emocional en el colegio debería tener la relevancia que se merece y debe
entrenarse y practicarse en el aula, en el recreo, en las actividades deportivas, en los
trabajos en grupo, en las relaciones interpersonales tanto entre pares como entre alumnos
y profesores y, en general, en cualquier situación que pueda producirse. Por su parte, los
beneficios del entorno familiar para este aprendizaje derivan del hecho de que se trata de

317
un entorno en el que el niño se siente más cómodo para experimentar sin miedo a
cometer errores, pero también porque es un lugar donde se producen frecuentes
conflictos, generalmente sin mucha transcendencia, que pueden servir como
entrenamiento específico para aprender a resolverlos de un modo eficaz y satisfactorio,
con un coste emocional bajo y que sirve como preparación para enfrentarse a conflictos
que puedan tener consecuencias más graves. Es importante que los padres posean un
adecuado nivel de inteligencia emocional porque van a ser ellos quienes gestionen más de
cerca los progresos del niño en este aspecto. Sería recomendable que los padres
recibieran una formación adecuada al respecto porque si no es así, en el mejor de los
casos, no van a servir de ayuda a los niños y, en el peor, pueden ofrecer modelos
contradictorios si no coordinan su actuación con la que se lleve a cabo en el colegio.

318
319
El ser humano ha alcanzado un grado de desarrollo cognitivo tal que le permite
imaginar situaciones que no ha experimentado previamente y, a partir de ellas, esforzarse
por alcanzar determinados objetivos en los que ha depositado esperanzas de bienestar,
éxito o satisfacción personal. Estos objetivos pueden ir desde pequeñas aspiraciones (hoy
me gustaría llegar pronto a casa) hasta propósitos a más largo plazo y con implicaciones
determinantes para su vida (quiero cursar esta carrera). En cualquier caso, tanto para las
grandes metas como para los pequeños deseos, el cerebro necesita poner en marcha
mecanismos complejos que sean capaces de integrar información disponible en tiempo
real con otra almacenada en nuestra memoria. Tanto si el objetivo perseguido puede
alcanzarse de manera inmediata como si su consecución puede tener lugar en un plazo
considerablemente largo, es necesario seleccionar y poner en marcha las conductas
adecuadas para ello.

La mayoría de estas conductas forman parte del repertorio del sujeto, es decir, han
sido ejecutadas con anterioridad y por tanto aprendidas en mayor o menor grado, sin
embargo, a veces es necesario combinarlas y articularlas de manera novedosa en función
de la tarea a la que nos enfrentemos. En realidad es la actualización del clásico interés
científico por diferenciar entre conductas automáticas y conductas controladas, siendo las
primeras aquellas respuestas que emitimos sin necesidad de un control consciente pleno
por ser repetitivas mientras que las conductas controladas requieren atención e
intencionalidad. Cuando aprendemos un comportamiento nuevo (por ejemplo, conducir)
es necesario poner en juego múltiples procesos cognitivos en la fase inicial del
aprendizaje para después ir reasignando progresivamente parte de estos recursos a otros
procesos no implicados en la tarea (después de un tiempo conduciendo, podemos dedicar
parte de la atención a charlar con un acompañante o a pensar en el próximo examen).
Muchos de los procesos cognitivos necesarios para este tipo de conductas se engloban
bajo la denominación de funciones ejecutivas, un término no exento de controversia y
necesitado de un mínimo consenso científico que permita avanzar a las diferentes
disciplinas que se ocupan de su estudio en una dirección convergente. Prueba de ello es
la cantidad de literatura científica que genera (ver Tirapu-Ustárroz et al., 2012b) abordar
estos procesos desde ámbitos diversos y vincularlos con otros procesos cognitivos
(atención, memoria, emociones) y estados mentales normales o alterados (enfermedad
mental, trastornos del neurodesarrollo).

320
En este capítulo nos vamos a ocupar del funcionamiento ejecutivo como expresión del
más alto nivel de procesamiento cognitivo pero tratando de plasmar el importante papel
que desempeñan diferentes circuitos cerebrales implicados en el procesamiento de nivel
inferior. Podríamos utilizar la metáfora de un capataz que dirige una cuadrilla de
operarios; muy importante es el papel de la persona que dirige y coordina los trabajos de
los operarios, pero si estos no realizan su trabajo correctamente, el resultado final del
proceso va a ser deficiente. Con frecuencia se vincula el concepto de inteligencia al de
funciones ejecutivas, pero si un concepto es escurridizo el otro no lo es menos. Desde
quienes equiparan ambos conceptos a quienes establecen diferentes relaciones entre ellos,
también en este caso el consenso es escaso. No obstante, es inevitable contemplar el
papel de ambos constructos y tratar de clarificar en lo posible el papel que los circuitos
cerebrales desempeñan en cada uno de ellos y el modo en que el cerebro expresa
conductas inteligentes.

14.1. Funciones ejecutivas


El término funcionamiento ejecutivo hace referencia a un tipo de procesamiento
cognitivo complejo que requiere integrar y coordinar diferentes subprocesos para
alcanzar un objetivo determinado, por este motivo, cuando hablamos en plural de
funciones ejecutivas no podemos considerarlo como un concepto unitario sino el
resultado del funcionamiento integrado de dichos subprocesos. El número y
denominación de estos varía de unos autores a otros (planificación, flexibilidad cognitiva,
inhibición...) lo que demuestra que estamos ante conceptos sobre los que no hay un
consenso unánime a la hora de su definición ni tampoco a la hora de describir su
funcionamiento. Siempre se han ligado las funciones ejecutivas a la CPF, sin embargo,
también participan muchas otras regiones cerebrales para que tengan lugar de manera
adecuada. Como ya hemos visto al abordar procesos anteriores, más que estructuras
concretas el sustrato neuroanatómico de estas funciones está constituido por redes
neuronales que se extienden más allá de la CPF e implican a circuitos corticales
posteriores y estructuras subcorticales (Elliott, 2003).

14.1.1. Concepto de funciones ejecutivas


Definir las funciones ejecutivas es una tarea ardua que no siempre ha conseguido
aglutinar y conjugar los diversos planteamientos que circulan en el ámbito de la psicología
o la neurociencia. El neuropsicólogo ruso Alexander R.Lucia (19021977) fue el primero
en referirse a ellas sin nombrarlas, pero el que puede considerarse como el primer intento
por definir el concepto de manera operativa hay que atribuírselo a Muriel Lezak (1982),
quien considera que las funciones ejecutivas son las capacidades mentales necesarias
para llevar a cabo conductas originales, eficaces y socialmente responsables para
conseguir objetivos. Considera que el concepto de funciones ejecutivas incluye varios
componentes básicos como el establecimiento de objetivos, la planificación de estrategias
o la ejecución efectiva de lo planeado. Desde entonces han proliferado otras definiciones,
la mayoría de ellas desde la psicología cognitiva, que intentan conceptualizar estas

321
funciones como un constructo si no unitario, al menos coherente. El resultado son
múltiples modelos explicativos de lo que cada autor, o autores, consideran que es el
funcionamiento ejecutivo (por ejemplo, ver Tirapu-Ustárroz et al., 2012a y Funahashi y
Andreau, 2013). Aunque ciertos modelos tratan de proporcionar una descripción
aglutinadora, otros son meras descripciones del conjunto de procesos que se pueden
englobar bajo el concepto de funciones ejecutivas, como por ejemplo, ejecución de una
conducta en una situación novedosa, planificación, resolución de problemas, anticipación,
inhibición conductual, memoria prospectiva o control de la atención, entre otros.

Un loable intento de unificar conceptos o definiciones de lo que son y no son las


funciones ejecutivas lo proporciona Patrick Rabbitt (1997). En la introducción de un libro
recopilatorio sobre funciones ejecutivas y recabando el consenso del resto de
colaboradores en la obra (científicos como Alan Baddeley, Paul Burgess o Barbara
Wilson, entre otros) describe siete características que debe poseer el comportamiento
ejecutivo para diferenciarlo de aquellas conductas que no se pueden considerar como
ejecutivas en sentido estricto:

1.El control ejecutivo es necesario para afrontar tareas novedosas que requieren
establecer un objetivo, diseñar un plan y elegir entre varias acciones alternativas
para alcanzarlo.

2.El funcionamiento ejecutivo no solo es necesario para actuar hacia el exterior o


alcanzar objetivos externos al sujeto, sino también para gestionar la información que
tenemos almacenada en la memoria a largo plazo sobre un contexto concreto. Esto
permite evocar determinadas representaciones de manera deliberada y de acuerdo a
un plan estratégico de recuperación de información.

3.El control ejecutivo es necesario para iniciar secuencias conductuales nuevas y para
interrumpir otras que estén siendo ejecutadas. Es posible suprimir, inhibir o sustituir
determinadas respuestas habituales y automáticas por otras nuevas más adecuadas a
las demandas de la tarea.

4.Las funciones ejecutivas son necesarias para prevenir conductas inadecuadas en un


contexto determinado. Esto no hay que confundirlo con el hecho de inhibir o
sustituir conductas automáticas o innecesarias. Se refiere más bien a la habilidad
para detectar señales contextuales que permiten descartar comportamientos que, en
ausencia de esas señales, podrían haber sido efectivos.

5.El funcionamiento ejecutivo permite cambiar de manera rápida y efectiva de una


tarea a otra y responder de manera adecuada a las demandas de cada una.

6.Las funciones ejecutivas son necesarias para supervisar la ejecución de las tareas y
corregir errores, modificar planes cuando vemos que empiezan a no ser tan

322
efectivos o reconocer oportunidades para cambiar hacia objetivos más apetecibles y
diseñar los nuevos planes para alcanzarlos. En este caso, la habilidad va más allá de
corregir un error sobre la marcha puesto que implica anticipar cuándo una acción
puede fallar en su propósito.

7.El control ejecutivo permite mantener la atención de manera sostenida durante


periodos largos de tiempo. Esto permite mantener en la mente secuencias de
acciones durante esos periodos de tiempo a la espera de ser ejecutadas cuando el
contexto sea el adecuado o el plan inicial así lo aconseje.

No obstante, el propio autor es crítico con estos acercamientos ya que considera que
con esta relación de características se produce un acercamiento a los resultados del
funcionamiento ejecutivo pero sique faltando un acercamiento conceptual a la esencia
misma de este concepto. Asume las dificultades metodológicas para evaluar las funciones
ejecutivas por la cuestionable fiabilidad y validez de las pruebas que se suelen utilizar con
más frecuencia. No hay que olvidar que una mayoría de estas provienen del ámbito
clínico y son poco discriminativas en población normal o que las consideraciones sobre el
funcionamiento ejecutivo de un paciente siempre presentan dificultades de interpretación
porque se desconoce, en la gran mayoría de los casos, su rendimiento en esas tareas
antes de la lesión. Por ejemplo, una persona puede mostrar un alto grado de
desinhibición después de una lesión cerebral pero no tenemos datos de su nivel de
impulsividad previo más allá de las descripciones proporcionadas por su familia.

A pesar de todas estas dificultades, hay algunos modelos o formulaciones sobre


funcionamiento ejecutivo que han conseguido mayor aceptación y una mayor
consideración a la hora de diseñar investigaciones o de realizar interpretaciones
funcionales a partir de resultados clínicos y experimentales. Dos de los que han tenido
esta difusión son el modelo de MT (Baddeley, 2012; Baddeley e Hitch, 1974) y el
modelo del marcador somático (Damasio, 1996 y 2011) que ya vimos en capítulos
anteriores y que aunque no se puedan considerar modelos de funcionamiento ejecutivo
en sentido estricto, sí aportan explicaciones tentativas acerca de cómo gestiona el cerebro
la información para elaborar conductas eficaces. Otros a los que no nos hemos referido
previamente son, por ejemplo, el modelo jerárquico propuesto por Stuss y Benson (1984
y 1986), que considera que los procesos mentales están organizados jerárquicamente de
manera que la CPF regularía la actividad de los demás circuitos mediante el control
ejecutivo; también el concepto de sistema atencional supervisor (SAS) formulado por
Norman y Shallice (1986) dentro de su modelo de atención para la acción (ATA) y que
plantea la existencia de dos reguladores de la conducta, el dirimidor de conflictos (DC)
que se ocuparía de conductas rutinarias y el SAS que ejercería la supervisión y el control
cuando hay que abordar situaciones novedosas que requieren un abordaje más complejo
que implica toma de decisiones e inhibición de respuestas rutinarias.

En un intento de unificar posiciones e integrar los múltiples conceptos relacionados

323
directa o indirectamente con las funciones ejecutivas, Tirapu-Ustárroz y colaboradores
(2002) proponen un modelo de funcionamiento ejecutivo que incorpora algunos de los
postulados que formulan los modelos anteriormente referidos (figura 14.1). Según este
modelo, los estímulos familiares (para los que existen representaciones en la MLP) ponen
en marcha respuestas automáticas con diferente grado de complejidad aprendidas
previamente; estas respuestas no requieren una participación activa de la consciencia y
permiten explicar buena parte del comportamiento habitual. Las decisiones necesarias
para estas conductas estarían mediadas por el DC que proponen Norman y Shallice pero
incorporando componentes de la MT. En este caso no intervendría el marcador somático
(MS) porque estamos hablando de respuestas sobreaprendidas que ya llevan incorporada
su particular etiqueta emocional y ponen en marcha circuitos que rememoran esa etiqueta
(bucle "como si"); no es necesario integrar las señales somáticas como ocurre cuando se
trata de una situación novedosa y tenemos que optar por una de varias opciones posibles.
Cuando se trata de una situación novedosa es cuando entra en juego el SAS que actuaría
como el ejecutivo central de la MT regulando una secuencia de acciones configurada por
los procesos de anticipación, selección de objetivos, planificación y supervisión. Ahora
no existen respuestas previamente aprendidas que puedan aportar una solución exitosa,
por lo tanto hay que generar posibles acciones y elegir la que aparentemente tenga más
probabilidades de acercamos al objetivo. Aquí sí interviene el MS ya que cualquiera de
las posibles opciones de respuesta puede suponer un valor o coste emocional según las
consecuencias previstas para cada una de ellas, lo cual va a condicionar su elección. Así,
en palabras de los autores, las funciones ejecutivas actúan como un sistema distribuido
donde el funcionamiento del SAS y la MT generan posibilidades y el MS refuerza la
atención hacia una de ellas (Tirapu-Ustárroz et al., 2002).

324
Figura 14.1. Esquema adaptado del modelo de funcionamiento ejecutivo propuesto por
Tirapu-Ustárroz et al. (2002). AVE: agenda visuoespacial; BFL: bucle fonológico; DC:
dirimidor de conflictos; MLP: memoria a largo plazo; SAS: sistema atencional supervisor.

Pensemos, por ejemplo, en un estudiante que comienza el curso en un nuevo instituto


y no sabe dónde está el aula que le corresponde. No puede echar mano de los recorridos
aprendidos que le servían para realizar esta tarea en su anterior centro así que tiene que
buscar nuevas respuestas para alcanzar su objetivo. Puede buscar paneles informativos
que le ayuden a encontrar el aula, preguntar a otros estudiantes o a algún profesor, o
deambular por el edificio hasta encontrarla. Si hay carteles indicadores simplemente
tendría que seguirlos, pero preguntar a otros estudiantes sería una forma de entablar
relaciones incipientes o, por el contrario, delatarse como novato; preguntar a un profesor
puede ser eficaz pero también puede darle cierta vergüenza, deambular por el edificio
puede ser la manera más discreta de encontrar el aula y no ponerse en evidencia, pero
puede suponer demasiado tiempo y llegar tarde a la clase. Según el valor emocional de
las consecuencias de cada una de estas acciones optará por una o por otra.

Existe acuerdo en considerar ejecutivos aquellos procesos que permiten guiar la


conducta eficazmente, hacer previsiones y anticipar consecuencias o controlar ideas y
pensamientos por poner solo algunos ejemplos. En cualquier caso, todavía parece
necesario buscar puntos de anclaje empíricos que permitan ir consolidando mejor estos
conceptos de cara a formulaciones más precisas. La búsqueda de circuitos cerebrales que

325
soporten estos procesos parece un buen camino pero todavía persiste una cierta dificultad
a la hora de caracterizar neurofisiológicamente estos procesos. Cuando se buscaban las
áreas cerebrales responsables de la memoria o el lenguaje se llegó a la conclusión de que
había que desmenuzar los procesos (percepción del sonido, identificación como lenguaje,
comprensión de las secuencias sonoras...) para identificar los circuitos neuronales (redes)
implicados. Probablemente tengamos que hacer ese mismo camino en el caso de las
funciones ejecutivas y reformular los procesos en términos más elementales. Mucho se
ha hecho ya, pero quizá todavía sea insuficiente.

14.1.2. Circuitos cerebrales para el funcionamiento ejecutivo


Tradicionalmente se ha vinculado las funciones ejecutivas con la CPF, la cual, junto a
las cortezas motora, premotora y motora suplementaria conforman la mayor parte de los
lóbulos frontales. Filogenéticamente, los lóbulos frontales contienen las estructuras
cerebrales más recientes y, considerando una vez más el paralelismo entre filogenia y
ontogenia, la región que más tarde madura en el desarrollo ontogenético de los sujetos, la
mencionada CPF. Ya que consideramos la mielinización como un indicador fiable del
grado de maduración de las estructuras cerebrales, podemos afirmar esto porque los
circuitos de la CPF son los últimos en los que se produce la mielinización durante el
desarrollo del SN. Esto no ocurre de manera homogénea aquí tampoco, lo que se traduce
en un desarrollo heterocrónico de los diferentes subprocesos que se integran en las
funciones ejecutivas (Brocki y Bohlin, 2004). Y es que, aunque el funcionamiento
ejecutivo empieza a manifestarse a edades muy tempranas, no lo hace en todas sus
facetas por igual ni evoluciona al mismo ritmo.

La caracterización anatómica de la CPF suele hacerse con criterios diversos, por


ejemplo, mediante la denominación de los surcos y circunvoluciones, utilizando términos
neurotopográficos o haciendo referencia al mapa citoarquitectónico de Brodmann. En
general se consideran tres regiones prefrontales, aunque luego suelen subdividirse aún
más según diferentes criterios (figura 14.2):

-Lateral: en la zona externa de la CPF, suele dividirse en porción dorsal (CPFDL), que
se corresponde aproximadamente con las áreas 9 y 46 de Brodmann (9B y 46B) y
porción lateral (CPFVL), localizada en las áreas 45B, 47B y parte de la 44B. En
algunas de estas regiones no queda clara la frontera entre áreas prefrontales y
motoras, especialmente con la premotora.

-Medial: en la cara interna de los hemisferios cerebrales (áreas 24B, 32B y 33B),
incluye la corteza cingulada anterior (CCA). Esta región, al igual que el resto de la
circunvolución del cíngulo, se ha considerado habitualmente como parte integrante
del sistema límbico, sin embargo, a medida que se conoce más acerca de su
implicación en el funcionamiento ejecutivo se la considera con más frecuencia
como parte de la CPF. En algunas descripciones neuroanatómicas se considera

326
también la región subcallosa paraolfatoria (área 25B) como parte de esta región
medial.

-Orbital: en la base de los lóbulos frontales, sobre las órbitas de los ojos (de ahí su
nombre), comprende las áreas liB, 12B, 13B y 47B. También en este caso se suele
acudir a localizaciones ventrales, mediales y dorsales.

La porción más anterior de los lóbulos frontales (área 10B) conocida como polo frontal
o región frontopolar es una de las áreas menos estudiadas a pesar de ser la más grande de
la CPF. Incluso anatómicamente unas veces se la considera como parte de la región
lateral y otras directamente se la ignora. Es la región que ha mostrado mayor crecimiento
a lo largo de la evolución, presenta una densidad sináptica superior a otras áreas
corticales y está estrechamente interconectada con el resto de áreas prefrontales
(Ramnani y Owen, 2004) por lo que se la considera como la cúspide funcional dentro de
la organización jerárquica del procesamiento de la información (Badre y D'Exposito,
2007).

327
Figura 14.2. Principales subdivisiones de la corteza prefrontal en vistas lateral y sagital.

La CPF está estrechamente conectada con el resto del cerebro. Mantiene conexiones
recíprocas con áreas sensoriales auditivas, visuales y somatoestésicas, con áreas motoras,
con estructuras subcorticales y con las áreas multimodales implicadas en las emociones y
la MLP (Elliott, 2003; Groenewegen y Uylings, 2010; Yeterian et al., 2012). Está en una
posición ideal para poder integrar la información procedente del exterior y del interior del
organismo. Además, existe una densa red de conexiones internas entre las diferentes
regiones de la CPF que permite la coordinación y supervisión de un alto número de
procesos cerebrales. Es por tanto una región crítica para el funcionamiento ejecutivo
porque controla y supervisa el funcionamiento de muchos circuitos neurales distribuidos
por la corteza cerebral y en estructuras subcorticales (Funahashi y Andreau, 2013), lo
cual es una característica neurofuncional importante en estos procesos. No obstante, el
correcto funcionamiento ejecutivo no solo depende de la integridad de los circuitos
prefrontales, sino también de que el resto de estructuras implicadas no presenten
alteraciones funcionales.

Las conductas dirigidas hacia un objetivo requieren la integración de las


representaciones mentales de las acciones que pueden llevar a conseguirlo, esto es,
representaciones sensoriales, motoras, cognitivas y emocionales; no parece probable que
la CPF albergue todo este conjunto de redes neuronales, sino que tiene que activar esas

328
representaciones en las redes distribuidas por otras regiones cerebrales. De este modo, la
CPF crea representaciones flexibles que integran la información presente, los estados
internos del organismo y las posibles acciones para realizar la tarea (Miller, 2000). En
este sentido, el propio Fuster (2000b y 2007) al explicar su modelo de redes neurales
hace alusión a ello y considera que la conducta ejecutiva está representada
jerárquicamente en la corteza de los lóbulos frontales y que interactúa estructural y
funcionalmente con los circuitos sensoperceptivos de las regiones posteriores del cerebro.
Para ello relaciona la CPF con los circuitos motores del lóbulo frontal donde las neuronas
de la corteza motora primaria almacenan representaciones de movimientos simples, las
áreas premotoras representaciones más complejas de secuencias de movimientos y la
CPF patrones de acción relacionados con la organización de la conducta.

Está claro que el funcionamiento ejecutivo depende de la CPF pero es el resultado de


la acción coordinada de diferentes sistemas cerebrales corticales y subcorticales bajo la
supervisión de aquella, proceso para el que utiliza proyecciones descendientes (top-
down). Parece lógico que así sea puesto que si la CPF tiene que coordinar e integrar
procesos sensoriomotores, mnésicos y emocionales necesitará recibir información de los
circuitos implicados pero también tendrá que incidir sobre ellos para gestionar sus
funciones en la dirección de la conducta planificada. Es decir, se va a producir un flujo
bidireccional desde los niveles de procesamiento inferiores hacia la CPF (bottom-up) y de
esta hacia los circuitos posteriores (top-down) para influir sobre diversos procesos
cerebrales (Fuster, 2008). A pesar de las evidencias que existen demostrando la existencia
de estas proyecciones entre la CPF y las áreas corticales posteriores todavía se sabe poco
acerca de los correlatos funcionales de las mismas desde una perspectiva
neuropsicológica. Estas conexiones, al menos las que se dirigen a la corteza temporal
inferior, podrían estar implicadas en la gestión intencionada de la MLP (Tomita et al.,
1999; Funahashi y Andreau, 2013) permitiendo la recuperación de información según las
necesidades del momento. También se les atribuye un papel en los procesos de atención
selectiva (Liang y Wang, 2003) permitiendo determinar qué estímulos son más relevantes
para la tarea en curso. Incluso en ambos procesos (Zanto et al., 2011) ya que la gestión
de la atención visual y la manipulación de los contenidos de la MLP son procesos que
forman parte de la MT.

Ya hemos visto que las funciones ejecutivas agrupan diversos subprocesos y que la
CPF es una estructura compleja y bastante heterogénea (Petrides et al., 2012). Ambos
hechos llevan a muchos autores a considerar que diferentes regiones de la CPF estarían
implicadas en diferentes aspectos del funcionamiento ejecutivo. Aunque no es un
planteamiento generalmente aceptado (Duncan y Owen, 2000), hay numerosas
investigaciones que, mediante diferentes procedimientos, han llegado a la conclusión de
que existe una cierta especialización funcional entre los circuitos prefrontales (Hoshi,
2006; Zysset et al., 2003). La región lateral (especialmente la porción dorsal) es la que
con más frecuencia se vincula a procesos cognitivos en sentido estricto (MT, flexibilidad

329
cognitiva, monitorización...) puesto que mantiene conexiones recíprocas con áreas
sensoriales primarias y multimodales. Por su parte, las regiones orbital y medial se
relacionan habitualmente con la conducta social y el procesamiento de señales
emocionales para organizar la conducta y tomar decisiones, para lo cual mantiene
conexiones recíprocas con las estructuras del lóbulo temporal.

Aunque están claramente relacionadas con procesos como la MT, las porciones dorsal
y ventral de la CPF lateral muestran diferentes implicaciones funcionales (Owen, 1997;
Wagner et al., 2001). La región CPFVL se ocuparía de la recuperación y el
mantenimiento de información (representaciones) almacenada en las regiones posteriores,
mientras que la CPFDL sería la responsable de supervisar y manipular dichas
representaciones (Elliott, 2003). En cualquier caso, ambas regiones participan también en
otros procesos ejecutivos además de la MT. Por otro lado, las regiones orbital y medial
son más difíciles de estudiar pero Zald y Andreotti (2010) realizaron una revisión de
diferentes investigaciones neuropsicológicas al respecto y concluyeron que estas regiones
se veían implicadas en aspectos tales como la capacidad de modificar asociaciones entre
un estímulo y un reforzador, la conducta social o los componentes emocionales de la
personalidad. Menor volumen de investigación se ha dedicado a la región prefrontal
anterior o rostral (área 10B) a la que se ha vinculado con la capacidad de realizar varias
actividades simultáneamente (multitarea), concretamente con la capacidad de mantener
en mente objetivos de alto nivel mientras se trabaja en objetivos parciales o subsidiarios
(Burgess et al., 2007). No obstante, también se ha relacionado esta región con la
memoria prospectiva (Burgess et al., 2003) o con la teoría de la mente (Roca et al.,
2011). Al fin y al cabo son aspectos que están relacionados funcionalmente puesto que la
memoria prospectiva nos permite mantener actualizada la información acerca de
necesidades o acciones futuras de cara al logro de objetivos mientras que la teoría de la
mente nos permite modular y ajustar esos objetivos en función de los demás,
incorporando a nuestros planes las intenciones, deseos y sentimientos que interpretamos
en su comportamiento. Sí parece entonces que esta región estaría en los niveles
jerárquicos más altos del funcionamiento ejecutivo.

14.1.3. Funciones ejecutivas y otros procesos cognitivos


En los párrafos anteriores hemos querido poner de manifiesto que el concepto de
funcionamiento ejecutivo no se entiende sin relacionarlo con el resto de procesos
cerebrales. Tanto por el análisis de los componentes (o subprocesos) que intervienen en
una tarea como por la activación cerebral de diferentes circuitos podemos llegar a la
conclusión de que cuando hablamos de funciones ejecutivas estamos refiriéndonos al
modo en que determinados sistemas de nivel superior regulan e integran el
funcionamiento de otros sistemas subordinados. Retomando la idea de la dicotomía de
conductas automáticas versus conductas controladas, podemos comprobar que desde los
procesos sensoriales y motores más básicos hasta otros de mayor complejidad cognitiva
o emocional muestran dicha dualidad. Es precisamente en los componentes controlados

330
de cualquiera de estos procesos donde interviene el control ejecutivo, lo cual se
demuestra por la participación de circuitos prefrontales en su ejecución.

Ya hemos hecho alusión al papel de la CPF anterior en la memoria prospectiva, es


decir, en la capacidad de recordar intenciones futuras. La memoria prospectiva es una
memoria episódica orientada al futuro, es decir, la capacidad de recordar que en algún
momento posterior debe ocurrir algo (mañana por la tarde tengo una cita en el centro).
La gestión de esta capacidad corresponde a la CPF (Momennejad y Haynes, 2012), pero
no es su única participación en los procesos de memoria ya que también lo hace en la
memoria episódica (Cruse y Wilding, 2009; Sandrini et al., 2013) y semántica (Chen y
Lin, 2012; Woodward et al., 2006). Esto significa que una lesión prefrontal afecta a la
capacidad de memoria consciente y voluntaria independientemente de que en este tipo de
pacientes podamos encontrar conservada cierta capacidad de memoria espontánea y
automática. Esto puede deducirse al observar que estos pacientes tienen conservada la
memoria implícita para ciertas tareas (Shimamura et al., 1992), si bien fallan en los
componentes voluntarios y conscientes asociados.

El control ejecutivo se manifiesta también en procesos atencionales y perceptivos. En


el caso de la atención es donde podemos observar con rotunda claridad el continuo que
supone ir del procesamiento automático al controlado. Todos los modelos
neurocognitivos que abordan el tema de la atención contemplan la existencia de procesos
primarios puramente reflejos que dependen de estructuras troncoencefálicas y otros
procesos más complejos que implican intencionalidad y voluntad que dependen de
estructuras corticales (Knudsen, 2007; Petersen y Posner, 2012). Es en estos últimos
donde interviene de manera decisiva los circuitos prefrontales (Corbetta y Shulman,
2002; Nebel et al., 2005) tanto para mantener un estímulo dentro del foco atencional
durante un tiempo prolongado como para mantener dos o más canales atencionales
abiertos simultáneamente. Algo similar ocurre en los procesos perceptivos, también aquí
podemos diferenciar entre procesos sensoperceptivos pasivos o automáticos donde la
información llega al cerebro de manera global y poco discriminada o procesos
controlados en los que los sistemas sensoriales priorizan el flujo de información
procedente de estímulos concretos. Es en estos últimos donde interviene la CPF
(Feinstein et al., 2004; Philiastides et al., 2011), ya que mediante las conexiones que
envía a los circuitos sensoriales (top-down), regula el proceso perceptivo priorizando el
acceso de aquellos estímulos que considera relevantes en función de la tarea, el contexto
y los objetivos.

No queremos cerrar este apartado sin hacer alusión a la MT, un proceso al que ya nos
hemos referido en el capítulo 11 para dejar claro que no se puede considerar como un
proceso de memoria sino que se encuadraría dentro de las funciones ejecutivas. De
hecho, algunos modelos propuestos de funcionamiento ejecutivo se pueden considerar
equivalentes o sinónimos del proceso de MT. Quizá sea el mejor ejemplo de cómo un
sistema de nivel superior gestiona, coordina e integra diferentes procesos cerebrales para

331
alcanzar un objetivo. En este caso, como ya hemos expuesto antes (ver figura 11.2), el
ejecutivo central es capaz de mantener en mente información presente en el momento y
recuperar otra de la MLP para poder llevar a cabo una tarea. Por ejemplo, cuando un
alumno está tomando apuntes en clase necesita mantener en mente las explicaciones del
profesor mientras recupera información de su MLP no solo para poder transcribir las
notas (esquemas lingüísticos sensoriomotores y semánticos) sino también para vincular lo
escuchado con el conocimiento de la materia que ya tiene almacenado; todo ello para, en
unos instantes, decidir qué anotaciones va a realizar para posteriormente poder
reconstruir la explicación de la manera más precisa posible.

14.2. Funcionamiento ejecutivo e inteligencia


En el ámbito de la educación y la psicología, además de en otras disciplinas, la
inteligencia ha jugado un papel preponderante. Fue Francis Galton, el pariente de Darwin
al que nos hemos referido en el capítulo 3, el que primero utilizó este término
atribuyéndolo a la herencia y menospreciando los efectos de la educación y el entorno.
Desde entonces, el concepto ha sufrido diferentes interpretaciones dando lugar a
múltiples modelos explicativos: nombres sobradamente conocidos como Binet,
Spearman, Cattell, Eysenck, Guilford, Vigotsky, Piaget o los más recientes Mayer,
Salovey, Goleman o Gardner han tratado de explicar un constructo que utilizamos
cotidianamente para referirnos a conceptos no siempre homogéneos. El problema radica
en que se ha dedicado más tiempo y esfuerzo a desarrollar herramientas para medir la
inteligencia que a investigar empíricamente las bases neurocognitivas de este constructo.
Desde que los psicólogos americanos R.M.Yerkes (1876-1956) y L.M.Terman (1877-
1956) crearan junto con otros colegas los Alfa and Beta Army Tests para evaluar la
inteligencia de los soldados reclutados para combatir en la Primera Guerra Mundial, los
tests de inteligencia han evolucionado y mejorado mucho en cuanto a fiabilidad y validez,
sin embargo, sigue sin haber un soporte empírico consensuado que los justifique. Esto
convierte a dichas herramientas en meros sistemas de etiquetaje presuntamente
intelectual pero que no siempre refleja fielmente la realidad de los etiquetados.

Como puede deducirse de lo anterior, si difícil es definir inteligencia o funciones


ejecutivas, no va a ser fácil establecer vínculos entre ellas ya que según adoptemos un
posicionamiento u otro podemos estar hablando de aspectos muy dispares. Además,
algunos autores no han encontrado correlaciones consistentes entre medidas de cociente
intelectual (CI) y rendimiento en funciones ejecutivas (Johnstone et al., 2000). Sin
embargo, es innegable que cuando hablamos de guiar la conducta hacia objetivos de
manera eficiente y flexible estamos hablando de conductas inteligentes. Goldberg (2008)
desconfía de los conceptos de inteligencia tradicionales, incluido el factor g, y defiende el
concepto de talento ejecutivo o la existencia del factor i (inteligente). Según él, este
talento se puede reconocer en el comportamiento y en la interacción de un sujeto con
otras personas ya que, además de ser un comportamiento ejecutivo dependiente de los
lóbulos frontales, incorpora la habilidad para comprender los estados mentales de los

332
otros (teoría de la mente). Considera que el comportamiento inteligente depende en
buena medida del reconocimiento de patrones, es decir, de la habilidad para encontrar
elementos familiares conocidos en situaciones novedosas y poder actuar en
consecuencia. Los lóbulos frontales almacenarían esos patrones y al reconocer elementos
concretos en una situación nueva pondrían en marcha acciones que ya fueron útiles en el
pasado (adaptadas a las características de los nuevos elementos) para actuar de manera
eficiente. En términos similares argumenta José Anto nio Marina (2012) cuando se
refiere a la inteligencia ejecutiva en el ámbito educativo junto con la inteligencia cognitiva
y la emocional. Propone que la inteligencia es la capacidad de dirigir bien el
comportamiento, eligiendo las metas, aprovechando la información y regulando las
emociones, es decir, está planteando una definición de la inteligencia que incorpora
conceptos ejecutivos y además, considera que es algo que se puede entrenar durante el
periodo educativo.

Los pacientes que han sufrido una lesión cerebral que afecte a áreas de la CPF no
suelen mostrar alteraciones significativas de su CI ni de su capacidad de MLP;
igualmente tampoco manifiestan alteraciones significativas en su capacidad
sensoriomotora o en habilidades lingüísticas. Sin embargo, cuando tienen que afrontar
tareas novedosas o elegir entre varias opciones para resolver un problema sí que
manifiestan una incapacidad notable. Esto ha llevado a pensar que no hay evidencias
empíricas para sostener la relación entre actividad prefrontal e inteligencia y que los
circuitos cerebrales responsables de esta última hay que buscarlos por todo el cerebro. Es
cierto que las redes neurales de la inteligencia hay que localizarlas por todo el cerebro, sin
embargo no es cierto que la CPF no juegue un papel determinante, lo hace y la
explicación radica en el tipo de pruebas que se suelen utilizar para establecer el CI de los
sujetos. No todas las pruebas que se utilizan para evaluar funciones ejecutivas
correlacionan con medidas de CI. Un estudio realizado con 121 adolescentes a los que se
les evaluó con la batería neuropsicológica de Halstead-Reitan, demostró que unas tareas
correlacionaron más que otras con el CI de los estudiantes (Seidenberg et al., 1983).
Concretamente, comprobaron que las pruebas que requerían habilidades lingüísticas,
resolución de problemas o agilidad mental mostraron una correlación mayor con medidas
de CI que las que evaluaron habilidades perceptivas, motoras o visoconstructivas. Esto
nos recuerda que el concepto de funcionamiento ejecutivo engloba muchos subprocesos
y que el hecho de contemplarlos como un constructo unitario se viene abajo con este tipo
de comparaciones.

Una alternativa es considerar los subprocesos ejecutivos de manera independiente. En


un trabajo clásico de Friedman et al. (2006) llegaron a la conclusión de que la inteligencia
solamente podía relacionarse con algún subproceso de las funciones ejecutivas y no con
el conjunto. Tomando como punto de partida su propio modelo sobre funcionamiento
ejecutivo (Miyake et al., 2000) estudiaron la relación entre tareas de este tipo y pruebas
de inteligencia para comprobar que solo existía relación entre el CI y la capacidad de

333
actualizar información en la MT. El modelo de referencia es uno de los denominados
factoriales, llamado así porque trata de identificar los componentes de las funciones
ejecutivas a partir de análisis factoriales realizados sobre los resultados de diferentes
pruebas que miden este funcionamiento en diferentes condiciones experimentales. Los
autores identificaron tres factores:

-Inhibición: la capacidad de inhibir y bloquear intencionadamente respuestas


automatizadas o muy arraigadas en función de la situación.

-Alternancia o cambio: la capacidad de cambiar voluntariamente de un esquema mental


o programa de acción a otro de manera eficaz.

-Actualización: la capacidad para monitorizar, manipular y actualizar la información en


la MT.

Estos tres componentes son independientes pero están interconectados y es en el


último, actualización, donde los autores encontraron una relación significativa con las
medidas de inteligencia (Friedman et al., 2006). Claro, una vez más es necesario estar de
acuerdo con los aspectos básicos del modelo de funcionamiento ejecutivo propuesto para
aceptar estas conclusiones. Por ejemplo, Brydges et al. (2012) realizaron una réplica del
estudio de Friedman con niños de entre 7 y 10 años para comprobar si se reproducía el
mismo patrón que en los adultos. Llegan a conclusiones similares pero incorporan
además algunas nuevas relativas a cómo se adquieren en el tiempo las habilidades
ejecutivas e intelectuales. Entre otras, consideran que la inteligencia se adquiere antes que
las funciones ejecutivas porque estas últimas dependen de la CPF que es la última en
madurar y presenta un perfil de activación diferente al de los adultos. Claro, esto supone
aceptar que el funcionamiento ejecutivo no aparece hasta que los circuitos prefrontales
están maduros, lo cual es considerar que se posee la habilidad o no se posee, sin término
medio. Hoy en día existe mayor consenso hacia la idea de que las habilidades ejecutivas
se adquieren progresivamente y que resultan eficaces ante situaciones cada vez más
complejas a medida que van madurando los circuitos prefrontales. Cualquiera que haya
visto las estrategias que pone en marcha un niño pequeño para conseguir sus propósitos
no tiene duda de su capacidad para fijar objetivos y planificar acciones para conseguirlo.
Es cierto que esa capacidad es limitada y relativamente simplista, pero es un esbozo de
dicho funcionamiento ejecutivo en la misma medida que consideramos un esbozo del
habla las vocalizaciones que realiza el niño en los primeros meses de vida.

Tanto a la hora de estudiar las funciones ejecutivas como la inteligencia seguimos


partiendo de modelos cognitivos en los que el soporte neurológico sigue siendo
cuestionable o, al menos, reinterpretable según la postura del investigador de turno. Está
claro, y en eso coinciden bastantes autores, que inteligencia y funciones ejecutivas
comparten componentes pero no son conceptos sinónimos (García-Molina et al., 2010).
En cualquier caso, tenemos algún punto de partida sobre el que ir cimentando: el

334
adecuado desarrollo de la CPF es el que permite el funcionamiento ejecutivo y la
conducta inteligente, pero ¿se puede considerar a la CPF como sede cerebral de la
inteligencia?

14.2.1. Redes neurales para la inteligencia


Desde los trabajos iniciales de Galton se ha tratado de vincular el tamaño del cerebro
con la inteligencia. Tanto a partir de análisis antropométricos como de estudios post-
mortem se han obtenido resultados contradictorios. Quizá nuevamente el problema sea el
modo en que se mide la inteligencia y cómo se interpretan los resultados de las pruebas
utilizadas. Así, superados los estudios que utilizaban el concepto de inteligencia de un
modo abstracto y con poca concreción operativa, han surgido investigaciones cuyos
resultados apoyan o rechazan la idea de que exista relación entre volumen cerebral e
inteligencia. De manera más precisa, los hay que utilizan la diferenciación entre
inteligencia fluida y cristalizada, encontrando correlación en aquella y no en esta (Wickett
et al., 2000) o los que concluyen que lo que en realidad correlaciona son determinadas
habilidades concretas y no medidas generales de inteligencia (Burgaleta et al., 2012).
También han proliferado los estudios que relacionan la inteligencia con diferentes
parámetros cerebrales (Deary et al., 2010), encontrando correlaciones tanto con el
volumen de sustancia gris y blanca como con el tamaño de algunas regiones cerebrales
concretas entre las que se encuentran el hipocampo, las cortezas parietal y temporal y,
sobre todo, la corteza frontal.

Quizá como consecuencia de su extraordinario desarrollo en la especie humana, a los


lóbulos frontales, y más concretamente a la CPF, se les ha relacionado con la inteligencia.
De forma más concreta, se les ha vinculado con el factor g (inteligencia general)
propuesto por Charles Spearman (1863-1945) a principios del siglo xx. Este concepto
hace referencia a una capacidad intelectual de amplio espectro no determinada por la
tarea y que contribuye a resolver cualquier tipo de problema, en oposición a factores de
inteligencia específicos o habilidades que pueden resultar muy útiles en ciertos casos pero
inútiles en otros. El factor g es un componente común en diferentes habilidades
cognitivas, resulta determinante en procesos como el razonamiento o la resolución de
problemas (Johnson et al., 2004) y es un buen criterio predictivo del éxito en los estudios
o en la vida laboral (Schmidt y Hunter, 1998). Años más tarde, Raymond Cattell (1905-
1998) propuso la diferenciación entre inteligencia fluida y cristalizada (Cattell, 1971).
Considera la primera como aquella que se necesita para razonar, relacionar elementos o
resolver situaciones novedosas y complejas que requieren la utilización de una
combinación creativa de esquemas mentales, y la segunda como el resultado del
aprendizaje, esto es, los conocimientos (explícitos e implícitos) que ha acumulado un
sujeto a lo largo de su vida como consecuencia de su educación y de las experiencias que
ha vivido. A la primera le atribuye una base biológica mientras que considera la segunda
como consecuencia de las influencias del entorno. Por supuesto que ambos tipos de
inteligencia están relacionadas y no se puede entender la una sin la otra ya que la

335
adquisición de conocimiento se hace de manera progresiva pero a través de la inteligencia
fluida, la cual determina la eficacia de esa adquisición (Carroll, 1993). Este tipo de
inteligencia refleja la capacidad que posee un sujeto para el razonamiento abstracto y
creativo y resulta afectada seriamente como consecuencia de las lesiones frontales, por el
contrario, las habilidades cristalizadas, los resultados de aprendizaje, son menos
dependientes del funcionamiento prefrontal.

El hecho de que se haya encontrado una correlación positiva entre pruebas que miden
diferentes habilidades es lo que ha llevado a sustentar el concepto de factor g de
Spearman, lo cual hace suponer que debe existir un soporte cerebral para dicho factor.
La observación de pacientes con daño frontal que obtienen puntuaciones CI dentro de lo
normal parece descartar esta región cerebral, sin embargo, ya hemos dicho que el
problema está en el modo en que se mide la inteligencia; pacientes con daño frontal que
obtuvieron puntuaciones elevadas en tests clásicos de inteligencia como la escala de
Wechsler (WAIS) puntuaron significativamente bajo en tareas que requerían resolución
de problemas novedosos o inteligencia fluida (Duncan et al., 1995). Esto significa que la
mayoría de los tests que se utilizan habitualmente para medir inteligencia en realidad solo
proporcionan datos sobre la inteligencia cristalizada que es menos dependiente de la
integridad de la CPF, mientras que la inteligencia fluida, más cercana al concepto de
factor g, es más sensible a las lesiones en esta zona. Ya hemos visto que la región lateral
de la CPF se ocupa principalmente de los componentes más cognitivos de las funciones
ejecutivas, especialmente la MT. En un estudio en el que participaron pacientes con daño
cerebral que afectaba a la CPFDL (Barbey et al., 2013) se encontró que estos obtenían
peores resultados que sujetos sin daño cerebral en pruebas de inteligencia general y
funciones ejecutivas. Los autores consideran que el factor g es en realidad el resultado de
la actividad combinada de diversos subprocesos cognitivos, los cuales son soportados por
redes cerebrales ampliamente distribuidas donde la CPFDL juega un papel relevante.
También hay otros estudios con neuroimagen que demuestran la activación de la CPFDL
cuando se realizan tareas que implican inteligencia fluida (Esposito et al., 1999; Duncan
el al., 2000). Parece pues que la CPF ocupa un lugar relevante en los circuitos cerebrales
de la inteligencia aunque no sea la única región implicada.

Una forma de diferenciar los circuitos neuronales asociados con la inteligencia es


comparar sujetos con diferente nivel intelectual y buscar correlaciones de esas diferencias
en los patrones de actividad cerebral; varios estudios han avanzado en esta dirección.
Sharon Arffa (2007) evaluó el rendimiento de tres grupos de estudiantes que diferían en
su CI en pruebas de funcionamiento ejecutivo y no ejecutivo. Comprobó que los jóvenes
con un CI más alto obtuvieron mejores resultados en los tests ejecutivos que el resto de
estudiantes, pero estas diferencias no se observaron en las pruebas no ejecutivas. Otro
estudio en el que se compararon estudiantes superdotados con otros que no lo eran (Lee
et al., 2006) demostró que los primeros mostraban una activación mayor en circuitos
frontales y parietales, especialmente en las áreas 7B y 40B, sugiriendo que el mayor

336
rendimiento intelectual no depende de la utilización de más áreas cerebrales sino del
fortalecimiento de las conexiones entre las regiones frontales y parietales. Parece claro
que la inteligencia superior podría estar determinada por una mayor eficiencia en la
transferencia de la información entre áreas cerebrales, lo que implica una organización
estructural de los circuitos cerebrales que facilite el flujo de información (autopistas
frente a caminos) tanto entre áreas próximas como entre áreas distantes. Esta
organización también se puede comprobar cuando el cerebro está en reposo, es decir,
cuando no está sometido a ninguna exigencia cognitiva. Un estudio con neuroimagen
funcional comprobó que existían diferencias individuales en la conectividad cerebral en
reposo según el nivel intelectual de los sujetos (Song et al., 2008). Analizaron la fuerza
de las conexiones entre la CPFDL y otras áreas cerebrales y buscaron correlaciones con
el nivel intelectual de los sujetos; encontraron correlaciones positivas especialmente en
regiones frontales y parietales y comprobaron que, tanto la conectividad intrínseca de la
CPFDL como la conectividad entre esta región y áreas corticales posteriores, eran
indicadores fiables del nivel de inteligencia de los sujetos. Cuando se habla de inteligencia
superior a lo normal, superdotación o altas capacidades hay que abandonar el concepto
tradicional y considerar que estamos ante niños que pueden expresar su maestría en
múltiples direcciones (Martín Lobo, 2004), es decir, no solamente destacan en una
habilidad o capacidad concreta (lenguaje, matemáticas, razonamiento...) sino también en
un abanico de ellas que implican a circuitos cerebrales diversos.

Está claro pues que la inteligencia depende más de la conectividad entre estructuras
cerebrales que del funcionamiento intrínseco de estas. Los estudios con técnicas de
neuroimagen han relacionado medidas de inteligencia general con la actividad de una red
neuronal que incluye regiones frontales y parietales (Woolgar et al., 2010). La teoría de la
Integración Parieto-Frontal de la inteligencia (PFIT, del inglés Parieto-Frotal Integration
Theory) desarrollada por Jung y Haier (2007) en un intento de integrar los resultados
obtenidos en numerosos trabajos de investigación, describe una red de estructuras
interconectadas que se acerca bastante a lo que se puede considerar el circuito de la
inteligencia. Los autores parten de la premisa de que los seres humanos obtienen la
información más relevante para su funcionamiento cognitivo a través de los canales
visual y auditivo, por lo que las áreas sensoriales asociativas respectivas (áreas 18B, 19B,
22B, 37B) intervendrán en el reconocimiento, la percepción y la elaboración de los
estímulos correspondientes. El resultado del procesamiento de esta información es
transferido a regiones parietales (áreas 7B, 39B y 40B) donde, de la integración de estas
señales, surgen representaciones abstractas y simbólicas más complejas. La corteza
parietal mantiene conexiones con áreas frontales (por ejemplo, 6B, 9B, IOB, 45B, 46B y
47B) las cuales se ocupan de evaluar posibles opciones de respuesta ante un problema
determinado. Cuando se ha encontrado una respuesta que se considera adecuada, la
corteza cingulada anterior (32B) pone en marcha esta respuesta al tiempo que inhibe
otras automáticas que no son adecuadas. Por último, el modelo recalca la importancia de
las conexiones entre estas áreas para que la transmisión de las señales se haga de manera

337
fluida y sin cometer errores. Es decir, es importante el procesamiento de la información
que se realiza en las regiones correspondientes pero también lo es, incluso más, que
dichas regiones puedan intercambiar señales entre ellas de manera ágil y precisa para que
el resultado sea una conducta inteligente.

Figura 14.3. Circuitos cerebrales para la inteligencia según el modelo P-FIT. (adaptado a
partir del texto e imagen de Jung y Haier, 2007).

La propuesta de este modelo considera que la conducta inteligente requiere del


procesamiento de estímulos sensoriales específicos, de la integración de esas señales en
representaciones multimodales y de la combinación de todos ellos en los circuitos
frontales ejecutivos. Esto requiere un flujo permanente de información entre las áreas
implicadas no solo en sentido ascendente sino también pro yecciones top-down desde las
regiones prefrontales. La configuración de las conexiones tanto de corta como de larga
distancia entre estas estructuras correlaciona de manera significativa con indicadores de
inteligencia fluida (Penke et al., 2012; Haász et al., 2013) lo cual indica la importancia
que este aspecto tiene a la hora de explicar la base neurobiológica de la inteligencia.

338
Parece razonable pensar entonces que la inteligencia es el resultado del correcto
funcionamiento de diversos circuitos cerebrales a la hora de procesar información y de la
capacidad del sistema para difundir los resultados de ese procesamiento de manera
precisa y rápida entre esos circuitos.

14.2.2. Funcionamiento ejecutivo, inteligencia y creatividad


La existencia de relaciones entre el funcionamiento ejecutivo y la inteligencia parece no
ofrecer dudas, aunque sí las haya acerca de la naturaleza de las mismas, dudas que solo
podrán resolverse cuando se establezcan modelos consensuados y con base empírica
(neuropsicológica) para ambos constructos. Comparten circuitos cerebrales y el análisis
de los subprocesos respectivos arroja correlaciones aceptables. Podemos añadir
complejidad al asunto si consideramos un tercer elemento y tratamos de incorporarlo al
análisis: la creatividad.

Al igual que inteligencia y funciones ejecutivas, el estudio de la creatividad presenta


una serie de dificultades que empiezan por la propia definición del término. Es un
proceso (o cualidad, o capacidad...) que ha generado mucho interés científico en los
últimos años, lo que ha llevado a una fragmentación operativa del concepto. Es decir, si
hace años se hablaba de creatividad como una capacidad global que podía poseer o no un
individuo, en los últimos tiempos se presta más atención a los componentes del
pensamiento creativo. El problema es que, ante dicha fragmentación, quienes se interesan
por un aspecto concreto desconocen con frecuencia lo que se está haciendo en otros
(Hennessey y Amabile, 2010). No es nuestra intención profundizar en modelos sobre
creatividad o en revisar las definiciones que se manejan habitualmente. Nos limitaremos a
reflexionar sobre aquellos puntos de conexión con la inteligencia y con las funciones
ejecutivas.

Como punto de partida podemos aceptar el planteamiento de Sternberg y Lubart


(1999) quienes mantienen que la creatividad es la capacidad para llevar a cabo un trabajo
que es novedoso y adecuado. Es decir, debe ser una idea original que resulte útil,
apropiada y que aporte alguna ventaja o solución a un problema. Dietrich (2004) añade
además que el pensamiento o la conducta creativa pueden surgir de un modo deliberado
o espontáneo y ser puesto en funcionamiento mediante componentes cognitivos o
emocionales, lo que da lugar a cuatro posibles combinaciones que caracterizan la
actividad creativa:

-Deliberado/cognitivo (D/C): Hace referencia al proceso por el cual se maneja


información diversa de manera intencionada para alcanzar un objetivo novedoso o
complejo para el que no tenemos soluciones previas.

-Deliberado/emocional (D/E): de un modo intencionado se van activando


representaciones emocionales que puedan hacer surgir el proceso creativo o la
explicación novedosa para un enigma.

339
-Espontáneo/cognitivo (E/C): la asociación casual de representaciones sensoperceptivas
puede dar como resultado una combinación creativa (se enciende la bombilla).

-Espontáneo/emocional (E/E): representaciones novedosas que pueden surgir de


manera no planificada como consecuencia de estados emocionales intensos. Por
ejemplo, la explosión creativa de un artista.

Por supuesto que estos cuatro perfiles creativos no son independientes entre sí sino
que están estrechamente interrelacionados hasta el punto de que, lo normal es que
cualquier experiencia creativa sea el resultado de una cierta combinación de parte de
estos componentes más que de un perfil puro.

¿En qué medida o de qué modo están relacionadas inteligencia y creatividad? Este ha
sido y es un tema de debate importante y las conclusiones a las que llegan unos y otros
no suelen satisfacer a todos. Nuevamente el problema conceptual es el que lastra la
posibilidad del consenso. La teoría del umbral sostiene que la creatividad requiere un
nivel de inteligencia alto o al menos por encima de la media como requisito
imprescindible, pero no suficiente (Guildford, 1967). Claro, otra vez el problema es
cómo medimos la inteligencia, si se trata de inteligencia fluida o cristalizada (o ambas) y a
qué componentes de la creatividad (en el caso de aceptar la propuesta de Dietrich) nos
estamos refiriendo al buscar relaciones. Un estudio que trataba de relacionar el factor g
con diferentes tareas que requerían soluciones creativas (por ejemplo, usos posibles de
un secador de pelo) confirmó parcialmente la teoría del umbral (Jauk el al., 2013).
Encontraron que, efectivamente, el comportamiento creativo se manifestaba en sujetos
con un nivel intelectual alto pero, a partir de cierto umbral, lo que determinaba la
creatividad parecía estar más relacionado con la personalidad de los sujetos.

Quizá la solución tengamos que alcanzarla por la vía neuropsicológica, buscando las
redes neurales responsables y si son similares a las implicadas en la inteligencia y en el
funcionamiento ejecutivo. La creatividad surge de procesos cognitivos normales por lo
que se puede abordar como estos desde el ámbito de la psicobiología, en general, y la
neuropsicología, en particular. Como en otros procesos mentales, las técnicas de
neuroimagen han proporcionado un considerable avance en el conocimiento de los
circuitos cerebrales responsables de la creatividad. También como en otros procesos
mentales, resultaría inútil buscar una es tructura cerebral donde resida la creatividad, en
lugar de eso hay que identificar los circuitos implicados y comprender, en la medida de lo
posible, el papel de cada uno de ellos. Partiendo entonces de estas premisas hay que
suponer que intervienen los mismos circuitos que soportan los procesos cognitivos
normales. Sin embargo, al considerar la creatividad como la capacidad de combinar de
forma novedosa información previamente conocida, es de suponer que algún circuito
cerebral debe ser el que active y relacione de manera novedosa los circuitos que soportan
las representaciones de la información conocida.

340
La creatividad puede surgir espontáneamente como hemos comentado pero en otras
ocasiones es el resultado de un esfuerzo dirigido a la resolución de un problema o al logro
de un objetivo. Este primer punto vincula, aunque de modo elemental, el funcionamiento
ejecutivo con la creatividad ya que en ambos casos está implicada la CPF. Esta área será
la que, echando mano de la información almacenada en la MLP, generará posibles
soluciones para dicho problema. Por lo tanto, además de la CPF intervendrían también
las regiones corticales posteriores parieto-temporo-occipitales y límbicas donde se
almacenan las representaciones de memoria y las emociones. Damasio (2001) considera
crucial la MT para la creatividad ya que permite mantener en la mente la información
necesaria para resolver un problema. Las lesiones de la CPF ocasionan un tipo de
alteraciones cognitivas que se denominan perseveraciones (Barceló y Knight, 2002), que
consisten en repetir una conducta a pesar de que con ella no se alcanza el objetivo
perseguido. La creatividad se caracteriza por todo lo contrario, ante una conducta que no
resulta eficaz, se generan rápidamente nuevas alternativas para alcanzar el objetivo.

La MT suele operar con esquemas conocidos pero que, según las demandas de la
tarea, pueden ser combinados de manera novedosa. Nuevamente estamos usando
conceptos intercambiables puesto que estas combinaciones novedosas ya hemos dicho
que son propias de la creatividad. Una combinación novedosa implica cambiar esquemas
de conducta ya utilizados, es decir, sustituir ciertos esquemas que han demostrado su
utilidad en algún momento del pasado e incorporar de manera, digamos, experimental,
nuevas acciones. La posibilidad de ejecutar estos cambios depende claramente de
regiones prefrontales, concretamente de la CPF medial y el cingulado anterior (Bissonette
et al., 2013), pero también intervienen áreas parietales (Asari et al., 2005). Además, para
poner en marcha una conducta novedosa hay que inhibir respuestas automáticas o
inadecuadas que puedan interferir con la acción programada; también son las regiones
prefrontales las que se ocupan de ello (Rodrigo et al., 2014). Por último, la creatividad
requiere flexibilidad cognitiva para poder generar combinaciones poco habituales e
integrar representaciones que no parecen compatibles a priori pero que resultan eficaces.
A nadie va a sorprender ya que digamos que es la CPF la que permite este proceso
(Logue y Gould, 2013). Tenemos entonces las mismas regiones a las que, de un modo u
otro, nos venimos refiriendo a lo largo del capítulo, pero también hemos hablado, tanto
en el caso de funciones ejecutivas como de la inteligencia, de la importancia de la
conectividad para que estos procesos tengan lugar de manera eficiente. Un trabajo de
Takeuchi et al. (2010) encontró una alta correlación entre la integridad de la sustancia
blanca cerebral y el rendimiento en pruebas de pensamiento divergente, considerado este
como una medida fiable de la creatividad de un sujeto.

Parece claro que creatividad, inteligencia y funcionamiento ejecutivo son conceptos


con un cierto grado de solapamiento que poseen una base neuroanatómica y
neurofuncional común. Falta mucho camino para definir operativamente estos conceptos
y elaborar teorías unificadas y unificadoras, pero la trayectoria parece marcada. Es

341
necesario ahora elaborar estudios que incorporen hipótesis creativas y diseños inteligentes
para seguir progresando en esta dirección.

342
343
Con el propósito de poner en práctica unos principios ecológicos, económicos y
prácticos, el listado completo y actualizado de las fuentes bibliográficas empleadas por el
autor en este libro se encuentra disponible en la página web de la editorial:
www.sintesis.com.

No obstante, incluimos a continuación una selección de textos que pueden ser


utilizados para ampliar y complementar los contenidos del libro.

Artigas-Pallarés, J. y Narbona, J. (2011). Trastornos del neurodesarrollo. Barcelona,


Viguera.

Bartrés, D. y Redolar, D. (2008). Bases genéticas de la conducta. Barcelona, Editorial


OUC.

Carlson, N. R. (2010). Fundamentos de fisiología de la Conducta. Madrid, Pearson.

Cuetos, F.Neurociencia del Lenguaje. Bases neurológicas e implicaciones clínicas.


Madrid, Médica Panamericana.

Damasio, A. (2007). El error de Descartes. Barcelona, Drakontos.

Damasio, A. (2007). En busca de Spinoza: neurobiología de la emoción y los


sentimientos. Barcelona, Drakontos.

Del Abril, A., Ambrosio, E., Blas, M. R., Caminero, A. A., García, C. y de Pablo, J. M.
(2011). Fundamentos de Psicobiología. Madrid, Sanz y Torres.

Freides, D. (2002). Trastornos del desarrollo: un enfoque neuropsicológico. Barcelona,


Ariel Neurociencia.

Junqué, C., Barroso, J. y Domingo, J. (2009). Manual de neuropsicología. Madrid,


Síntesis.

Kolb, B. y Whishaw, I.Q. (2006). Neuropsicología humana. Madrid, Médica


Panamericana.

Llinás, R. R. (2003). El cerebro y el mito del yo. Barcelona, Belacqua.

Marina, J. A. (2012). La inteligencia ejecutiva. Barcelona, Ariel.

Martín Lobo, P. (2004). Niños inteligentes. Guía para desarrollar sus talentos y altas

344
capacidades. Madrid, Ediciones Palabra.

Martín-Loeches, M. (2001). ¿Qué es la actividad cerebral? Madrid, Biblioteca Nueva.

Martínez-Conde, S., Macknik, S. L. y Blakeslee, S. (2013). Los engaños de la mente.


Barcelona, Destino.

Mora, F. (2008). El científico curioso: la ciencia del cerebro en el día a día. Madrid,
Temas de Hoy.

Mora, F. (2013). Neuroeducación. Madrid, Alianza Editorial.

Morgado, 1. (2005). Psicobiología. De los genes a la cognición y el comportamiento.


Barcelona, Ariel.

Ortiz, T. (2009). Neurociencia y educación. Madrid, Alianza Editorial.

Pinel, J. P. J. (2001). Biopsicología. Madrid, Prentice Hall.

Portellano, J. A. (2007). Neuropsicología infantil. Madrid, Síntesis.

Ramachandran, V. S. (2012). Lo que el cerebro nos dice. Los misterios de la mente


humana al descubierto. Barcelona, Paidós.

Redolar, D. (2013). Neurociencia cognitiva. Madrid, Médica Panamericana.

Rosenzweig, M. R., Breedlove, S. M. y Watson, N. V. (2005). Psicobiología. Una


introducción a la neurociencia conductual, cognitiva y clínica. Barcelona, Ariel.

Schacter, D. L. (2007). Los siete pecados de la memoria. Barcelona, Ariel

Smith, E. E. y Kosslyn, S.M. (2007). Procesos cognitivos. Modelos y bases neurales.


Madrid, Pearson Educación.

Tirapu, J., Ríos, M. y Maestú, F. (2008). Manual de Neuropsicología. Barcelona,


Viguera.

345
Índice
Prefacio 15
Abreviaturas más frecuentes 18
1. Introducción a la psicobiología 22
1.1. Concepto de psicobiología 24
1.2. La psicobiología en la historia 26
1.2.2. El surgimiento de la psicobiología, 29
1.3. Psicobiología, neurociencia y disciplinas relacionadas 39
1.4. Psicobiología y educación 40
2. Investigación psicobiológica en educación 43
2.1. Medición de la conducta en psicobiología 45
2.1.2. Evaluación conductual en modelos animales, 46
2.1.3. Evaluación neuropsicológica, 55
2.2. Estudio de la estructura y la actividad del sistema nervioso 59
2.2.2. Técnicas funcionales, 62
2.3. Investigación neuropsicológica en educación 66
2.3.1. Investigación y neuromitos, 66
2.3.2. Investigación aplicada, 68
3. Genes, herencia y conducta 71
3.1.1. Células, cromosomas y biomoléculas, 73
3.1.2. Expresión génica y epigenética, 76
3.2. Transmisión de los caracteres hereditarios 81
3.2.1. Leyes de Mendel, 81
3.2.2. Tipos de transmisión genética, 84
3.3. Alteraciones cromosómicas 88
3.4. Genes y conducta 89
4. Organización del sistema nervioso 94
4.1.2. Células filiales, 98
4.2.1. Comunicación intraneuronal, 99
346
4.2.2. Comunicación interneuronal, 103
4.3. Estructura del sistema nervioso 105
4.3.2. Sistema nervioso periférico, 107
4.3.3. Neuroanatomía funcional del sistema nervioso central, 108
5. Neurodesarrollo y cognición 116
5.1.1. Desarrollo estructural, 118
5.1.2. Diferenciación y maduración neuronal, 119
5.1.3. Desarrollo postnatal del sistema nervioso, 122
5.2. Ambiente, experiencia y desarrollo cerebral 124
5.2.1. Plasticidad en el sistema nervioso, 125
5.2.2. Periodos críticos o sensibles, 127
5.3. Desarrollo neurocognitivo 130
5.4. Vulnerabilidad del sistema nervioso durante el desarrollo 134
6. Funcionamiento cerebral 137
6.1. Evolución del cerebro 139
6.2. Organización y funcionamiento cerebral 142
6.2.2. Corteza cerebral, 146
6.2.3. Organización de los circuitos cerebrales, 149
6.3. Asimetría cerebral 152
6.3.1. Asimetrías estructurales, 153
6.3.2. Asimetrías funcionales, 153
6.4. Daño cerebral 155

347

También podría gustarte