Procesamiento de Palabras

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 66

TEMA 4

Procesamiento de Palabras

¿Cuántas palabras conoce una persona? No hay que perder de vista que cualquier hablante
comprende muchas más palabras de las que emplea. Existen varias estimaciones al respecto;
podría resumirse que una persona con una cultura media de bachillerato conoce, en su
sentido más amplio, entre 40.000 y 80.000 palabras (Miller y Gildea, #). Este margen tan
laxo depende de cómo se haga el cómputo: si se incluyen o no los nombres propios de
personas o lugares, expresiones idiomáticas, etcétera. Si un bachiller conoce 80.000 palabras
y tiene 16-17 años, significa que a lo largo de su vida ha aprendido un promedio de 5.000
palabras anuales, es decir 13 diarias (Miller y Gildea, #).

Normalmente entendemos la palabra como la unidad mínima de una lengua dotada de


significado. En sentido estricto, es el morfema la unidad mínima con significado. Los
morfemas pueden constituir palabras por sí mismos (p.e. "cárcel"), o ser apéndices de otras
palabras (p.e. la –s de "gatos", la a– de "anormal"). Los primeros son los morfemas libres,
mientras que los segundos se conocen como morfemas ligados. Estos últimos modifican el
significado del resto de la palabra y pueden ir delante (prefijos) o detrás (sufijos) de la raíz o
lexema. Lexema es el morfema o parte de la palabra que tiene significado autónomo e
independiente; por ejemplo, en la palabra "gatas" la raíz o lexema es "gat", mientras que el
sufijo –a añade significación de género femenino y el sufijo –s de número plural.

Gracias a los morfemas ligados se alteran los significados de los lexemas. En ese sentido,
cabe distinguir entre morfemas derivativos y morfemas flexivos. Los primeros crean, por
derivación, nuevas palabras, ya que modifican significativamente al lexema, cambian
completamente su significado dando lugar a otra palabra distinta. Así, el prefijo des– cambia
"cansar" por "descansar", "acuerdo" por "desacuerdo", que tienen significados contrarios.
Aquí los lingüistas hablan de palabras primitivas, que sirven de base ("árbol", "cuchara",
"vivir"), y palabras derivadas ("arboleda", "cucharada", "convivir"), que se han originado a
partir de las primitivas. Los morfemas flexivos, por el contrario, no alteran
significativamente a la raíz o lexema. Permiten la flexión de las palabras al codificar el
2 Psicología del Lenguaje

número, género, o el tiempo verbal. Así "gato", "gatos", "gata", "gatas" no son palabras
completamente diferentes con significados distintos; tampoco lo son "comió" y "comías".

Si evocamos una palabra en nuestra mente, activamos todo un conjunto de información.


Por supuesto, activamos su significado, aunque éste puede variar notablemente en cuanto a
su precisión. Así, yo conozco mejor el significado de la palabra "tuerto" que el de la palabra
"cigüeñal". Sé que la segunda designa a una pieza del motor de un vehículo, pero no estoy
seguro de su función y probablemente no la identificaría entre otras piezas del motor.
Además del significado, activamos información fonológica o el conjunto de sonidos que
componen la palabra. También activamos información ortográfica, desde el momento en
que sabemos escribirla; es decir, dibujar los grafemas o letras que la representan en el
lenguaje escrito. Por otra parte, sabemos que "perro" es un nombre masculino singular,
"blando" es un adjetivo, "dormir" es un verbo, etcétera. Y sabemos qué funciones puede
desempeñar cada palabra dentro de la oración. Estas dos clases de información, morfológica
y sintáctica, corresponden a un conocimiento implícito que tengo como hablante de una
lengua, independientemente de que lo haya estudiado o no en la escuela. Si tengo
conocimientos de Gramática podré hacerlo explícito, seré capaz de nombrar que esto es del
género masculino y aquello del número plural; pero, aunque jamás haya pisado un colegio,
dispongo de esa información morfosintáctica de modo implícito y la manejo
apropiadamente todos los días, a todas horas, cuando hablo y escucho lenguaje. Sin saber
media palabra de morfología o sintaxis, podré decir que en el hueco de la frase "los _______
eran preciosos", puede ir cualquiera de estas palabras: "coches", "circos", "gatos", etc., pero
ninguna de estas: "mar", "saltan", "María", "gallinas", etc. Seré capaz de indicar que la frase
"el campo está muy verde después de la lluvia" está bien contruida, puede ser una oración
en mi idioma, pero no "campo el está muy después verde de lluvia la". Son ese tipo de
pruebas que los lingüistas aplican a los nativos de una lengua cuando la estudian por
primera vez.

Cuando hablamos o escuchamos lenguaje de forma comprensiva –que es lo habitual–,


debemos activar palabras en nuestro cerebro, a razón de dos o tres veces por segundo.
¿Cómo lo hacemos? Cualquiera que sea el mecanismo de activación, es evidente que éste
deber ser:

• rápido: pues, como hemos dicho, generalmente ocurre en menos de un segundo.


• muy eficiente: a fin de cuentas, se trata de activar una unidad léxica entre decenas
de miles posibles.

La activación de palabras en nuestra mente tiene lugar no sólo en el uso del lenguaje
hablado, sino también en el escrito, al leer y escribir. Las principales diferencias se
derivarían de la naturaleza física del estímulo y sus consecuencias perceptivas, pero nada
hace pensar que los procesos centrales de comprensión sean sustancialmente diferentes en
ambas modalidades. La distinción más importante es que la señal de habla se distribuye en
el tiempo y es evanescente, mientras que la escritura se distribuye en el espacio y es
permanente. Además, como vimos al tratar la percepción del lenguaje, el estímulo del habla
es mucho más variable que el escrito y no presenta límites claros entre sus componentes.

Antes de entrar a considerar los procesos mentales que operan en el procesamiento de las
palabras, debemos conocer algunos principios generales relacionados con la estructura del
léxico de las lenguas.
4. Procesamiento de Palabras 3

ESTRUCTURA DEL LÉXICO DE LAS LENGUAS

Todas las lenguas del mundo disponen de vocabularios formados por miles de palabras. La
22ª edición, de 2001, del Diccionario de la Real Academia Española (DRAE; desde abril de
2005, se puede consultar en internet los avances de la 23ª edición: http://www.rae.es/),
recoge 88.431 lemas o entradas, y se sirvió del Banco de Datos del Español, que entonces
contaba con más de 270 millones de registros acumulados a través de los años. Otro tanto se
podría decir del inglés y otras lenguas.
A pesar de la diversidad, los vocabularios de las distintas lenguas se ajustan a unos
principios generales que detallamos a continuación. Nos detendremos sobre todo en la
distinción entre dos tipos básicos de palabras y la ley de Zipf en la frecuencia de uso.

Dos vocabularios básicos

Es posible distinguir entre dos clases de palabras muy diferentes que, según indican los
datos, se procesan de forma distinta en el cerebro humano. Desde el punto de vista
lingüístico (Figura#), corresponden a las llamadas categorías mayores o de clase abierta
(nombres, verbos, adjetivos y algunos adverbios) y a las categorías menores o de clase
cerrada (artículos, preposiciones, conjunciones, auxiliares, etc.). Se puede ver una revisión
en castellano en el capítulo de Sánchez Casas y García-Albea (1986).

Las palabras de clase abierta, o palabras de contenido, poseen significado pleno y son, con
diferencia, el grupo mayoritario, formado por decenas de miles de vocablos. Se llaman de
clase abierta porque constituye un conjunto que continuamente, a través de los años, va
incorporando nuevos términos. En español, normativamente se encarga de esa tarea la Real
Academia Española a través del DRAE, cuyas sucesivas ediciones incorporan miles de
nuevos vocablos, casi todos de clase abierta. En el uso diario del lenguaje, con frecuencia
creamos nuevos términos: "he visto un jersey amarillo pistacho que me ha encantado", si al
dia siguiente decimos "he visto un jersey apistachado que me ha encantado", y se extiende
su uso, podríamos haber creado un nuevo adjetivo para una tonalidad de color. Esto es lo
que sucede con los nombres, verbos y adjetivos calificativos. También el avance tecnológico
obliga a crear o aceptar nuevas palabras para nuevos objetos (p.e. "spray" está aceptado en
el DRAE; por cierto, ¿alquien sabe cómo se llama el "pitorrito" de un spray?).

Pero ¿cuantos siglos tienen que pasar para que un idioma incorpore un nuevo artículo, una
nueva preposición o una conjunción? Se trata de un club selecto al que sólo pertenecen unos
pocos miembros, dos o tres centenares de palabras a lo sumo. La clase cerrada o palabras
de función (también llamadas functores), se componen de elementos sin contenido
semántico pleno, que sirven para modificar el significado de las otras palabras y establecer
relaciones entre ellas. No es lo mismo "ir a Valencia" que " ir desde Valencia", "estar en la
caja" que "estar sobre la caja", etcétera. Para Aitchison (1987, berko), las palabras de
función son el cemento del lenguaje que mantiene unidos a los ladrillos formados por las
palabras de contenido. Juegan un papel clave en la construcción de la estructura sintáctica y
transmiten información esencial para la asignación de funciones dentro de la oración.
Compárese, por ejemplo, "el hombre que insultó a Juan" y "el hombre al que insultó Juan";
los papeles de sujeto y objeto cambian completamente a causa de las palabras de función.
Por otra parte, estas "palabras" –algunos lingüistas les niegan este estatus– son pocas pero
están "hasta en la sopa", son de uso muy frecuente en el idioma. Los recuentos del inglés
escrito muestran que la palabra más usada es "the" (el, la los, las); después van "of" (de),
4 Psicología del Lenguaje

"and" (y), y otras palabras de función (Miller, 1984). En castellano, como se verá luego, la
palabra mas frecuente es "de", según la base LEXESP, y le siguen "la", "que", "y", "el",
"en", etcétera, todas también de función. Por la misma razón, estas palabras son bastante
más cortas que las de contenido. Cuesta imaginar un idioma en el que, pongamos por caso,
la conjunción "y" tuviera tres o cuatro sílabas.

CLASE ABIERTA CLASE CERRADA


cabeza coche esperanza beber mal
azul blando comer libro dulce
rápidamente mesa camino ágil mar
clavo brillante marfil dormir la por el a
alto amable foto monte uña que ese de
silla manzana carpeta saltar sol y se en
cruelmente mujer tolerancia hasta pero
ver ordenador viga mar correr con ......
hablar taberna camino
goma lejano verde muñeca miel
cine calle mojado estirar ciego
...... ....... ....... palabras de función
palabras de contenido
pocas
decenas de miles muy frecuentes
cortas

Figura# En cualquier lengua existen dos tipos de vocabularios con características distintas: palabras de
clase abierta, o de contenido, y palabras de clase cerrada, o de función.

Hay evidencias de que la representación y procesamiento de ambos tipos de vocabulario


presentan importantes diferencias. Destacaremos las siguientes:

• Lesiones cerebrales: Una lesión puede afectar selectivamente más a un tipo de


vocabulario que al otro. En la afasia de Broca hay una mayor dificultad para
manejar las palabras de función que las de contenido. Aquí, el lenguaje telegráfico y
los problemas de manejo y compresión de las estructuras sintácticas (agramatismo)
están asociados, sobre todo, a dificultades con las palabras funcionales. Éstas sin
embargo se hallan relativamente preservadas en la afasia de Wernicke, cuyos
pacientes no entienden ni producen las palabras de contenido. La "jerga"
incomprensible que generan los afásicos de Wernicke, y sus graves dificultades para
comprender el lenguaje, se derivan principalmente del deterioro en el procesamiento
de palabras de contenido.
• Adquisición del lenguaje: En el desarrollo de la primera lengua se observan
marcadas diferencias entre ambos tipos de palabras. Se sabe que la aparición del
vocabulario de clase cerrada es mucho más tardía que la del vocabulario de clase
abierta. Las primeras palabras infantiles son fundamentalmente de clase abierta (o de
contenido). Más adelante, los niños y niñas atraviesan una etapa en la que omiten
4. Procesamiento de Palabras 5

morfemas y palabras funcionales como las preposiciones, conjunciones, etc. dando


lugar a lo que se conoce por "lenguaje telegráfico".
• Resultados experimentales y observacionales: Experimentos con adultos sanos
arrojan resultados distintos con unas y otras palabras. Como después veremos, la
frecuencia de uso es una variable que tiene un poderoso efecto en la identificación
de las palabras, pero esto sucede sólo con las de contenido; parece que las palabras
de función no se ven afectadas por la frecuencia léxica en la misma medida
(Bradley, 1978; Bradley y Garrett, 1980). Este hallazgo también se ha replicado en
castellano (García-Albea, 1980; García-Albea y cols., 1982). Hay trabajos que ponen
de manifiesto una mayor "invisibilidad" de las palabras de función, en tareas que
consisten en identificar rápidamente una letra particular sobre un texto. La
probabilidad de omisión es mucho mayor cuando la letra forma parte de una palabra
de función que de contenido (Drenowski y Healy, 1977; Haber y Schindler, 1981).
También aparecen resultados diferenciales usando la técnica RSVP, o "presentación
visual serial rápida" de palabras (Garrett y Cutler, 1976; en castellano: Garret y
García-Albea, 1982).
En el terreno de la producción del lenguaje también se observan diferencias
notables. El fenómeno de la punta de la lengua sólo ocurre con palabras de
contenido; es un estado especial en el que el hablante tiene la certeza de que conoce
una palabra, pero no es capaz de decirla, al tiempo que experimenta la sensación de
que su recuperación es inminente: la tiene "en la punta de la lengua", a punto de
brotar en cualquier momento. Además de este fenómeno, en la vida cotidiana hay
innumerables ocasiones en que tenemos problemas para localizar y pronunciar una
palabra que sabemos; pero, si nos fijamos, sólo sucede con palabras de contenido.
Ocurre sobre todo cuando la palabra es de uso poco frecuente y nuestra atención y
recursos cognitivos están empleados en otra tarea. Imaginémonos enfrascados con el
ordenador y que un familiar nos pregunta por el paradero de un objeto. Sabemos que
está, pongamos por caso, sobre la "cómoda", pero no nos sale en ese momento: "está,
allí, en la salita, sobre la...., sobre la...., sobre la ....", hasta que al final nos paramos,
dejamos el ordenador, y redirigimos (con cierta impaciencia) toda nuestra atención a
la tarea de localizar la palabra en la mente: "está sobre ¡la cómoda!". Repárese que
en ningún momento ha habido problemas con las palabras de función "sobre", "la",
etc.; éstas han surgido de forma fluida y automatizada.
Los errores del habla también muestran patrones diferenciados (Garrett, 1976,
1984, 1988). Los errores consistentes en el intercambio de elementos suelen suceder
con las palabras de contenido, o más exactamente sus raíces: "¡Traga, tiérrame!" (por
"¡Tierra trágame!"); "Ha habido una médica de huelgos" (por "Ha habido una huelga
de médicos); obsérvese, además, el "anclaje" de los sufijos, que permanecen en sus
sitios (los ejemplos son del corpus de Del Viso y cols#).

Frecuencia de uso. Ley de Zipf

Todos los miles de palabras que tiene una lengua no se usan por igual. Los diccionarios de
frecuencias nos muestran que hay una distribución muy jerárquica entre los vocablos, en lo
que se refiere a su uso. Estos diccionarios se construyen haciendo recuentos a partir de un
corpus o un conjunto amplio de muestras naturales de lenguaje, generalmente escrito,
extraídas de ámbitos muy variados (literatura, revistas, periódicos, ensayos, etc.). Los datos
obtenidos en muchos idiomas arrojan un mismo patrón general: unas pocas palabras, sobre
todo las de función, se usan muchísimo, mientras que otras se emplean en pocas ocasiones;
y entre ambos extremos se distribuye todo el conjunto. Algunos estudios comparativos
6 Psicología del Lenguaje

encuentran ciertas diferencias entre el lenguaje oral y escrito, pero en lo sustancial esta
pauta se mantiene.

Durante bastantes años se empleó como referencia en castellano el Diccionario de


Frecuencias de Juilland y Chang-Rodríguez (1964), construido a partir de un corpus de
medio millón de palabras, utilizando la tecnología del momento basada en las tarjetas
perforadas. Pese a su antigüedad y el reducido tamaño de la muestra, contaba con la virtud
de un tratamiento individualizado de cada vocablo, diferenciando entre homógrafos o
palabras distintas que se escriben igual, p.e. "que" pronombre y "que" conjunción, "haya",
nombre de arbol y "haya", del verbo haber. Esto no es posible si el recuento se reduce a un
simple escaneo de textos. Hoy contamos con trabajos más recientes y voluminosos, como el
Diccionario de Frecuencias de Alameda y Cuetos (1995), elaborado desde la Universidad de
Oviedo, y que abarca dos millones de palabras, y el LEXESP (Léxico informatizado del
español) (Sebastián-Gallés, et al., 2000), integrado por un corpus de cinco millones.

El corpus LEXESP incluye un conjunto de exactamente 5.020.930 unidades léxicas escritas,


y en su construcción participaron autores de varias universidades españolas. Se extrajeron
de modo informatizado desde seis dominios lingüísticos: Narrativa (329 obras), Divulgación
científica (2 revistas), Ensayo (88 obras), Prensa (7 diarios), Semanarios (4), y Prensa
deportiva (3). Todos los textos seleccionados son relativamente actuales, desde 1978 hasta
1995. Ofrece no sólo la frecuencia absoluta y relativa dentro del corpus, sino también otros
índices útiles en la investigación psicolingüística, como familiaridad, concreción,
imaginabilidad, etcétera.
Comparemos dos listados extraídos del LEXESP: uno formado por las 20 palabras más
usadas en el castellano escrito, y el otro por 20 palabras de frecuencia inferior (Tabla#). Las
diferencias son claras: las palabras más frecuentes son muy cortas y casi todas son
palabras de función, mientras que las otras son palabras de contenido y de mayor longitud.
Las 6 palabras más frecuentes ("de", "la","que", "y", "el", "en") explican por sí solas el 20 %
de las palabras usadas en el lenguaje escrito.

La distribución de las palabras ordenadas por sus frecuencias es muy asimétrica y


jerarquizada. Si se tratara de posesión de tierra, unos pocos terratenientes acumularían casi
toda la tierra en enormes latifundios, mientras que, en el otro extremo, una gran masa de
pequeños propietarios tendría minúsculos minifundios. En esta distribución, los
decrementos entre frecuencias consecutivas, empezando por la mayor, van disminuyendo a
medida que avanzamos en la misma. Así, el escalón entre la primera y segunda frecuencia
baja 72.245 unidades, entre la segunda y tercera baja 39.307, etcétera. Existen
irregularidades, pero estas diferencias se van acortando hasta que finalmente encontramos
muchas palabras que comparten la misma frecuencia; por eso, las unidades del segundo
listado tienen todas 133 ocurrencias. En fin, estas propiedades generales las encontramos en
todas las lenguas.
4. Procesamiento de Palabras 7

Tabla#. Dos conjuntos de palabras. El primero incorpora las 20 palabras con mayor frecuencia
de aparición en el castellano escrito. El segundo muestra 20 palabras de frecuencia mucho
menor. Compárese el tipo de palabras (contenido vs función) y su longitud. Datos del corpus
LEXESP (Sebastián-Gallés, et al., 2000) sobre un total de 5.020.930 unidades.

Palabra Frecuencia Palabra Frecuencia

de 264.721 crees 133


la 192.476 encontraban 133
que 153.169 entendido 133
y 140.438 explosión 133
el 139.594 frecuentes 133
en 116.302 guarda 133
a 91.317 hermanas 133
los 83.471 intelectuales 133
se 68.448 judíos 133
un 62.214 llegaban 133
no 55.505 monjas 133
las 53.823 moverse 133
del 49.124 occidente 133
una 47.975 sacado 133
con 47.170 seguían 133
por 40.050 sienten 133
su 39.522 sirvió 133
es 33.826 sospecha 133
lo 31.481 sucedió 133
para 27.646 tela 133

Ley de Zipf. Si ordenamos las palabras de una lengua por su frecuencia de uso, empezando
por la más frecuente, existe una relación matemática entre la probabilidad de ocurrencia o
aparición en el idioma (P) –es decir, la proporción o "tanto por uno"– y el puesto o rango (r)
que ocupa en esa ordenación. Esta relación viene dada por la fórmula:

P = 0,1 / r

y es conocida como la Ley de Zipf, en honor al lingüista George Kinsley Zipf, que la planteó
por primera vez (Zipf, 1949). Si esta función matemática se representa en un gráfica con
ejes logarítmicos, adquiere la forma de una línea recta de pendiente negativa -1. Zipf
demostró que esta relación matemática constituye una estimación bastante ajustada de las
probabilidades de uso de las palabras en muchas lenguas.
8 Psicología del Lenguaje

Hace tiempo se pensó que la ley de Zipf reflejaba alguna clase de principio psicobiológico
propio de la mente humana. Sirva de anécdota que se llegó a decir que si alguna vez
interceptábamos señales del espacio exterior, podríamos determinar si procedían de otros
seres inteligentes comparándolas con la ley de Zipf para ver si se ajustaban a la misma. Sin
embargo, más tarde se ha demostrado que esta regularidad estadística también puede darse
en procesos que suceden al azar (Miller, 1984).

Comprobemos la ley con datos recientes del castellano. Según la fómula, la primera palabra
(r = 1), o vocablo más frecuente, tendría una probabilidad frecuencial de 0,1, es decir, un
10% del conjunto de todas las ocurrencias léxicas. La siguiente sería 0,1 / 2 = 0,05 , o sea,
un 5 %. La tercera palabra tendría una probabilidad de aparición del 0,1 / 3 = 0,033, ó 3,3
%. Y así sucesivamente. Si aplicamos la ley de Zipf al universo de 5.020.930 unidades
contenidas en el corpus LEXESP (Sebastián-Gallés, et al., 2000), podemos calcular la
frecuencia teórica esperable para cada rango, simplemente multiplicando la probabilidad de
aparición por ese número.
Los resultados podemos verlos en la Tabla#, junto con las frecuencias empíricas, o datos
reales proporcionados por el corpus. Se ha hecho una selección de rangos que abarque un
intervalo amplio. La primera palabra ("de") aparece en el corpus 264.721 veces, y según la
ley de Zipf debería aparecer 502.093. La palabra que ocupa el lugar 20 ("para") aparece
27.645 veces y la ley predice [(0,1 / 20) x 5.020.930)] = 25.105. La que ocupa el lugar 2.000
aparece 220 veces, y la ley predice 251. Etcétera. Cuando representamos estos valores sobre
ejes logarítmicos, obtenemos la gráfica de la Figura#. En ella, las frecuencias teóricas
corresponden a la línea recta, de pendiente negativa, tal como establece la Ley de Zipf; las
frecuencias empíricas están representadas por la línea irregular que la sigue muy de cerca.
Puede apreciarse que hay un ajuste razonablemente bueno entre ambas.

¿Por qué se emplean ejes logarítmicos? Su uso es habitual en las distribuciones muy
asimétricas, como es este caso. Una gráfica de ejes lineales no sería útil porque en ella no
podría apreciarse ninguna información relevante. Como los primeros valores son muy
grandes respecto al resto de la distribución, "se comerían" visualmente a las otras
puntuaciones y obtendríamos dos líneas formando un angulo recto, literalmente pegadas a
los ejes (pruebe el lector a hacer la gráfica con ejes líneales a partir de los datos de la
Tabla#).
4. Procesamiento de Palabras 9

Tabla#. Frecuencias empíricas y frecuencias teóricas esperables según la ley de Zipf, para distintas
palabras ordenadas por su uso. Las frecuencias corresponden a valores absolutos de un total de
5.020.930 unidades léxicas. Datos del corpus LEXESP (Sebastián-Gallés, Martí, Carreiras, Cuetos,
2000).

Nº Frec. Frec. Nº Frec. Frec. Nº orden Frec. Frec.


orden empírica teórica orden empírica teórica empírica teórica
1 264.721 502.093 20 27.645 25.105 2000 220 251
2 192.476 251.047 40 7.933 12.552 2500 176 201
3 153.169 167.364 60 5.830 8.368 3000 148 167
4 140.438 125.523 80 4.157 6.276 3500 127 143
5 139.594 100.419 100 3.350 5.021 4000 110 126
6 116.302 83.682 250 1.467 2.008 10000 40 50
7 91.317 71.728 500 744 1.004 15000 24 33
8 83.471 62.762 750 521 669 20000 16 25
9 68.448 55.788 1000 405 502 25000 12 20
10 62.214 50.209 1500 289 335

Figura #. Ley de Zipf aplicada al castellano (explicación en el texto). La abscisa corresponde al


rango o puesto que ocupan las palabras ordenadas de mayor a menor frecuencia. La ordenada indica
las frecuencias absolutas sobre un universo de 5.020.930 unidades. Los ejes son logarítmicos. Los
datos empíricos pertenecen al copus LEXESP (Sebastián-Gallés, et al., 2000).
10 Psicología del Lenguaje

LÉXICO MENTAL

Tal como resumen Belinchón y colaboradores (1992), comprender una palabra implica
comparar y acoplar un estímulo externo (escrito o hablado) con estructuras de información
previamente representadas en la memoria del oyente. Aparentemente el proceso de
comprensión sucede de manera inmediata e instantánea. ¿Cuanto tiempo transcurre desde
que posamos la vista sobre la palabra MOSCA y evocamos mentalmente el insecto? Parece
que la comprensión es un estado mental que brota de forma repentina en nuestra
consciencia, sin ningún paso intermedio. Sin embargo, hoy sabemos que esta
"atemporalidad" es sólo aparente; la compresión es en realidad la culminación de un
conjunto complejo de subprocesos que ocurren de forma rápida y automatizada, y de los
cuales no somos conscientes, no podemos observarlos introspectivamente. Sólo somos
conscientes del resultado final.

Si comprender significa, en última instancia, emparejar información externa del estímulo


con estructuras de información prealmacenada en nuestra memoria, la pregunta surge de
inmediato: ¿Cómo y dónde guardamos en nuestra cabeza toda la información que
disponemos sobre miles de palabras de nuestro idioma? ¿Cómo está organizado nuestro
hipotético "léxico mental" en nuestro cerebro?

En realidad estas cuestiones enlazan con una pregunta de carácter más general que sólo
abordaremos aquí de pasada: ¿Cómo se organiza y se representa el conocimiento
humano?

Consideraciones previas sobre la organización cerebral del conocimiento.

Desde hace años sabemos que el cerebro es una maquinaria biológica con tendencia a
archivar la información de forma distribuida. Un ordenador guarda la información (sea un
texto, una imagen, un programa) de manera local, en posiciones de memoria concretas: en
esta posición del disco duro archiva el código de una letra, en otra posición, el código de la
letra siguiente, etc.; con los pixels de una foto sucede algo parecido. Pero el cerebro (tanto
humano como animal) es una solución distinta con la que ha dado la naturaleza por
evolución biológica. Se trata de un dispositivo construido para trabajar:

1. en paralelo: millones de unidades elementales de procesamiento (neuronas) se


activan simultáneamente en paralelo. La velocidad de transmisión del impulso
nervioso es un millón de veces más la lenta que la de los circuitos metálicos del
ordenador, pero las distancias son cortas (la lentitud se nota, por ejemplo, en el
tiempo que tarda en llegar a nuestro cerebro la señal del dolor cuando, descalzos, nos
lastimamos un dedo del pie). La fuerza del procesamiento reside, precisamente, en
su paralelismo. Somos muy malos en procesamiento serial (resolver mentalmente
una raiz cuadrada es una proeza, pero un PC lo hace en milésimas de segundo) y
muy buenos en procesamiento paralelo (reconocer formas, rostros; extraer un patrón
común a partir de un conjunto variado y cambiante de estímulos; abstraer conceptos;
etc.)
2. de forma distribuida: la información no se almacena de forma local: aquí un
grupito de neuronas para el recuerdo de mi casa, ese otro para la palabra "pájaro",
aquel otro para la palabra "bicicleta", etc. Al contrario, un único recuerdo se
4. Procesamiento de Palabras 11

distribuye, se "desparrama", entre muchas neuronas de la corteza cerebral


modificando sus patrones de conexión en las sinapsis; probablemente creando
complejas pautas de activación, o "dibujos" neuroeléctricos, que luego se
"encienden" como un todo en activaciones posteriores. Aquí participarían miles de
neuronas (tal vez pertenecientes a áreas corticales distantes) que, a su vez, no son
exclusivas de dicho recuerdo: todas o parte de esas neuronas podrían participar
también en la codificación de otros recuerdos. Esto es perfectamente posible como lo
demuestran las simulaciones matemáticas basadas en redes neurales artificiales.

Karl Lashley (1890-1958) se pasó más de veinte años buscando el engrama en modelo animal: el lugar exacto
donde un cerebro archivaría un recuerdo particular. Su idea era entrenar a ratas en laberintos y otras tareas, y
observar si se deterioraba lo aprendido tras la extirpación de una parte de su cerebro. Después de emplear cientos
de ratas, a las que reseccionaba distintas porciones cerebrales siguiendo un plan sistemático, no consiguió
localizar un punto exacto donde el animal almacenara localmente la información aprendida sobre la tarea. Antes
al contrario, parecía que la cosa iba "a peso": el deterioro conductual era proporcional a la cantidad de tejido
eliminado. Decepcionado, concluiría irónicamente en un congreso científico: "señores, el aprendizaje es
imposible". Los trabajos de Lashley ilustran la codificación distribuida, no localista, de la información neural.
Por supuesto que el cerebro tiene estructuras y funciones especializadas, pero el almacenamiento de una
información particular no queda confinada a grupos locales y compactos de neuronas, independientes de los
encargados de otras unidades de información. Es muy probable que respecto a las palabras suceda otro tanto.

3. de forma masiva: según las estimaciones más aceptadas, el cerebro humano tiene en
torno a cien mil millones de neuronas (1011); pero parece que la clave está, sobre
todo, en las sinapsis, o conexiones entre ellas, que pueden modificarse haciendo más
o menos fluido el paso del impulso eléctrico. Y cada neurona establece sinapsis con
miles de otras neuronas, por término medio. Es decir, nos encontramos ante una
estructura reticular difícil de imaginar en toda su complejidad. Su geometría interna
es altamente interconectada: en esa complejísima maraña, ninguna neurona está
separada de cualquier otra por más de 4 conexiones. Por otra parte, todos los días se
mueren centenares o miles de estas células, sin ser sustituidas por otras. Algunos
fisiológos dicen que una borrachera puede matar perfectamente a 50.000 neuronas, y
no parece que deje una secuela grave (otra cosa, son muchas borracheras). Ninguna
neurona del cerebro es indispensable para un proceso, puede desaparecer sin que el
sistema se vea afectado. Esta es otra diferencia respecto al ordenador: un fallo en el
procesador central, o en una línea importante de programa, puede paralizar el
sistema completo. Por tanto, cualquier proceso psiconeural, del tipo que fuere,
aunque sea una simple orden motora, involucra a poblaciones de miles o millones de
neuronas. Es seguro que los procesos de lenguaje, y, en particular, los relacionados
con el procesamiento de las palabras, no son ajenos a este carácter masivo del
cerebro.

Niveles de descripción científica. ¿Tiene que entrar la psicolingüística en estos detalles


neurales (psicofisiológicos) para hablar de procesos de lenguaje? Hay que decir que la
psicología cognitiva y, dentro de ella, nuestra disciplina, no considera como objeto de
estudio propio la realidad cerebral de los procesos mentales. Sabe que, en última instancia,
todas nuestras funciones mentales son reacciones neuroeléctricas y bioquímicas entre
neuronas y estructuras cerebrales, pero entiende que no es ése su nivel de descripción de la
realidad: para eso ya están las neurociencias. La psicología cognitiva considera que posee un
nivel de descripción propio y autónomo, donde se habla de etapas de procesamiento,
flujos de información, memoria de trabajo, memoria a largo plazo, filtros, acceso directo o
secuencial, etcétera. Es decir, construcciones teóricas derivadas de los datos empíricos que
aportan los experimentos cognitivos, y que intentan poner orden, ofrecer una explicación
coherente, un modelo de funcionamiento de la realidad cognitiva. Como ya se ha dicho, se
12 Psicología del Lenguaje

trata del enfoque o paradigma del procesamiento de información, inspirado, entre otras
influencias, en la tecnología de los ordenadores. Los cognitivos dirían, por ejemplo: "nos
interesa estudiar y conocer cómo funciona lo que nosotros llamamos memoria de trabajo,
cuáles son sus propiedades, sus características, proponer un modelo sobre su
funcionamiento, establecer predicciones a partir del mismo y comprobar con nuevos
experimentos si éstas se cumplen. Luego, en el futuro, ya nos dirán los neurocientíficos si la
memoria de trabajo se lleva a cabo en tal o cual estructura, o en un conjunto disperso de
subsistemas interconectados; pero ello no invalidará lo que ya sabemos nosotros gracias a
nuestros experimentos: tenemos tempos distintos, y el nivel de descripción anatómico no
excluye ni desautoriza nuestro propio nivel descriptivo".
Por otra parte ambos enfoques no tienen por qué ser excluyentes; al contrario, deberían ser
complementarios y alumbrarse mutuamente. Ciertos hallazgos cognitivos pueden guiar y
reorientar el estudio neurofisiógico de determinadas estructuras o funciones cerebrales. Los
hallazgos neurofisiológicos pueden ayudar a entender mejor los procesos cognitivos y a
reformular los modelos teóricos.

En décadas pasadas, a veces ha habido un cierto desdén hacia el enfoque neurofisiológico,


por parte de algunos psicólogos cognitivos. En el fondo late una cuestión filosófica que
guarda relación con el reduccionismo en la ciencia: ¿hasta qué punto un nivel de descripción
puede reducirse y ser explicado desde un nivel de descripción inferior? Veamos un diálogo
imaginario sobre niveles de descripción:

Psicofisiólogo radical (PR): Lo que haceis con vuestros experimentos está muy bien. Pero todos los
esquemas que planteais, con esas cajas, esos diagramas de flujo, todos vuestros modelos teóricos, etc.,
son conceptos muy abstractos para mí, me suenan "a música celestial", demasiado etéreos; parece una
nueva metáfisica alejada de la realidad. Perdona, pero a mí me gusta la ciencia dura, lo que se puede
tocar y observar, aunque sea en un microscopio. Soy muy excéptico con las elucubraciones y las
teorizaciones sin una base material clara. Todo lo que estudiais son, en última instancia, neuronas y
potenciales de acción, y en eso estamos nosotros. Sólo llegaremos a un conocimiento cabal de la
"mente" (entre comillas) cuando se conozca en detalle cómo funciona su base material: el cerebro.
Psicólogo Cognitivo Radical (PCR): Ya sé que las funciones mentales tienen lugar en el cerebro y son,
en última instancia, impulsos eléctricos. Escucha, yo también soy científico. No creerás que entiendo la
mente como un "espíritu flotante" o algo parecido (creencias religiosas particulares aparte). No
desprecio el estudio de las neuronas, pero me cuestiono si me va a aportar algo valioso a lo que a mí me
interesa. Todos sabemos que una partida de ajedrez es, en última instancia, piezas materiales, pero
conocer que el alfil está hecho de madera de boj no aporta nada a la defensa siciliana. Es éste el nivel de
descripción que le interesa a un ajedrecista. El que se puede plasmar en un papel, sin necesidad de tener
las piezas delante. Ya sé que una partida de ajedrez es una realidad física que admite múltiples niveles
de descripción; probablemente, al artesano le interese conocer como se talló la pieza, pero a mí no, yo
soy el ajedrecista (tampoco digo con esto que tú seas el artesano). El Quijote no existiría sin las letras
escritas, pero a un literato no le interesa la composición química de la tinta que usó Cervantes. Estos
niveles de descripción, que son los interesantes para el ajedrecista o el literato, no se pueden reducir a
los inferiores.
PR: Espera, amigo. No estoy seguro de que tus ejemplos se puedan aplicar a nuestros respectivos
objetos de estudio. Ambos estudiamos la misma realidad desde puntos de vista distintos, pero
complementarios: la mente sin cerebro no existe; tal vez es el cerebro, visto desde un cierto ángulo.
Lleváis 50 años "mareando la perdiz" y estáis muy lejos de una unificación teórica medio decente. No
digo que no avancéis, pero los modelos teóricos se os multiplican como hongos, tenéis una verdadera
inflación de modelos y eso no es buena señal. No conozco un solo campo donde hayáis encontrado una
teoría aceptada por todos. Para nosotros una neurona es una neurona. Qué lejos estáis de la unificación
de otras ciencias, la física por ejemplo. ¿Llegará un Galileo que os diga que los objetos celestes se rigen
por las mismas leyes que la caída de los cuerpos en tierra? Pero claro, con ese desdén hacia lo
fisiológico... Creo que habéis encallado en un mar de teorías (cognitivas, por supuesto). Por otra parte,
no es de extrañar si usáis esas medidas tan primitivas como los tiempos de reacción. ¿Alguien se fiaría
de un crítico de cine que se quedara fuera de la sala y evaluara las películas por lo que duran?
4. Procesamiento de Palabras 13

PCR: Disculpa, son las medidas y herramientas que tenemos disponibles ¿conoces tú otras? Un proceso
mental no es una célula o una mitocondria que, después de todo, son objetos visibles con un
microscopio. Pero da la casualidad de que a mí no me interesa la mitocondria (la madera del alfil), sino
el proceso mental (la defensa siciliana). Por otra parte todo en la vida es relativo. ¿Cuántos niveles de
descripción puede tener una realidad? Como tú trabajas con neuronas y tubos de ensayos te crees la
quintaesencia de la objetividad. Pero los niveles de descripción no se agotan contigo. Un físico de las
altas energías podría decirte: "PR, todo eso de los potenciales de acción está muy bien, pero en última
instancia, son iones y cuantos de energía, empecemos por entender el movimiento de las partículas
elementales". Pero ellos, los físicos, aún tienen que resolver el entrelazamiento y otros fenómenos que
amenazan todo lo sabido. Por supuesto que lo que yo llamo mente es, al final del todo, materia; que los
procesos mentales no son entelequias metafísicas, sino que consumen tiempo y glucosa. Pero, a ver si
va a resultar que para hacer psicología cognitiva ¡tengo que saber física cuántica! Mi nivel de
descripción tiene tanto derecho a existir, y es tan científico, como cualquier otro.

Hoy se tiende a pensar que los dos puntos de vista no son excluyentes y asistimos a una
confluencia creciente entre los enfoques de la psicología cognitiva y las neurociencias,
que, en opinión de muchos autores, augura un nuevo paradigma científico. A ello
contribuyen, en gran medida, las actuales técnicas de neuroimagen, que permiten tender
puentes entre ambos dominios. Cada vez es más evidente que conocer el dónde de los
procesos y subprocesos psicológicos ayuda a entender mejor el cómo y, lo que es más
importante, el porqué de los mismos.

Un "diccionario" mental.

En el momento presente, no sabemos a ciencia cierta cómo se almacenan y se representan en


nuestra mente las palabras y toda la información asociada a las mismas. Utilizando la
metáfora de un diccionario de palabras (o mejor un tesauro), se ha propuesto el concepto de
diccionario o léxico mental, como la hipotética estructura donde se representa esta
información de manera organizada.
El primer autor que desarrolló esta idea fue R. C. Oldfield en un artículo publicado en
1966 con el título de Cosas, palabras y el cerebro (Oldfield, 1966). Desde entonces ese
concepto sigue vigente y es ampliamente utilizado como hipótesis de trabajo; sin olvidar
que algunos autores lo cuestionan. En principio, hablar en abstracto de un léxico mental no
prejuzga necesariamente que éste tenga una realización neural particular frente a otra
(podría estar confinado a una localización concreta del cortex, podría abarcar amplias zonas
difusas, o cualquier otra solución que pudiera imaginar el lector). Es una construcción
teórica útil, porque es fuente de hipótesis que se pueden verificar empíricamente con
experimentos psicolingüísticos. La materialización neural del mismo lo irá desvelando el
avance de la neuropsicología (estudio de las lesiones y sus efectos) y de las neurociencias.

Los diccionarios escritos están ordenados por orden alfabético. Lógicamente, el léxico
mental deberá estar organizado de acuerdo con otros principios, que ya discutiremos al tratar
los modelos teóricos. Al igual que un diccionario tiene las entradas que corresponden a las
distintas palabras incluidas, el léxico mental constaría de una lista o red de "entradas
léxicas", cada una de la cuales incorporaría, al menos, la siguiente información (Belinchón
et al., 1992):

1. una representación fonológica, acerca de los sonidos que constituyen la palabra,


cómo se pronuncia.
2. una representación ortográfica, es decir, el conjunto de letras que forman la palabra,
cómo se escribe.
14 Psicología del Lenguaje

3. una representación morfológica, que refleja su estructura y categoría gramatical


(sustantivo, verbo, adjetivo, etc.). Hay rasgos formales que constituyen indicios
sobre la clase gramatical de la palabra: los sufijos -oso, -ble, etc., identifican
adjetivos; los sufijos -r, -ndo, -mos, -ais, etc., señalan verbos; los sufijos -ión , -dad,
etc., indican nombres.
4. una representación sintáctica que indica las funciones que puede representar la
palabra, qué lugares podría ocupar dentro del andamiaje sintáctico (sujeto, objeto
directo, objeto indirecto, etc.).
5. una representación semántica sobre su significado. Abordaremos esta cuestión en
detalle más adelante.
6. términos o conceptos asociados a la entrada léxica por sus significados.

Está claro que no todas las entradas de ese diccionario mental estarían completas. Por
ejemplo, si una persona es analfabeta, o no sabe cómo se escribe una palabra, no dispondría
de su representación ortográfica. La representación semántica, por otro lado, puede variar
notablemente de unas palabras a otras, en cuanto a la precisión y nivel de detalle de los
significados. A veces, en el uso diario del lenguaje puede fallar la conexión entre distintas
representaciones, de manera que no se activen todas como sería deseable: por ejemplo, en el
fenómeno ya indicado de la punta de la lengua, no somos capaces de activar la información
fonológica y ortográfica de la palabra, pero sí la semántica (podemos detallar aspectos de su
significado, para qué sirve el objeto designado por la palabra, etc.) e incluso morfosintáctica
(si es género masculino o femenino, Vigliocco, et al.; Vinson, González, ). Este es un
fenómeno normal que ocurre de forma esporádica; sin embargo, algunas lesiones cerebrales
pueden dar lugar a un cuadro de anomia, en el que el enfermo tiene gran dificultad para
recordar el nombre de las palabras, incluso de las más comunes (ver p.e. el libro de Cuetos,
2003).

¿Listado exhaustivo o listado parcial?

En ese hipotético diccionario o léxico mental ¿las palabras "comer", "comió", y "comedor"
tienen una entrada léxica cada una, o sólo existe una única entrada a partir de la cual se
derivan todas las variantes morfológicas? En otras palabras, ¿cómo se representan en el
léxico mental las palabras morfológicamente complejas? Ésta es, como tantas en la
psicoligüística, una cuestión abierta aún, sin una respuesta única. Existen al respecto dos
hipótesis alternativas. Una es la hipótesis llamada del listado exhaustivo, que considera que
cada variante tiene su entrada o representación propia (Lucatela et al., 1980; Butterworth,
1983). La otra es la hipótesis del listado parcial (Smith y Sterling, 1982; Taft, 1981), que
defiende que el léxico sólo contiene una lista parcial de entradas léxicas que incluye, por un
lado las raíces o "formas base", y por otro los afijos (prefijos y sufijos). Según esta
hipótesis, para identificar una palabra morfológicamente compleja, primero debemos
"despojarla" de todos sus afijos (affix stripping) y luego localizar su forma base (Taft y
Forster, 1975).

Los datos apoyan de forma más clara la hipótesis del listado parcial, de manera que las
palabras morfológicamente complejas tiende a descomponerse en su raíz y afijos. Los
tiempos de reacción indican que palabras, en inglés, como "interest" (interés), o "result"
(resultado) que, aunque realmente no tienen prefijos, son pseudoprefijadas, es decir, tienen
la apariencia de tenerlos (in- y re- respectivamente), se procesan más lentamente que las
palabras control (Taft, 1981). Sin embargo, en esta regla general habría numerosas
4. Procesamiento de Palabras 15

excepciones; cuando una palabra compleja es muy frecuente hay evidencia de que no se
descompone en sus partes y tiene su representación propia en el léxico mental.

En realidad, la noción de morfema es complicada y, desde un punto de vista psicológico,


puede responder a realidades distintas. Parece que un factor que influye en la
descomposición de las palabras es el grado de trasnparencia que éstas tienen para nosotros
(Marslen-Wilson et al., 1994). Si una palabra compuesta no es transparente respecto a sus
componentes se representará como otra palabra aparte; p.e. en inglés "buttercup" (botón de
oro, nombre de una planta) no es transparente respecto a sus componentes "butter"
(mantequilla) y "cup" (taza) y se almacena independientemente de estas últimas (Sandra,
1990). Paralelamente, una distinción que se ha revelado útil es la que diferencia entre una
morfología de nivel I, en la que se produce una alteración de la raíz (de "soñar", "sueño"; de
"toro", "taurino"), y una morfología de nivel II, donde no se altera la raíz (de "comer",
"comedor"; de "misa", "misal") (Kiparsky, 1982; Emmorey y Fromkin, 1988).
Probablemente, las transformaciones de nivel I darían lugar a unidades nuevas en el léxico
mental, mientras que las de nivel II tenderían a depender de una única entrada léxica.

Acceso léxico

¿Cual es la primera representación del estímulo, sea auditivo o visual, que nos permite
acceder al léxico mental y activar toda la información de una palabra? Es como preguntarse
por la "llave" que abre la puerta de cada entrada léxica, y en psicolingüística se conoce
como la cuestión del código de acceso al diccionario mental.
Un gran volumen de investigación ha sugerido diversas unidades funcionales como
aspirantes a desempeñar este papel de clave o código de acceso. Además, estas unidades
podrían ser distintas dependiendo de las propiedades de cada palabra; por ejemplo, una
palabra muy frecuente podría reconocerse como un todo, sin necesidad de llevar a cabo un
análisis de sus partes, mientras que otra menos común podría requerir un análisis de sus
componentes, sea en el plano visual (letras o grupos de letras) o fonológico (fonemas,
sílabas y otras unidades). Muchos autores entienden que en la operación de acceder al léxico
mental juega un papel especial la primera porción de la palabra, como veremos al tratar los
modelos teóricos. Otros autores, generalmente conexionistas, consideran innecesario
plantear un mecanismo de acceso separado del mecanismo de activación léxica. Altman
(1997, pp. 70-71) escribe al respecto:

Una forma de pensar sobre esto [el acceso léxico] es recordar que, en último término, toda la
información del léxico mental está almacenada dentro de estructuras neurales del cerebro. Cuando un
patrón de luz entra en los ojos, o una secuencia de sonidos entra en los oídos, tales estímulos no acceden
a algo dentro del cerebro, aunque sea, por ejemplo, la identificación de un político hablando o de un
bebé balbuceando (o ambos, si son indistinguibles). En su lugar, la estimulación pasa a través de
circuitos neurales del cerebro, siendo modificada y, a su vez, estimulando (o activando) diferentes
partes del circuito. Sólo ciertas clases de estímulos proporcionarán la estimulación apropiada para
algunas partes específicas del circuito neural –el estímulo es una llave que puede activar una parte del
circuito, y dependiendo de qué parte es activada, nosotros experimentamos la vivencia de "ver un
político" u "oír un bebé" [...] El punto importante de esto es que nada es accedido; es activado.

Al hablar de acceso léxico en el dominio visual, es decir, en los procesos de lectura, un


enfoque muy influyente ha sido el derivado de la hipótesis de la doble ruta (Coltheart,
1978), cuyo planteamiento esencial es que hay dos formas de acceder al significado de una
palabra: se puede hacer directamente desde su representación ortográfica, o bien de modo
indirecto a través de las reglas de conversión grafema-fonema, encargadas de asociar un
16 Psicología del Lenguaje

sonido a cada letra. En el primer caso sería una ruta directa, mientras que en el segundo se
utilizaría una ruta fonológica indirecta. Esta hipótesis ofrece versiones recientes de corte
conexionista, basadas en múltiples unidades interconectadas (Rastle y Coltheart, 1999,
2000).

En el reconocimiento de las palabras habladas, la mayor parte de los enfoques teóricos


sobre el acceso léxico comparten la idea de que intervienen dos tipos de mecanismos
fundamentales: activación y competición. Pese a la diversidad de modelos y
aproximaciones teóricas (TRACE, Shortlist, PARSYN, DCM, etcétera), hay consenso en
aceptar que el input, o información de entrada, activa un conjunto de candidatos posibles
que compiten entre sí en el proceso de identificación léxica (Gaskell y Marslen-Wilson,
2002; Luce y McClennan, 2005)

MÉTODOS Y HALLAZGOS

Métodos experimentales

Los psicólogos del lenguaje tienen a su disposición un conjunto de técnicas experimentales


para estudiar los procesos de acceso léxico o reconocimiento de palabras. A ellas hay que
añadir las técnicas de neuroimagen sobre la activación cerebral, que ya hemos visto en otro
apartado. Ninguna técnica es perfecta y cada una tiene sus ventajas e inconvenientes.

Identificación taquistoscópica. Consiste en la identificación correcta de un estímulo –en


nuestro caso, una palabra– que se presenta de forma muy breve en una pantalla. Es la tarea
más tradicional de todas y su uso arranca desde el siglo XIX; son célebres los experimentos
de James McKeen Catell comparando la identificación de palabras (v.g., "casa") y no-
palabras (v.g.,"cilo") (Catell 1886). Entonces se utilizaba el instrumento rey de la psicología
experimental: el taquistoscopio, un aparato que podía presentar estímulos visuales de forma
breve y controlada y que, hasta la década de los años 1970, era habitual verlo en los
departamentos de psicología. Hoy esta metodología se aplica a través de los ordenadores,
que, además de su versatilidad en la presentación de los estímulos, tienen la ventaja de
registrar las respuestas.
En la práctica, se empieza presentando cada estímulo con tiempos muy cortos y
progresivamente se van alargando hasta que el sujeto es capaz de identificarlo. Se obtiene,
así, el umbral de identificación; en cuyo caso, la variable dependiente (VD), o variable de
salida del experimento, es la cantidad de milisegundos de exposición del estímulo
necesarios para su correcta identificación. Otra posibilidad es emplear un tiempo fijo y
obtener como VD el porcentaje de aciertos. Las variables independientes (VI), o variables
de entrada, pueden ser muy diversas, dependiendo del objetivo de cada experimento. Así, si
deseo saber si se identifican mejor las palabras cortas que las largas, usaré como VI la
longitud de las mismas, seleccionando estímulos cortos y largos para comparar los
resultados.
Hay una variante de esta tarea que se usa mucho en los trabajos sobre procesamiento en
los hemisferios cerebrales, consistente en la presentación del estímulo en un hemicampo
visual, es decir, a la derecha o izquierda de un punto central de fijación.
4. Procesamiento de Palabras 17

Un inconveniente general del método de identificación es que no obliga al sujeto a


responder de forma rápida y eso podría permitir la intervención de otro tipo de procesos
post-léxicos (estrategias de adivinación, etc.), distintos de los que se pretenden estudiar.

Decisión léxica. Se trata de una de las tareas más usadas en la psicolingüística (Figura#). En
la modalidad visual se usó por primera vez en 1970 por Rubenstein y colegas (Rubenstein,
Garfield, y Millikan, 1970). En la modalidad auditiva, por McCusker, Holley-Wilcox y
Hillinger (1979) y Marslen-Wilson (1980). En la tarea visual, el participante debe decidir si
un estímulo formado por un conjunto de letras es una palabra o no es una palabra de su
idioma. Esto debe hacerlo lo más rápido que pueda, pero cometiendo los menos errores
posibles. Normalmente el participante emite su respuesta pulsando un botón o una tecla del
ordenador, entre dos posibles: el botón del SI (palabra) y el botón del NO (no-palabra). La
VD principal es el tiempo de reacción, es decir, los milisegundos que transcurren entre la
presentación del estímulo y la respuesta del sujeto. 500-700 milisegundos son tiempos
habituales, dependiendo de cada palabra. Otra VD que también se tiene en cuenta es la
proporción de errores. Igualmente se puede aplicar en modalidad auditiva, administrando el
estímulo a través de auriculares.
Se entiende que aquí el sujeto accede y busca velozmente en su "diccionario" mental y, si
encuentra una unidad léxica, responde con la tecla del SI. Si busca y "agota" el diccionario
sin encontrar una unidad léxica, termina respondiendo NO; esto generalmente consume más
tiempo. La tarea tiene ventajas sobre la anterior, pero tampoco elimina completamente la
posibilidad de procesos post-léxicos, porque introduce un subproceso ajeno al acceso léxico
que es la propia "toma de decisión", que también consume tiempo.

Denominación (naming). En esta tarea no hace falta tomar una decisión sobre el estímulo.
Consiste en su presentación y el participante debe pronunciarlo en voz alta, lo más rápido
posible. De nuevo, la VD es el tiempo de reacción que trancurre desde la presentación del
estímulo y el inicio de la respuesta vocal. Su registro lo realiza el ordenador gracias a una
"llave" o "clave vocal", que es un dispositivo que se activa ante la llegada de la voz. Un
tiempo típico oscila en torno a 500 milisegundos. Es importante no olvidar que el tiempo
registrado llega sólo hasta el inicio de la respuesta; no se incluye, por tanto, el tiempo que
consume la propia pronunciación, el cual refleja otros factores que no nos interesan y que
son distintos del acceso léxico (la longitud y "pronunciabilidad" del estímulo, la velocidad
neuromotora del sujeto, etc.). Esta tarea tiene una larga historia y comenzó a usarse ya en
los años cincuenta (Cherry, 1957).
El supuesto básico que subyace a esta técnica es que el tiempo necesario para iniciar la
pronunciación de una palabra depende de su accesibilidad o disponibilidad en el léxico
mental. Cuanto más accesible es la unidad léxica, antes comenzará la respuesta verbal.

Detección de estímulos (monitoring). Empleada por primera vez por Foss (1969). Aquí la
tarea del participante consiste en responder rápidamente, pulsando un botón, cada vez que
aparece un determinado estímulo (fonema, sílaba, palabra, etc.) establecido previamente en
las instrucciones. El tiempo de reacción para la detección del estímulo se considera un
reflejo de la carga de trabajo que tiene el sistema cognitivo en ese momento, mientras
procesa el material lingüístico. Así, si el fonema que se debe detectar forma parte de una
palabra de difícil procesamiento, su detección tardará más milisegundos que si el fonema
está en una palabra de procesamiento fácil. La tarea también implica una decisión.

Movimientos oculares. Esta técnica ha llegado a ser importante tanto para estudiar cómo
reconocemos las palabras, como para entender mejor cómo procesamos unidades mayores
18 Psicología del Lenguaje

del lenguaje escrito (Just y Carpenter, 1980; Rayner, 1998). Hoy hay varias técnicas
disponibles, con aparatos (eye trackers) cada vez más ligeros y portátiles (Figura#). El
mecanismo básico consiste en la emisión de un rayo de luz infrarroja al globo ocular, no
visible para el sujeto, y que resulta reflejado hacia un sistema de registro conectado a un
ordenador. Los movimientos del ojo hacen variar el angulo del rayo reflejado y, a través de
cálculos matemáticos, el ordenador puede determinar el sitio de la pantalla que se está
mirando en cada momento. Algunos experimentos más sofisticados no se limitan al simple
seguimiento visual, sino que modifican, en tiempo real, el contenido de la pantalla
dependiendo de la mirada del participante. En honor a la verdad hay que decir que, aunque
el uso de esta técnica se ha extendido gracias al avance tecnológico contemporáneo, los
primeros resultados ya se obtuvieron a principios del siglo XX, con ingeniosos
instrumentos. De hecho, la técnica de la reflexión corneal la inventó Raymond Dodge hacia
1900 (Dodge y Cline, 1901).
Cuando leemos, no deslizamos suavemente los ojos a lo largo del texto. Por el contrario,
los ojos viajan a través de rapidísimos saltos (entre 25-60 milisegundos de duración) que se
suceden entre fijaciones (200-250 ms), o momentos en que permanecen quietos (Rayner,
1998). Leer comporta, por tanto, una sucesión de sacudidas (saccades) y fijaciones
colocadas en distintos puntos del texto. La información visual se extrae únicamente durante
la fijaciones, porque en el transcurso de una saccade estamos prácticamente "ciegos" a
cualquier estímulo visual; ni siquiera detectamos un flash de luz (Volkmann, 1962). A este
fenómeno se le conoce como supresión sacádica.
Es muy importante, en consecuencia, dónde se colocan las fijaciones para una lectura
eficiente; hoy sabemos que la "gestión" de la fijaciones la lleva a cabo el lector de forma
inteligente. Los experimentos de McConkie y Rayner (1976; Rayner, 1998) han puesto al
descubierto fenómenos muy interesantes, gracias a la manipulación del texto en tiempo real
mientras se lee. Entre otras cosas, demostraron que, durante una fijación, el lector se sirve
de la información parafoveal distante, o sea la información borrosa que percibe por el
"rabillo del ojo", para decidir el lugar del texto a donde dará el salto para la próxima
fijación. Esto tiene una gran importancia para una lectura eficiente y ocurre de modo
distinto en buenos y malos lectores. El salto, o saccade, es de naturaleza balística: no se
puede alterar durante su ejecución –entre otras razones, porque no da tiempo para tomar una
decisión, que toma como mínimo 150-200 ms– y se decide desde el origen, como un disparo
(ver Crowder, 1985, en castellano). También es importante el análisis de la regresiones, o
movimientos atrás durante la lectura de un texto.
El estudio del procesamiento de palabras individuales se basa sobre todo en el análisis de
los tiempos de las fijaciones. Se parte del supuesto de que cuanta más cantidad de
procesamiento requiere una palabra, el tiempo de fijación sobre ella será mayor. Esta técnica
tampoco exige decisiones conscientes, como en la tarea de decisón léxica o de detección de
fonemas, y su principal atractivo reside en su validez ecológica, es decir, el hecho de que la
situación de laboratorio es semejante a la situación natural (lectura de un texto) objeto de
interés. Su principal inconveniente nace precisamente de su ventaja, pues en la medida en
que se trabaja con textos, es difícil deslindar, a partir de los datos, los procesos de acceso
léxico de otros procesos de orden superior. Por otra parte, no hay que olvidar que durante
una fijación se puede extraer información visual más allá de una palabra.
Además del lenguaje, el seguimiento de los movimientos oculares es una técnica útil en
múltiples campos de la psicología. Por ejemplo, ¿un chimpancé explora un rostro (humano o
de otro chimpancé), del mismo modo que lo hace una persona? ¿una escena de interés
sexual es observada igual por un varón y una mujer? ¿qué nos indica la mirada en la
resolución de un problema?, etcétera.
4. Procesamiento de Palabras 19

NIZO TEJA

NO SI NO SI

Figura#. Decisión léxica: una de la tareas experimentales más usadas en el estudio del
reconocimiento de palabras. Ante la presentación de cada estímulo, el participante debe pulsar lo
más rápido posible uno de dos botones: SI (palabra) o NO (no-palabra).

Figura#. Seguimiento de los movimientos oculares. A través de un aparato especial (eye tracker) se
puede seguir y registrar el movimiento de los ojos durante la lectura u otra tarea de exploración
visual. (imagen del Instituto Max Planck)
20 Psicología del Lenguaje

Una variante más barata del método de los movimientos oculares podría considerarse a la
técnica de la ventana móvil (Fig#). En ella, el participante lee un texto, a través de una
pantalla de ordenador, auto-administrándose las palabras de una en una, mediante la
pulsación de una tecla (de Vega et al., 1990; Haberlandt y Graesser, 1985; Mitchell y Geen,
1978). El ordenador registra los milisegundos que queda expuesta cada palabra. Al
comienzo del experimento aparece el texto en la pantalla con las palabras separadas por
espacios y cubiertas por máscaras u otros caracteres (p.e. líneas inclinadas, o equis). A
medida que el sujeto aprieta una tecla se desvela una palabra, y la palabra anterior vuelve a
enmascararse. De este modo, va leyendo el texto completo a la velocidad que él decide con
sus pulsaciones. Aquí la VD es el tiempo que permanece descubierta cada palabra. En
algunos experimentos, se desvela cada vez más de una palabra.

xx xxxx xx xxxxxxx x xx
xxxxxx xx xxx xxxxx x xxx
xx chaqueta xx xxxxxxxx x
xx xxxxx x xx xxxxx xx xx
xxxxxxxxx xx xx xxxx xxx
xx xxx xxxxxxx xx xxxxx.

Figura#. En la técnica de la ventana móvil, cada vez que el participante


pulsa una tecla se desvela una palabra.

Técnica gating (apertura sucesiva). Se usa únicamente con estímulos auditivos. En su actual
versión se debe a François Grosjean, profesor de la Universidad de Neuchatel en Suiza,
(Grosjean, 1980), pero versiones más simples se habían empleado con anterioridad (Pickett
y Pollack; 1963; Ohman, 1966). En ella, un estímulo lingüístico –habitualmente, una palabra
monosílaba– se va presentando a través de sucesivos segmentos de duración creciente, hasta
que puede ser identificado. Habitualmente los segmentos se inician desde el principio del
estímulo. El primer segmento es normalmente muy corto (20-30 ms) y el último abarca ya el
estímulo entero. Hay variantes de la tarea que difieren según el tamaño del incremento de
cada parte, la dirección de presentación (de delante a atrás, o de atrás a adelante), tipo de
respuesta, etcétera (Grosjean y Frauenfelder, 1996 lang & cog proc).

Otros métodos. La lista de métodos no se agota con los anteriores, el psicolingüista puede
emplear otros procedimientos o técnicas, algunas derivadas de las anteriores. En los estudios
sobre el el significado de las palabras se emplean tareas de decisión o categorización
semántica, donde el participante debe tomar una decisión rápida, pulsando un botón, en
respuesta a procesos de carácter semántico. Por ejemplo: ¿la palabra "naranja" es una fruta o
una verdura? ¿es más grande un "gorrión" que un "gato"?
4. Procesamiento de Palabras 21

También hay tareas de categorización sintáctica, como la decisión de género y otras: ¿la
palabra "cárcel" es masculina o femenina? ¿"papel" es masculino o femenino? Un
procedimiento como éste permite en castellano el estudio de procesos genuinamente
gramaticales (morfosintácticos), porque en nuestro idioma el género de muchos sustantivos
no tiene conexión con ninguna propiedad semántica (atributos sexuales) del referente: la
palabra "mesa" designa un objeto que no tiene propiedades de hembra en sí mismo; la
palabra "libro" designa un objeto que no posee atributos masculinos; se trata de información
inequívocamente lingüística.
Recientemente, a partir de Cutler y Norris (1988), se usa la tarea de localización de
palabras (word spotting), sobre todo en investigaciones sobre la influencia de la estructura
prosódica del lenguaje (entonación y ritmo) en el reconocimiento léxico. Aquí se administra
auditivamente una lista de no-palabras, o palabras sin sentido, algunas de las cuales incluyen
en su interior una palabra que el participante debe detectar lo más rápido posible (p.e. "sal"
en "salpe") . Los sujetos experimentales no saben de antemano cuáles son las palabras; las
instrucciones piden identificar cualquier palabra real que apareza. Este método tiene cierta
"validez ecológica", en el sentido de que intenta emular el proceso natural de reconocer
palabras dentro de una corriente continua de habla (Grosjean y Frauenfelder, 1996).

¿Dintintos resultados con distintas tareas? En ocasiones los experimentos sobre el


reconocimiento de palabras son difíciles de interpretar porque los datos no confluyen en un
cuadro coherente. No hay ninguna tarea "pura" que refleje únicamente el subproceso que
queremos estudiar. Todas las tareas incorporan inevitablemente otros procesos añadidos que
pueden "contaminar" los resultados, añadir "ruido" a la información buscada. La tarea de
decisión léxica incluye un proceso de "toma de decisión" que consume tiempo por sí mismo
y es ajeno al propio acceso léxico. La denominación de palabras no implica una decisión,
pero, además del acceso léxico, ineludiblemente incorpora operaciones de preparación
motora de la respuesta. Así podríamos seguir con todas ellas. Y lo que es peor, las tareas
pueden interactuar con aquello que se estudia; si los efectos no deseados fueran fijos e
inmutables a través de las condiciones, bastaría con descontarlos, pero no tiene por qué ser
así. En palabras de Harley (2001), es como usar un telescopio para juzgar el color de las
estrellas, y que el color de sus lentes cambiara dependiendo de la distancia a que están esas
estrellas. Por eso el avance es díficil, pero la empresa merece la pena. En ese sentido, cada
vez que se estudia un aspecto particular del reconocimiento de las palabras, o de cualquier
otro campo de la psicolingüística, se concede gran importancia a la replicación de los
resultados a través de tareas distintas.

Hallazgos empíricos: Variables que influyen en el reconocimiento de las


palabras

La aplicación de los métodos descritos ha proporcionado un conjunto de hallazgos


empíricos que pasamos a detallar. Lógicamente, cualquier modelo teórico que aspire a ser
una explicación coherente de los mecanismos de acceso léxico, debe ser capaz de dar cuenta
de ellos. El hallazgo más relevante de todos, el priming o efecto de facilitación, lo
trataremos después en un epígrafe aparte.

Frecuencia léxica. Es uno de los efectos más robustos de la psicolingüística; se replica en


cualquier laboratorio del mundo con lenguas distintas y bajo condiciones muy diversas.
Consiste en que las palabras más frecuentemente usadas en un idioma se reconocen o
identifican más fácilmente y con mayor rapidez que las empleadas con menos frecuencia.
22 Psicología del Lenguaje

Así, procesamos más velozmente la palabra "amistad" que la palabra "arrabal", porque a lo
largo de nuestra vida nos hemos enfrentado muchas más veces a la primera que a la
segunda. Por emplear una metáfora física: en los senderos más transitados de un monte
crece poca maleza y el paso a través de ellos es muy fluido, es decir, seguirán siendo los
más transitados; no conocemos en detalle los mecanismos neurales del acceso léxico, pero
es como si los "senderos neuroeléctricos" más utilizados permitieran un tránsito más fluido
del impulso nervioso. Neurofisiológicamente quizá sea un fenómeno sináptico, pero, como
dijimos antes, la psicología cognitiva no entra en ello.
Las palabras más frecuentes muestran un rendimiento mejor en todas las tareas: se
identifican con menos tiempo de exposición sobre una pantalla; la decisión léxica se
produce antes con ellas (Rubenstein, Garfield y Millikan, 1970); se denominan con tiempos
de reacción más cortos (Forster y Chamber, 1973); en la técnica de gating, se identifican
con menor porción estimular (Grosjean, 1980); las fijaciones oculares son más cortas y
requieren menos tiempo (Just y Carpenter, 1984; Rayner y Duffy, 1986; de Vega et al.,
1990); etcétera. El efecto de la frecuencia léxica no aparece con la misma intensidad en
todas las tareas: por ejemplo, es mucho más pronunciado en la decisión léxica que en el
naming.
Intente el lector realizar el "experimento casero" de decisión léxica de la Tabla#.
Comprobará que se consume más tiempo en la segunda lista de estímulos, porque incluye
palabras de uso menos frecuente en nuestro idioma:
4. Procesamiento de Palabras 23

LISTA 1 LISTA 2

nupo bina
aire hebra
torque tispe
amor ronda
sucelo desván
luz palte
padre sor
tocepa garo
ciudad víspera
agua tidega
siva sien
cielo cerco
brazo fal
fratil dogma
mujer duni
pilega nogal
mar bahía
tone sinel
plivel atleta
familia criepa
jar vid
fuerza ojal
niño dueci
mela roce
vida pil
mundo teja
tar namis

Tabla# Dos listas de palabras y no-palabras mezcladas. Pruebe el lector a explorar


rápidamente cada lista y dar un golpe en la mesa cada vez que encuentre una palabra. En
la primera lista se tarda menos tiempo porque las palabras son de mayor frecuencia en
castellano.

Uno de los primeros trabajos que pusieron al descubierto este efecto fue el de Foss (1969),
con la técnica de detección de fonemas. Los participantes debían escuchar un estímulo de
habla continua y realizar dos tareas a la vez: a) entender el mensaje contenido en el mismo,
y b) pulsar un botón cada vez que apareciera el fonema /b/ en el estímulo. Este fonema
podía aparecer inmediatamente después de una palabra frecuente o de una palabra poco
frecuente del inglés. Foss encontró que las latencias para detectar el fonema eran claramente
más cortas después de una palabra frecuente, presumiblemente porque exigía menor carga
de procesamiento que una palabra poco frecuente.
Como se destacó en otro epígrafe, el efecto de la frecuencia léxica depende del tipo de
vocabulario y donde se manifiesta claramente es en las palabras de clase abierta (nombres,
verbos y adjetivos). Las palabras de clase cerrada, como preposiciones, conjunciones,
artículos, partículas auxiliares, etcétera, no parecen ser sensibles a este efecto (Bradley,
1978; Bradley y Garrett, 1980; en español: García-Albea, Sánchez-Casas y del Viso, 1982).

En realidad, la verdadera variable psicológica es la familiaridad subjetiva que las personas


tienen con cada palabra y que viene dada por la particular historia biográfica de cada cual,
no tanto las veces que una palabra aparece contabilizada en un diccionario de frecuencias
24 Psicología del Lenguaje

sobre un idioma. La medida de familiaridad se obtiene en estudios normativos, en los que


personas otorgan puntuaciones a un conjunto de palabras sobre una escala de familiaridad.
Los resultados demuestran, sin embargo, que estas puntuaciones subjetivas guardan una
estrecha relación con los índices objetivos obtenidos en los recuentos estadísticos, y el
coeficiente de correlación es alto, r > 0.80 (Gernsbacher, 1984). Por esta razón, y por
motivos prácticos, en los experimentos se suelen emplear los índices objetivos de los
diccionarios de frecuencias.
Se ha discutido mucho, y se discute, sobre el verdadero "locus" del efecto de la frecuencia
en el procesamiento léxico (Balota y Chumbley 1984, 1985, 1990; Monsell, Doyle y
Haggard, 1989; Paap y cols., 1987). O dicho en otras palabras, en qué subproceso específico
incide este efecto. Balota y Chumbley (1984) han sido críticos con las interpretaciones
convencionales y rechazan que sea un genuino efecto de acceso léxico. Su planteamiento es
el siguiente: si la frecuencia es una variable que influye directamente en el acceso léxico,
entonces su efecto debería ser patente en cualquier tarea que implicara acceso léxico, pero
no siempre ocurre así. Estos autores no hallaron efecto de la frecuencia en una tarea de
categorización semántica, en la que los sujetos debían decidir rápidamente si un
determinada entidad pertenece a una categoría semántica previamente fijada (p.e. ante la
categoría prefijada "AVE" hay que emitir una decisión rápida sobre estímulos como
"gallina", "león", "pingüino" "mosca", "gorrión", etc.). Balota y Chumbley interpretaron
que el efecto de la frecuencia encontrado en otros estudios, sobre todo en los basados en la
tarea de decisión léxica, que es donde se observa de forma más notoria, era debido a las
peculiaridades de la propia tarea, concretamente, en el proceso de "toma de decisión". Estos
autores consideran que la frecuencia de uso no influye realmente en el acceso al lexico
mental, sino en el proceso post-léxico de la toma de decisión. Otro tanto podría decirse de la
tarea de detección de fonemas, que también implica una decisión.
La cuestón del locus de esta variable es todavía un debate abierto. Muchos autores
defienden que la frecuencia léxica tiene una influencia real y automática en el
reconocimiento de las palabras, y que ésta surge en tareas que no requieren ningún tipo de
decisión. Así, con la técnica basada en el registro de los movimientos oculares, Rayner y
Duffy (1986) han observado que la frecuencia léxica juega un papel destacado en la lectura
de los textos. Las palabras poco frecuentes requieren fijaciones oculares de 80 milisegundos
más largas, en promedio, que las palabras frecuentes. Por otra parte, el efecto de la
frecuencia léxica podría quedar subsumido u oscurecido en las tareas de categorización
semántica, donde los tiempos son mucho más largos e influyen poderosamente otras
variables, especialmente la prototipicidad de cada ejemplar dentro de una categoría. Por
ejemplo, un gorrión o una gallina son ejemplares más prototípicos de AVE que un pingüino,
y esta variable ejerce una fuerte influencia en los tiempos de reacción.

De todos modos, es díficil aislar esta variable de otras con las que normalmente guarda
relación en el vocabulario de un idioma. Las variable frecuencia léxica tiende a
correlacionar con otras variables, como el grado de concreción, número de significados,
longitud de la palabra, etc. que también afectan a los procesos léxicos. Una de ellas, que
cada vez cobra más importancia, es la edad de adquisición de cada palabra.

Edad de adquisición. En los últimos años se está concediendo cada vez más relevancia a
esta variable. Se define como la edad en la que se aprendió por primera vez una palabra
particular (Carroll y White, 1973). Inevitablemente, la frecuencia léxica está asociada a la
edad de adquisición de las palabra. En general, los niños tienden a aprender primero las
palabras más frecuentes en la lengua, razón por la cual es difícil deslindar la contribución de
4. Procesamiento de Palabras 25

cada variable (vg., se adquiere antes "cabeza" que "cintura", "gato" que "perdiz"); aunque
también hay excepciones: la palabra "gigante" no es de las más frecuentes, pero se adquiere
pronto, quizá por influencia de los cuentos.
Los experimentos demuestran que las palabras aprendidas pronto en la vida de una
persona son más accesibles y arrojan mejores resultados que las palabras aprendidas más
tarde: se nombran con latencias más cortas y los tiempos de decisión léxica son también
menores (v.g., Barry et al., 2001 IzuraPsicologica; Barry, Morrison, y Ellis, 1997; Brown y
Watson, 1987; Carroll y White, 1973). La variable edad de adquisición (EA) permite
predecir qué objetos se nombrarán con mayor o menor dificultad en el caso de una lesión
cerebral (Hirsh y Ellis, 1994). En un trabajo muy reciente, Cuetos, Monsalve y Pérez (2005)
han encontrado que la EA era el principal determinante de acceso léxico en pacientes con
anomia pura.
A la hora de seleccionar estímulos para los experimentos, hoy ya existen estudios
normativos sobre palabras castellanas que incluyen la variable edad de adquisición (Izura,
Hernández-Muñoz y Ellis, 2005; Piñeiro y Manzano, 2000; Pérez y Conrado, 2005).
Algunos autores han sugerido que tal vez todo el efecto de la frecuencia léxica sea debido
a la variable edad de adquisición, pero, cuando ambas variables se controlan de forma
independiente, parece que ambas ejercen efectos separados en el procesamiento de las
palabras (Morrison y Ellis, 2000). Experimentos basados en vocabularios expertos, o
palabras especializadas de diversas disciplinas científicas (geología, psicología, química,
etc.) y que, por tanto, son de adquisición muy tardía, revelan también efectos de la
frecuencia léxica aunque la edad de adquisición sea idéntica (Stadthafen-González, Bowers,
y Damian, 2006).
Por otra parte, algunos investigadores se plantean si el verdadero efecto de esta variable es
la edad de adquisición per se o es, en realidad, el orden de adquisición que siguen unas
palabras respecto a otras (Izurra y Ellis, 2002 psicologica).

Palabra versus No-Palabra. En la tarea de decisión, el tiempo necesario para decidir que
un estímulo es una palabra suele ser, en general, más corto que el que se requiere para
decidir que no es una palabra. De alguna manera, el participante "agota" su diccionario o
léxico mental sin encontrar una unidad léxica que se acople con el estímulo y responde con
el botón del No. Esta operación consume más tiempo que la localización de una unidad
léxica y responder Sí. Pero esto ocurre siempre que se cumpla una condición: que los
estímulos no-palabras se ajusten a las normas ortográficas y fonológicas del idioma; es
decir, que sean pronunciables y presenten secuencias admitidas en la lengua, tales como
"nizo", "pecil", etc.; son lo que técnicamente se denominan pseudopalabras. Cuando esto no
se cumple, los tiempos de rechazo son muy cortos porque el sujeto, probablemente, ni
siquiera intenta acceder a su léxico mental. Así, la secuencia "xghytz" es inmediatamente
rechazada como no-palabra, sin ningún intento de búsqueda léxica. Por otra parte, las
pseudopalabras tardan más en ser rechazadas cuanto más se parecen a alguna palabra
existente (Coltheart et al., 1977) o incluyen una palabra en su interior –p.e. "camaler"
incluye la palabra "cama"– (Sánchez-Casas y García-Albea, 1984).

Vecinos. En la definición clásica de Coltheart, Davelaar, Jonasson y Besner (1977), dos


palabras se consideran vecinas ortográficas si comparten todas su letras excepto una, en las
mismas posiciones. Así, son vecinas "mesa" y "masa", "tara" y "cara". El equivalente en la
modalidad auditiva sería respecto a los fonemas. Hay palabras con muchos vecinos,
podríamos decir que que habitan en vecindarios muy densos o populosos; por ejemplo
26 Psicología del Lenguaje

"casa" tiene como vecinos a "masa", "pasa", "tasa", "gasa", "cosa", "capa", "cama", "cava",
"cana", etc. En el otro extremo están las palabras ermitañas, que no tienen vecinos, como
"tifus".
Tanto el número o densidad de vecinos (índice N), como la frecuencia léxica de estos
vecinos, son variables que tienen influencia en el reconocimiento de una palabra y han
generado un importante volumen de investigación en los últimos años (ver p.e. en castellano
Perea y Rosa, 2000a; en inglés: Perea y Rosa, 2000b). En la modalidad visual, el tamaño del
vecindario tiene un efecto positivo en el reconocimiento de las palabras poco frecuentes
(Andrews, 1989; Grainger, 1990; McCann y Besner, 1987). En la modalidad auditiva, sin
embargo, la mayoría de los resultados apuntan hacia un efecto inhibitorio; parece que los
vecinos establecen con la palabra una relación de competencia por la activación (Cluff y
Luce, 1990; Luce y Pisoni, 1998; Vitevich y Luce, 1998, 1999; Ziegler, Muneaux, y
Graiger, 2003).
Para seleccionar estímulos en los experimentos y conocer cuáles son los vecinos de una palabra y sus índices
asociados, existen bases de palabras y programas de ordenador, como N-Watch para el inglés (Davis, 2005).
Hoy también se disponen en castellano; así, Pérez, Alameda y Cuetos (2003) ofrecen una base que incluye la
frecuencia léxica, longitud y vecindad ortográfica de todas las palabras de 3 a 16 letras del Diccionario de la
Real Academia Española (DRAE, 1992); puede obtenerse en www.psico.uniovi.es/REMA/v8n2/a1/. Davis y
Perea (2006) presentan BuscaPalabra (B-Pal), un programa informático que obtiene índices estadísticos de las
palabras vecinas en español, junto a otros índices psicolingüísticos; se localiza en www.uv.es/~mperea/. Para
el vasco, se ha diseñado el programa E-Hitz (Perea et al., 2006), también disponible en la dirección anterior.

No obstante, la definición de Coltheart et al., (1977) queda estrecha porque sólo considera
como vecinas a las palabras de la misma longitud; según ella, "norma" y "normal" no serían
vecinos. Recientemente se tiende a ampliar este concepto y estudiar también la influencia de
palabras que difieren en longitud (Bowers, Davis y Hanley, 2005; Davis y Perea, 2006).

Sílabas y otras unidades subléxicas. Un impresionante volumen de investigación se ha


dirigido a estudiar el efecto que las unidades más pequeñas que la palabra, o unidades
subléxicas, tienen sobre el reconocimiento de ésta (para una revisión en la modalidad visual:
Carreiras y Grainger, 2004; en modalidad auditiva: Goldinger y Azuma, 2003). Hoy
disponemos de una enorme cantidad de datos al respecto, con frecuencia contradictorios.
Los candidatos a desempeñar un papel clave en la identificación de las palabras son
múltiples, y la evidencia experimental se ha ido repartiendo entre ellos. Distintos modelos
teóricos ponen un mayor enfasis en unas unidades u otras. Algunos autores consideran que
son la letras individuales las que juegan un rol crítico en la identificación de las palabras
escritas. Las unidades de naturaleza morfológica han concitado un gran numero de trabajos
y es un área en expansión (Dominguez, Cuetos y Segui, 2000; Giraudo y Grainger, 2000;
Krott, Hagoort y Bayen, 2004; Taft, 1994). Muchos investigadores defienden la importancia
de la información fonológica para el reconocimiento escrito, y cada vez hay más
certidumbre al respecto (Frost, 1998; Rayner, 1998; Pollatsek, Perea y Carreiras, 2005;
Zielgler et al., 2000).

En esta línea, una unidad subléxica que ha merecido especial interés en los ultimos tiempos
es la sílaba y su papel en el procesamiento de las palabras. Hay evidencia de que las sílabas
son unidades funcionales durante la percepción del habla en idiomas que tienen una
estructura silábica claramente definida, como el francés o el español (Mehler et al., 1981;
Sebastián et al., 1992). En la modalidad visual, hay datos conductuales (Álvarez, Carreiras y
Perea, 2004; Carreiras y Perea, 2002) y fisiológicos (Carreiras, Vergar y Barber, 2005;
Barber, Vergara y Carreiras, 2004) que apoyan el procesamiento silábico durante la lectura
de las palabras en español.
4. Procesamiento de Palabras 27

Manipulando la frecuencia de las sílabas, se ha obtenido un hallazgo interesante,


aparentemente contraintuitivo. Parece que existe un efecto inhibitorio de la frecuencia
silábica sobre el reconocimiento léxico: en igualdad de condiciones, las palabras formadas
por sílabas muy frecuentes dan lugar a tiempos más lentos que las palabras formadas por
sílabas poco frecuentes. El descubrimiento de este fenómeno está ligado particularmente a la
Universidad de la Laguna, ámbito al que pertenecen los investigadores que lo pusieron de
manifiesto (ver una revisión en Álvarez, Carreiras, y de Vega, 2000). En un primer estudio,
basado en la lectura de textos mediante la técnica de la ventana móvil, se comprobó que, una
vez eliminado el efecto de otras variables, el procesamiento de cada palabra estaba
relacionado negativamente con la frecuencias posicionales de sus sílabas (o sea, su
frecuencia de aparición en el idioma en determinadas posiciones dentro de la palabra); de
manera que, paradójicamente, las palabras con sílabas muy frecuentes requerían mayores
tiempos de lectura (de Vega et al., 1990). Así, como señalan los autores (p. 176):

Veamos un ejemplo: el grafema del se contabilizó en nuestro estudio normativo 140 veces en primera
posición (o como monosílabo) y ninguna vez en última posición de palabra. Ello induce a pensar que
dicho grafema debería leerse con diferente velocidad en la palabra delfín que en la palabra cordel. En
efecto, así es, pero lo sorprendente es que se lee más lentamente en la posición frecuente (en "delfín")
que en la posición infrecuente (en "cordel").

Este hallazgo fue después objeto de estudio específico y dado a conocer en el ámbito
internacional en el Journal of Memory and Language (Carreiras, Álvarez y de Vega, 1993).
Aquí se seleccionaron los estímulos de acuerdo con un extenso diccionario de frecuencias
silábicas, previamente elaborado a partir de muestras del español escrito (Álvarez, Carreiras
y de Vega, 1992). Empleando la tarea de decisión léxica, se constató de nuevo el efecto
silábico inhibitorio: las latencias de las respuestas, una vez controladas otras variables
potencialmente influyentes, eran más largas ante palabras con alta frecuencia silábica
posicional (FSP) que ante palabras con baja FSP; y este efecto era más pronunciado en la
palabras de baja frecuencia léxica. Después de este trabajo seminal, se han sucedido otros
estudios en la misma línea (Álvarez, Carreiras y Taft, 2001; Carreiras y Perea, 2004; Perea y
Carreiras, 1995, 1996; etcétera), y se ha replicado el fenómeno en otros idiomas, como el
francés (Mathey y Sagar, 2002) o el alemán (Conrad y Jacobs, 2004). Este efecto inhibitorio
generalmente se interpreta en téminos de competición entre unidades de representación
léxica: si las sílabas son de alta frecuencia, ellas activarán más unidades léxicas que las
sílabas de baja frecuencia; y estas unidades competirán en el proceso de identificación de la
la palabra.
Por otra parte, no todas las sílabas son igualmente importantes; hay evidencia de que la
primera sílaba tiene un estatus especial en el proceso de activación de una unidad léxica
(Álvarez, Vega y Carreiras, 1998). Hay que destacar que muy probablemente el efecto de la
sílaba es, al menos en una lengua romance como el español, de naturaleza claramente
fonológica, no el subproducto de la mera secuencia de letras, explicable por la redundancia
ortográfica (Seidenberg, 1987, 1989). Como veremos depués, en las tareas de priming el
efecto facilitador es mayor cuando los estímulos comparten la misma sílaba (p.e. nor/te y
nor/ma) que cuando no la comparten (p.e. no/ria y nor/te), a pesar de que en ambos casos la
secuencia de letras comunes es la misma (Álvarez, Carreiras y Perea, 2004). Este tipo de
evidencias lleva a los autores a defender la existencia de representaciones propias para las
sílabas como unidades funcionales que intervendrían en el procesamiento léxico.

Otras variables. Se ha documentado la influencia de otras variables en el procesamiento de


las palabras. Aquí los trabajos experimentales deben poner especial cuidado en el control de
28 Psicología del Lenguaje

covariables que no son objeto de estudio, pero podrían influir oscureciendo los resultados;
especialmente por parte de las más potentes, como la frecuencia léxica.
La longitud de la palabra, medida en el número de letras, es una variable que incide en la
velocidad del procesamiento léxico, pero interacciona fuertemente con la frecuencia léxica.
El tiempo de lectura de una palabra escrita se incrementa con el número de letras que posee,
pero esto sucede de forma mucho más marcada en las palabras de frecuencia media o baja,
que en las de frecuencia alta (Haberlandt y Graesser, 1985; de Vega, 1990). Las muy
frecuentes tienden a identificarse como un todo y son menos sensibles al tamaño.
Las palabras difieren en su grado de concreción e imaginabilidad. Aquellas que se
refieren a objetos como "cuchillo", "gato", "río", "libro", son concretas y tienen una mayor
capacidad de evocar imágenes mentales que las palabras abstractas como "verdad",
"justicia", "maldad", "democracia". Aunque concreción e imaginabilidad son propiedades
distintas, presentan una correlación alta entre sí. Cuando la gente otorga puntuaciones a las
palabras sobre escalas de concreción y de imaginabilidad, éstas alcanzan coeficientes r >
0.85 (Paivio, Yuille, y Madigan, 1968, Insup Taylor#). Está demostrado que las palabras
concretas y altamente imaginables se recuerdan mejor que las abstractas y difícilmente
imaginables, en pruebas de memoria (Begg, 1973; Paivio, 1969). Las palabras concretas
producen mejores tiempos en la tarea de decisión léxica, sobre todo en las palabras de baja
frecuencia léxica (v.g., "codo") (de Groot, 1989; Kroll y Merves, 1986 Jay#). En
experimentos de priming, las palabras concretas facilitan mejor a las concretas, y las
abstractas a las abstractas (Bleasdale, 1987).
Otra variable relevante es el número de significados que tiene una palabra. Parece que,
una vez separado el efecto de otras variables, las palabras con mayor número de acepciones
tienden a procesarse más deprisa que las que tienen pocas acepciones (Cuetos, Domínguez,
y de Vega, 1997; Jastzrembski, 1981; de Vega, 1990).
El contenido emocional de las palabras influye en su procesamiento. A igualdad de otras
condiciones, los tiempos de reacción son más cortos ante palabras con alta carga en
determinadas dimensiones emocionales (Vakoch y Wurm, 1996; Wurm y Vakoch, 1996;
Wurm, Vakoch y Seaman, 2004). En un estudio reciente (Wurm, Vakoch, Aycock, y
Childers, 2003), se administraron auditivamente palabras para que los sujetos las repitieran
lo más rápido posible, en una tarea de naming auditivo. Los análisis de los tiempos de
reacción mostraron que, una vez separada la influencia de otros efectos (frecuencia léxica,
longitud de la palabra, densidad de vecinos, primer fonema, frecuencia de bigramas o
secuencias de dos letras, grado de concreción, etcétera), las dos variables emocionales
escogidas para el estudio ejercían una claro efecto en las latencias. Concretamente, los
tiempos eran más cortos ante palabras "amenazantes", que puntuaban alto en una escala de
Peligro, y ante palabras con puntuaciones altas en una escala de Utilidad (Tabla#). Estos
resultados replicaban los obtenidos en un trabajo anterior con la tarea de decisión léxica
(Wurm y Vakoch, 2000) y los autores los interpretan a la luz del papel que la selección
natural podría haber tenido en moldear el lenguaje (Darwin, 1871). Se explicarían por su
valor adaptativo y de supervivencia: las cosas peligrosas requieren que los organismos den
una respuesta rápida (el familiar dilema anglosajón: "fight or flight", "lucha o retirada"); el
segundo efecto se relacionaría con la necesidad de conseguir recursos valiosos. Una
cuestión que siempre planea sobre esta índole de fenómenos asociados a las connotaciones
afectivas o emocionales de las palabras es si tienen que ver realmente con los procesos de
acceso léxico o son de naturaleza post-acceso.
Un caso particular relacionado con el contenido emocional de las palabras lo constituyen
las denominadas palabras tabú (Tabla#). Desde hace tiempo se sabe que no se procesan
igual que las otras palabras. Existe el efecto Stropp-tabú (Siegrist, 1995; MacKay et al.,
2004): en la tarea que consiste en nombrar rápidamente el color en que está escrita una
4. Procesamiento de Palabras 29

palabra, los tiempos ante estímulos tabú son mayores que ante estímulos neutros. Este efecto
ocurre en cualquier persona y comparte características con el llamado efecto Stropp clínico:
los pacientes con un trastorno emocional (p.e. con fobia a las arañas) presentan latencias
mayores ante palabras relacionadas con su trastorno ("araña", "arácnido", etc.). Las palabras
tabú se recuerdan mejor en pruebas de memoria y deterioran el recuerdo de la palabra
precedente y posterior dentro de una lista (MacKay et al., 2004). Parece que las palabras
tabú "absorben recursos de procesamiento" (Bowers, 1992, p.17) y la discusión está en si
este fenómeno es automático e inevitable o se halla bajo control voluntario.

Finalmente, dos observaciones de carácter general: a) Por un lado, como dijimos, muchas
variables tienden a estar asociadas entre ellas y presentar correlaciones importantes entre sí,
de manera que, por ejemplo, las palabras más frecuentes suelen ser más tempranas en la
edad de adquisición y reciben puntuaciones más altas en concreción e imaginabilidad. Eso
obliga a una cuidadosa selección de los estímulos en los experimentos, para controlar
oportunamente las variables no estudiadas. b) Por otro lado, en los experimentos sobre
procesamiento léxico es habitual que lo datos muestren interacciones entre las variables; es
decir, que el valor que adopta una de ellas influye en el efecto de otra variable. Así, la
frecuencia léxica interacciona con bastantes otras variables, como la concreción, la
frecuencia silábica, la longitud de la palabra, y otras.

Para una buena selección de estímulos experimentales es necesario contar con estudios
normativos que ofrezcan índices objetivos y subjetivos obtenidos en un ámbito lingüístico
específico (v.g., Algarabel, 1996; Algarabel, Ruiz, y Sanmartín, 1998). Esa clase de
indicadores van ligados a una cultura y una lengua particular y, por tanto, son difícilmente
extrapolables a otros marcos distintos. En Pérez, Campo, y Navalón (2003) se recoge un
amplio catálogo de estudios normativos llevados a cabo sobre población hispanohablante.
Está publicado electrónicamente desde la Universidad de Oviedo y se puede consultar en
www.psico.uniovi.es/REMA/v6n2/a3/.
30 Psicología del Lenguaje

Peligro Utilidad
arpón árbol
asaltante cantimplora
ballesta comida
cáncer electricidad
cañon estufa
colisión fresa
crimen lana
cuchillo madera
dinamita manta
escorpión manzana
flecha patata
fuego pescado
huracán plátano
ladrón pollo
lava pomada
machete ropa
pesticida zanahoria
relámpago zapato
tabaco ...
tigre
tornado
toxina
veneno
...

Tabla# Contenido emocional de las palabras. Una vez separados los efectos de otras
variables, los tiempos de reacción son más cortos ante palabras que puntúan alto en una
escala de Peligro o de Utilidad. (Wurm, Vakoch, Aycock, y Childers, 2003; Wurm y
Vakoch, 2000).

PALABRAS TABÚ
whore (puta)
fuck (joder, follar)
queer (marica, maricón)
shit (mierda)
dyke (tortillera)
chink (raja, genital femenino)
cock (polla)
pussy (coño)
dildo (consolador)
dick (polla, verga)

Tabla# Las denominadas palabras tabú presentan particularidades en su procesamiento


léxico. Estímulos empleados por MacKay et al., (2004), junto a sus traducciones según el
Collins Spanish Dictionary 7th edition (2003).
4. Procesamiento de Palabras 31

PRIMING

Cuando se habla del efecto de priming, inmediatamente se cita el trabajo de Meyer y


Schvaneveldt (1971), publicado en el prestigioso Journal of Experimental Psychology,
como una de las primeras demostraciones experimentales del mismo. Quizá sea uno de los
artículos más citados de la psicolingüística y la psicología cognitiva en general. En realidad,
no hay que olvidar que desde los tiempos de Cattell, hace ya más de un siglo, se sabía que la
identificación de una palabra podía ser facilitada si antes se presentaba otra palabra
relacionada con ella por el significado. Meyer y Schvaneveldt se basaron en la tarea de
decisión léxica con estímulos visuales en la que, recuérdese, el participante tiene que decidir
rápidamente si un conjunto de letras presentado en una pantalla constituye o no una palabra.
Estos autores comprobaron que, si antes de la palabra en cuestión (p.e. DOCTOR), se
presentaba brevemente otra palabra que guardaba relación con ella (nurse, enfermera), el
sujeto tardaba menos tiempo en dar su respuesta. El ahorro de tiempo se situaba en torno a
80 milisegundos, lo que no es poco en procesos de esta naturaleza. De algún modo, la
presentación de nurse facilitaba el posterior reconocimiento de DOCTOR1. En la Figura#,
podemos apreciar un esquema básico que ilustra el efecto del priming. En la condición A, el
acceso a la palabra DOCTOR será más rápido porque la palabra presentada antes (hospital)
guarda relación con ella, cosa que no ocurre en la condición B (camino).

Este efecto facilitatorio se conoce en la ciencia por el término anglosajón de priming, que ha
sido traducido al castellano de diversas maneras, principalmente como inducción o
facilitación, -sin olvidar de que también puede existir un priming negativo o inhibitorio. A
la primera palabra, que actúa como elemento facilitador (hospital), se la conoce como prime,
y en castellano se designa con distintos rótulos: inductor, estímulo-señal, facilitador, etc. La
palabra principal (DOCTOR), sobre la que hay que dar una respuesta, se denomina target, o
palabra objetivo, estímulo-test, palabra crítica, estímulo principal, estímulo de prueba, etc.,
en castellano. En los experimentos es corriente presentar la primera en letras minúsculas y la
segunda en mayúsculas, sobre todo en el priming de repetición (doctor-DOCTOR). Dada su
univocidad, mantendremos aquí la denominación original de prime y target.
El efecto de priming no está limitado sólo a la tarea de decisión léxica, también ocurre con
otras tareas; tampoco se limita a las palabras, sucede también con imágenes y otros tipos de
estímulos (p.e. en el reconocimiento de objetos). Un fenómeno como éste, que a primera
vista pudiera parecer anodino, ha cobrado gran relevancia no sólo en la psicolingüística,
sino en otras áreas cognitivas como la psicología de la atención o de la memoria. En la
Psicología del Lenguaje, su interés se debe sobre todo a dos razones:

• por su relevancia teórica, al ayudarnos a entender mejor cómo está organizado


nuestro léxico mental. La manipulación experimental de determinadas variables (tipo
de relación entre los estímulos, tiempo de separación entre ellos, y otras) hace al
priming una especie de "ventana" abierta para observar las propiedades organizativas
de nuestras representaciones léxicas.

1
Hay que decir que casi todos los manuales de Psicolingüística y Psicología cognitiva describen este
experimento como el prototípico del artículo de Meyer & Schvaneveldt (1971), pero realmente fue llevado a
cabo en un trabajo posterior (Meyer, Schvaneveldt, & Ruddy, 1972). En Meyer & Schvaneveldt (1971) ambos
estímulos eran presentados simultáneamente. No obstante, la lógica del proceso subyacente es la misma.
32 Psicología del Lenguaje

• por su relevancia metodológica, al constituir una herramienta de primer orden, un


verdadero banco de pruebas que el psicólogo tiene a su alcance para la investigación
de un gran número de fenómenos.

hospital camino

DOCTOR DOCTOR

A B

Figura#. Efecto de priming semántico: los tiempos de reacción ante la palabra DOCTOR son
significativamente más cortos en la condición A, que en la condición B.

En un experimento ya clásico, Neely (1977) puso de manifiesto que en el priming están


involucrados dos tipos de procesos, dependiendo de la distancia temporal entre los
estímulos (prime y target). Técnicamente, esta distancia se conoce como SOA (stimulus
onset asynchrony), o asincronía entre los comienzos de los estímulos. Neely comprobó que
con SOAs cortos (250 milisegundos), el efecto del priming es de tipo automático, rápido,
inevitable y sin la participación de la atención del sujeto. Con SOAs más largos, se trata
más de un proceso atencional, en el que pueden influir las expectativas conscientes del
sujeto. Trabajos más recientes van en esa misma línea (Cañas y Bajo, 1996 libroSpanish#).
Esta diferencia se relaciona con la gran distinción propuesta por Posner y Snyder (1975) y
Schneider y Shiffrin (1977) para los procesos cognitivos en general: a) procesos
automáticos, rápidos, sin esfuerzo ni atención consciente, con poca interferencia desde
otras tareas, y b) procesos controlados, más lentos, consumen atención, son conscientes y
están sometidos a la interferencia de otros procesos o tareas simultáneas.

La explicación del mecanismo subyacente al priming va a diferir segun los distintos


modelos teóricos. El elemento común a la mayoría de las explicaciones es la propagación
de la activación de unas representaciones a otras. Aquí, la activación es vista como una
propiedad continua, como ocurre con el calor, que se propaga a través de una red desde
unas unidades a otras cercanas (Harley, 2000). Volveremos sobre la cuestión al tratar los
modelos de acceso léxico.
4. Procesamiento de Palabras 33

El priming como valiosa herramienta

El priming aparece en una gran cantidad de publicaciones; sólo en el año 2005, la base
PsycINFO recogía 450 artículos y otros documentos relacionados con este término.
Podríamos decir que, dentro del taller del psicolingüista y del psicólogo cognitivo,
constituye una de las herramientas más valiosas con las que se cuenta para desentrañar la
naturaleza de determinados procesos mentales.

Pongamos un ejemplo. Una característica importante del vocabulario de cualquier lengua


es la ambigüedad léxica, o el hecho de que gran parte de las palabras tienen más de una
acepción o significado. Así, tenemos planta como piso de un edificio, o planta como
vegetal, dos acepciones totalmente distintas. Esto ha planteado interrogantes sobre la forma
en que tales palabras se procesan por nuestro sistema cognitivo. Concretamente, ha existido
la duda de si en el contexto de una frase se activan todos los significados de una palabra o
sólo el correcto, es decir, el congruente con el sentido de la frase. Experimentos basados en
el priming permiten responder a esto: inicialmente, durante los primeros milisegundos, se
activan en la mente de forma automática todos los significados de la palabra, pero en una
segunda fase, inmediatamente posterior, se desactivan los inapropiados y sólo permanece
activo el correcto. El priming ofrece, por ende, una aproximación relativamente precisa al
curso temporal de estos fenómenos.
El procedimiento estándar es el siguiente. Por vía auditiva o visual, se presenta una frase
que incluye una palabra ambigua con dos significados posibles, aunque sólo uno de ellos es
coherente con el sentido de la frase. Inmediatamente después de la palabra ambigua, se
presenta un estímulo crítico sobre el que el sujeto debe realizar una tarea (típicamente una
decisión léxica). En unos ensayos este estímulo guarda relación con el significado
apropiado –congruente con la frase– de la palabra ambigua; en otros, el estímulo guarda
relación con el significado inapropiado. Aquí lo importante es comparar los tiempos de
reacción ante ambos tipos de estímulos. Si en la mente sólo se activa el significado
apropiado, unicamente habrá priming (tiempos más cortos) para el estímulo coherente. Si
se activan los dos significados, ambos estímulos saldrán beneficiados. En estos
experimentos también se presentan estímulos de control sin relación con los significados de
la palabra ambigua, y que sirven de elementos de comparación.

Así, en un experimento ya clásico de priming transmodal (a través de las modalidades


auditiva y visual), David Swinney, (Swinney, 1979; ver en castellano el cap. 5 de Valle, et
al., 1990) presentó a los participantes grabaciones de frases del tipo de la Figura#. El
experimento fue bastante más complejo, pero no centramos aquí en una parte del mismo, a
efectos ilustrativos. Después de escuchar la palabra ambigua planta –ver el asterisco– se
presentaba visualmente sobre una pantalla un estímulo crítico para que el participante
realizara una decisión léxica, pulsando rápidamente uno de dos botones. Había tres clases
de estímulos posibles: en unos casos, se presentaba un estímulo relacionado con el
significado coherente de la frase (FLORES); en otros se presentaba un estímulo
relacionado con el significado no coherente (PISOS); en un tercer caso, era un estímulo no
relacionado (RUEDAS), que actuaba como control. Lógicamente, tratándose de una tarea
de decisión léxica había también estímulos no-palabras de relleno, que no se incluían en los
análisis.
A priori, cabe esperar que los tiempos de reacción ante FLORES sean más rápidos que
ante RUEDAS, gracias al priming contextual; y eso es lo que sucedía. La pregunta clave es
qué pasaba con PISOS, ¿también se beneficiaba como FLORES, o quedaba sin beneficio
34 Psicología del Lenguaje

como RUEDAS? La respuesta es que dependía críticamente de cuándo se presentaba el


estímulo crítico en relación a la palabra ambigua (planta). En el experimento se hicieron
dos versiones jugando con el momento de la presentación: inmediatamente después de la
palabra ambigua, y tres o cuatro sílabas después. Swinney encontró que en el primer caso
tanto FLORES como PISOS eran facilitados, señal de que se habían activado los dos
significados de "planta"; mientras que en el segundo caso sólo observó facilitación en
FLORES, señal de que el significado inapropiado había sido ya inhibido.

En general, después de éste y otros experimentos, parece que todos los significados se
activan en un principio de forma automática, pero al cabo de unos 200 milisegundos, sólo
persiste el significado apropiado al contexto (de Vega et al., 1990). Otra cuestión es cómo
se produce esa supresión de los significados irrelevantes. La investigación actual propone
varios mecanismos posibles, en los que no vamos a entrar.

GRABACIÓN:
"Uno de los mayores problemas de mantenimiento de los modernos edificios
de oficinas es el de la limpieza, sobre todo si se tiene en cuenta la cantidad
de ficus, palmeras y otras plantas (*) que hay en ellos"

FLORES (coherente)

PISOS (incoherente)

RUEDAS (control)

Figura# Ejemplo de estímulos en un experimento de priming transmodal (Swinney, 1979; tomado


de Valle et al., 1990)
4. Procesamiento de Palabras 35

Priming enmascarado

Forster y Davis (1984) dieron a conocer una variante metodológica del priming, conocida
como priming enmascarado. La principal novedad es que el primer estímulo (prime) se
presenta de forma muy breve y en condiciones de enmascaramiento visual, de manera que
el sujeto no llega a ser consciente de su presencia. Sin embargo, tal como denuestran los
datos, ejerce claramente su influencia sobre el estímulo principal (target). La situación
típica es la siguiente:

######## (500 ms)


prime (50 ms)
TARGET (500 ms)

Primero se presenta una máscara, o un conjunto de patrones gráficos sin sentido; ello causa
un efecto de enmascaramiento "proactivo", o hacia delante, y contribuye a que el prime
resulte inadvertido. Después se presenta el prime muy brevemente, durante 50 milise-
gundos, o incluso menos en algunos experimentos. A continuación, se presenta el estímulo
target, al que se debe dar la respuesta. El participante no llega a ser consciente de la palabra
prime. Todo lo más, le parece que algo se movido antes del target. Sin embargo, cuando se
analizan los tiempos, se observa claramente su influencia, por lo que el sistema cognitivo
procesa el prime de forma automática y sin la participación de la conciencia del sujeto.
También se la ha denominado "técnica sandwich", por la posición del prime entre la
máscara y el estímulo principal. Este esquema básico puede dar lugar a otras variaciones en
las que se incluye una máscara posterior al prime. El interés de esta técnica reside en que
ilustra particularmente bien la naturaleza automática del proceso y su existencia sin el
control consciente del sujeto. El uso experimental del priming enmascarado se ha extendido
profusamente desde los años ochenta. En internet puede verse una demostración en inglés
en la dirección: www.u.arizona.edu/~kforster/priming/.

Clases de priming

Según la relación establecida entre los estímulos prime y target, se consideran varios tipos
de priming. Podrían clasificarse, grosso modo, en dos grandes grupos:

A. Priming dependiente del significado: Cuando existe una relación conceptual entre los
estímulos. Sería el priming semántico, donde hay una relación semántica (fruta-manzana;
león-tigre), o asociativa (hospital-doctor, pan-mantequilla, bebé-cuna) (para una revisión,
Neely, 1991). El tamaño del priming varía en función de la fuerza de esa relación
semántica. Primes más intensamente relacionados con el target producen efectos
facilitadores más potentes que los primes que tiene una relación más débil (Cañas, 1990;
Cañas y Bajo, 1996; de Groot, Thomassen y Hudson, 1982).
También incluiremos aquí el priming contextual, en el que el contexto oracional facilita
o preactiva palabras coherentes con el mismo, y altamente predecibles. Así, un fragmento
de frase como "es importante cepillarse los dientes cada..." facilita el reconocimiento de
palabras como "día", o "noche" (Schubert y Eimas, 1977), e inhibe el de otras no
predecibles ("año") (Fischler y Bloom, 1979).
36 Psicología del Lenguaje

B. Priming dependiente de la forma: Cuando existe una relación entre las formas de los
estímulos, bien en el plano ortográfico, o en el fonológico. Hay múltiples experimentos
que demuestran efectos facilitadores entre estímulos que guardan algún grado de semejanza
formal. Sirvan algunos de muestra. En determinadas condiciones, cuando el prime, siendo
palabra o no-palabra, es un vecino del target (calta-CARTA), puede facilitar el
reconocimiento de éste. No-palabras creadas al transponer dos letras contiguas (jugde-
JUDGE) son efectivas para activar la palabra base (Andrews, 1996; Perea y Lupsker,
2003); también si se transponen consonantes no contiguas (caniso-CASINO) (Perea y
Lupskers, 2004). Etcétera. Ya hemos visto el papel de las sílabas sobre el reconocimiento
de palabras; el efecto de priming es más fuerte cuando primes y targets comparten la
primera sílaba (ju/nas-JU/NIO) que cuando sólo comparten las letras iniciales (jun/tu-
JU/NIO) (Álvarez, Carreiras y Perea, 2004). En fin, todos estos fenómenos empíricos
tendrán que ser asumidos por los modelos que pretenden dar una explicación del
reconocimiento de palabras, en este caso, escritas.
El caso más extremo de semejanza formal entre los estímulos es el priming de
repetición (Scarborough, Cortese y Scarborough, 1977), en el que prime y target son el
mismo estímulo (v.g., mesa-MESA; habitualmente se presenta el primero en letras
minúsculas y el segundo en mayúsculas).

No se agota aquí la lista de tipos de priming. En realidad este efecto podría ocurrir respecto
a cualquier dimensión que compartan los estímulos. Así, la facilitación es mayor si el
acento de prime y target coinciden (Domínguez y Cuetos, 1998; Gutiérrez, 2003), lo cual
lleva a plantear el papel del acento en el acceso léxico. También existe priming afectivo
debido a la carga emocional de las palabras; y priming sintáctico, como veremos al tratar
el procesamiento de oraciones.

Finalmente, hay que destacar que el fenómeno del priming afecta sólo a las palabras reales,
no a los estímulos que son no-palabras. Así, en el priming de repetición se da una
facilitación en el caso de "mesa-MESA", pero no en "nizo-NIZO". Esto indica que se trata
de un efecto lingüístico, y no puramente perceptivo.

EJEMPLO: Veamos un ejemplo de experimento sencillo de priming de repetición llevado a


cabo con estudiantes de un curso. Se basó en la tarea de decisión léxica y las dos variables
independientes o variables de entrada fueron: Palabra vs No-palabra (VI 1), y Repetición
vs. No-Repetición (VI 2) entre el prime y el target. En consecuencia, cada participante
recibió cuatro tipos de ensayos, fruto de la combinación 2x2 de las variables: Palabras con
repetición (v.g., dedo-DEDO), Palabras sin repetición (luna-VASO), No-Palabras con
repetición (capi-CAPI), y No-Palabras sin repetición (meda-TOFE). Como variable
dependiente (VD) o variable de salida tomamos el tiempo de reacción para la decisión
léxica. Lógicamente, los estímulos estaban igualados en otras variables que se sabe que
influyen en el acceso léxico, como la longitud y la frecuencia léxica.
Los resultados obtenidos se pueden ver en la Figura#, donde se presentan los tiempos de
reacción en milisegundos ante las cuatro condiciones. Tres observaciones se desprenden de
los datos:

a) Globalmente, las respuestas ante las no-palabras son más lentas que ante las
palabras, tal como era esperable (variable VI 1).
4. Procesamiento de Palabras 37

b) Las respuestas en la condición de repetición son notablemente más rápidas que en la


condición de no-repetición (variable VI 2).

c) Lo que es clave para nuestro objetivo: hay una interacción entre las dos variables
independientes (las líneas no son paralelas), de manera que la repetición no afecta
por igual a las palabras que a las no-palabras. En las palabras, el priming de
repetición supuso un ahorro de más de 100 milisegundos. En las no-palabras este
ahorro fue muy pequeño, insignificante desde el punto de vista estadístico. Este
cuadro de resultados viene a confirmar que el priming no ha sido un mero efecto
perceptivo por la semejanza visual entre el prime y el target (pues tan parecidos son
entre sí "dedo-DEDO", como "capi-CAPI"), sino un efecto lingüístico, que sucede
sólo a los estímulos que son palabras, es decir, aquellos que corresponden a
representaciones léxicas archivadas en nuestra memoria. De nuevo, este efecto
tendrá que ser explicado convenientemente por los modelos teóricos de acceso
léxico.

ms.

700
no repetición

600

repetición
500

400

PALABRAS NO-PALABRAS

Figura#. Priming de repetición en una tarea de decisión léxica. La condición de


repetición afecta notablemente a las palabras (v.g., dedo-DEDO), pero apenas a las no-
palabras (v.g., capi-CAPI).

MODELOS TEÓRICOS DE ACCESO LÉXICO

¿Por qué un Modelo?

La ciencia recurre a teorías y modelos teóricos para avanzar y entender mejor lo que nos
rodea. Un modelo viene a ser una construcción teórica que representa una cierta realidad de
difícil manejo u observación directa. Necesitamos modelos para entender realidades fuera de
38 Psicología del Lenguaje

nuestro alcance por diversas razones: el tiempo (modelo del Big Bang sobre el origen del
universo; evolución de las especies), el espacio (modelo del sistema solar; agujeros negros),
el tamaño (modelo cuántico; teoría de la relatividad), su complejidad organizacional
(procesos mentales), etcétera. Los modelos intentan dar una explicación más acertada de la
realidad, luchando muchas veces contra nuestra intuición: pese a toda apariencia, la tierra no
es plana; no es el sol el que se mueve en el cielo durante el día, etcétera.
Con frecuencia el ser humano entra en contacto con fenómenos empíricos que tardarán
siglos en ser explicados. El hombre del Neolítico domaba animales sin saber media palabra
de condicionamiento clásico u operante. Los griegos de la antigüedad conocían las
propiedades eléctricas del ámbar, pero tendrían que esperar dos milenios para que la teoría
electrónica de la materia explicara su mecanismo íntimo. En realidad, la explicación nunca
es cabal: nuestra comprensión actual de las partículas subatómicas, sobre la que descansa la
teoría electrónica, es muy incompleta y contradictoria.

Un modelo ofrece una visión unificadora sobre fenómenos dispersos cuya conexión no es
evidente a primera vista. De pronto, la teoría de la deriva de los continentes da sentido a
múltiples observaciones geológicas hasta entonces desconectadas. Las teorías y los modelos
ayudan a conocer mejor la estructura de la naturaleza y, en consecuencia, a mejorar nuestra
existencia. La teoría microbiana de las enfermedades llevó a Pasteur a ahorrar muchas
vidas, simplemente convenciendo –no sin esfuerzo– de la importancia de lavarse las manos
antes de asistir a un parto.

Los modelos no se construyen en el vacío, parten de datos de la realidad; pero, al


proporcionar una visión más completa del fenómeno, ellos son fuente de nuevas hipótesis
que deben ser verificadas otra vez de forma empírica. Es un camino de ida y vuelta entre el
modelo y el fenómeno real. De esta manera, los modelos tienen capacidad predictiva.

Por otra parte, no existe el modelo perfecto, que lo explica todo bien y para siempre. El
principio de falseabilidad de Karl Popper establece que una buena teoría debe ser falseable,
refutable por los datos. La historia de la ciencia es la historia de cómo se van desechando
modelos que son sustituidos por otros más potentes. El modelo clásico de Newton
funcionaba bien para nuestra física de velocidades cotidianas, pero no a una escala cósmica
con velocidades cercanas a la de la luz. Entender el universo exigió la teoría de la
relatividad general y contar con las deformaciones del espacio-tiempo, despreciables a
escala terreste.
Para que los modelos sean útiles, deben establecer predicciones específicas que puedan ser
verificadas o falseadas. Un modelo que prevea vagamente que todo se relaciona con todo no
nos sirve de mucho. Según Popper, cada buena teoría científica es realmente una
prohibición: prohibe el que ciertas cosas ocurran; para él, cuantas más prohibiciones, mejor
será la teoría, más especificas serán sus predicciones. Una teoría psicológica (v.g., el
psicoanálisis) que intente explicarlo todo a posteriori, una cosa y también su contraria, que
no plantee a priori hipótesis específicas empíricamente verificables, ayuda poco al avance
acumulativo de la ciencia, y al despegue desde un plano circular meramente especulativo.

Muchos modelos científicos se basan en una analogía que les abre nuevas oportunidades. El
modelo de Maxwell adquirió toda su fuerza cuando el autor concibió las fuerzas
electromagnéticas como análogas a los fluidos. La dinámica de gases se entendió mejor a
partir del modelo de bolas de billar, y esto permitió anticipar predicciones que luego se
confirmarían. Más recientemente, el modelo del saco del MIT (Instituto Tecnológico de
Massachusetts) sobre el confinamiento de los quarks abre nuevas perspectivas en física
4. Procesamiento de Palabras 39

cuántica. Los procesos mentales pertenecen a un dominio más resbaladizo que el físico,
dada la enorme cantidad de variables intervinientes no controladas, pero la analogía del
ordenador y el procesamiento de la información ha sido útil durante cuatro décadas. Hoy
muchos autores apuntan hacia la analogía del propio cerebro: su microestructura debe servir
de guía, hay que caminar hacia modelos de estructuras reticulares altamente interconectadas.
En el campo específico de la psicolingüística, la analogía del diccionario mental ha tenido
una poderosa influencia en la investigación sobre el procesamiento de las palabras.

Los modelos teóricos sobre el acceso léxico nacen para intentar explicar y dar coherencia a
los hallazgos empíricos obtenidos hasta el momento (efecto de frecuencia, priming, etc.). Su
potencia explicativa crece en la medida en que también expliquen nuevos datos que vayan
apareciendo con posterioridad. Desgraciadamente, la psicolingüística, como la psicología
cognitiva en general, son disciplinas científicas en las que, todavía, apenas hay áreas con un
módelo único admitido por todos. Por el contrario, es normal que varios modelos
alternativos compitan por explicar mejor los subprocesos modelados y la evidencia empírica
tiende a repartirse entre ellos. La realidad mental es bastante escurridiza y muchas veces
juega al gato y al ratón con los investigadores; se resiste a mostrar regularidades sencillas
fácilmente "capturables". En ocasiones, pequeñas variaciones en las condiciones
experimentales conducen a resultados contradictorios. Una situación frecuente es que
originalmente un modelo surge con una estructura relativamente simple y parsimoniosa,
elegante en términos científicos, y, sin embrago, la necesidad de explicar nuevos resultados
que no encajan obliga después a complicar el modelo.

Los modelos del acceso léxico se dividen fundamentalmente entre los que defienden un
acceso directo al léxico mental (v.g., modelo del logogén) y los que consideran la
existencia de algún tipo de mecanismo de búsqueda serial (modelo de Forster). El modelo
de cohorte de Marslen-Wison se califica de híbrido en este sentido. También abordaremos
brevemente los nuevos modelos conexionistas.

Modelos de acceso directo. Modelo del logogén

En los años setenta y siguientes, John Morton planteó un modelo que ha sido muy influyente
en la investigación sobre el reconocimiento de las palabras (Morton, 1969, 1970, 1982). En
este modelo, cada palabra que conocemos estaría representada en nuestra memoria por un
dispositivo llamado logogén. Se trataría de un mecanismo que acumula evidencia o
activación respecto a una palabra y, cuando la activación alcanza un umbral prefijado, el
logogén se dispara, reconociendo la palabra. Cuando entra información en el sistema o
conjunto de logogenes, éstos acumulan activación sobre sus palabras hasta que uno de ellos
alcanza su umbral y resulta "ganador". Los logogenes compiten entre sí en la identificación
de las palabras y mientras no están activos mantienen un cierto nivel de activación basal o
de reposo.

Se trata de un modelo de acceso directo porque, al contrario que en el de Forster, la


búsqueda léxica no ocurre de forma serial, sino que desde el principio toda la información
está accesible al sistema completo de logogenes y éstos reciben activación en paralelo. Es
como si en un cuarto oscuro, lleno de lámparas apagadas, una o varias de ellas se
encendieran total o parcialmente: serían detectadas de forma directa sin necesidad de un
mecanismo de búsqueda secuencial.
40 Psicología del Lenguaje

De acuerdo con la formulación original del modelo (Figura#), al sistema de logogenes llega
información en paralelo desde tres fuentes distintas: representaciones ortográficas
obtenidas por el análisis visual de las palabras escritas, representaciones auditivas de las
palabras habladas, y representaciones semánticas procedentes del sistema cognitivo. Las dos
primeras son fuentes externas al sujeto porque corresponden a la información de entrada del
estímulo, mientras que la tercera es información interna que procede de su propio sistema
cognitivo. Esta última es la que utilizamos en la producción del lenguaje, al nombrar dibujos
u objetos, o cuando pensamos en las palabras que vamos a utilizar.
Ahora bien, el sistema de logogenes no hace distinción entre las fuentes, y para él las tres
son externas. Una vez que la información ingresa en el sistema de logogenes, ésta tiene el
mismo valor funcional independientemente de cuál ha sido su origen; "no se le pide el DNI"
a cada información, todas son funcionalmente equivalentes. De este modo, Morton explica
el efecto del contexto: en la medida en que los logogenes disponen de mayor información
procedente del sistema cognitivo, es decir, la denominada información arriba-abajo que
viene de los procesos superiores, necesitará menos información estimular (de abajo-arriba)
para la identificación de las palabras. Mientras leemos o escuchamos lenguaje organizado y
coherente, nuestro sistema cognitivo elabora en tiempo real una representación del
significado y, en consecuencia, envía información al sistema de logogenes, preactivando
determinadas palabras congruentes con el mensaje; así, gracias a este efecto del contexto,
esos logogenes necesitarán menos información de entrada para dispararse y llevar a cabo la
identificación léxica. Según esto, se trata de un modelo interactivo porque la información
contextual ejerce su influencia desde el primer momento en el proceso de reconocimiento de
palabras.

El modelo explica la mayor parte de los fenómenos empíricos conocidos en el momento de


su formulación (Figura #). Después de que un logogén ha sido activado al identificar una
palabra, su activación desciende al nivel de reposo, pero esto no lo hace de forma
instantánea, sino que lleva un cierto tiempo. Por tanto, las palabras activadas recientemente
retendrán una activación residual superior a la de reposo durante un corto periodo temporal;
si en ese momento, el estímulo de entrada vuelve a activar el mismo logogén, éste se
disparará antes, reconociendo de nuevo la palabra con mayor facilidad. Es así como se
explica el priming de repetición.
Morton propone que cada logogén tiene un umbral de disparo distinto. Las palabras de alta
frecuencia, que son familiares al sistema de logogenes porque se han presentado muchas
veces a lo largo de la vida del sujeto, cuentan con logogenes con un umbral más bajo. Por
eso se activarán antes que las palabras poco frecuentes, que tienen umbrales más altos y
necesitan mayor cantidad de activación antes de alcanzarlo. Así es como el modelo explica
el efecto de la frecuencia léxica.
Por otra parte, los logogenes están conectados entre sí de manera que se comunican su
activación recíprocamente, y ésta se extiende entre los logogenes cercanos; si bien este
proceso tampoco sucede de forma instantánea. Las palabras semánticamente próximas, con
significados similares, tienen logogenes cercanos entre sí y con mayor probabilidad de
comunicar sus respectivas activaciones. De este modo, Morton explica el efecto del priming
semántico. Cuando, por ejemplo, leemos la palabra "hospital", se activa su logogén y parte
de su activación se comunica a los logogenes próximos como "doctor", "enfermedad",
"ambulancia", "quirófano", etcétera. Si en ese momento entra información congruente con la
palabra "doctor", su logogén se disparará antes gracias a la activación recibida desde el
logogén "hospital".
Respecto a cómo se procesan las no-palabras en este modelo, Coltheart, Davelaar,
Jonasson y Besner (1977) sugirieron la existencia de un tiempo límite para reconocer las
4. Procesamiento de Palabras 41

palabras en el sistema de logogenes. Una vez agotado este plazo sin que se haya disparado
ningún logogén, se rechaza el estímulo como no-palabra. Si éste guarda cierto parecido
superficial con algunas palabras, se tardará más en el rechazo porque habrá activación
parcial de sus logogenes.

Debilidades. Morton no pudo mantener la elegancia de su esquema original porque no era


capaz de explicar algunos datos experimentales que iban apareciendo. Por ejemplo, el
modelo opera únicamente con unidades léxicas, por tanto, no está claro cómo se procesan
las unidades subléxicas, tales como las sílabas y otras. Una debilidad importante es que el
modelo predice que un cambio de modalidad en la información, de visual a auditiva, o
viceversa, no debe afectar en los procesos de facilitación o priming. Por ejemplo, la
identificación previa de una palabra escrita debería facilitar su reconocimiento posterior
tanto por vía visual como por vía auditiva, pero los experimentos demuestran que esto
último no es así. En otras palabras, debería existir una facilitación clara entre modalidades
sensoriales distintas, o priming transmodal de repetición, lo que no confirman los datos.
Tampoco se observa facilitación desde el canal cognitivo; Winnick y Daniel (1970)
demostraron que la lectura en voz alta de una palabra facilitaba su reconocimiento
taquistoscópico posterior, pero nombrar una palabra ante un dibujo, o producirla en
respuesta a una definición, no influye luego en su reconocimiento taquistoscópico.
En respuesta a ello, Morton y sus colegas plantearon una nueva versión de su modelo,
algo más compleja (Morton, 1979; Morton y Patterson, 1980) (Figura#). Aquí, en lugar de
uno, se contemplan tres sistemas distintos de logogenes: uno por cada modalidad sensorial o
canal de entrada (visual vs. auditiva), más un tercer sistema de salida. De este modo, los
sistemas se mantienen separados sin influencias entre modalidades. Evidencia experimental
posterior sugirió la necesidad de considerar cuatro sistemas: uno para leer, otro para
escribir, otro para escuchar y otro para hablar. Datos adicionales desde la neuropsicológica,
obtenidos a partir de lesiones cerebrales, sugiere la conveniencia de establecer estas
separaciones.
A la luz de los datos experimentales que van apareciendo durante las últimas décadas, han
ido surgiendo nuevas versiones y variantes del modelo del logogén, en las que aquí no
vamos entrar en detalle.
42 Psicología del Lenguaje

Análisis Análisis
visual auditivo

Sistema Sistema
de Logogenes cognitivo

Almacén de
Salida

Figura#. Modelo del logogén de reconocimiento de palabras, en su


formulación original (Morton, 1969)
4. Procesamiento de Palabras 43

umbral

activación de un logogén

estímulo
(2ª vez)

Priming de repetición

PALABRA PALABRA
MUY FRECUENTE POCO FRECUENTE

Efecto de la Frecuencia

DOCTOR AMBULANCIA

HOSPITAL
ENFERMEDAD QUIRÓFANO

Priming semántico

Figura#. Explicación de algunos fenómenos empíricos por el modelo del logogén de Morton (ver texto).
44 Psicología del Lenguaje

Análisis Análisis
visual auditivo

Logogenes Logogenes
Visuales Auditivos

Sistema
cognitivo

Logogenes
de Salida

Figura#. Modelo revisado del logogén (Morton, 1979; Morton y Patterson, 1980).

Modelos de búsqueda serial. Modelo de Forster

Los modelos de búsqueda serial conciben mecanismos semejantes al de identificar una


palabra en un diccionario convencional. Se explora a través de las entradas léxicas, que
están ordenadas para facilitar la búsqueda, y, una vez localizada la palabra, el diccionario
proporciona toda la información almacenada sobre ella. El modelo más conocido de este
tipo es el propuesto por Kenneth Forster (Forster, 1976, 1979), cuya formulación original se
muestra en la Figura#. El modelo plantea una búsqueda en dos etapas; la primera se llevaría
a cabo a través de ficheros de acceso, y la segunda en un gran archivo maestro o
principal.

La primera fase ocurre en uno de tres posibles ficheros de acceso, específicos de una
modalidad de información. Uno contiene la información ortográfica de las palabras, o
fichero de acceso ortográfico para las palabras escritas. Otro contiene información acústica
y fonológica de las palabras habladas: el fichero de acceso fonológico. Y el tercero
4. Procesamiento de Palabras 45

almacena información sintáctica y semántica de las palabras y se usa en la producción de


lenguaje.
Cuando una palabra se presenta visual o auditivamente, el estímulo de entrada es
convertido en una representación perceptiva y enviada al archivo de acceso apropiado para
su análisis. Estos ficheros proporcionan punteros o indicadores dirigidos al fichero maestro
que almacena toda la información del léxico mental, incluidos los significados. Para acelerar
el proceso de búsqueda, los ficheros de acceso están divididos en bins o compartimentos
separados, probablemente sobre la base de la primera sílaba o las primeras letras de las
palabras. Dentro de cada bin, los items están ordenados por la frecuencia de uso, con las
unidades más frecuentes al principio, de manera que éstas son localizadas más rápidamente
que las menos frecuentes. Se explica así el efecto de la frecuencia de las palabras en la
velocidad de reconocimiento.
Cuando la unidad es localizada en el fichero de acceso, el puntero conduce a la entrada
correspondiente en el archivo maestro. En ese momento queda disponible toda la
información lingüística contenida en el mismo. Dentro del fichero maestro hay referencias
cruzadas o conexiones entre las palabras semánticamente relacionadas.

Se trata de un modelo de tipo autónomo porque la información de los niveles lingüísticos


superiores –oracional y supraracional– no incide directamente en el proceso de acceso o
localización de las palabras. El único efecto de contexto que puede darse es a través de las
referencias cruzadas dentro del fichero maestro y así es como se explica el priming
semántico. No hay lugar para un efecto temprano del contexto de la frase que pudiera operar
sobre el acceso léxico. Los efectos de contexto actuarían a través de mecanismos
posteriores, o de tipo post-acceso. O sea, una vez identificada la palabra, se contrastaría su
información integrándola en la frase y otros niveles superiores; pero esto ya sería una
mecanismo post-acceso, una vez que se ha accedido a la unidad léxica.
El priming de repetición ocurre porque puede haber un cambio temporal en el orden de los
items dentro de cada bin, debido a su uso. Las no-palabras se rechazan una vez que ha
habido una búsqueda exhaustiva en el bin correspondiente; esto generalmente consume más
tiempo que la localización de una palabra.

Debilidades.El modelo de Forster y el planteamiento de un mecanismo de búsqueda serial


ha tenido, y tiene, gran influencia en la comunidad psicolingüística. Sin embargo, las
críticas más importantes se dirigen, precisamente, a ese mecanismo serial, que no todos
admiten. El modelo da cuenta de los principales datos experimentales y predice que los
efectos de priming están limitados al priming semántico dentro del archivo principal, sin
que, como hemos dicho, el reconocimiento de palabras se vea influido por información de
tipo arriba-abajo procedente de niveles superiores de procesamiento (frase).
A partir de su primera formulación, este modelo ha sufrido algunas modificaciones para
acomodar nuevos hallazgos. Una versión más reciente (Forster, 1989, en Jay) asume
diferentes niveles de actividad para las entradas en los ficheros de acceso, para explicar el
priming basado en las similitudes ortográficas entre los estímulos. Este efecto activaría
algunas entradas más que otras, lo cual lo hace más parecido a los modelos de activación
como el de logogén. Otro de sus puntos débiles ha sido la incapacidad para explicar
convincentemente cómo pronunciamos y procesamos las no-palabras (Harley, 2001).
En los últimos años, Forster (1994) ha incorporado un rasgo de paralelismo sugiriendo
que, dentro de cada fichero de acceso, se produce una búsqueda simultánea en todos sus
bins.
46 Psicología del Lenguaje

Estímulo Estímulo
Visual Auditivo

ortográfico fonológico semántico/sintáctico

código
de acceso puntero

VACA

vaca ficheros
de acceso
/baka/ (ordenados por
frecuencia)

bin

fichero
LECHE VACA TORO
principal

Figura#. Modelo de búsqueda serial de Forster (adaptado de Forster, 1976)

Además del modelo de Forster, existen otros modelos de búsqueda serial que intentan
superar algunas de sus limitaciones. Destaca sobre todo el modelo de verificación de
Becker (1979) que pretende, entre otras cosas, dar una explicación más sofisticada del
priming semántico. Otro modelo de búsqueda serial, el del diccionario de bolsillo de
Glanzer y Ehrenreich (1979), plantea que hay a nuestra disposición dos diccionarios
mentales: uno que contiene información de todas las palabras, y otro que contiene
información sólo de las palabras muy comunes, de alta frecuencia, a modo de una especie de
diccionario de bolsillo. Estos autores defienden que el efecto de la frecuencia se debe al uso
de uno u otro diccionario, pero, dentro de un diccionario, el tiempo de búsqueda no varía
con la frecuencia léxica.
$

Modelos mixtos. Modelo de cohorte

El modelo de "cohorte" de Marslen-Wison (1984, 1987; Marslen-Wilson y Tyler, 1980)


supone una solución mixta entre los modelos de acceso directo y los de búsqueda serial. Lo
es en la medida en que postula una secuencia ordenada de etapas, pero en ellas se activan
4. Procesamiento de Palabras 47

paralela y simultáneamente varios elementos léxicos. Se trata de un modelo concebido


únicamente para las palabras habladas.

Los estímulos auditivos necesitan desplegarse en el tiempo y no se presentan de una vez por
todas como ocurre con una palabra en una pantalla. El modelo plantea lo siguiente: mientras
una persona está escuchando una palabra (v.g., "elefante"), desde el principio se activan en
paralelo un conjunto finito, o "cohorte", de palabras congruentes con los sonidos iniciales, y
todas ellas, en principio, serían candidatos léxicos del estímulo (ver Figura#). Son
representaciones que compiten en el proceso de identificación. Así, al escuchar la vocal
inicial de "elefante" se activarían palabras que empiezan por esa vocal, como "estudio",
"ecuador", "elegido", "elefante", etc. A medida que el estímulo va ingresando en nuestro
sistema perceptivo, la cohorte inicial se reduce y se van desactivando los candidatos
incompatibles con la secuencia de sonidos. Al final sólo queda activo el único candidato
coherente ("elefante") con esa particular secuencia acústica. Hay que tener en cuenta que
esto suele ocurrir antes de llegar al final de la palabra. El modelo plantea que cada palabra
tiene un punto de unicidad, o punto óptimo de reconocimiento, a partir del cual la palabra
queda como candidato único y es reconocida sin esperar al final (p.e. "elefante" tendría su
punto de unicidad después de la secuencia "elef").

Marslen-Wilson y sus colegas emplearon profusamente la técnica experimental del


sombreado (shadowing) de frases y otros estímulos lingüísticos; es decir, el participante
escucha una frase y la debe seguir como una sombra, repitiendo cada palabra lo más rápido
posible. Pronto observaron que se repetían las palabras con tiempos de reacción muy cortos,
indicando que los oyentes reconocían las palabras antes de que éstas finalizaran. No se
trataba de una imitación ciega de fonemas, porque esto no ocurría cuando los estímulos eran
no-palabras (p.e. "nicepa"). En tareas de correción de errores, una variante del sombreado
donde los oyentes deben repetir correctamente palabras que tienen algún fonema cambiado
(p.e. repetir "tragedia" al escuchar "travedia"), éstos se corrigen mejor cuando aparecen en
la primera sílaba, que cuando surgen en la tercera (Marslen-Wilson y Welsh, 1978). Estos y
otros resultados sugirieron a Marslen-Wilson que la percepción de una palabra se basa en un
continuo estrechamiento del abanico de candidatos posibles hasta alcanzar el punto de
unicidad, momento en que tendría lugar la identificación léxica. Ese punto es diferente para
cada palabra, dependiendo de los otros candidatos.
Aquí, la información del contexto puede influir acelerando el proceso mediante la
eliminación de competidores de la cohorte que son poco congruentes con el mismo.

Un planteamiento así ha tenido gran influencia para toda una generación de psicolingüistas a
partir de los años ochenta. En palabras de Jusczyk y Luce (2002, p.13), "la versión más
temprana de la teoría de cohorte presagiaba muchos de los temas de los que se habría de
ocupar la investigación sobre el reconocimiento de las palabras habladas en los años
venideros. De hecho, muchas cuestiones que dominan actualmente la investigación en este
campo tienen sus raíces en ella".
48 Psicología del Lenguaje

elegido

eje

elefante elegido

estudio elefante elegido

elogio elogio elefante elefante

ecuador elástico elegante

elástico elegante

envidia

elegante

tiempo

e l e f a

Figura#. Modelo de cohorte. Abajo se presenta una porción de la onda acústica del estímulo
(elefante)

Debilidades. Pese a su enorme impacto teórico, el modelo de cohorte no está exento de


puntos débiles, al no poder explicar convicentemente algunos efectos empíricos. Esto, al
igual que en los otros tipos de modelos, ha obligado a revisar algunos de sus planteamientos
iniciales y ofrecer versiones modificadas del modelo original. De manera que hoy es difícil
hablar de un único modelo bajo la rúbrica de "cohorte" (Jusczyk y Luce, 2002).
4. Procesamiento de Palabras 49

Sus principales debilidades son dos. Por una parte, cualquier mínima discrepancia del
estímulo en sus partes iniciales lo excluiría inmediatamente de la cohorte y su
representación no podría ser activada y e identificada. Según el modelo, las palabras que
difieren en sus comienzos dan lugar a cohortes distintas e independientes y, en
consecuencia, no ejercerían influencias entre sí; pero esto no es cierto. Así, los datos
demuestran que cuando se escucha la palabra beaker (cubeta, vaso de laboratorio), también
se activa speaker (hablante) (Allopena, Magnuson, y Tanenhaus, 1998). O la activación de
una palabra que está incluida dentro de otra –v.g. lock (cerradura) se activa al escuchar
hemlock (abeto)– (Luce y Cluff, 1998; Luce y Lyons, 1999). Es decir, estos y otros
hallazgos indican que compartir la porción inicial de las palabras no es una condición
indispensable para que se activen los competidores.
El segundo punto débil es que no explica convenientemente el efecto de la frecuencia
léxica. ¿Por qué cuando dos palabras comparten la misma porción inicial hasta el punto de
unicidad – "puer/ta" y "puer/ro" (ejemplo de Belinchón et al., 1992), se identifica antes la
palabra más frecuente ("puerta") que la menos frecuente ("puerro")?

Modelos conexionistas. TRACE

Durante la década de los ochenta surgieron con fuerza los modelos conexionistas. TRACE
es un modelo altamente interactivo propuesto por McClelland y Elman (1986) para el
reconocimiento de las palabras habladas, y derivado de un modelo anterior sobre las
palabras escritas (McClelland y Rumelhart, 1981).

Se trata de un modelo conexionista formado por múltiples unidades simples conectadas


entre sí (Figura#). Estas unidades están organizadas en tres niveles de procesamiento. En la
parte inferior, un primer nivel correspondiente a las unidades de entrada se encarga de
analizar el input, o estímulo entrante, en sus rasgos fonológicos elementales, como sonidos
sordos, sonoros, difusos, agudos, etcétera. Este nivel está conectado con el siguiente, que
representa a los fonemas. Finalmente el nivel de los fonemas se conecta con el nivel
superior correspondiente a las palabras.
En este esquema general, la información fluye desde arriba hacia abajo, pero, al mismo
tiempo, los niveles superiores influyen sobre los inferiores, facilitándoles la tarea.
Precisamente la característica más importante de TRACE es que concede gran importancia a
los procesos top-down o de arriba-abajo; de manera que el nivel de las palabras actúa sobre
el nivel de los fonemas, y éste sobre el nivel de los rasgos fonológicos.
$
Dentro de cada nivel, las unidades que lo componen (rasgos, fonemas, o palabras) están
conectadas entre sí por conexiones inhibidoras, en una relación de competencia mutua. Por
el contrario, las conexiones entre niveles distintos son excitatorias, y también
bidireccionales. La entrada del estímulo activa distintas unidades de los rasgos, que
compiten entre sí inhibiéndose mutuamente. Los rasgos "ganadores", con mayor activación,
transmiten su energía activadora al nivel siguiente de los fonemas, donde también existen
inhibiciones recíprocas. Finalmente, la activación de los fonemas ganadores se transmite al
nivel superior de las palabras, donde sólo una –si el estímulo no es ambiguo– resulta
ganadora y plenamente activada; produciéndose así la identificación o reconocimiento
léxico.
Al mismo tiempo, junto a este procesamiento de abajo-arriba, se da, como hemos dicho,
un procesamiento inverso de arriba-abajo que ayuda a que resulten ganadoras las unidades
50 Psicología del Lenguaje

coherentes con las representaciones superiores. Así, si en un estímulo, por ejemplo la


palabra "cosa", un fonema (/s/) no ha sido bien pronunciado por el hablante y no es perfecto
desde el punto de vista acústico, la unidad superior (cosa) retroalimenta al nivel inferior
activando los fonemas coherentes con ella. En ese caso, aunque el fonema /s/ recibiría poca
activación desde el estímulo físico, se activaría igualmente gracias a la que recibe desde
arriba. Esto es un claro ejemplo de efecto de contexto; concretamente, del contexto léxico
(palabra) sobre la percepción de los fonemas.

El modelo TRACE ha sido y es muy influyente para toda una generación de nuevos
modelos de corte interactivo y conexionista. Una de sus ventajas consiste en que puede ser
implementado matemáticamente en computadores y llevar a cabo simulaciones cuyos
resultados pueden contrastarse con los obtenidos experimentalmente en humanos.
El modelo maneja particularmente bien los efectos del contexto léxico y fenómenos
asociados, como la restauración fonémica y la coarticulación. Localiza apropiadamente los
límites entre las palabras dentro de una cadena hablada y funciona correctamente con
estímulos ruidosos, semejantes a los que se dan en condiciones naturales.
No obstante, TRACE tampoco está exento de problemas. Ciertos efectos experimentales
no son simulados adecuadamente por el modelo (Frauenfelder, Segui, y Dijkstra, 1990;
Massaro, 1989). Una de sus desventajas reside en su propia flexibilidad: son muchos los
parámetros que pueden ser manipulados en TRACE, pero los que se acomodan a unos
resultados, con frecuencia no son los mismos que se ajustan a otros resultados distintos. Por
otra parte, la manera en que trata el tiempo en el estímulo de entrada, segmentándolo en
cortes iguales, no parece muy realista (Harley, 2001).
4. Procesamiento de Palabras 51

COSA MANO

OJO COL
EJE

palabras

/f/ /o/ /s/ /a/ /e/ /m/


fonemas

rasgos
(sonoro, difuso,...)

Estímulo

Figura#. Esquema simplificado del modelo TRACE. Dentro de cada nivel las conexiones son
inhibidoras (líneas acabadas en cículos). Entre niveles distintos las conexiones son excitatorias
(flechas).
52 Psicología del Lenguaje

EL SIGNIFICADO DE LAS PALABRAS

Conceptos. Las palabras son palabras porque tienen significados. Pero ¿qué es el
significado? Si preguntamos a alguien en la calle por el sentido de la palabra perro,
inmediatamente señalará uno que esté a la vista. Así nos pone en contacto con la teoría
referencial del significado; es decir, éste consistiría en el objeto (referente) al que la palabra
hace referencia. Ésta fue una de las primeras concepciones filosóficas sobre el significado,
pero el asunto no es tan sencillo. En el caso de los nombres propios sí podemos pensar que
se refieren a un objeto o entidad individual (persona, lugar, etc.): París significa una ciudad
específica cruzada por el río Sena, y, entre sus propiedades, tiene la de ser capital de un país
llamado Francia; Figo se refiere a una persona única que juega en un determinado equipo de
fútbol. Sin embargo, ¿a qué objetos se refieren palabras como justicia, maldad, o
comodidad? Podemos creer que es sólo un problema de las palabras abstractas, pero
volvamos a la concreta de perro. En realidad, esta palabra no se refiere a un objeto
individual, puedo aplicarla a cientos de animales, muy distintos entre sí, repartidos por el
planeta (desde un chihuahua a un mastín), o imaginarios; tampoco se refiere exactamente a
un grupo o colección de esos objetos (para eso está la palabra jauría, o perros en plural),
sino a algo común a todos ellos: el concepto de perro.
Como planteaba William James, podría esperarse que las miriadas de objetos y eventos
que continuamente impresionan los órganos sensoriales se presentan a los organismos como
una desconcertante confusión, pero no es así (James, 1890). Para la supervivencia es clave
que los animales agrupen objetos "equivalentes" en clases que requieren una respuesta
similar. Para las ranas, los objetos pequeños, oscuros y que se mueven de un determinado
modo deben agruparse dentro de la categoría de "moscas" comestibles (Taylor y Taylor,
1990). Una vez clasificados, las variaciones de movimiento, tamaño, etcétera, entre
ejemplares individuales de la categoría –la que engullió ayer, la que ve ahora arrastrándose
sobre una hoja de la charca– pueden pasarse por alto en aras a una economía de la
percepción y la respuesta. Los humanos añadimos a esa capacidad la posibilidad de asignar
una etiqueta verbal a ese grupo de objetos equivalentes, mosca en este caso (con esto no se
dice que humanos y ranas categoricen el mundo del mismo modo).

La Semántica, o disciplina que estudia los significados, nos enseña que no hay una
correspondencia sencilla entre conceptos y palabras. Muchas palabras tienen más de un
significado y existen objetos y eventos, incluso cotidianos, que no tienen nombre. En inglés
o en español no hay una palabra que designe el montoncito de pasta de dientes que uno pone
todos los días sobre el cepillo (ejemplos de Jay, 2003). Tampoco hay una palabra única que
se refiera a un árbol muerto, aunque sí a un cuerpo muerto: "cadáver". Las lenguas difieren
en la forma de clasificar y nombrar muchos objetos; como dijimos en otra parte, los
extrajeros se sorprenden de la cantidad de términos del español para identificar los distintos
resultados que se pueden obtener cortando una materia con un cuchillo: "rodaja",
"rebanada", "cortada", "loncha", corte", "filete", "tajada", "lonja", etc (Crystal, 1994). En
Yiddish, lengua mayoritariamente hablada por personas judias, hay multitud de términos
para describir la ineptud, cada uno con un sentido distinto: "schlemiel", "schlimazel",
"shlump", "shmegegge", "shmendrick", "shmo", y "shmuck" (Rosten, 1968).
Siguiendo la distinción que en su día propuso el filósofo británico Locke (1632-1704),
cabe diferenciar entre intensión de la palabra, que se refiere a su significado y especifica las
propiedadades que un objeto debe reunir para ser incluido como miembro de esa clase o
concepto (concepto de "perrez" o propiedades que debe reunir un objeto para ser
4. Procesamiento de Palabras 53

considerado un perro), y extensión o el conjunto de objetos que tienen esas propiedades


(todos los perros del mundo, reales o imaginarios). La Semántica también distingue entre la
denotación de un término, es decir, su significado objetivo, lo que especifica un diccionario
sobre el mismo (definición de perro), y sus connotaciones, o conjunto de implicaciones
emocionales y subjetivas que asociamos al término ("bonito", "amenazante", "oloroso"). La
gente comparte la denotación, pero las connotaciones difieren de una persona a otra.

Asociación de Palabras

Desde tiempo atrás, los científicos se han interesado en conocer cómo se relacionan las
palabras entre sí dentro de nuestra mente. Una de las primeras herramientas que los
psicólogos tuvieron a su disposición fue el denominado Test de Asociación de Palabras,
inventado por Sir Francis Galton (1822-1911), y ampliamente utilizado por el suizo
psicoanalista Carl Jung (1875-1961) como método de exploración de la personalidad. Su
lógica es sencilla: consiste en presentar una palabra a una persona y pedirle que diga la
primera palabra que le venga a la mente. Es algo así como sacar cerezas de un cesto,
comprobar cómo se relacionan unas con otras.
Lo primero que se puso de manifiesto es que los participantes tienden a responder con
palabras que tienen una relación de significado con la proporcionada. O sea, la conexión
entre palabras basada en el significado resulta más fuerte que otro tipo de conexión, tal
como podría ser la semejanza perceptiva, u otra. Es la relación semántica la que parece jugar
un papel clave como principio organizativo de las palabras en nuestra memoria. Cuando se
presenta el término "aguja" (ejemplo de Reeves, Hirsh-Pasek, y Golinkoff, 1999), las
personas tienden a responder palabras como "hilo", "alfiler", o "coser", pero no otras como
"clavo" o "pincho", que se parecen a una aguja.

El primer estudio a gran escala fue el de Kent y Rosanoff (1910), en lengua inglesa.
Presentaron a un conjunto de 1000 hombres y mujeres una lista de 100 palabras, una a una,
para que respondieran con la primera palabra que les viniera a la cabeza. Las respuestas a
una de ellas (silla) se muestran en la Tabla#. Puede observarse que las personas tienden a
coincidir en sus respuestas: 191 individuos responden "mesa", 127, "asiento", etcétera; de
hecho, las cuatro contestaciones más comunes suman la mitad de todas las respuestas. En el
otro extremo tenemos una amplia variedad de respuestas idiosincrásicas ("caoba", "belleza",
"ociosidad", etc.). En cualquier caso, prácticamente todas las respuestas guardan una
relación de significado con el estímulo; nadie responde en función de la semejanza fonética,
p.e. "pilla", o "quilla".
Miller (1991) hace notar que los datos de Kent y Rosanoff demuestran que una única
palabra activa un amplio rango de conocimiento léxico. Dejando de lado las contestaciones
idiosincrásicas, las respuestas revelan cuatro tipos de relaciones asociativas: a) Relaciones
taxonómicas, dentro de una clasificación semántica (términos coordinados como "mesa",
subordinados o hipónimos como "mecedora", y "superordenados" o hiperónimos como
"mueble"). b) Atributos o propiedades del objeto representado: "madera", "confortable",
"duro", "blando". c) Partes del objeto: "patas", "asiento", "brazos". d) Términos
funcionales: "sentarse", "descanso", "mecerse".

El Test de Asociación de Palabras también se ha aplicado a niños (Palermo, 1963). Una


diferencia entre adultos y niños es que los adultos tienden más a responder con una palabra
de la misma clase gramatical que el estímulo.
54 Psicología del Lenguaje

Tabla#. Respuestas a la palabra SILLA en un Test de Asociación de Palabras (Kent y Rosanoff, 1910;
tomado de Carroll, 2004).

Frecuencia
de la Respuesta Respuestas Estímulo: SILLA
191 mesa
127 asiento
107 sentarse
83 mueble
56 sentado/a
49 madera
45 descanso
38 taburete
21 confort
17 mecedora
15 mecerse
13 banco
12 cojín
11 patas
10 suelo
9 cuarto, escritorio
8 confortable
7 comodidad, pierna
6 de madera, fácil, sofá
5 asentado, blando, diván, duro, Morris
4 alto, artículo, brazo, marrón
3 bajo, bastón, canapé, caoba, casa, conveniencia, descansar, escalón, grande,
persona, salón, útil
2 asentarse, hogar, necesidad, nogal americano, redondos, roble, roto, uso
1 alfombra, apalear, apoyo, banqueta, belleza, blanco, cama, carpintero, carreta,
cojines, colocado, color, corazonada, cuidadoso, despacho, espalda, estudio,
forma, gente, Gobernador Winthrop, goma, habla, herramienta, utensilio,
inclinado, lectura, libro, madero, maestro, masivo, mesas, mimos, misión,
objeto, ociosidad, ocupar, oficina, pelo, pie, pies, placentero, placer, planta,
plataforma, postura, puesto, sitio, tamaño, tapicería, tapizado, torcido, yo

El Diferencial Semántico

Con el fin de medir las connotaciones afectivas de las palabras, Charles Osgood y sus
colegas idearon en los años 50 una técnica que aún se utiliza: el Diferencial Semántico
(Osgood, Suci, y Tannenbaum, 1957). Como conductista "mediacional", Osgood concebía
el significado como una respuesta intermedia que "mediaba" entre el estímulo (en este caso,
palabras) y la respuesta externa del sujeto. Entendió que se podría cuantificar esta respuesta
interna y sus connotaciones emocionales pidiendo a las personas que indicaran qué sentían,
a través de puntuaciones en escalas bipolares que iban entre dos extremos. Cada escala
quedaba definida por un par de adjetivos opuestos y se dividía en 7 puntuaciones; los sujetos
tenían que marcar una de las puntuaciones. Así, una palabra como coche, puede tener
connotaciones afectivas muy distintas para unas personas u otras, dependiendo de sus
experiencias pasadas y otras variables personales.
De los veinte pares de adjetivos que Osgood utilizó originalmente, los datos indicaron que
podía agruparlos en grandes grupos. La técnica estadística del análisis factorial reveló que
4. Procesamiento de Palabras 55

las respuestas de los sujetos se organizaban en torno a tres factores o dimensiones básicas:
evaluación (v.g., bueno-malo, feliz-triste, bello-feo), potencia (fuerte-débil, valiente-
cobarde, duro-blando), y actividad (activo-pasivo, rápido-lento, tenso-relajado). Es decir,
las puntuaciones de una palabra tendían a ir parejas dentro de cada factor –p.e. una palabra
que puntuaba alto en la escala bueno-malo, también tendía a puntuar alto en la escala feliz-
triste– e independientes entre factores distintos. Las tres dimensiones básicas se han
encontrado en repetidos estudios y emergen en lenguas diversas.

El uso del Diferencial Semántico es muy extenso y se ha aplicado a los campos más
diversos, principalmente en el estudio de las actitudes. Para cada investigación se
construyen escalas específicas, seleccionando los adjetivos más idóneos para el objetivo
perseguido. Sirva un ejemplo: ¿cuál es la actitud de distintas personas (jóvenes, adultos,
mayores, hombres, mujeres, etc.) hacia el envejecimiento? La técnica se ha aplicado en
repetidas ocasiones para esta cuestión. En un trabajo de la Universidad de Barcelona (Vilar,
1997) se administraron 18 escalas del tipo de las que vemos en la Figura# para que los
participantes dieran sus puntuaciones. Los resultados mostraron que tanto jóvenes como
mayores tenían una actitud más positiva hacia el envejecimiento que los adultos maduros. El
grupo de más edad percibía el envejecimiento como un proceso más bonito, optimista,
positivo, agradable, tolerante y amistoso que el resto de la muestra. El grupo de mediana
edad (40 o 50 años) era el que tenía una actitud más negativa.

envejecimiento

malo bueno

aburrido emocionante
hostil amistoso

triste alegre

intolerante tolerante

Figura#. Técnica del Diferencial Semántico aplicada al concepto de envejecimiento. Tomado de


Villar (1997).

Categorías semánticas

Los humanos disponemos de multitud de conceptos o significados sobre el mundo que


nos rodea, sea real e imaginario; pero éstos no se hallan en una maraña desordenada.
Agrupamos los significados en conjuntos, o categorías semánticas, que comparten
56 Psicología del Lenguaje

determinadas características comunes. Algunas categorías son cerradas, como los días
de la semana, o los meses del año, mientras que otras, la mayoría, son relativamente
abiertas y están constituidas por muchos miembros (animales, muebles, flores etc.).

Tipicidad o prototipicidad. Desde el punto de vista psicológico, no todos los


miembros de una categoría son igualmente típicos o característos de la misma.
Consideramos a un "gorrión" o a un "águila" ejemplos más típicos de ave que un
"pingüino" o un "avestruz"; un "perro" como ejemplo más típico de animal que una
"babosa"; una "rosa" como ejemplo más representatito de flor que un "lirio". Si a un
grupo de personas les pedimos que escriban todos los animales que se les ocurra, la
gran mayoría empieza por la palabra "perro", seguida de otras como "gato", "vaca",
león", etc. Muy pocos empezarían por "lechuza", "cangrejo" o "erizo", pongamos por
caso. Por consiguiente, los distintos elementos de una categoría difieren en el nivel de
tipicidad de la misma. Esta variable se refiere al grado en que un concepto es
representativo de una categoría dada, y puede medirse a través de escalas subjetivas de
tipicidad.
Es importante disponer de estudios normativos acerca de lo que la gente de un
ámbito lingüístico y cultural considera como miembros de una categoría semántica y
cuáles son más típicos de la misma. En inglés, hay que señalar como uno de los
primeros trabajos el de Battig y Montague (1969) sobre categorías naturales, estudiadas
en un conjunto de 422 estudiantes de las universidades de Maryland e Illinois.
En España disponemos del trabajo de Pilar Soto y colaboradores, inicialmente
publicado por la Universidad Autónoma de Marid (Soto, 1982), y reeditado luego por la
editorial Visor (Sebástián, 1994). Este estudio normativo se centra en 45 categorías
naturales extríadas de Battig y Montague, tales como: accidentes geográficos, animales,
árboles, aves, edificios, enfermedades, fenómenos atmosféricos, flores, frutas,
herramientas, insectos, instrumentos musicales, mamíferos, mariscos, material, metales,
muebles, partes de una vivienda, partes del cuerpo humano, peces, piedras preciosas,
prendas de vestir, razas de perros, reptiles, etcétera.
Más recientemente tenemos el trabajo de Izura, Hernández-Muñoz, y Ellis (2005)
sobre 500 palabras castellanas agrupadas en cinco categorías semánticas: animales,
partes del cuerpo, muebles, ropa, e inteligencia. Entre los índices psicolingüísticos que
se ofrecen está el de tipicidad, obtenido en una muestra de 50 participantes, a través de
una escala que va desde 1-ejemplo muy atípico a 7-ejemplo muy típico. En la Tabla# se
presenta una selección de palabras de la categoría Animal ordenadas según su tipicidad.

WordNet. Psicólogos cognitivos y psiconlingüistas se han puesto de acuerdo para


organizar los significados de las palabras en términos que puedan ser manejables desde
programas diseñados para procesar el lenguaje natural, dentro de las enormes
limitaciones que todavía existen en este campo. WordNet es uno de los ejemplos más
notables de ello. Se trata de una base electrónica de palabras creada inicialmente por
Fellbaum (1998) y bajo la dirección actual de George A. Miller en la Universidad de
Priceton.
Tal como se declara en su presentación, se inspira en las actuales teorías
psicolingüísticas sobre la memoria léxica humana. Por su planteamiento, está más cerca
de las teorías descomposicionales, que veremos a continuación. Se basa en una
estructura jerárquica que arranca a partir de unos primitivos léxicos como animal,
cuerpo, evento, sentimiento, planta, forma y tiempo. Cualquier nombre, verbo o
adjetivo inglés se disecciona para descomponerlo en sus componentes semánticos.
4. Procesamiento de Palabras 57

Como ejemplo, en la Figura# podemos observar la inserción en esa estructura de la


palabra DEDO. La base es libre y se puede consultar en http://wordnet.princeton.edu/.

Tabla#. Selección de palabras pertenecientes a la categoría de Animales, ordenadas según sus


valores de tipicidad (1-ejemplo muy atípico; 7-ejemplo muy típico). (Izura, Hernández-Muñoz,
y Ellis, 2005)

Animales (tipicidad 1-7)

Perro (6.92) Ciervo (4.92) Mosquito (3.40)


León (6.8) Periquito (4.92) Guepardo (3.32)
Lobo (6.76) Águila (4.84) Cangrejo (3.28)
Gato (6.72) Foca (4.84) ...
Vaca (6.72) Rana (4.80) Gamba (2.56)
Oso (6.68) Serpiente (4.76) Calamar (2.48)
Oveja (6.64) Lechuza (4.68) Colibrí (2.32)
Tigre (6.52) Gorila (4.64)
Zorro (6.52) Cigüeña (4.6)
Caballo (6.78) ...
Cerdo (6.48) Iguana (3.72)
Toro (6.48) Avestruz (3.68)
... ...

entidad
entidad abstracta
entidad física
proceso
situación
sustancia
...
cosa (entidad separada y autocontenida)
completa
parte, pieza
parte del cuerpo
interna
externa
extremidad
dígito (de mano, de pie)
DEDO

Figura#. WordNet: posición de la palabra DEDO dentro de su estructura jerárquica semántica. La


base está actualmente (2006) bajo la dirección de George A. Miller, y disponible en:
wordnet.princeton.edu.
58 Psicología del Lenguaje

TEORÍAS SOBRE EL SIGNIFICADO DE LAS PALABRAS

Los significados de las palabras pertenecen a la memoria semántica, dentro de la distinción


clásica de Tulving (1972) entre memoria semántica y episódica. Si yo te digo "esta mañana
se me ha roto el jarrón que me regalaste", activo simultáneamente dos clases de información
que tengo archivada en mi cerebro. Por una parte, la asociada a un evento y situación
específica (memoria episódica): mi jarrón particular y la situación concreta de romperse al
caer al suelo esta mañana cuando lo cambié de sitio en el salón de mi casa. Por otra, activo
información almacenada sobre el concepto de jarrón: qué es ese objeto, qué propiedades
tiene, para qué sirve, etcétera. Este último tipo de información (semántica), a la que
pertenecen los significados, no está asociada a ningún episodio específico; es una
información abstracta, desligada de cualquier tiempo y espacio concreto (yo no recuerdo el
momento y lugar en que aprendí la palabra jarrón).

Desde la psicología cognitiva se han intentado diversas explicaciones sobre cómo


manejamos y nos representamos los significados en nuestra mente. Tres son los principales
enfoques o teorías al respecto: los modelos de redes, las teorías de rasgos, y los modelos
basados en prototipos.

Redes semánticas

Una de las ideas más influyentes es que el significado de una palabra forma parte de una
especie de red de significados interconectados.

Red jerárquica. Desde la psicología cognitiva y el paradigma del procesamiento de


información, las primeras formulaciones sobre el significado se basaron en la metáfora del
ordenador. El modelo jerárquico de Collins y Quillian (1969, 1972) planteaba una
representación del conocimiento análoga a la que podría existir en una computadora,
respondiendo al principio de economía cognitiva. Los conceptos serían nodos de la red
conectados entre sí en distintos niveles jerárquicos (Figura#). Cada nodo tendría asociadas
las propiedades que le corresponden a su nivel dentro de la jerarquía. Se partía de la idea de
que tanto un ordenador como una mente tienen un espacio limitado para almacenar
información y con este modelo se evitaba la redundancia de información semántica. Así, la
propiedad "tener alas" estaba vinculada sólo al nodo más alto posible, el de ave, ahorrando
así su duplicación en cada uno de los nodos inferiores (gorrión, águila, avestruz, etc.).

Verificación de oraciones. Para poner a prueba su modelo, Collins y Quillian realizaron una
serie de experimentos basados en la tarea de verificación de oraciones. En esta tarea, a los
participantes se les presenta una frase del tipo de las siguientes, y deben responder lo más
rápido posible pulsando uno de dos botones, uno si la frase es verdadera, y otro si es falsa:

Un canario es un canario
Un canario es un ave
Un canario es un animal
Un canario es un pez
4. Procesamiento de Palabras 59

Las tres primeras son ciertas y la última es falsa. La primera es obvia y requiere poco tiempo
para dar una respuesta positiva. La segunda necesitaría más tiempo, y la tercera más tiempo
aún. Según los autores, los participantes comienzan en la red por el nodo que corresponde al
estímulo presentado (canario) y viajan hacia arriba hasta encontrar el nivel que contiene la
información adecuada. En la Figura se muestran los tiempos de reacción en un experimento
de Collins y Quillian (1969). Se representan dos tipos de operaciones mentales, una
relacionada directamente con la identidad de los conceptos, y otra con sus propiedades; esta
última consume más tiempo. Los datos se ajustan a lo predicho por el modelo: cuántos más
nodos haya que recorrer, más tiempo se tardará en dar la respuesta.

Problemas con el modelo. Hasta aquí todo perfecto, pero pronto surgirían dificultades con el
modelo por varias razones. En primer lugar, no todos los conceptos se pueden organizar en
un esquema jerárquico tan claro como el que hemos visto. ¿Cuál es la relación entre
"verdad", "justicia", y "ley", por ejemplo? (ejemplos de Harley, 2001). Y en segundo lugar,
algunos datos de nuevos experimentos no encajarían con lo predicho por el modelo. Se
asume que los nodos de un mismo nivel jerárquico son más o menos equivalentes. Los
nodos de "canario" y "avestruz" están ambos un nivel por debajo del de "ave" y deberían
requerir tiempos parecidos en la verificación de frases, pero no es así (Smith, Shoben y
Rips, 1974). El modelo hace otras predicciones incorrectas; de las dos frases siguientes:

Una vaca es un animal


Una vaca es un mamífero

Se debería tardar más en la primera que en la segunda, pero sucede al reves, aquélla se
verifica mucho más rápidamente (Rips, Shoben y Smith, 1973), lo que indica que la
memoria no refleja necesariamente la estructura lógica de las categorías naturales.
Tampoco explica el efecto de tipicidad, que veremos al hablar de los prototipos:

Un gorrión es un ave
Un pingüino es un ave

Ambas frases deberían verificarse con la misma rapidez, ya que "gorrión" y "pingüino" se
hallan un nodo por debajo de "ave", pero gorrión da tiempos más cortos (Rips, Shoben y
Smith, 1973) porque es un ejemplar más típico o representativo de ave que pinguino.
Según el modelo, las respuestas negativas ante las frases falsas deberían arrojar tiempos
parecidos para un mismo concepto: en todos los casos, el participante ascendería los nodos
superiores y, al no encontrar ninguno con la información buscada, respondería no. Pero
tampoco ocurre así, la misma palabra o concepto da lugar a latencias distintas:

Un pino es una iglesia


Un pino es una flor

La primera frase es rechazada con más celeridad que la segunda (Wilkins, 1971). Cuanto
más relacionados estén dos objetos, más dificil es su disgregación y arrojan tiempos
mayores.
60 Psicología del Lenguaje

come
respira tiene piel

ANIMAL
pone huevos
tiene alas tiene escamas
puede volar
AVE PEZ vive en el agua

es alto

CANARIO AVESTRUZ TIBURÓN SALMÓN

es amarillo es rosa
canta no puede volar peligroso es comestible

Figura#. Modelo de red jerárquica de Collins y Quillian (adaptado de Collins y Quillian, 1969)

Un canario
ms tiene piel

1500 Un canario
puede volar

1400 Un canario
puede cantar Un canario es
un animal
1300
Un canario es
un ave
1200

Un canario es
1100 un canario

1000

0 1 2

Distancia (nodos)

Figura#. Tiempos de reacción en milisegundos en una tarea de verificación de oraciones


(Collins y Quillian, 1969)
4. Procesamiento de Palabras 61

Calle
Vehículo

Coche
Autobús
Camión
coche de
Casa
Bomberos
Ambulancia

Fuego

Manzanas
Naranja
Rojo
Amarillo Peras

Verde Cerezas

Puesta
Violetas
de sol
Rosas
Nubes
Amanecer
Flores

Figura#. Modelo de Propagación de Activación de Collins y Loftus (1975)

Red de Propagación de Activación. Todos los problemas señalados obligaron a introducir


importantes modificaciones en el esquema de red jerárquica. Collins y Loftus (1975)
plantearon un nuevo modelo, basado en la propagación de la activación (Figura#), que
asume que la información semántica también está organizada en nodos interconectados,
pero no de forma jerárquica. Se trata de un esquema más flexible. Los conceptos que están
asociados entre sí (v.g., fuego y rojo) se hallan más próximos dentro de la red y están unidos
por un vínculo. Cuanto más fuerte es la asociación, más cercanos están y más corto es el
enlace que les une. Cuando un concepto se activa, su activación se propaga a través de los
otros nodos, de ahí el nombre del modelo. Si dos nodos estan lejanos la activación llega más
débil que en si están cercanos. Los nodos con una fuerte relación forman "clusters" o
62 Psicología del Lenguaje

conglomerados que representarían campos semánticos (flores, colores, etc.) u otras


informaciones estrechamente asociadas ("cuna"-"bebé", etc.).
Toda la información semántica está representada por nodos. El mecanismo de propagación
de activación explicaría los resultados obtenidos en los experimentos de verificación de
oraciones. "Un canario tiene plumas" se verificaría antes que "un canario tiene piel" porque
el nodo "canario" estaría más próximo al nodo "plumas" que al nodo "piel" y, en
consecuencia, recibiría más activación de canario. El mismo mecanismo daría cuenta del
efecto de tipicidad: el nodo "gorrión" está más cerca que "pingüino" del nodo "ave". El
modelo también explica el hecho de que las respuestas falsas puedan presentar latencias
diferentes. La frase "el pino no es iglesia" se rechaza antes que "el pino no es flor" porque el
nodo "flor", aunque lejano, está más próximo a "pino" que "iglesia" y, por tanto, recibirá
alguna activación, muy débil, de pino.
El lector comprobará que este modelo recuerda bastante al del logogén de Mortón, cuando
hablabamos de acceso léxico. Pero no hay que perder de vista que el modelo de Collins y
Loftus trata exclusivamente de los significados o conceptos; nada dice acerca de otros tipos
de información léxica (fonológica, ortográfica, morfosintáctica) y cuáles son los
mecanismos de acceso.

Un modelo como éste tiene gran capacidad explicativa; puede dar cuenta de una extensa
gama de hallazgos empíricos. Pero su propia generalidad es, al mismo tiempo, su principal
limitación: es un modelo dificil de poner a prueba. Cuesta imaginar qué clase de
experimentos podrían falsearlo (Harley, 2001) y así marcar sus límites, que es como se
avanza en ciencia. Al ser tan amplio, sus predicciones son también vagas. En cualquier caso,
la noción de propagación de activación ha ejercido una fuerte influencia y es un mecanismo
incorporado a la mayor parte de los planteamientos teóricos contemporáneos.

Rasgos

El concepto de "cana" puede descomponerse en los conceptos de "pelo" + "blanco". Las


teorías descomposicionales consideran que todos los conceptos pueden descomponerse
hasta llegar a los primitivos semánticos o rasgos simples que ya no se pueden subdividir en
otros. Estos modelos, cuya primera formulación se debe a Katz y Fodor (1963), defienden
que los conceptos están representados en nuestra memoria como listas o agregados de
rasgos semánticos. Una aproximación teórica más reciente es la del modelo de rasgos
probabilísticos de Smith y Medin (1981).
En su origen, la teoría de rasgos tuvo una relación estrecha con los intentos de la
Inteligencia Artificial (IA) por conseguir sistemas artificiales que "comprendieran" el
lenguaje. Roger Schank diseñó uno de los programas de ordenador más influyentes en este
terreno; en él todos los verbos se descomponían en un conjunto de 12 acciones primitivas
(v.g., expeler, agarrar, ingerir, mover, hablar, etc.), de cuya combinación surgían todos los
demás (Schank, 1972, 1975).

En esta teoría se contemplan dos clases de rasgos: a) rasgos definitorios, que son claves para
formar parte de una categoría semántica, y b) rasgos característicos, que añaden
propiedades a los conceptos representados. La tarea de verificación de oraciones consistiría
en la comparación de los rasgos de cada concepto. En la frase "un gorrión es un ave", se
comparan los rasgos de "gorrión" [objeto físico, animado, con plumas, pone huevos, canta,
tamaño pequeño, etc.] con los de "ave" [objeto físico, animado, con plumas, pone huevos,
etc.] y si hay un solapamiento importante se responde afirmativamente de forma rápida. Si
4. Procesamiento de Palabras 63

el solapamiento no es importante (pingüino y ave), ello obliga a una inspección más


detallada de los rasgos para tomar una decisión, lo que repercute en la latencia de la
respuesta. En las respuestas negativas ocurre al revés: si son pocos los rasgos compartidos
se niega la relación con celeridad. En la frase "un gorrión es un mueble" apenas existe
solapamiento [objeto físico] y la respuesta negativa es muy rápida. Cuando comparten más
rasgos ("un pino es una flor") la respuesta se retrasa.

Limitaciones del modelo. Éstas nacen de varias fuentes. En primer lugar, no está claro que
todos los conceptos se puedan descomponer en un listado de rasgos simples. Muchas
categorías no reúnen un conjunto de rasgos que posean todos los miembros de esa
categoría. El ejemplo más conocido es el de Wittgenstein (1953) respecto al "juego". ¿Qué
tienen todos los juegos en común? No es posible encontrar una lista de rasgos que definan el
concepto de juego. En su lugar, se pueden agrupar familias de juegos por características
comunes, pero no se consigue un listado único común a todos los juegos. Fútbol, boxeo,
ajedrez, solitarios, tres en raya, escondite, etc., algunos tienen ciertos rasgos característicos
[competición, recreativo, equipos, perdedores y vencedores, etc], pero ninguno los tiene
todos.
La teoría de rasgos presupone que existen límites nítidos entre las categorías semánticas,
pero en la práctica los humanos funcionamos con límites difusos. En inglés, para mucha
gente no está claro si un tomate es una fruta o una verdura. No hay un límite claro entre una
"taza" y un "bol": diversos objetos físicos se sitúan a lo largo de un continuo entre ambos
conceptos, y diferentes participantes pueden categorizarlos de formas distintas (Labov,
1973). McClokey y Glucksberg (1978) demostraron que, aunque las personas coinciden en
muchos conceptos, existen muchos otros sobre los que no hay acuerdo y tienen límites
borrosos (v.g., sólo una mitad de los participantes estaba de acuerdo en considerar una
calabaza como un tipo de fruta, mientras que la otra mitad, no).
Por otra parte, como esta teoría trabaja con listas de rasgos independientes, no captura
nuestro conocimiento sobre cómo se relacionan entre sí las propiedades de los objetos. Así,
dentro de la categoría de ave, los rasgos "pequeño" y "canta" correlacionan mucho entre sí y
los humanos conocemos esa correlación, pero esto no aparece reflejado en el modelo
(Reeves, Hirsh-Pasek, y Golinkoff, 1999).

Prototipos

Como alternativa a la teoría de rasgos surgió la denominada Teoría de los Prototipos, de la


mano principalmente de Eleanor Rosch (Rosch, 1973, 1987). Como hemos visto, una de las
principales dificultades de las teorías descomposicionales es que, en contra de lo que puede
parecer en un principio, es sorprendentemente difícil hacer una lista de rasgos o propiedades
que comprendan todos los miembros de una categoría semántica. Rosch y Mervis (1975)
presentaron a voluntarios ejemplos de distintas categorías, tales como frutas (manzana, pera,
uva, ciruelas, etc), muebles (mesa, silla, librería, aparador, sofá, etc.), aves (gorrión,
petirrojo, flamenco, águila, etc.), vehículos (coche, camión, moto, etc.), etcétera, y les
pidieron que hicieran una lista de rasgos para cada ejemplo particular. Curiosamente, apenas
aparecían rasgos comunes a todos los miembros de una categoría, y aquéllos que sí lo eran,
no eran diferenciadores de esa categoría frente a otras (v.g., el rasgo "estar vivo" en la
categoría de aves).
La teoría de los prototipos se basa en un enfoque distinto al de los rasgos: agrupamos los
objetos por su semejanza familiar entre ellos; es decir, las categorías vendrían definidas por
el parecido entre sus miembros, y no por una definición lógica y objetiva que incluye o
64 Psicología del Lenguaje

excluye los miembros de forma discreta (este objeto está claramente dentro y aquel otro
claramente fuera). En lugar de considerar rasgos definitorios, que deben cumplir
absolutamente todos los miembros de una categoría, Rosch habla de rasgos característicos
de la categoría, o atributos típicos y comunes a muchos miembros de la misma, aunque no
necesariamente a todos ("tener plumas", "volar", para las aves). Un prototipo sería una
representación abstracta o el miembro ideal de esa categoría, una especie de promedio de
todos los miembros de la misma y, en cierto modo, constituiría "el mejor ejemplo" de la
categoría (Rosch, 1978). De esta concepción se desprenden dos propiedades fundamentales:

• Estructura graduada de las categorías. No todos los miembros son igualmente


representativos de la categoría; éstos varían en su grado de tipicidad o
prototipicidad: un "gorrión" o un "jilguero" es más representativo de la categoría
PÁJARO o AVE (bird en inglés) que un "pingüino" o un "avestruz", porque
poseen más rasgos característicos (pueden volar, etc.) y estarían más próximos a lo
que sería el prototipo ideal de un ave. Un perro sería un ejemplo de mamífero más
típico que un murciélago o un ornitorrinco. Una categoría puede representarse
espacialmente (Figura#) como un continuo donde se sitúan los distintos miembros
o ejemplares dependiendo de su tipicidad: cuanto más típicos o cercanos a un
prototipo ideal, ocuparían una posición más central. Aquellos que son atípicos y
poco característicos se situarían en posiciones más periféricas. Una consecuencia
de esto es que los ejempleres más prototípicos o centrales comparten más rasgos
entre sí que los periféricos. El funcionamiento de la mente no corresponde
exactamente a la lógica objetiva de las cosas. Incluso en una categoría rígidamente
definida como los números impares las personas consideran "más impar", por
ejemplo, al número 13 que al 57. O "madre" se considera mejor ejemplo de
"mujer" que "camarera" (cuando en buena lógica tan mujer es una madre como una
camarera) (Armstrong, Gleitman y Gleitman, 1983).
• Límites difusos de las categorías. Como consecuencia de esa estructura graduada,
el grado de pertenencia se va difuminando a medida que nos alejamos del centro, y
las fronteras entre conceptos próximos llegan a ser difusas. Parece que los
humanos no manejamos significados o conceptos con límites nítidos, que
respondan a una definición cuasimatemática ("mueble es todo objeto que tiene las
propiedades siguientes:..."), sino que, más bien, nos basamos en conceptos con
fronteras difusas o borrosas entre ellos (Lakoff, 1987).
4. Procesamiento de Palabras 65

avestruz flamenco

paloma
buitre
gorrión
águila

pingüino
gallina

emú

´
Figura#. Teoría de Prototipos: Cuánto más típico o representativo de la categoría (AVES) es
un miembro, éste ocupa una posición más central. Los miembros más atípicos o menos
representativos ocupan zonas periféricas.

La teoría de los prototipos ha reunido importante evidencia empírica a su favor. En general,


los miembros más prototípicos presentan ventajas en su procesamiento (Mervis, Catlin, y
Rosch, 1975). Los experimentos con verificación de oraciones arrojan tiempos que reflejan
la estructura graduada de las categorías: cuánto más central o típico es un ejemplar, los
participantes tardan menos en dar una respuesta (Rips, Shoben y Smith, 1973). Los sujetos
harían comparaciones entre el ejemplar y el prototipo abstracto, y en la medida en que
ambos están próximos, la decisión sería más rápida. Además, las palabras que representan
objetos más típicos se recuerdan mejor en las pruebas de memoria (Kail y Nippold, 1984).

Limitaciones. Como limitaciones de la teoría habría que señalar algunas. No todos los
conceptos parecen ajustarse bien a este esquema de prototipos; p.e., ¿cuál es el prototipo
para "verdad"? (Hampton, 1981). Por otra parte, los juicios de tipicidad no son fijos sino que
varían sistemáticamente según el contexto. Un miembro considerado altamente prototípico
en un contexto, puede no serlo en un contexto distinto. Para Barsalou (1985), la estructura
graduada de una categoría no revela propiedades invariantes asociadas a la misma, sino que
refleja la habilidad dinámica de la gente para construir conceptos en situaciones diversas.
Finalmente, algunos autores señalan que se puede incurrir en circularidad (Murphy y Medin,
1985): los ejemplares son miembros de una categoría porque son similares; y son similares
porque son miembros de una categoría. Es decir, se necesitaría información independiente,
más allá de los juicios subjetivos, para explicar por qué los miembros de una categoría son
similares, y la teoría de los prototopipos no parece proporcionarla.
66 Psicología del Lenguaje

La Teoría de los Prototipos parte del principio de que el prototipo es una abstracción o
miembro ideal de la categoría. Recientemente se cuestiona si esta abstracción es un
componente esencial en la representación de los conceptos (Harley, 2001). Una variante
actual conocida como Teoría basada en ejemplares (Komatsu, 1992; ver Anderson, 2000),
no defiende la existencia de un prototipo abstracto, sino que éste estaría encarnado por
ejemplares concretos que ocupan posiciones centrales en el espacio prototípico. De esta
manera, los juicios de verificación no se basarían en comparaciones con prototipos
abstractos, sino con ejemplares centrales.

También podría gustarte