Conocer Lo Social - Tema8

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 347

Conocer lo Social:

Estrategias, técnicas de construcción


y análisis de datos
www.fragua.es

Antonio Lucas
Alejandro Noboa
(Editores)

EDITORIAL

MADRID MMXIV
No se permite la reproducción total o parcial de este libro, ni su tratamiento
informático, ni la transmisión de ninguna forma o por cualquier medio, ya sea
electrónico, mecánico, por fotocopia, por registro u otros métodos sin el permiso
y por escrito del Editor y del Autor.
www.fragua.es

Director de la Colección: IGNACIO MUÑOZ MAESTRE

Título: Conocer lo Social: estrategias, técnicas de construcción y análisis de datos

Maquetación: Alejandro David Manríquez

© EDITORIAL FRAGUA
C/ Andrés Mellado, 64.
28015-MADRID
TEL. 915-491-806/ 915-442-297
FAX 915-431-794
E-mail: [email protected]
www.fragua.es

ISBN: 978-84-7074-636-9 (Formato e-book)


Índice

PRESENTACIÓN: Antonio Lucas y Alejandro Noboa ........................................ 5

1. CIENCIA Y CONOCIMIENTO CIENTÍFICO


Justino Gómez: Universidad Cardenal Silva Henríquez, Sergio Contreras: Universi-
dad Central de Chile y Antonio Lucas: Universidad Complutense de Madrid ............ 9

2. LA SOCIOLOGÍA Y EL CONOCIMIENTO DE LO SOCIAL


www.fragua.es

Alejandro Piscitelli: Universidad Católica de Argentina, Sergio Contreras: Universi-


dad Central de Chile y Antonio Lucas: Universidad Complutense de Madrid ............ 51

3. LA CONSTRUCCIÓN DEL DATO COMO PROCESO EN LA ENCUES-


TA PERSONAL
Juan Romero y Jorge Leal: Universidad de la República (Uruguay) ............................... 79

4. ANÁLISIS DE DATOS CUANTITATIVOS


Juan Javier Sánchez Carrión, José Manuel Segovia: Universidad Complutense de
Madrid y Paula Sánchez: Meseguer IPSOS (París) ................................................... 109

5. ANÁLISIS MULTIVARIABLE
Millán Arroyo: Universidad Complutense de Madrid .............................................. 139

6. LA INVESTIGACIÓN MEDIANTE EXPERIMENTOS. EL RETO DE ES-


TUDIAR CAUSAS Y EFECTOS
José Antonio Ruiz San Román y Mariam González Fernández: Universidad Com-
plutense Madrid .................................................................................................... 173

7. ANÁLISIS DE CONTENIDO (CUANTITATIVO Y CUALITATIVO)


Francisco Bernete: Universidad Complutense de Madrid ......................................... 193

8. LAS BASES DE DATOS PARA LA INVESTIGACIÓN SOCIAL


Rosa Berganza y Carmen García: Universidad Rey Juan Carlos (Madrid) ................... 227

9. DISEÑO CUALITATIVO DE INVESTIGACIÓN SOCIAL


Alejandro Noboa: Universidad de la República (Uruguay) ...................................... 263
10. ENTREVISTA CUALITATIVA
Alejandro Noboa y Natalie Robaina: Universidad de la República (Uruguay) .......... 297

11. ANÁLISIS DE DATOS CUALITATIVOS


Coral Hernández Fernández: Universidad Complutense de Madrid ........................... 321
www.fragua.es
www.fragua.es

Presentación
Nos proponemos poner a disposición de los estudiantes de grado y
posgrado en ciencias sociales un material que le permitirá acceder al mun-
do de la investigación social. Este libro es el resultado de un conjunto de
esfuerzos individuales de profesores de diferentes países iberoaméricanos
con experiencia y con publicaciones previas, coordinados para alcanzar
una visión más amplia de todo el proceso investigador.
Se ha intentado que sea de fácil lectura y tiene una estructura sencilla
que va de lo más general a lo particular, mostrando los diferentes aspec-
tos del trabajo de investigación con las particularidades de los diferentes
enfoques. Más allá del mandato positivista de unicidad de método, aquí
mostramos la diversidad que puede adoptar la investigación social en la
actualidad, desde las opciones más estructuradas proporcionadas por el
paradigma cuantitativo hasta las más flexibles diseñadas a partir de pro-
puestas cualitativas.
Como queda claro en la publicación consideramos que el peso de
ambas vertientes es el mismo a la hora de enfrentar un trabajo de investiga-
ción, lo fundamental es definir los objetivos que se pretenden y luego pla-
nificar la forma de abordarlo, de forma que la metodología sea tributaria
de los objetivos de conocimiento y no al revés, que actúe como mediador
entre teoría y observación y en ese sentido el proceso sea un proceso fértil
que enriquezca el producto de conocimiento obtenido, que permita hacer
avanzar al saber.
Presentación

Entrando en los diferentes capítulos que forman este libro, encontra-


mos que el primero es un trabajo introductorio o general de los profesores
Antonio Lucas, Justino Gómez de Benito y Alejandro Piscitelli, donde se
explican los alcances de la ciencia social como forma de conocimiento y
sus características principales. Asimismo se orientan el análisis a la com-
prensión de los grandes paradigmas que existen en la investigación social
con especial atención al aspecto cuantitativo. Se profundiza en el proceso
lógico de investigación a partir del esquema general de Walter Wallace y
luego se orientan al análisis del proceso concreto y sus diferentes etapas.
En el Capítulo 2, de Antonio Lucas, Sergio Contreras y Alejandro
Piscitelli, se explican las particularidades del conocimiento de los social. En
www.fragua.es

su faz conceptual, como en lo que hace a la prefiguración de una actividad


desarrollada por una comunidad intelectual, aspectos centrales observados
por T. S. Khun en su libro La estructura de las revoluciones científicas.
Los Profesores Juan Romero y Jorge Leal en el Capítulo 3 describen
de forma original los problemas del proceso de construcción de los datos
a partir de una investigación mediante encuesta. Detalladamente contem-
plan los diferentes fases de este proceso advirtiendo de los posibles efectos
de la aplicación de la técnicas y sus implicaciones en el producto final: el
dato.
El Capítulo 4, aborda los mecanismos y técnicas puestas en juego a la
hora del análisis. Juan Javier Sánchez Carrión, José Manuel Segovia y Paula
Sánchez desarrollan las especificidades del análisis cuantitativo de datos.
Los análisis univariado y bivariado son presentados en forma rigurosa y
didáctica, de modo que el lector pueda trabajar con sus datos desde un
principio.
El profesor Millán Arroyo explica en el Capítulo 5 las diferentes for-
mas de lograr explicaciones más complejas a partir de datos cuantitativos.
El análisis descriptivo complejo y la búsqueda de explicaciones multicau-
sales conforman el núcleo del capítulo permitiendo a partir de software
ampliamente utilizado (SPSS) encontrar relaciones y correlaciones que
profundicen en los datos sean estos primarios o secundarios.
El Capítulo 6 “La investigación mediante experimentos” se plantea el
reto de estudiar causas y efectos de una manera equilibrada, pues José A.
Ruiz San Román y Mariam González Fernández explican los pormenores
del empleo de diseños experimentales en la investigación social. Sus ven-

6
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

tajas e inconvenientes se especifican principalmente para los estudios en


comunicación social.
En el Capítulo 7, escrito por el Profesor Francisco Bernete, expone
secon rigurosidad las particularidades del mundo del análisis de contenido,
ofreciendo al lector un menú completo de las posibles utilizaciones de la
técnica de acuerdo a los objetivos de la investigación. El lector encontrará
en este Capítulo además de las diferentes perspectivas del análisis de los
contenidos comunicativos una buena guía de como buscar el enfoque más
pertinente de acuerdo a lo que desea en cada estudio.
En el Capítulo 8, Rosa Berganza y Carmen García analizan in extenso
www.fragua.es

la existencia de las diferentes bases de datos disponibles en España y Euro-


pa para el análisis sociológico y comunicacional. Sabido es que hoy conta-
mos con un sinnúmero de datos almacenados por diferentes entidades y el
secreto de una buena investigación es aprender donde se encuentran y que
se puede obtener a partir de ellos. Sin duda un capítulo imprescindible en
estos tiempos.
El Capítulo 9 habla sobre los diseños cualitativos de investigación so-
cial, tratados primeramente en términos generales y luego en sus diferentes
particularidades. Todos ellos presentados en forma didáctica por el Prof.
Alejandro Noboa.
Alejandro Noboa y Natalie Robaina presentan el Capítulo 10 abor-
dando el mundo de las entrevistas cualitativas, principal técnica de la in-
vestigación social. Mucho se ha escrito sobre este tema y siempre da lugar a
nuevas versiones en la medida de que las interacciones sociales mutan con
el tiempo y en los diferentes territorios sociales. Analizar el proceso que
se da lugar cuando empleamos la técnica es esencial para una aplicación
adecuada y controlada de los efectos reflexivos posibles.
Por último, en el Capítulo 11, Coral Hernández analiza en perspecti-
va cualitativa que se puede hacer con ese abundante cúmulo de datos que
inevitablemente nos encontramos cuando estamos trabajando en investi-
gación cualitativa. En un abordaje actualizado, incorporando la visión de
la complejidad, se describen las repercusiones que esta tiene en el análisis
de materiales cualitativos.

7
Presentación

Estimado lector, tiene entre sus manos un libro que podrá utilizar
como herramienta principal para la realización de una investigación social,
ese es nuestro deseo y para ello lo hemos escrito, disfrútelo como hemos
hecho nosotros al producirlo. Esperamos que esta edición Online se de su
agrado.

Antonio Lucas y Alejandro Noboa

Madrid, 1 de junio de 2014


www.fragua.es

8
Capítulo 1

CIENCIA Y CONOCIMIENTO CIENTÍFICO


www.fragua.es

Justino Gómez
Universidad Cardenal Silva Henríquez
Sergio Contreras
Universidad Central de Chile
Antonio Lucas Marín
Universidad Complutense de Madrid

ÍNDICE
1. ¿Qué es la Ciencia?
2. Caracteres del conocimiento científico
3. El método científico: noción y rasgos
4. El método científico en las ciencias sociales y sus paradigmas
5. El proceso de investigación
6. Elaboración de Informe

9
Antonio Lucas y Alejandro Noboa (eds.)

Introducción
El término Ciencia etimológicamente viene del latín “scio-scire” y
del griego “isemi” = saber, conocer, tener noticia, estar informado. De
todas formas este es un concepto muy amplio porque además significa
conocimiento, práctica, erudición. En su acepción más moderna el
concepto ciencia equivale a toda clase de saberes y fundamentalmente a un
saber construido dentro de una tradición y una comunidad científica, de
acuerdo a lo que afirmó en su momento Thomas S. Kuhn en su libro La
estructura de la revoluciones científicas (1975).
La visión general de la ciencia se ha transformado en el devenir del
www.fragua.es

tiempo en un concepto preciso y claro que hace referencia a: un conjunto


de conocimiento sistematizado sobre una materia o disciplina, pero
también, como lo sostiene, una práctica de trabajo que realiza la comunidad
conformada por los científicos.
Es muy habitual durante una charla cotidiana entre amigos que discutan
sobre los temas más variados y que en la mayoría de los casos quieran tener
razón. Cuando se debaten diversas posiciones sobre alguna cuestión de
salud, deporte, Psicología o lo que fuera, de pronto puede aparecer una frase
casi mágica que determina claramente, al menos aparentemente, quien es el
ganador: “pero... mira que esto está demostrado científicamente”... se dice
como al pasar. A partir de allí la legitimidad del triunfo de quien aportó ese
“dato” parece estar asegurada.
Pues bien, que quiere decir que algo está “demostrado científicamente”,
cuánta fuerza le cabe a la frase y que alcance real posee. El conocimiento
científico no es ni más ni menos que una de las tantas formas de conocimiento,
ni mejor ni peor que las otras pero con ciertas particularidades. Para ser más
precisos, se puede decir que la diferencia con otras formas de conocimiento
está estrictamente en el método, en los pasos que hay que seguir para
obtenerlo.

1. ¿Qué es la Ciencia?
El concepto de ciencia en general se asocia con un sentido amplio del
saber, sin embargo hoy en día remite a un tipo especial de conocimiento.. Po
ello puede decirse que “ciencia en su acepción original y más general, equivale

10
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

a toda clase de saber. Sin embargo históricamente, ciencia vino a significar,


de modo más preciso un conjunto de conocimiento sistematizado sobre
una materia...en la Edad Media las ciencias o disciplinas por antonomasia
fueron la filosofía y la teología. Con el desarrollo del saber experimental y
la insistencia en el método inductivo, el concepto de ciencia ha quedado
reservado modernamente para el conocimiento teórico, inductivo y
sistemático sobre la realidad, derivado de la observación y experimentación
metódicas” (Sierra Bravo, 1976: 15). En este sentido, no quedan dudas es
claro que la ciencia moderna estará definido por el método: una serie de
reglas y pasos (algunos más necesarios que otros) que hay que cumplir para
generar conocimiento.
www.fragua.es

Asimismo, la ciencia no solamente es una forma de conocimiento


sino también un lenguaje común. Las distintas ciencias no estarán unidas
obviamente por su objeto de estudio sino por una serie de reglas que
todos comprenden y que permiten una mejor comunicación entre los
investigadores. Cuando alguna investigación es rechazada por no reunir
las condiciones mínimas de cientificidad en realidad es porque no cumplió
con alguno de esos pasos esenciales predeterminados, no cumplió con la
metodología. Por el mismo motivo también podríamos afirmar que la
astrología en realidad no es una ciencia.
Nachmias (2000) dice que existen distintos caminos y formas para
entender y aprehender lo que nos pasa y lo que nos rodea. El método
científico se conduce por uno de esos caminos pero existen otros por
ejemplo el modo autoritario, el místico y el racionalista.
En el primer caso se considera como real aquello que dice el brujo,
el rey, el jefe o el mismo Estado. En el segundo el conocimiento viene
certificado por autoridades sobrenaturales como el profeta o el “médium”.
Y en el tercero la certificación proviene de las propias reglas de la lógica.
Por ejemplo en el caso de los silogismos en donde se genera conocimiento
sin necesidad de utilizar la observación o la experiencia.
Para expresar más concretamente cuáles son las notas distintivas del
conocimiento científico se habla de experiencia y de observación. Si a
ellas se añaden (aunque en menor nivel de importancia) la percepción la
intuición y la imaginación y se tendrán los componentes esenciales del
conocimiento científico.

11
Antonio Lucas y Alejandro Noboa (eds.)

El mayor o menor énfasis que se ponga en estas condiciones hará que


se generen saberes de distinta “calidad”. De esta manera, se puede realizar
una clasificación de conocimientos dividiéndolos en: «“populares” dirigidos
al gran público. Cuando no se explicitan los fundamentos de lo que se
dice, y sólo se legitiman por su propia exposición (por ejemplo lo escrito
o dicho en algún medio de comunicación), “críticos” cuando se realiza
justamente una crítica poco sistematizada sobre la información, se exponen
algunas fuentes y se brindan algunos datos secundarios (por ejemplo
estudios monográficos o publicaciones especializadas), “científicos” cuando
se comprueban hipótesis con el instrumental técnico y teórico de la ciencia
de que se trate. » (Pardinas; 1998: 17).
www.fragua.es

En la actualidad el desarrollo industrial ha transformado lo que


entendemos por ciencia en función de su manifestación tangible que es la
tecnología que nos ha permitido crear un acervo material inigualado a otros
momentos históricos.
La ciencia además es un fenómeno moderno, se entiende por Ciencia
el conocimiento teórico, construido inductiva y/o deductivamente también
sistemático sobre la realidad. Asimismo es un conocimiento derivado de la
observación y experimentación metódica.
Definición y elementos
En sentido estricto se define la ciencia como un conjunto de
conocimientos sobre la realidad observable, obtenidos mediante alguna
forma del método científico, que como se verá también es un concepto
polisémico si se analiza en profundidad y observando la forma como lo
emplean los científicos dependiendo del campo en que se actúa, la forma
que adquiere el método. Igualmente es posible rescatar tres elementos
esenciales: un contenido, un campo de actuación y un procedimiento.
En cuanto a su contenido, la ciencia está constituida por un conjunto
de conocimientos sobre la realidad, en forma de términos y enunciados.
Las ideas de este conjunto están interrelacionadas entre sí y forman una
teoría científica. Es así que está formada por ideas, más que por hechos:
un conjunto de conocimientos interrelacionados entre sí.
El conocimiento científico intenta eliminar la distancia entre aquellos
conceptos que por teóricos pueden estar lejos de la realidad y convertirlos en
aspectos susceptibles de ser contrastados empíricamente, por ello la ciencia

12
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

se preocupa de relacionar el sentido común y el pensamiento reflexivo con


la contrastación empírica.
Igualmente es posible para definir el concepto de Ciencia apelar a
diferentes autores como son:
Sierra Bravo (1974) que la define como “El conjunto organizado de
conocimientos sobre la realidad y obtenidos mediante el método científico”.
Dendaluce (1988) la define en función de sus componentes, contenidos,
métodos y producto y la concibe como “el modo de conocimiento riguroso,
metódico y sistemático que pretende optimizar la información disponible en
www.fragua.es

torno a problemas de origen teórico y/o práctico”


Bunge (1985) agrega que una ciencia “no es un agregado de informaciones
inconexas, sino un sistema de ideas conectadas lógicamente entre sí.”
Kuhn (1975), entiende que la ciencia es el conjunto de conocimientos
creados por la comunidad científica en base a unas prácticas admitidas por esa
comunidad como propias.
Los conocimientos generados pueden ser más o menos demostrados
o contrastables, pero se refieren a aspectos esenciales de los fenómenos.
Los conocimientos científicos se obtienen a partir del método científico o
método de conocimiento que integra la inducción o la deducción, con la
finalidad de construir conocimiento teórico y aplicado.
El campo de actuación propio y único de la ciencia es la realidad
observable de este mundo, lo trascendente queda fuera del campo de la
ciencia.
La ciencia utiliza como procedimiento el método científico en sus
diferentes acepciones como se ha dicho y esta práctica utilizando este
método caracteriza a la ciencia como tal.
En definitiva, lo que más caracteriza a la Ciencia, lo que la constituye
como tal y la distingue de otros tipos de conocimiento es el método
científico entendido como la alternativa de articulación de la teoría con los
datos empíricos. Los fenómenos a estudiar son los mismos para todos los
tipos de conocimiento, solamente diferenciados por la teoría y la aplicación
del método para conocer.

13
Antonio Lucas y Alejandro Noboa (eds.)

En este sentido la Ciencia es un conjunto de conocimientos obtenidos


por la aplicación del método científico, es el resultado de la aplicación de
este método, el científico es el que conoce como utilizar el método.
No es tanto el que tiene muchos conocimientos, que en la actualidad es
una dimensión inconmensurable, sino el que tiene conocimientos teóricos
sobre el fenómeno y aplica el método para ampliar ese conocimiento. No es
que ahora se sea más inteligentes que siglos atrás, sino que se ha cambiado
de método para conocer (antes el escolástico) y ahora el científico, y así se
logra desarrollar el conocimiento.
Objetivos de la Ciencia
www.fragua.es

En términos generales y teniendo en cuenta la relación con su campo


de actuación, la realidad del mundo) los objetivos fundamentales de la
Ciencia tienen que ver con: analizar, explicar, prever o predecir y actuar.
El primero apunta a conocer cómo es la realidad, qué elementos la forman
y cuáles son sus características. El segundo tiene que ver con explicar la
realidad, establecer cómo se relacionan sus partes. Por qué es como es
la realidad y; por último estos dos posibilitan predecir y transformar el
mundo real.
Es así que la ciencia ha otorgado un poder enorme al hombre y este
poder de la ciencia puede ser utilizado de diferente forma y para objetivos
diversos, por ello es que en la actualidad se incorpora al trabajo científico
otro concepto fundamental: la ética. Es decir la discusión sobre los fines del
trabajo científico procurando que este incorpore la felicidad y bienestar de
los seres vivos.

2. Caracteres del conocimiento científico


El conocimiento científico muchas veces no se distingue del
conocimiento vulgar debido a que sus límites no están del todo claros
ya que ambos nos permiten solucionar problemas, especialmente en el
conocimiento de lo social. Sin embargo, entre ellos existe ciertamente
una diferencia de grado, manifestándose ésta, en la sistematización del
conocimiento científico y la utilización inmediata del conocimiento vulgar
lo que no implica un mayor cuestionamiento.

14
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

El conocimiento científico tiene una cierta afinidad con el conocimiento


vulgar ya que ambos tienen pretensiones de racionalidad y objetividad, de allí
que el conocimiento científico muchas veces es el desarrollo del sentido común,
en otras se opone al sentido común como lo afirma Bachelard (2004). Ahora
bien, el conocimiento científico es más rico y complejo que el conocimiento
vulgar porque aventura posibles respuestas investigativas y porque critica las
explicaciones que surgen a partir del sentido común. Bajo el parámetro del
conocimiento científico los fenómenos suceden de determinada forma por
unas determinadas razones y no porque sí como argumenta el sentido común.
El conocimiento científico se centra en el porqué de las cosas
procurando la demostración a través de la comprobación de los fenómenos
www.fragua.es

en forma sistemática; por ello, el conocimiento científico se eleva por sobre


el conocimiento vulgar o sentido común, en la búsqueda progresiva de
mejores soluciones a los problemas. Históricamente se pueden encontrar
personas que han propuesto teorías que en su momento han parecido
imposibles, como es el caso de Charles Darwin con su teoría de la Evolución
de las especies que han sido cuestionadas e incluso desacreditadas por sus
contemporáneos, sin embargo estas han transformado el conocimiento.
El investigador debe desvincularse del objeto estudiado, dejando fuera
todo posible prejuicio intentando ver al objeto de estudio o fenómeno
sin apreciaciones aparentes, contribuyendo con ello a los resultados de
su investigación permitiendo su contrastación empírica y su articulación
coherente con la teoría conocida o en su defecto transformar la teoría.
Popper (re ed. 2002) plantea que la Ciencia se ocupa de enunciados
objetivos que han de poder ser contratados inter subjetivamente. La
objetividad se considera posible gracias a la contrastación intersubjetiva y
a la fiabilidad de la percepción. Ahora bien, el conocimiento científico es
objetivo en la medida en que aceptemos que los fenómenos investigados han
sido contrastados no sólo en una situación sino en variadas circunstancias
durante el proceso de investigación, pero también lo es porque la comunidad
científica reconoce ese conocimiento construido como verdadero.
Los fenómenos no tienen una única lectura e interpretación sino
que si los contrastamos podemos lograr variadas interpretaciones. Por
eso el conocimiento científico es falible e inexacto, pues verdades que se
han tenido por objetivas y definidas en el tiempo, al ser contrastadas en
otro momento histórico arrojan otros resultados transformando aquellos
conocimientos que se tenían por objetivamente ciertos.

15
Antonio Lucas y Alejandro Noboa (eds.)

Se puede convenir que el conocimiento científico es:


Problemático – hipotético: se basa en la formulación de problemas,
cuestiones e interrogantes sobre la realidad y en adelantar conjeturas o
soluciones probables a dichas cuestiones.
Empírico: su fuente de información y de respuestas a los problemas
es la experiencia.
Esto quiere decir que la ciencia, a efectos de la prueba, toma sus datos
y funda sus conclusiones en la observación ordenada y sistemática de la
realidad. Otras formas de conocimiento basan sus pruebas en la autoridad,
www.fragua.es

la tradición y la revelación.
Inductivo y deductivo: inductivo en cuanto procede mediante la
clasificación sistemática de los datos para determinar uniformidades o
regularidades. También la ciencia utiliza la deducción, que es la derivación
de conceptos o enunciados de otros conceptos establecidos anteriormente,
desde una posición más general hacia otra más específica. La inducción y
la deducción no se oponen entre sí, están unidas. La inducción da lugar
a datos sobre la realidad, pero para relacionar estos datos que pueden
establecer conceptos y enunciados con base en ellos y sacar conclusiones
se recurre a la deducción.
Crítico: debe someter a crítica todas sus fases, operaciones y
resultados: a contrastes o verificación. Nunca los logros son definitivos sino
que siempre están sujetos a revisión.
Circular: los enunciados se prueban mediante datos y estos se
analizan e interpretan sobre la base de aquellos. existe una interacción en
el método científico entre experiencia y teoría: con base en la experiencia
se establece, completa y reforma la teoría, con base en la teoría se capta y
explica la realidad.
Analítico – sintético: estudia la realidad distinguiendo y separando
sus elementos más simples. Procura luego unir y recomponer los elementos
separados, obteniendo una nueva visión del conjunto y de sus relaciones
estructurales.
Selectivo: concreta su observación en los aspectos más relevantes de
los fenómenos. Entre los datos recogidos selecciona lo más significativos.

16
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

Formal, pero es imaginativo: se atiene a reglas metodológicas


formales, pero aprovecha la intuición y la imaginación como lo afirma
Charles W. Mills (1970).
En el mismo sentido, Kerlinger (1985) caracteriza al conocimiento
científico con los siguientes calificativos:
a. Objetivo, porque se corresponde con la realidad del objeto que
estudia describiéndolo tal cual es y no como deseamos que sea, debemos
para ello elaborar proposiciones que reflejen las cualidades del objeto o
fenómeno estudiado por que lo que se pretende es que el conocimiento que
se genere sea independiente de las opiniones o preferencias individuales.
www.fragua.es

b. Fáctico, porque la fuente de información y de respuesta a los problemas


de investigación es la experiencia. Es de señalar que la peculiaridad del
conocimiento científico es la experiencia y su base empírica; los elementos
que permiten investigar de forma fáctica. Sin embargo, debemos tener
presente que el denominar éste conocimiento como fáctico, no se refiere
a fenómenos o hechos perceptibles u observables de manera directa; para
hacerlo elaboramos construcciones; conceptos que grafican lo observado.
Por ejemplo el ser buen estudiante o buen profesor.
c. Racional, debido a que la ciencia utiliza la razón como vía
fundamental para llegar a resultados.
Bunge (2000) comenta que el conocimiento científico es racional
porque sistematiza coherentemente enunciados fundados o contrastables,
y el logro de una teoría o un conjunto sistemático y racional de ideas sobre
la realidad. Sin embargo muchas veces el comportamiento humano no
tiene una base racional no pudiéndose comprender fuera de su situación
y su contexto, por lo mismo no existe en la base del comportamiento una
base lógica y causal, en este sentido deberíamos admitir otros tipos de
racionalidad que excluyen al método científico.
d. Contrastable, porque permite una mayor fiabilidad del conocimiento,
debido a que el conocimiento es comprobado en circunstancias variadas y
por distintas personas.
Para contrastar el conocimiento se debe, durante la investigación,
poner en marcha diversas técnicas y procedimientos de investigación
conjugando lo fáctico con lo teórico. Por tanto el conocimiento científico

17
Antonio Lucas y Alejandro Noboa (eds.)

debe someterse a prueba, contrastándose intersubjetivamente a la luz de


conocimientos objetivos por medio de la discusión y examen crítico.
e. Sistemático, porque es ordenado, consistente y coherente, es un sistema
interrelacionado e integrado, por lo mismo un conocimiento aislado no
puede considerarse científico. Mediante la sistematización del conocimiento
se organizan estructuran y armonizan diferentes conocimientos con el fin
de entender la realidad de la forma más completa posible, de allí que sea
importante que el científico debe buscar sistemáticamente relaciones de
fenómenos.
f. Metódico, porque es fruto de una metodología rigurosa, obteniéndose
www.fragua.es

mediante la elaboración de planes riguroso y su aplicación con el fin de


dar respuesta a preguntas o problemas de investigación. Su condición de
científico se basa en que los procedimientos y estrategias sean factibles.
g. Comunicable porque utiliza un lenguaje propio, que debe ser
preciso y claro en términos de significación inequívoca para la comunidad
científica. Kuhn (1974) nos asevera que el conocimiento debefacilitar la
comunicabilidad del contenido, favoreciendo así el carácter auto correctivo
del proceder científico” Si no existe una claridad en los términos se hace
difícil una comunicación efectiva, siendo por lo mismo imprescindible
un lenguaje claro y preciso que permita un intercambio de información
efectivo
h. Analítico, debido a que selecciona variables o cuestiones) que
rompen la unidad complejidad y globalidad de los fenómenos humanos,
actuando a distintos niveles y con diversos grados de globalización (Latorre,
1996). Y en el mismo sentido, nos aclara que al faltar un patrón universal
de medida para decidir a qué niveles fragmentar la realidad, un mismo
objeto de estudio puede ser entendido y abordado de maneras distintas y
con grados de complejidad diversos (Guba,1982).

3. El método científico: noción y rasgos


El método es el camino necesario que se propone para la generación de
conocimiento científico, no sin ser provocativo Pardinas, en la citada obra,
afirma que la metodología científica es una «sistematización de operaciones
del sentido común para evaluar conocimientos».

18
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

En el entendido de que el método es un concepto polisémico,


igualmente es posible afirmar que el mismo es un procedimiento que
consiste en:
Formular preguntas sobre la realidad del mundo y la humana,
basándose en las observaciones de la realidad y en las teorías.
En anticipar soluciones a estos problemas y en contrastarlas con
la realidad, mediante la observación de los hechos, su clasificación y su
análisis.
Su punto de partida es una teoría previa, o un conjunto racional y
www.fragua.es

sistematizado de ideas sobre la realidad.


Esta teoría debe ser normalmente la fuente de los problemas que
formula el científico y que responde empleando el método científico.
Asimismo la teoría es el final que cierra el ciclo de construcción de
conocimiento, es decir el objetivo que completa el círculo de aplicación del
método, en otras palabras de los resultados de la observación e inducción
empíricas realizadas, se deben deducir nuevos principios que reformen,
completen o confirmen las teorías que dieron origen a las preguntas
iniciales. Es así que la teoría es necesaria para observar la realidad, los
hechos no hablan por sí mismos, hay que detectarlos (convertirlos en
datos) e interpretarlos. En cualquier caso se va a ellos con ideas y enfoques
previamente adoptados.

4. El método científico en las ciencias sociales y sus paradigmas


Primeramente hay que pensar que el objeto de estudio de las ciencias
sociales es diferente de las ciencias naturales que trata de los fenómenos del
mundo de la naturaleza, sino que en aquellas el objeto es la vida personal
y social. Por tanto la posibilidad de aplicación del método científico
a los fenómenos humanos es también diferente y a su vez es lo que las
convierte en ciencias. En este sentido su implementación presenta algunas
particularidades derivadas del propio objeto de estudio: la persona y la
sociedad.
La sociedad se constituye de relaciones sociales entre personas.
Y estas son reales, pero no siempre materiales. La realidad material,
además está en permanente cambio. Pero también contiene elementos

19
Antonio Lucas y Alejandro Noboa (eds.)

inmateriales: valores, creencias, normas morales, etc.. A su vez está sujeta


a la incertidumbre e indeterminación de la voluntad humana, todo esto se
traduce en las dificultades:
para medir en las ciencias sociales. Dificultades para establecer
regularidades y generalizaciones, para tener instrumentos tan preciso
como las otras ciencias, para lograr resultados tan exactos, exhaustivos,
constantes y generales como otras ciencias.
En las ciencias sociales existen distintas perspectivas teórico –
metodológicas, pero en ningún caso prescinden del método científico sino
que han desarrollado perspectivas y técnicas específicas propias que resultan
www.fragua.es

adaptaciones adecuadas, del método científico.


Toda investigación es una búsqueda sistemática de conocimiento que se
inicia a partir de una pregunta y se intenta responder desde el conocimiento
científico. Sin embargo, la forma de cómo se percibe la realidad difiere,
dando origen a diversos paradigmas científicos como diversas formas de
concebir el mundo.
Cuadro 1.1. Paradigmas de las ciencias

PARADIGMA CUALITATIVO PARADIGMA CUANTITATIVO


Aboga por el empleo de los métodos cuali- Aboga por el empleo de los métodos
tativos cuantitativos
Comprensivo: interesado en comprender la Positivista: Busca los hechos o causas de los
conducta humana desde el propio marco de fenómenos, prestando escasa atención a los
referencia de quien actúa. estados subjetivos de los individuos.
Observación naturalista y sin control Medición penetrante y controlada
Subjetivo Objetivo
Próximo a los datos; perspectiva desde Al margen de los datos: perspectiva desde
adentro. afuera
Fundamentado en la realidad natural, orien- Fundamentado en la teoría, orientado a la
tado a los descubrimientos, exploratorio, comprobación, confirmatorio, reduccionis-
expansionista, descriptivo e inductivo ta, inferencial e hipotético deductivo.
Orientado al proceso Orientado al resultado
Válido: datos reales, ricos y profundos. Fiable: datos sólidos y repetibles
No generalizable: estudio de casos aislados Generalizable: estudio de casos múltiples.
Holista (interesado en el conjunto) Particularista (interés en alguna parte)
Asume una realidad dinámica Asume una realidad estable.

20
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

El concepto de paradigma, entendido como un conjunto de creencias,


preconcepciones, actitudes, forma de percibir el mundo compartida por un
grupo de científicos. Este compartir es una fuente de métodos, problemas
y normas que hace prevalecer éste paradigma sobre otro. Siguiendo a Khun
(1978), la noción de paradigma es la manera de enfrentar un problema que
y el modo de cómo se expresa que en un determinado momento posee una
comunidad científica.
En ciencias sociales, en principio se pueden identificar dos grandes
paradigmas, el cualitativo y el cuantitativo, sus diferencias fundamentales
se establecen en el Cuadro 1.1.
www.fragua.es

Paradigma cualitativo
Estudia a fondo y globalmente uno sólo o unos pocos casos individuales.
Se trata de métodos que pretenden comprender profundamente una
realidad, un fenómeno o situación. Se busca informar de las observaciones
“en lenguaje natural”. Presentan un mayor carácter subjetivo aunque
riguroso, pues se basan en la comprensión íntima de la realidad y la captación
de su sentido, en la capacidad de intuición personal del investigador. La
prueba se centra en el consenso de la comunidad científica.
Paradigma Cuantitativo
Se centra en la observación de muchos casos particulares. Busca
determinar las características externas de una población. La tres etapas
(observación, clasificación y análisis) tienen un marcado acento numérico.
Son mejores para construir una ciencia positiva: permiten una recolección
de datos clara, rigurosa y confiable. Permiten someter a prueba hipótesis
en forma lógica y consistente e igualmente en forma empírica. La
interpretación y la explicación tienen carácter objetivo.
La investigación es un proceso, una secuencia de acciones orientadas
a la consecución de ciertos objetivos. Estos objetivos pueden formularse
de diversas maneras. Por ejemplo pueden definirse sintéticamente como el
logro de cierto nivel de conocimientos, o como el intento de dar cuenta de
una dimensión de la realidad, de su problemática, o su funcionamiento.
Realizar una investigación es un proyecto llevado a la práctica. Y la
elaboración de un proyecto supone: la necesidad de observar primero la
realidad antes de formular el problema.

21
Antonio Lucas y Alejandro Noboa (eds.)

El foco de atención y centro de interés de la investigación cuantitativa


está en medir los valores de las propiedades que muestran los fenómenos bajo
su estudio. Su énfasis está puesto en la búsqueda de explicaciones causales
de la realidad social, generalizando los resultados de las investigaciones
mediante la búsqueda y formulación de leyes científicas, sobre la base de la
contrastación empírica y de la medición objetiva.
Sus raíces filosófico-epistemológicas se encuentran en el positivismo y en
el empirismo lógico principalmente. Los objetivos de su investigación serán
la predicción, control, descripción, confirmación y una comprobación de
hipótesis. La metodología cuantitativa trabaja con un diseño estructurado
y en algunos casos pre-determinado. Cuando se realiza la recolección de los
www.fragua.es

datos que dan la información necesaria para su posterior análisis, se realiza


en un marco o un escenario desconocido o artificial. Esta recogida de datos
se realiza con métodos experimentales, estadísticos y empíricos. Se ocupan
instrumentos inanimados para ello, tales como las encuestas, escalas,
pruebas, cuestionarios, computadores, etc. Para la recolección de los datos
se construye una muestra con la que se trabaja en toda la investigación.
Esta muestra es generalmente representativa de la población (universo) y es
aleatoria (al azar). Este tipo de metodología tiene una modalidad de análisis
deductivo, por métodos estadísticos y que se orienta a la generalización de
sus resultados. Esta forma de acercamiento a la realidad produce hallazgos
precisos y limitados (reduccionistas, según sus detractores).
La investigación cuantitativa nos ofrece la posibilidad de extender
sus resultados a conjuntos más amplios que los estudiados directamente.
Supone y otorga cierto control sobre los fenómenos, incluyendo la
posibilidad efectiva de medirlos y así establecer sus magnitudes. Asimismo
brinda la posibilidad de réplica y facilita, además, la comparación entre
estudios similares.

5. El proceso de investigación
Wallace, partiendo de que “la ciencia es un modo de generar enunciados
acerca de acontecimientos del mundo de la experiencia humana y de contrastar
su verdad” (1976:15), y con la visión clara de que el “método es la cualidad
esencial de la ciencia”, siendo, además, “la relativa claridad y universalidad de
este método y de sus diversas partes lo que hará posible que los científicos se
comuniquen a través de las disciplinas al igual que dentro de cada una de sus

22
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

especialidades” (Ibidem, p. 18). Puede decirse que método incorpora algo de


lo que Nagel llama técnica, ya que él restringe el método científico a la lógica
empleada para estimar los méritos de una investigación. Se propone dar un
esquema general del proceso científico. Antes deja claro que los métodos
científicos buscan deliberada y sistemáticamente aniquilar “el punto de vista
del científico individual, no mediante un esfuerzo imposible para sustituirlo
por la objetividad en sentido literal, sino mediante reglas sustitutorias para la
crítica objetiva, la discusión y, en último extremo, el acuerdo” (Ibidem, p. 18).
Dando un repaso sintético a los elementos del proceso científico, puede
describirse de manera que incluya cinco componentes de información
principales que se transforman unos en otros bajo el control de seis conjuntos
www.fragua.es

principales de métodos de la manera que muestra el siguiente Cuadro.

Cuadro 1.2. Esquema de Wallace

Nota: Los componentes de información se representan en rectángulos; los controles


metodológicos en óvalos y las transformaciones de información por flechas.

23
Antonio Lucas y Alejandro Noboa (eds.)

De esta gráfico comenta: “Las observaciones individuales son items


de información altamente específicos y esencialmente únicos cuya síntesis
en la forma más general denotada por generalizaciones empíricas se realiza
por medio de mediciones, resumen de muestras, estimación de parámetros.
Las generalizaciones empíricas, a su vez, son items de información que
pueden sintetizarse en una teoría vía formación de conceptos, formación de
proposiciones y ordenamiento de proposiciones. Una teoría, el tipo más general
de información, es transformable en nuevas hipótesis a través del método
de la deducción lógica. Una hipótesis empírica es un ítem de información
que llega a transformarse en nuevas observaciones vía interpretación de la
hipótesis en observables, instrumentación, escalaje y muestreo. Estas nuevas
observaciones son transformables en nuevas generalizaciones empíricas (de
www.fragua.es

nuevo vía mediciones, resumen de muestras y estimación de parámetros), y las


hipótesis que ocasionaron su construcción pueden entonces ser contrastadas
en cuanto a su conformidad con ellas. Tales comprobaciones pueden dar
como resultado un nuevo resultado informacional, a saber: una decisión
para aceptar o rechazar la verdad de la hipótesis contrastada. Finalmente se
infiere que esta última da lugar a la confirmación, modificación o al rechazo
de la teoría” (Wallace: 21). Puede considerarse que este proceso tiene siempre
lugar en toda investigación con distinto grado de formalización, rapidez o
complejidad.
Operando sobre el Cuadro 1.2 es fácil ver la distinción entre teoría e
investigación empírica —que analizaremos más a fondo posteriormente— y,
sobre todo, entre método inductivo y deductivo. Así tenemos que se sugiere
que la mitad izquierda del esquema de Wallace representa la construcción
inductiva de teorías a partir de observaciones; mientras que la mitad derecha
representa la aplicación deductiva de una teoría.
De modo parecido, la mitad superior del gráfico representa aquello a lo
que normalmente se hace referencia al hablar de teorización, vía el uso de la
lógica inductiva y deductiva como método; mientras que la mitad inferior
representa lo que generalmente se quiere decir al hablar de hacer investigación
empírica, con la ayuda de los que se han llamada “métodos de investigación”
(Ibidem, p. 27).
Como vemos, la inducción parte de la realidad para llegar a la teoría,
al contrario de la deducción, que partiendo de la teoría llega, por procesos
lógicos, a conclusiones que desea contrastar con la realidad. Para Wallace lo
verdaderamente importante es la observación, y efectivamente con ella deberá

24
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

iniciarse de ordinario cualquier proceso de investigación, pero no podemos


ignorar el salto que supone la idea genial, o la transferencia de conocimientos
de otros campos. En este sentido un plan concreto de investigación puede
iniciarse en cualquiera de los momentos del proceso señalado en el
Se nos ofrece así un esquema del proceso de investigación con un
alto poder didáctico, tal como se ve en la figura que antecede, es posible
diseccionar el proceso en diferentes componentes y transformaciones
dando lugar a un ciclo de investigación.
La relación teoría y datos, relación dialógica fundamental en toda
investigación científica, queda reflejada en la línea con sentido horario
www.fragua.es

que une teoría con hipótesis y luego observaciones, continuando la misma


hacia generalizaciones empíricas y cerrando el ciclo nuevamente en teoría.
Conectando cada uno de los componentes se introducen procesos de
transformación de la información en sentido deductivo en primer término
e inductivo más adelante. La deducción lógica permite la construcción
de hipótesis a partir de un cuerpo teórico, la elaboración de indicadores
e instrumentos conecta con las observaciones empíricas, luego las
operaciones con los datos, resúmenes, realización de diferentes tipos de
análisis, (frecuencias, correlaciones, tablas de contingencias, etc.) facilita la
construcción de generalizaciones empíricas expandibles a toda la población
estudiada y por último la formación de conceptos, proposiciones y sistemas
de proposiciones permite la construcción teórica.
Un procedimiento lógico que divide además en un hemisferio a la
derecha cuyos procesos son estrictamente deductivos, a la izquierda
inductivos y sobre el ecuador son procedimientos y productos teóricos en
tanto por debajo se realiza la operación empírica o manipulación de los
datos de observación.
Etapas a considerar en el proceso
A partir de comprender este proceso general de investigación se puede
luego pasar a etapas más concretas del mismo para conocer la práctica
misma de construcción de los conocimientos.
Esquema de la investigación
Las investigaciones no son procesos rígidos, existe interdependencia
entre sus etapas: ej.: datos imprevistos que hacen reformular el problema.

25
Antonio Lucas y Alejandro Noboa (eds.)

Elaborar un proyecto de investigación es un esfuerzo de planificación,


pero no se trata de un proceso intocable, en su conjunto o en sus partes.
Siempre existe interdependencia y complementariedad entre sus etapas.
Se trata de elaborar un plan, pero en términos flexibles, como una guía
orientadora de un curso de acción. A veces hay datos imprevistos que hacen
reformular el plan. También es importante observar la realidad antes de
formular el problema.
La identificación y el planteamiento del problema
El punto de partida de la preocupación por un aspecto de la realidad
teórica o empírica es generalmente la consideración de la existencia de
www.fragua.es

un problema, de alguna situación experimentada como problemática por


algunos sectores de la población, o por los actores del campo intelectual.
Este problema puede ser, entonces de tipo intelectual o que afecta realmente
a grupos de personas, o a toda la población.
Un problema es más que un tema, es una situación que hay que
aclarar y resolver (explicar). Es una pregunta o un conjunto de preguntas.
Es una inquietud, un impacto, una indignación, o una ilusión que surge
de la observación empírica o de una reflexión teórica. Es la inquietud
por descubrir las variables que intervienen en una realidad determinada.
Es descubrir la(s) variable(s) independiente(s) que actúan sobre otra(s)
variable(s) dependiente(s).
De nada sirve contar con un buen método y muchísimo entusiasmo si
no se sabe qué investigar, por lo que plantear el problema no es sino afinar
y estructurar más formalmente la idea de investigación que tenemos. Se
necesita formular el problema específico en términos concretos y explícitos,
de manera que sea susceptible de investigarse con procedimientos científicos.
Delimitar es la esencia de los planteamientos cuantitativos (Selltiz et al., 1980).
Definir el planteamiento del problema y de sus elementos
constituyentes es una tarea central porque provee las directrices y los
componentes fundamentales de la investigación. Además, resulta clave para
el momento que se deba entender los resultados obtenidos al momento de
su análisis. La primera conclusión de un estudio es evaluar qué ocurrió con
el planteamiento inicial del problema.
Según Kerlinger y Lee (2002), los criterios para plantear adecuadamente
un problema de investigación son:

26
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

1. El problema debe expresar una relación entre dos o más conceptos


o variables.
2. El problema debe estar formulado como pregunta, claramente y sin
ambigüedad.
3. El planteamiento debe implicar la posibilidad de realizar una prueba
empírica, es decir, la factibilidad de observar el problema en la realidad,
única y objetiva.
Por ello es necesario definir el problema que presenta la realidad:
¿Cuál es en líneas generales este problema?. Preguntarse qué se plantea
como problema y por qué o para qué interesa investigarlo.
www.fragua.es

Para ello será necesario estudiar los antecedentes, los conocimientos


actuales, existentes hasta la fecha, dar cuenta de los interrogantes que ya se
han respondido a través de otras investigaciones, los vacíos o aspectos que
no han sido respondidos o explicados. Se trata de una etapa importante:
la revisión bibliográfica sobre el tema y sobre el problema que interesa. De
esta manera se intenta definir el problema desde la ciencia propia de la
disciplina.
Demostrar la relevancia de la investigación. Es decir, hay que dar
cuenta de la trascendencia y del aporte teórico o práctico del problema
que interesa. Esto se plantea de manera clara y directa, en términos de la
ciencia disciplinar en que nos situamos. Pero también de otras disciplinas,
es decir utilizando conceptos y aprovechando el trabajo ya acumulado por
estas disciplinas para expresarlo y delimitarlo.
Definir el problema desde las ciencias sociales es utilizar conceptos
propios de estas disciplinas para caracterizarlo. Se trata de construir el
objeto de estudio. Pasar de las prenociones a los conceptos y al lenguaje de
nuestra disciplina implica clarificar los conceptos utilizados en la definición
del problema, enmarcándolos dentro de alguna corriente teórica y en el
debate actual de las ciencias sociales sobre el tema.
Se explícita, se identifica y se delimita el tema en términos de la
disciplina que orienta la investigación.
Se clasifican los conceptos utilizados, se enmarcan en la teoría.
Se establecen supuestos e hipótesis.
Se definen conceptualmente las variables.

27
Antonio Lucas y Alejandro Noboa (eds.)

En síntesis esta operación se compone de una serie de aspectos:


- Definir cuál es el problema, dar cuenta de por qué existe un
determinado fenómeno.
- Fundamentar el para qué se hará la investigación, cuales son los
argumentos principales para llevar adelante el trabajo. Precisar en qué
contexto se plantea el problema para estudio.
- Qué conceptos están en juego y con qué teorías se relacionan, en
cualquier caso la investigación consiste en poner en diálogo las teorías y los
conceptos con los datos de la realidad. Definir con precisión cuáles son esos
www.fragua.es

conceptos es clave para iniciar el proceso de trabajo.


- Elección y elaboración de un diseño: que indique cuales y como
vamos a utilizar las técnicas, como también la forma como lo vamos a hacer.
Los objetivos de la investigación
Todo proyecto tiene que plantearse determinados objetivos. Se trata de
la contribución de la investigación.
Cuando se define lo que se desea lograr con la investigación, se está
hablando de los objetivos, ya que tienen la finalidad de señalar a lo que se
aspira en la investigación y deben expresarse con mucha claridad. Además de
definir los objetivos concretos de la investigación, es conveniente plantear
por medio de una o varias preguntas, el problema que se estudiará. Las
preguntas representan el “¿qué?” de la investigación. Las preguntas pueden
ser más o menos generales, pero en la mayoría de los casos es mejor que
sean precisas para que guíen en comienzo del estudio.
Asimismo, como sugiere Rojas (2002), es necesario establecer límites
temporales y espaciales al estudio (época y lugar), y esbozar un perfil de las
unidades de observación (personas, familias, viviendas, periódicos, etc.),
perfil que, aunque es tentativo, resulta muy útil para definir el tipo de
investigación que habrá de llevarse a cabo.
Objetivos generales:
Es necesario expresar con claridad lo que se pretende lograr con la
investigación. ¿Qué uso podrán tener los resultados?. La respuesta a este
interrogante determinara el tipo de metodología a emplear.

28
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

Objetivos específicos:
De manera más precisa se ha de expresar la problemática que en concreto
se desea estudiar. Si se trata de describir una problemática existente, es
preciso indicar cuáles son los hechos cuya existencia se quiere comprobar.
Si la intención es explicar o buscar soluciones a algún problema, han de
señalarse los factores que se piensa, influyen en los hechos que se desea
investigar.
Además de los objetivos y las preguntas de investigación, es necesario
justificar el estudio mediante la exposición de sus razones. Por medio de la
justificación debemos demostrar que el estudio es necesario e importante.
www.fragua.es

Esta justificación del estudio puede ser por conveniencia, por relevancia
social, por implicancias prácticas, por un valor teórico o por utilidad
metodológica.
También es muy necesario considerar la viabilidad o factibilidad
misma del estudio, para ello hay que tomar en cuenta la disponibilidad de
recursos humanos, financieros y materiales que determinan los alcances de
la investigación (Rojas, 2002).
El marco conceptual
Antes de entrar en el proceso de elaboración del marco teórico se hace
necesario entender el significado de teoría. Por tal se va a entender como “un
sistema de hipótesis que se supone da una explicación aproximada de un sector
de la realidad” (Bunge 1983:425).
Las teorías son sistemas conceptuales, de la más alta abstracción, que
incluyen postulados, axiomas, leyes, modelos, clasificaciones, conceptos,
relacionados todos hipotéticamente, y que orientan la investigación
sugiriendo nuevos problemas. Son sistemas abiertos que poseen como
característica central la “deductibilidad”, es decir, la cualidad de ser ricas
fuentes para extraer de allí fructíferas ideas.
En el caso particular de las teorías factuales éstas describen, explican
y predicen hechos de la realidad y facilitan la inclusión de nuevos datos
dentro del sistema.
Cuando se tiene planteado el problema de estudio, es decir, se dispone
de los objetivos y preguntas de investigación y, además, una vez que se ha
evaluado su relevancia y viabilidad, el siguiente paso consiste en sustentar

29
Antonio Lucas y Alejandro Noboa (eds.)

teóricamente el estudio, etapa que se denomina marco teórico. Ello


implica analizar y exponer aquellos enfoques teóricos, teorías específicas,
investigaciones y antecedentes en general, que se consideren válidos para el
correcto encuadre conceptual del estudio.
El marco teórico cumple diversas funciones dentro de una investigación.
Entre ellas podemos destacar las siguientes:
1. Ayuda a constituir el carácter acumulativo del conocimiento
científico, previniendo errores cometidos en otros estudios, aprendiendo
de las observaciones y hallazgos de anteriores investigaciones, etc.
www.fragua.es

2. Resulta indispensable para orientar al equipo investigador sobre


cómo ha de realizarse el estudio. Fija los parámetros fundamentales sobre
lo que se quiere y sobre lo que no se quiere de la investigación.
3. Sitúa el estudio en el contexto más amplio de las áreas de investigación
existentes en ese momento, relacionando la investigación con las otras
conocidas en términos de su proximidad o distancia.
4. Aporta un criterio de pertinencia y relevancia en relación a la
necesidad de realizar el estudio.
5. Conduce al establecimiento de hipótesis o afirmaciones que
posteriormente se someten a prueba.
6. Permite detectar nuevas líneas y áreas de investigación, las que
pueden enriquecer el propio diseño investigativo, o proyectarlo en futuras
reformulaciones teóricas y/o metodológicas.
7. Provee de un marco de referencia para interpretar los resultados del
estudio.
Para elaborar el marco teórico es necesario detectar, obtener y consultar
la literatura, y otros documentos pertinentes para examinar el problema
de investigación, así como extraer y recopilar de ellos la información que
pueda revestir interés para nuestro estudio.
Existen fuentes primarias (directas) donde extraer información,
fuentes directas y de primera mano cómo son los libros, antologías,
artículos, periódicos, etc., y fuentes secundarias (indirectas), que son listas,
compilaciones y resúmenes de referencias o fuentes primarias publicadas.

30
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

La revisión de la literatura puede iniciarse manualmente o acudiendo


a un banco de datos al que se tenga acceso por computadora, utilizando
palabras claves en su búsqueda. También es recomendable iniciar la
revisión de la literatura consultando a expertos en el tema, así como acudir
a fuentes secundarias o terciarias, ya que de este modo se podrá localizar
a fuentes primarias de interés. Al recopilar información de referencia es
posible extraer una o varias ideas, datos, opiniones, resultados, etc.
De acuerdo a lo que se encuentre en la revisión de la literatura es
posible encontrar alguna de las siguientes situaciones:
• Hay una o varias teorías, bien desarrolladas, que se aplican al
www.fragua.es

problema de investigación que interesa estudiar y profundizar.


• Que hay generalizaciones empíricas que se adaptan al problema
de investigación, y que permiten contar con posibles generalizaciones /
hipótesis de interés para abordar el problema.
• Que hay descubrimientos interesantes, pero que no permiten
establecer generalizaciones, ni menos alcanzan a conformar una
argumentación teórico-conceptual.
• Que el problema de investigación es un sector no estudiado, respecto
del cual existen solamente ideas vagamente relacionadas.
Una fuente importante para construir un marco teórico son las teorías.
Una teoría, de acuerdo a lo que proponen Kerlinger y Lee (2002), es un
conjunto de conceptos, definiciones y proposiciones vinculadas entre sí,
que presentan un punto de vista sistémico de fenómenos especificando
relaciones entre variables, con el objetivo de explicar y predecir el fenómeno.
Las funciones más importantes de la teoría son: Primero, explicar el
fenómeno que estamos estudiando o tratando de estudiar (por qué, cómo
y cuándo ocurre un fenómeno). También la teoría tiene como función
predecirlo, ya que a partir de ella será posible hacer inferencias a futuro
sobre cómo y cuándo se va a manifestar un fenómeno dadas ciertas
condiciones. Y además, la teoría da un orden al conocimiento sobre un
aspecto de la realidad, sistematizándolo.
Todas las teorías construidas mediante investigaciones adecuadas
aportan conocimiento y en ocasiones ven los fenómenos que estudian
de distintos puntos de vista. Pero es preciso tener claridad sobre algunos

31
Antonio Lucas y Alejandro Noboa (eds.)

criterios que nos permitan distinguir las teorías de acuerdo a su capacidad


de cumplir mejor sus funciones.
Así aplicamos cinco criterios:
Capacidad de descripción, explicación y predicción.
La teoría aspira a describir las características y componentes del
fenómeno, delimitando las condiciones en que este se presenta, y las maneras
en que se expresa. Incluye también la aspiración a claridad conceptual.
Consistencia lógica.
www.fragua.es

Las proposiciones de una teoría deben estar interrelacionadas en forma


consistente, y ser mutuamente excluyentes.
La teoría aspira a dar cuenta de la mayor cantidad posible de fenómenos
particulares, alcanzando los mayores niveles de generalidad.
La teoría tiene mayor valor cuando ofrece claves generadoras de nuevas
preguntas y abre el camino a nuevos descubrimientos y conocimientos.
Será preferible una teoría que permita explicar los mismos fenómenos
que otra, pero que tenga un menor número de proposiciones. La sencillez
es deseable, lo que es ciertamente distinto de la superficialidad.
Una vez que se dispone de un marco teórico para desarrollar la
investigación que interesa, se cuenta con una especie de “carta de
navegación” que orientará el rumbo de las etapas siguientes del proceso de
investigación. A partir de este momento, es preciso centrarse en el problema
de investigación tal como fue conceptualizado por el marco teórico,
evitándose divagar en cuestiones ajenas a esa definición del problema.
Tipos de Teorías
Se clasifican en formales y fácticas de acuerdo a la disciplina científica
a la que pertenecen.
1.- Las teorías formales: son aquellas desarrolladas a nivel de las
matemáticas, la lógica y la estadística y corresponden a elaboraciones
abstractas que se refieren a símbolos y relaciones no materiales. En otras
palabras son sistemas hipotético-deductivos de extraordinaria consistencia
y su utilización se ha extendido prácticamente a todos los ámbitos.

32
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

2.- Las teorías factuales: tienen que ver con cuestiones de la realidad;
intentan describirla y explicarla y adelantar predicciones respecto de lo que
acontecerá si ocurre tal o cual condición. Su origen y desarrollo se sitúa en
las disciplinas factuales que se refieren al mundo de lo inorgánico, de lo
orgánico y de lo súper- orgánico. Por ejemplo: teorías biológicas, teorías
sociológicas.
Dado el énfasis que las ciencias básicas ponen en el conocimiento en sí
y el acento que las tecnologías colocan en el conocimiento para la aplicación
y la transformación; se puede distinguir entre teorías fundamentales y
teorías tecnológicas.
www.fragua.es

Teorías fundamentales o básicas


Se ocupan predominantemente de la naturaleza de los símbolos o de
los hechos, desentrañando las relaciones entre ellos tal como éstas se dan
en el terreno de lo formal o de lo real. Todas estas teorías tienen el poder
potencial para la aplicación y para inducir el cambio, pero no se ocupan de
desarrollar estos aspectos. Son ejemplos de teorías fundamentales: la teoría
de las probabilidades, la teoría de la relatividad, las teorías sobre el origen
de la tierra, las teorías sobre el origen del hombre, sobre el funcionamiento
de los organismos vivos, sobre la herencia genética, sobre la herencia
social, sobre las culturas, sobre las organizaciones sociales, etc. Todos estos
sistemas han sido elaborados por los llamados científicos “puros”.
Teorías tecnológicas
Intentan dilucidar por qué es posible introducir determinados
cambios o transformaciones en relación con seres vivientes o con objetos,
como asimismo se preocupan de precisar cómo se puede convertir el
conocimiento fundamental en aplicaciones útiles. Son ejemplos de
estos sistemas tecnológicos las teorías sobre el cambio social planificado,
las teorías médicas, las teorías de la ingeniería, de la arquitectura, de la
enfermería, de la pedagogía, etc.
A juicio de Bunge, las teorías tecnológicas son menos profundas que
las fundamentales, pero son más ricas para la práctica, pues precisan, a
través de un sistema de reglas fundadas, cómo hay que actuar para obtener
un resultado lo más eficaz posible.

33
Antonio Lucas y Alejandro Noboa (eds.)

Elaboración del marco conceptual


El marco conceptual, dependiendo de la finalidad de la investigación
a veces se le denomina teórico; porque prepara para trabajar de una manera
más rigurosa con los conceptos científicos, por lo cual tiene como propósito
dar a la investigación un sistema coordinado y coherente de conceptos y
proposiciones que permitan abordar el problema.
El marco teórico permite demarcar aún más el problema de
investigación y lo conecta con una teoría que aporta el sustento para
producir conocimientos científicos en acontecimientos educativos. Por
esto es necesario empezar a familiarizarse con la idea de la reformulación del
www.fragua.es

problema a la luz de un campo teórico y comenzar a hablar de problemática,


entendiéndola como el enfoque o la perspectiva teórica que se decide adoptar
para tratar el problema que está planteado en las preguntas iniciales.
El estudio y análisis de las teorías nos permite delimitar mejor el
problema, reduciendo el ámbito de los hechos por estudiar.
La teoría además de dar una justificación adicional a la investigación le
proporciona un valor heurístico, pues permite potenciar el saber adquirido
perfilando nuevos aspectos y relaciones entre los hechos; éste el aspecto
heurístico y creativo de la teoría, que permite explotar al máximo los datos
e informaciones.
Sintetizando el marco teórico tiene como propósito dar a la investigación
un sistema coordinado y coherente de conceptos y proposiciones que
permitan abordar el problema. Para construir el marco teórico es necesario
que tengas en consideración los siguientes aspectos:
Pesquisar y revisar la literatura
En primer lugar se debe iniciar la búsqueda de la información, para ello
se puede tomar como referencias las fichas de las bibliotecas, centros de
documentación, internet, etc. En ellas se encontrarán fuentes útiles como
textos, revistas, publicaciones, artículos científicos, boletines diversos,
etc. Una alternativa consiste en la consulta a expertos o especialistas en la
temática, que suelen tener un buen conocimiento del material existente.
Todo libro o trabajo serio constituye una ayuda porque generalmente
incluye referencias bibliográficas y materiales consultados.

34
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

Seleccionar, leer y analizar la información


Una vez que se ha accedido a la información es necesario leer las
fuentes disponibles, no es preciso leerlas completamente, sino utilizar
un tipo de lectura discriminatorio, que permita conocer profundamente
los aspectos esenciales y someramente los restantes. De acuerdo con los
resultados de estas lecturas se podrá ordenar el material según los diversos
puntos y subpuntos a tratar.
En este proceso al recoger la información debes registrarla en fichas
manuales o en la computadora, estas fichas pueden ser textuales de
contenido o mixtas y marcadas en las palabras claves al comienzo o en los
www.fragua.es

márgenes para acelerar la recuperación de la información. Luego deben


ordenarse de acuerdo con sus contenidos, se cotejan o comparan las fichas
obtenidas y se analiza cada punto, observando los aspectos de contacto o
de oposición que se encuentren.
Finalmente se sacan las conclusiones correspondientes y se elaboran los
puntos de vista respecto a cada parte del estudio, teniendo especial cuidado
que el punto de llegada de la revisión de la literatura es la problemática
establecida.
El marco conceptual en estudios cuantitativos
La estrategia para la elaboración del marco teórico busca exponer y
analizar las teorías que sirven de fundamento y que guían la interpretación
de los resultados.
El marco teórico debe contestar preguntas como: ¿Qué investigaciones
se han realizado sobre el problema? ¿Quién las ha realizado? ¿Cuándo?
¿Dónde? ¿Desde qué perspectivas o enfoques? ¿ Con qué resultados?. En
su orientación general debe referirse específicamente al problema. En su
elaboración, el investigador, además de presentar las conclusiones de la
información recopilada en el momento de revisión de la literatura, debe
presentar críticas y aportaciones acerca del problema, sugerencias sobre
futuras áreas de investigación, etc.
En este proceso es posible encontrarse con distintas alternativas
relacionadas con la construcción de las teorías. Según Hernández y otros
(1991)las posibilidades son las que se presentan a continuación:

35
Antonio Lucas y Alejandro Noboa (eds.)

Existencia de una teoría completamente desarrollada. Cuando se encuentra


una teoría capaz de describir, explicar analítica o comprensivamente o
predecir el fenómeno de manera lógica y consistente, y que reúne los criterios
de pertinencia, exhaustividad, amplitud y utilidad, la mejor estrategia
para construir el marco teórico es tomar esa teoría para estructurarlo.
Cuando se encuentra una teoría sólida como la antes descrita que da una
explicación del fenómeno se debe dar un nuevo enfoque al estudio que se
está desarrollando.
Existencia de varias teorías rivales. Cuando se encuentran varias teorías
que tienen relación con el problema de investigación de nuestro estudio,
se puede elegir como primera opción una de ellas para construir el marco
www.fragua.es

teórico. Para el efecto se pueden desglosar los conceptos y proposiciones


de la teoría o, por el contrario hacer un recuento de manera cronológica
o bien explicando los pasos de cómo ha sido la serie de hechos y factores
que han incidido en su desarrollo. En esta dirección la teoría se muestra
desarrollándose históricamente como proceso evolutivo o acumulativo,
pero también como deconstrucción y refutación. Para lograr esto se citan y
analizan las contribuciones más importantes al problema de investigación
hasta armar y estructurar la teoría resultante. En la segunda opción se puede
tomar parte de algunas o todas las teorías. El criterio debe ser en todo caso
tomar de ellas sólo lo que es relevante y pertinente para el problema de
estudio. Es conveniente que antes de construir el marco teórico se haga
un bosquejo esquemático de cómo armarlo teniendo cuidado de no caer
en contradicciones lógicas. Si las teorías rivalizan entre sí en un aspecto o
en todos y si se acepta lo que dice una de ellas se tiene que desechar lo que
postulan las demás que son contradictorias.
Cuando las teorías se excluyen unas a otras en las proposiciones más
importantes se debe elegir una sola. Pero si únicamente difieren en aspectos
secundarios, se toman las proposiciones centrales que son más o menos
comunes a todas ellas y se eligen las partes de cada teoría que sean de interés
y se acoplan entre sí, en cuanto sea posible. Lo más común es tomar
una teoría como base y extraer elementos de otras teorías que nos sean de
utilidad para construir el marco teórico.
Existencia de piezas y trozos de teoría. En el campo de las ciencias humanas
y sociales no se disponen de muchas teorías que expliquen los fenómenos;
la mayoría de las veces lo que se tiene son generalizaciones empíricas.
Conviene recordar que la evidencia empírica se refiere a los datos de la

36
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

realidad que apoyan o dan testimonio de una o varias afirmaciones. Una


teoría ha recibido apoyo o evidencia empírica cuando hay investigaciones
científicas que han demostrado que sus postulados son ciertos en la realidad
observable o mensurable.
Las fuentes de información: identificar lugares, personas, documentos
y situaciones te proveerán de información; dependiendo el tipo de
información que dispongas, son los procedimientos que necesitas realizar.
Se distinguen fuente primarias y secundarias de información.
Las fuentes primarias directas son el objeto de investigaciones
www.fragua.es

bibliográficas, aquí se ubican libros artículos de publicaciones periódicas,


monografías, tesis y disertaciones, información gubernamental, catálogos de
libros básicos. Aquí también puedes ubicas los registros de matrículas de los
Establecimientos, los resultados de las pruebas SIMCE etc.
Las fuentes secundarias o de segunda mano; hacen referencia a
información ya procesada y analizada de utilidad para el profesor; por
ejemplo las investigaciones educacionales presentadas en el XV Encuentro
Nacional de Investigadores en Educación que realiza cada dos años el
CPEIP.
La información terciaria es la que agrupa información de fuentes
secundarias.
La fuente de información también puede ubicarse en personas,
situaciones y opiniones grupales entre otros.
La fuente de información seleccionada está en estrecha relación y
necesita ser coherente con lo que estableciste en el núcleo básico de la
investigación; problema, objetivos, variables e hipótesis.
Sabiendo cuál es tu fuente de información puedes determinar el
universo de estudio o población a estudiar y la Unidad de estudio.
Una vez que se ha definido el problema a investigar y se está en la
fase de optar por métodos, técnicas y estructurar, organizar o planificar tu
curso de acción para emprender la búsqueda sistemática de conocimiento,
se necesita realizar una serie de pasos que se superponen con el proceso
general de investigación y están orientados o centrados en la búsqueda y
manejo de la información.

37
Antonio Lucas y Alejandro Noboa (eds.)

Criterios para la búsqueda y manejo de datos: tan pronto se inicia el


proceso de formular el problema, ya tienes en mente un área o problema
que deseas abordar. Asegúrate de expresar claramente qué deseas conocer.
Buscar y leer fuentes secundarias: seleccionar el índice apropiado para un
servicio de referencia o base de datos. Buscar la forma que más convenga
para ordenar, escribir los criterios que se adoptaron ya que en vez de navegar
buscando información se puede naufragar en la cantidad insospechada de
datos que hay.
Transformar el problema definido en lenguaje de búsqueda: realizar la
búsqueda informatizada. En la Biblioteca, a través de algún buscador por
www.fragua.es

Internet; el CPEIP por señalar sólo algunas. Consulta por redes informatizas
en ese tema.
Leer las fuentes primarias pertinentes y organizar las notas, luego
comenzar a escribir el informe.
Tipos de diseños metodológicos
Una vez definido el problema científico con precisión, y teniendo
como punto de partida el marco teórico que se va a generar a partir del
análisis del estado de la cuestión, es muy recomendable que se comience a
imaginar respuestas probables para ese problema planteado. No siempre es
imprescindible plantear hipótesis aunque es muy recomendable (en trabajos
de tesis de maestrías o doctorados es una condición necesaria).
Según la finalidad y el grado de conocimiento que se tenga sobre el
tema o problema. Ello determina el grado de abstracción, dado que el
conocimiento acumulado es la principal base desde la cual el investigador
parte.
Según sean los objetivos de la investigación: exploración, descripción,
explicación, predicción e intervención.
Así pues la investigación puede ser:
Exploratoria
Descriptiva
Correlacional o de asociación
Explicativa
Aplicativas

38
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

Una vez que se ha efectuado la revisión de la literatura y se afina el


planteamiento del problema, ahora debemos considerar qué alcances,
inicial y final, tendrá nuestra investigación. Es decir, ¿hasta dónde, en
términos de conocimiento, es posible que llegue nuestro estudio? Para
eso el investigador cuenta con cuatro tipos de estudio que puede realizar:
exploratorio, descriptivo, correlacional o explicativo.
La diferencia para elegir uno u otro estriba en el grado de desarrollo de
conocimiento respecto al tema a estudiar y a los objetivos planteados. Como
ya se señaló en el capítulo sobre la Investigación Social, las investigaciones
cuantitativas se aproximan a la búsqueda de la comprobación de relaciones
de causalidad, y se pueden encontrar en todo diseño que implique procesos
www.fragua.es

de medición y cuantificación:
- Descriptivos: los estudios descriptivos sirven para analizar cómo es
y cómo se manifiesta un fenómeno y sus componentes. Las investigaciones
cuantitativas se preocupan por medir la mayor cantidad de aspectos y
dimensiones de una situación específica. De esta manera se pueden generar
bases de datos con las cuales es posible hacer descripciones estadísticas,
buscar los valores de estadísticos de tendencia central (media, mediana,
moda) y establecer algunas medidas de dispersión (desviación estándar,
rango, varianza).
- Correlacional: los estudios correlaciónales buscan conocer y
dimensionar la relación que pueda existir entre dos o más categorías o
variables. La cuantificación de las relaciones parte por medir cada una de
las variables estudiadas, para luego establecer la correlación entre ellas.
Esta medición debe respaldarse en hipótesis que están siendo así puestas
a prueba. En este caso, la hipótesis no implica la existencia de relaciones
de causalidad, sino exclusivamente de relaciones que se puedan considerar
estadísticamente significativas (Chi cuadrado, Coeficiente de contingencia
de Pearson, rho se Spearman, tau de Kendall, Lambda, entre otras).
- Explicativos: los estudios explicativos buscan demostrar
cuantitativamente la existencia de relaciones de causalidad dentro de
un conjunto de variables relacionadas. Como en el caso de los estudios
correlaciónales, la investigación cuantitativa debe disponer de hipótesis
específicas que precisen qué relaciones de causalidad pueden encontrarse
al analizar estadísticamente la información recogida. Para estos efectos se
recurre a pruebas de regresión múltiple, análisis multivariado de la varianza,
análisis discriminante, análisis de patrones o vías, y análisis factorial.

39
Antonio Lucas y Alejandro Noboa (eds.)

Una investigación puede variar a lo largo del tiempo por los diversos
tipos de estudios, por ejemplo, puede comenzar siendo una investigación
exploratoria y terminar siendo descriptiva. O partir de un diseño
correlacional y llegar al nivel explicativo. Lo anterior dependerá de la
calidad de la información recogida, de la capacidad del investigador de
aprovechar la oportunidad de ir más allá de lo esperado inicialmente dados
los antecedentes recogidos.
Los estudios explicativos en ciencias sociales, inspirados en los enfoques
positivistas cuantitativistas, han mostrado paradójicamente lo difícil que es
encontrar en estas disciplinas el tipo de relación causal tan frecuente en las
ciencias naturales. De allí el paso reciente hacia posturas post-positivistas,
www.fragua.es

que optan por señalar que ciertas variables provocan una mayor probabilidad
de ocurrencia de ciertos efectos. En las ciencias sociales la interrelación de
los fenómenos impide distinguir nítidamente entre los factores causales y
los efectos, por lo que es más frecuente recurrir al concepto de correlación,
y asumir la noción de probabilidad ya comentada.
Es decir, retomando lo anterior, si se consideran a las investigaciones
científicas por su grado de profundidad, es posible hablar de tres niveles. En
primer lugar están las investigaciones descriptivas, en las cuales me limito
a analizar cómo es la realidad sin considerar relaciones entre las partes, por
ejemplo, realizar un relevamiento sobre el nivel educativo de la población de
un determinado lugar. En segundo lugar están las investigaciones explicativas
en donde ya sí se relacionan variables y se busca explicar por qué las cosas son
como son, qué influye en qué. Volviendo al ejemplo de la violencia escolar,
en este caso por ejemplo podría intentar analizar cuáles son los condicionantes
culturales que pueden estar provocándola. En tercer lugar se ubican las del nivel
predictivo: si se logra explicar, es posible prever situaciones futuras, si se logran
conocer los condicionantes de la violencia escolar, se sabrá con bastante certeza
cuando este fenómeno puede producirse. En cuarto lugar es posible hablar de un
nivel aplicativo cuando se realiza una investigación con la primordial intención
de modificar el objeto de estudio. Esta situación se encuentra típicamente en los
trabajos de consultoría como se puede ver en el ejemplo del Cuadro 1.3.
Es fundamental diseñar los pasos que permitirán asegurarse de que se
recopilará la información relevante para los propósitos de la investigación,
y que se obtendrá del lugar y en la forma adecuada, y que podrá ser
manipulada (medida) adecuada y útilmente.

40
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

Cuadro 1.3. Investigación aplicativa

En otro sentido, según los objetivos se deben seleccionar los métodos y


técnicas:
Métodos de análisis documental: Histórico funcional / estructuralista /
dialéctico.
De análisis estadístico – demográfico
De análisis de contenido
Métodos Empíricos: de estudio u observación de campo
De grupos de estudio de casos
De encuesta social
Experimentales y cuasi – experimentales
www.fragua.es

Una vez que se precisó el planteamiento del problema, se definió


el alcance inicial de la investigación y se formularon las hipótesis, el
investigador debe seleccionar un diseño de investigación. Este le permite
enfrentar de modo práctico y concreto las preguntas de investigación, y
cubrir los objetivos fijados.
El diseño es el plan o la estrategia concebida para obtener la
información que se desea. A través de él, será posible analizar la adecuación
de las hipótesis formuladas o aportar evidencia relevante para los fines de
la investigación. En un estudio llegan a plantearse o tener cabida uno o
más diseños.
Diseños Experimentales y Cuasi experimentales
En este caso el investigador manipula y controla las variables que
estudia, y de esta forma mide sus efectos. Este diseño representa una
situación de control en la cual se manipulan, de manera intencional, una
o más variables independientes (causas) para analizar las consecuencias
de tal manipulación sobre una o más variables dependientes (efectos).
En un experimento, la variable independiente resulta de interés para el
investigador, ya que hipotéticamente será una de las causas que producen
el efecto supuesto (Christensen, 2000). Aquí manipular es sinónimo de
hacer variar o asignar distintos valores a la variable independiente. Se
distinguen las siguientes variedades:

41
Antonio Lucas y Alejandro Noboa (eds.)

1. Experimento puro: Involucran un mayor control y manipulación


de las variables. Requieren un grado de sofisticación y precisión mayor. Su
nombre indica que es el clásico experimento donde manipulan las variables
con el propósito de confirmar o rechazar la existencia de relación causal
entre las variables. Exige manipular una o varias variables independientes,
medir el efecto de la variable independiente sobre la dependiente y controlar
la validez interna de la situación experimental.
2. Pre- experimentos: Tienen un control mínimo sobre las variables. Son
de dos modalidades: la primera es el pre-experimento en una sola medición,
en el que luego de la administración de un estímulo o tratamiento, se hace
una medición. La segunda es el diseño pre-prueba o post-prueba, en el que
www.fragua.es

se realiza una primera medición sin administrar estímulos, y posteriormente


se contrasta lo anterior con la medición posterior a la administración de un
estímulo o tratamiento.
3. Cuasi-experimental: En este caso se manipula deliberadamente
al menos una variable independiente para observar su efecto y relación
con una o más variables dependientes. Se emplean grupos formados
naturalmente (grupos intactos). Difieren de los experimentos puros en el
grado de seguridad o confiabilidad que pueda tenerse sobre la equivalencia
inicial de los grupos.
Diseños No Experimentales
Se define como aquella investigación que se realiza sin manipular ni
controlar deliberadamente las variables. Se observan los fenómenos tal
como se dan en su contexto natural, para después analizarlos. En este
diseño no se construye ninguna situación, sino que se observan situaciones
ya existentes, no provocadas intencionalmente por el investigador. Aquí
las variables independientes ocurren y no es posible manipularlas. No se
tiene control directo sobre dichas variables ni se puede influir en ellas. La
investigación no experimental se conoce también como investigación ex
post facto (los hechos y las variables ya ocurrieron), y observa variables y
relaciones entre éstas en su entorno natural.
Los diseños no experimentales se pueden clasificar en:
Transeccional o Transversal: Recolectan los datos en un solo
momento, en un tiempo único. Su propósito es describir variables y analizar
su incidencia e interrelación en un momento dado. Son más económicos y

42
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

fáciles de hacer, ya que estudian sólo un momento. Tienen una orientación


descriptiva y exploratoria, aunque hay estudios de este tipo que tienen un
enfoque de correlacionalidad y causalidad.
Longitudinal o Evolutiva: recolectan datos a través del tiempo
en puntos o períodos, para hacer inferencias respecto al cambio, sus
determinantes y consecuencias. Tales puntos o periodos por lo común
se especifican de antemano. Aquí se necesitan sucesivas observaciones.
Se repite la medición una, dos o cuatro veces si es necesario. Este tipo
de diseño es menos factible de realizarse en Ciencias Sociales, ya que
requieren más esfuerzos y recursos. Los diseños longitudinales pueden ser
de tendencia (se toma una muestra representativa y en esa muestra se hacen
www.fragua.es

mediciones sucesiva para ver cambios y tendencia en la opinión de las


personas), de evolución de grupo (cambios a través del tiempo en sub-
poblaciones o grupo. Le interesa establecer la evolución de un grupo en
base a una variable determinada) o de panel (la atención está puesta en los
sujetos que conforman el grupo, cómo varía la opinión de ese individuo
en particular).
La elección de un tipo de diseño u otro, depende más bien de los
propósitos de la investigación y de su alcance, del contexto que rodea la
investigación, los alcances del estudio a efectuar y las hipótesis formuladas.
La relación del diseño metodológico con las hipótesis
La investigación puede incorporar o no la formulación de hipótesis
para la investigación. Esto depende del alcance inicial del estudio, es decir,
si es exploratorio, descriptivo, correlacional o explicativo.
Como ya se indicó, las investigaciones cuantitativas se caracterizan
por la ambición de encontrar relaciones de causalidad, a partir de la
medición objetiva de la realidad estudiada. En cuanto a las hipótesis que
sirven de guía para estas investigaciones, constituyen el centro medular
de la aproximación cuantitativa. Por cierto, no todas las investigaciones
cuantitativas requieren plantear hipótesis, pero cuando ellas las formulan,
su alcance será correlacional o explicativo.
Precisamente, las hipótesis indican lo que tratamos de probar y se
definen como explicaciones tentativas del fenómeno investigado. De
hecho, son respuestas provisionales a las preguntas de investigación.

43
Antonio Lucas y Alejandro Noboa (eds.)

Características de las Hipótesis:


- Deben referirse a una situación social real. Hay hipótesis que se
formulan respecto de fenómenos en situaciones precisas, y hay otras que
tienen una nivel de generalidad que permite contrastarlas en un contexto
específico contribuyendo así a validar/refutar la hipótesis más general.
- Las variables de las hipótesis deben ser comprensibles, precisas y lo
más concretas que sea posible. No caben en ellas formulaciones vagas,
generales o confusas.
- Las hipótesis deben proponer relaciones claras y verosímiles entre las
www.fragua.es

variables, evitándose formulaciones que resulten evidentemente “ilógicas”.


- Las hipótesis deben constar de variables observables y medibles y
deben tener una clara referencia a la realidad.
- Las hipótesis deben estar relacionadas con técnicas disponibles para
probarlas, pues de no existir éstas no será posible verificarlas.
Un componente básico, que no puede dejarse de lado en cuanto
requisito de lo que constituye una “buena hipótesis”, es que esta debe poder
corroborarse o refutarse en la realidad. Una hipótesis que no admita la
posibilidad de ser probada (o rechazada) no es, realmente, una hipótesis
perteneciente al campo científico.
Las hipótesis contienen variables, que son propiedades cuya variación
es susceptible de ser medidas, observada o inferida. Las hipótesis de la
investigación surgen normalmente del planteamiento del problema y de
la revisión de la literatura, y algunas veces a partir de la teoría. Existe
una relación muy estrecha entre el planteamiento del problema, la revisión
bibliográfica y las hipótesis.
Al definir el alcance del estudio con el que se trabajará (exploratorio,
descriptivo, correlacional o explicativo), el investigador deberá decidir
si establece o no hipótesis de trabajo. Bajo cualquier enfoque, debemos
recordar que sólo en los estudios exploratorios no se establecen hipótesis.
En una investigación pueden formularse una o varias hipótesis de
distintos tipos y dentro del enfoque deductivo-cuantitativo, las hipótesis
se contrastan con la realidad para aceptarse o rechazarse en un contexto
determinado.

44
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

Al formular una hipótesis, es indispensable definir los términos o


variables incluidos en ella, para que cada persona que lea la investigación
le asigne el mismo significado a la variable trabajada. Además, de esta
forma aseguramos que las variables sean medidas, observadas y evaluadas.
También ayuda a confrontar cada investigación con otras similares, además
de evaluar adecuadamente los resultados de la investigación, dado que las
variables se contextualizan adecuadamente.
La definición conceptual señala en el nivel conceptual los rasgos
fundamentales constitutivos del objeto definido. Esta definición conceptual
requiere ser “traducida” a una definición operacional para poder observar,
medir y analizar en una situación específica el fenómeno que se quiere
www.fragua.es

estudiar. La investigación requiere de estas definiciones operacionales


para poder traducir en procedimientos específicos cómo llevará a cabo la
medición de las variables de interés.
Una definición operacional podrá ser evaluada de acuerdo a cuatro
criterios fundamentales: su adecuación al contexto de la investigación,
su capacidad de captar los componentes de la variable de interés, su
confiabilidad y su validez.
Si se quisiera por ejemplo, investigar la violencia escolar, seguramente
podría arriesgar las que parecen son las causas de dicho fenómeno. Este
ejercicio necesario para seguir avanzando es ni más ni menos que el planteo
de la o las hipótesis.
Cuando se enuncian hipótesis, se está suponiendo una “solución”
al problema planteado, por lo tanto se está hablando de supuestos no
verificados aún pero probables. Es importante ser cuidadosos y precisos en
el enunciado de las mismas pues de ellas se derivará:
- Las variables que se van a utilizar.
- La información que se van a recoger.
- Los datos de interés para el estudio
Como guía para detectar si se están planteando bien las hipótesis, se
puede tomar en cuenta que las mismas deben cumplir con tres condiciones:
ser operativas, fidedignas y válidas.
Son operativas cuando al leer sus enunciados todos entienden lo mismo,
se sabe a qué se están refiriendo y no hay lugar a equívocos conceptuales.

45
Antonio Lucas y Alejandro Noboa (eds.)

Los conceptos a utilizar en una hipótesis, deben ser cuidadosamente


seleccionados. Es necesario que ya en la redacción del estado de la cuestión
y el marco teórico a utilizar queden claros los significados de los principales
conceptos que se van a utilizar a lo largo de la investigación. El concepto
debe ser precisamente definido pero además es necesario que tenga un
correlato operacional. Tiene que existir la posibilidad de encontrar una
existencia empírica, medible del mismo. En este sentido pueden surgir
dos tipos de inconvenientes. Por un lado pueden existir incongruencias
entre lo conceptual y lo operacional, siendo que lo segundo puede no estar
contemplando todos los aspectos de lo primero. Por el otro, pueden haber
conceptos que directamente no puedan ser operacionalizados (por ejemplo
el “interés público” o el “ego”).
www.fragua.es

Son fidedignas cuando tenemos la certeza de que independientemente


de quien las trabaje, se obtendrán los mismos resultados.
Son válidas cuando realmente nos ayudan a encontrar los datos y la
información necesaria para la investigación.
De estas condiciones previas se deriva necesariamente que:
- Deben ser claras y comprensibles.
- Deben hacer referencia a la realidad empírica, no a conceptos, por
ejemplo, morales o trascendentes.
- Deben poder verificarse mediante técnicas accesibles.
- Deben tener una conexión lógica con la teoría precedente.
- Deben tener un cierto alcance general en la medida de lo posible.
Cuando se plantean hipótesis en una investigación, en general es
recomendable enunciar una o a lo sumo dos de nivel más abstracto o
“generales” y varias subhipótesis o hipótesis de trabajo o hipótesis específicas.
Estas últimas requieren de un mayor nivel de operatividad, es decir, deben
remitir más cercanamente a una posible evidencia empírica. De la resolución
de estas hipótesis dependerá el éxito de la general o generales.
Un ejemplo: Si se plantea como hipótesis general “en el colegio ‘x’ se
trabaja en un clima de alta insatisfacción laboral”, se está planteando algo
claro pero que se debe bajar a algo más concreto a través de hipótesis de

46
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

trabajo. Es decir, será muy atinado plantear en este caso, entre otros: “en
el colegio ‘x’ existe gran ausentismo laboral”. Aquí ya se refiere a algo bien
concreto pues se toman los listados de presentismo y es posible registrar
claramente cuánto hay de cierto en dicha afirmación. Por supuesto que
para confirmar la hipótesis general del ejemplo, tendría que avanzar en
otros aspectos del fenómeno, en otras hipótesis de trabajo. Cabe aclarar
que éstas pueden ir modificándose a lo largo de la investigación según vaya
avanzando y según los resultados que se vayan obteniendo.
En ciencias sociales no es un fracaso que se termine demostrando que
la hipótesis general es falsa pues esta situación puede estar planteando la
confirmación de que alguna idea o ideas arraigadas en el mi área de saber
www.fragua.es

en realidad no están tan claras.


Otros componentes del diseño
Definición del universo
Esta labor implica establecer la población en estudio, o la población a
la cual se aplicarán las conclusiones o resultados de la investigación. Puede
ser un país, o varios, un área geográfica o administrativa, un grupo de
personas, una institución, o algunas de ellas, etc.
Unidades de observación o de análisis
Precisar las unidades de análisis. Para realizar el estudio es preciso
determinar cuál será la unidad básica que se usará para realizar las
observaciones: individuos, familias, viviendas, salas de clase, país, fichas, etc.
Diseño de la muestra
Cuando el investigador no tiene intenciones de hacer observaciones
para cada una de las unidades que componen el Universo, en su totalidad,
habrá que abarcar sólo una parte. Para ello es preciso determinar en qué
condiciones, dónde se buscará la información y con qué criterio.
Instrumentos de recolección de datos
En función de los propósitos de la investigación y de las unidades de
análisis, y de la muestra, se establece que tipo de instrumento se utilizara
para recoger los datos: cuestionarios, observaciones, entrevistas, etc.

47
Antonio Lucas y Alejandro Noboa (eds.)

Los instrumentos tendrán que dar garantía de seguridad de que la


información no se distorsiona. El personal que recoja la información debe
estar interiorizado de los objetivos de la investigación, y estar entrenado en
la aplicación de los instrumentos.
Tiempo
Determinar si se han de recoger las observaciones en un solo momento
o en varios. Es importante tener claridad si las observaciones serán sobre
hechos pasados, presentes o acontecimientos que se seguirán con el
transcurso del tiempo.
www.fragua.es

Tabulación de datos
Establecer cómo se registraran las observaciones y cómo manejarlas
para hacerlas susceptible de un análisis posterior.
Métodos y técnicas de análisis de datos
Anticipar la forma como se someterán a prueba las proposiciones. En
el capítulo de análisis se verán las diferentes posibilidades que existen para
la manipulación adecuada de los datos a efectos de comprobar las hipótesis
planteadas y obtener conclusiones válidas.
Programación de la investigación
Consiste en poner sobre un documento todos los extremos antes
explicados, los fundamentos, el marco teórico, las hipótesis principales y
la estrategia que se va a seguir en la investigación con enunciación de las
técnicas de recogida y de análisis de los datos.
El conjunto de actividades que se describieron más arriba necesitan ser
ponderadas en términos de tiempo. Para ello hay que hacer una estimación
de los límites temporales del proceso de investigación: desde cuándo hasta
cuándo. Fijados los límites hay que establecer la unidad de medición del
tiempo: semanas, meses, etc.. Una vez clarificados los grandes pasos de la
investigación y sus actividades principales, las posibilidades y los límites
de tiempo que se disponen realmente, y la unidad de tiempo con la que
se va a medir, podremos elaborar un cuadro de programación de este tipo
(Diagrama de Gantt):

48
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

Cuadro 1.4. Ejemplo de programación de la investigación


ACTIVIDADES PRIMER SEMESTRE SEGUNDO SEMESTRE

MesesM eses

12 34 12 34

1.- Problema y Proyecto x x

2.- Marco Contextual x x


www.fragua.es

3.- Marco Teórico x x x

4.- Metodología: Recolección de información xx

5.- Análisis de información x x

6.- Elaboración de Informe x

6. Elaboración de Informe
El informe de investigación
Una investigación no está completa hasta que sus resultados no se
sintetizan en un informe.
Por último la presentación de los resultados, hallazgos obtenidos,
cómo se han obtenido y su trascendencia (implicaciones) es fundamental
para los posibles impactos de la investigación. Toda investigación culmina
con un informe detallado de los resultados de la misma.
Justificación, marco teórico e hipótesis, metodología y técnicas,
discusión de los resultados y conclusiones del estudio es fundamental para
darle el colofón final a todo trabajo de investigación y por supuesto su
presentación a la comunidad a efectos de validar socialmente los hallazgos
obtenidos.

49
Antonio Lucas y Alejandro Noboa (eds.)

Bibliografía

Bachelard, G. (2004). La formación del espíritu científico. México: Siglo


XXI.

Bunge, M. (2000). La investigación científica. Buenos Aires: Siglo XXI.

Giroux, S. y Tremblay, G. (2004). Metodología de las ciencias hu-


manas. México: FCE.

Hernández, R., Fernández, C. y Batista, L. (2006). Metodología de la


investigación. México: McGraw Hill.
www.fragua.es

Popper, K. (2002). The Logic of Scientific Discovery. Londres: Routledge


Classics.

Kerlinger, F. (1975). Investigación del comportamiento: técnicas y


metodología. México: Interamericana.

Khun, T. S. (1975). La estructura de las revoluciones científicas. México:


FCE.

Mills, C. W. (1970). La imaginación sociológica. México: FCE.

Pardinas, F. (1998). Metodología y técnicas de investigación en Ciencias


Sociales. México: Siglo XXI.

Sierra Bravo, R. (1976). Técnicas de investigación en Ciencias Sociales.


Buenos Aires: Paraninfo.

Wallace, W. (1976). La lógica de la ciencia en sociología. Madrid:


Alianza Editorial.

50
Capítulo 2

LA SOCIOLOGÍA
Y EL CONOCIMIENTO DE LO SOCIAL
www.fragua.es

Alejandro Piscitelli
Universidad Católica de Argentina
Sergio Contreras
Universidad Central de Chile
Antonio Lucas Marín
Universidad Complutense de Madrid

ÍNDICE
1. Investigar las Ciencias Sociales
2. Un objeto históricamente determinado
3. El punto de vista sociológico
4. El método sociológico
5. Límites, perspectivas y tendencias de la investigación y medición social
6. Otros componentes de la Ciencia Sociológica

51
Antonio Lucas y Alejandro Noboa (eds.)

Introducción

Se parte del hecho de que todas las ciencias tienen un camino en común
que es la metodología. Sin embargo, es necesario y hasta obvio agregar que
en muchos otros aspectos, existe una marcada diferencia entre las ciencias
naturales y las ciencias sociales. Desde el punto de vista histórico, si bien no
se va a profundizar este tema, las primeras tuvieron una mayor trayectoria
lo que provocó, que el surgimiento de las segundas tímidamente hacia
fines del siglo XVIII en Europa, se diera cuando ya las primeras tenían una
probada trayectoria de muchísimos años.
www.fragua.es

Por lo que fue así, que las ciencias sociales, en sus primeros pasos,
estuvieron tan “pegadas” y dependientes de las naturales intentando de
manera mecánica copiar sus propias prácticas. Poco a poco esta dependencia
fue desapareciendo, sobre todo a partir de una toma de conciencia creciente
de que el objeto de estudio de unas y otras eran cualitativamente diferentes.
Con el paso de los años y la creciente incorporación de las ciencias sociales a
ámbitos universitarios, éstas fueron llegando a la mayoría de edad.

¿Cuáles son concretamente las particularidades de las ciencias sociales


que producen diferencias metodológicas? Se podrían sintetizar en los
siguientes ítems:

- El ser humano es el único “objeto de estudio”, capaz de modificar su


conducta a partir de la realización de investigaciones sobre su persona; los
propios resultados pueden generar cambios de conductas. Si bien es sabido
que en las ciencias “duras” también los objetos de estudio son modificados
mediante la investigación, nunca se llega en estos casos, a la magnitud
cuantitativa y cualitativa de los primeros. En síntesis, el acto de investigar
influye y modifica, como también la publicación de resultados influye y
modifica.

- Lo que se ve en los fenómenos sociales, lo más fácilmente percibible,


no necesariamente es lo más importante para explicar un problema a ser
resuelto (Lucas, 2004). Muchos aspectos de la realidad humana no salen
tan fácilmente a la luz.

52
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

- Las posibilidades de experimentación son muy limitadas por


la cantidad de variables que deben ser controladas. En cada fenómeno
analizado existen infinitos factores intervinientes que deben ser trabajados
con muchísimo cuidado.

- Las creencias, valores, intereses, etc. del investigador no pueden


desaparecer durante la investigación, si bien pueden ser controlados
suficientemente. Es imposible la ciencia objetiva pura en cualquier tipo
de ciencia que sea. El solo hecho de elegir un tema y no otro, implica un
accionar subjetivo inevitable. Sin embargo es posible desarrollar las ciencias
sociales “a pesar de” los valores del investigador, como incorporando esos
www.fragua.es

valores al trabajo. Y aquí está uno de los primeros desafíos de aquel que
realiza investigaciones: analizar la realidad rigurosamente más allá de que
le agrade o no.

- Las formas de relacionarse los objetos de estudio en la naturaleza


son de una causalidad mecánica. En las relaciones humanas en cambio
encontramos valores e intencionalidades.

- Las ciencias naturales se explican y se observan “desde el exterior”,


las sociales se explican y observan “desde el interior”.

En definitiva, las particularidades que implican estudiar el accionar


del ser humano, ¿invalida la legitimidad de los resultados que puedan
obtenerse? Definitivamente no. El investigar en ciencias sociales, es una
actividad que indudablemente está condicionada por el ambiente cultural
en el cual se realiza y por la subjetividad del que la realiza, y esto no se
puede desconocer.

1. Investigar las Ciencias Sociales

Cuando el investigador se ve enfrentado a la posibilidad de realizar


una investigación, que se pretende sea “científica” es muy común, sobre
todo cuando aún se carece de experiencia, que aparezcan una serie de
dificultades (previas a las metodológicas propiamente dichas) que se podría
denominar intra-personales.

53
Antonio Lucas y Alejandro Noboa (eds.)

En primer lugar, hay que hablar de la tendencia que puede existir,


a repetir en los trabajos sociológicos muchas apreciaciones e ideas no
debidamente fundamentadas pero que por el sólo hecho de verse publicadas
o transmitidas una y otra vez, en reuniones libros e incluso medios de
comunicación, se termina dándolas por válidas.

En segundo lugar, ocurre algo similar con personajes que poseen un cierto
prestigio mediático e incluso académico. Todo lo que expresan, sea de su
especialidad o no, es tomado como verdad revelada e indiscutible sin estar sujeto
a ningún tipo de evaluación de calidad científica. Esto conduce en general, a
dos males que dañan la investigación: el primero es el “dogmatismo” que torna
www.fragua.es

afirmaciones endebles en irrebatibles. El segundo es el “estereotipo” que lleva a


imágenes arraigadas no comprobadas, a generalizaciones sin sustento (Pardinas,
1998).

En tercer lugar, se puede ser víctima del propio etnocentrismo


cotidiano que se verá reflejado también en esta actividad de investigación.
Por etnocentrismo se entiende, el considerar a la propia cultura en la que se
vive como la mejor, la ideal, la normal… Y a partir de allí juzgar a las demás
culturas como de menor o mayor calidad, en tanto y en cuanto se alejen o se
acerquen a la propia. ¿Cómo puede esto influir en una investigación? Ciertos
temas son vistos en la cultura a la que se pertenece con una óptica sesgada
dejando de lado visiones alternativas y empobreciendo inevitablemente el
análisis. Es posible partir de supuestos que en realidad son formas de ser,
hacer y pensar, sólo propias del ambiente en el que se mueve pero no son
ni las únicas ni mucho menos las mejores.

Esto que puede ocurrir a nivel subjetivo, también puede producirse


desde el punto de vista de la propia disciplina. Se entra entonces, en la
cuarta dificultad llamada en este caso el “especialísimo”. Sería como una
suerte de etnocentrismo de nuestra ciencia: intentar explicar toda realidad
que se investiga a la luz, estrictamente, de disciplina propia. Así por ejemplo
para un especialista en comunicación, todos los conflictos cotidianos y
estructurales de la sociedad serán “un problema de comunicación”, o para
un economista todas las conductas sociales, incluso el delito, podrán ser
explicadas a la luz del esquema “costo-beneficio” que tendría incorporado
cada individuo en su toma de decisiones.

54
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

Las dificultades metodológicas propiamente dichas se irán presentando


a lo largo de la investigación. Sin embargo es conveniente detenerse ahora
en una de las primeras de este tipo y quizás la más importante: la elección
del tema a investigar.

Cuando se comienza con este proceso, aparece en primer lugar un


área de la realidad que interesa: la pobreza o la opinión pública, por
ejemplo. Dentro de esos temas existe seguramente alguna cuestión que
provoca interrogantes, o que llama la atención. El desafío, será plasmar
esos interrogantes en un problema de carácter científico, lo cual es una
de las operaciones más complejas del proceso de investigar aunque no lo
www.fragua.es

parezca a priori. Se habla de problema, no en el sentido vulgar del término


como algo negativo, sino en cuanto una cuestión a tratar, para conocerla
en la mayor profundidad posible.

¿Qué estrategias concretas se puede utilizar para definir bien un


problema científico? Una vez que se define el área temática en la cual se
pondrá la atención, es recomendable, sencillamente, ponerse a escribir en
un papel todas las preguntas que nos surgen a partir de él, y que se comience
a recolectar y a leer toda la información previa que exista al respecto.

Cuadro 2.1 Cómo pregunta un sociólogo

Desde los años ochenta las


chicas han logrado mejores
Pregunta factual ¿Qué ocurrió? calificaciones que los chicos
en los colegios.
¿Fue éste un fenómeno
mundial? ¿Sólo ocurre en
Pregunta Comparativa ¿Ocurrió en todas partes? Gran Bretaña o sólo en ciertas
regiones de éste país?
A lo largo del tiempo ¿cuáles
¿Ha venido ocurriendo
Pregunta progresiva han sido las pautas de éxito
desde hace tiempo? escolar de las chicas?
¿Por qué los resultados de
¿Qué subyace en el las chicas son mejores ahora?
Pregunta teórica fenómeno? ¿Qué factores hay que barajar
para explicar este cambio?
(Giddens, A. 2006:94)

55
Antonio Lucas y Alejandro Noboa (eds.)

También puede ser de gran utilidad, el plantear uno o dos objetivos


generales para la realización de la investigación y algunos objetivos
específicos, siempre considerando que éstos deben tener una coherencia
lógica con los primeros. Concretamente: el cumplimiento de los objetivos
específicos, debe ser condición necesaria para que se cumpla él o los
objetivos generales. Igualmente aquellos se agotarán conjuntamente con
la realización del proyecto, en tanto estos no, sino que el proyecto será una
contribución a su logro.
www.fragua.es

2. Un objeto históricamente determinado

Respecto al objeto de la Sociología, es fácil determinar, si se sigue en


profundidad la trayectoria histórica, una progresiva delimitación analítica
del punto sobre el que se va centrando la atención, que si en Comte es
prioritariamente la Humanidad y su evolución, aunque también algunas
de las instituciones sociales, posteriormente con Marx se centraría en las
relaciones sociales, y finalmente con Max Weber quedaría reducido al acto
social. La búsqueda de autonomía sociológica, intentada por Durkheim,
dándole a nuestra disciplina el estudio específico de los hechos sociales.
Asimismo incluir el cada vez más recurrente punto de vista analítico, de
búsqueda de lo “micro” para dar su propia entidad a lo “macro”.

Cuando algunos se refieren a la época de Durkheim y Weber como


la “Edad de oro” de la Sociología, puede entenderse esta apreciación en
el sentido de que se precisa definitivamente su objeto, que en adelante
quedará reducido a: la sociedad, las instituciones, las relaciones sociales y los
actos sociales. No hay noticias de que en este aspecto la especulación social
contemporánea haya añadido nada nuevo.

Parece acertada esta progresión de objetos de estudio de la Sociología,


que en su sentido lógico podrá edificarse partiendo del acto social como
elemento mínimo de la sociabilidad. En efecto, buscando el objeto de
estudio más elemental de los señalados como propios de nuestra disciplina,
llegaríamos a la noción de acto social. Lo más sencillo y propio de lo que
se puede procurar un sociólogo es del estudio del acto social: acción con

56
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

significación subjetiva orientada hacia otros. Su base, en este concepto es


lo que le da todavía actualidad y universalidad a la ya clásica definición
de Max Weber de Sociología en su libro Economía y Sociedad, como
“ciencia que pretende entender e interpretar la acción social para dar una
explicación causal de sus efectos” (Weber, 1969: 5).

Los actos sociales, al agruparse por necesidades derivadas de la actividad


ordinaria dan lugar a relaciones sociales, en la medida que varios actores
orientan sus acciones recíprocamente, las cuales tienen una entidad real y
clara en la vida de los individuos y la sociedad. Las relaciones sociales son
como las “moléculas” de la vida social. Y su primer e inmediato análisis
www.fragua.es

se hará siempre sobre una interconexión de relaciones, pero se debe tener


en cuenta que hay una unidad de análisis más pequeña: el acto social, que
siguiendo este símil de la física nuclear sería como el átomo de la vida
social. En cualquier caso, estas relaciones sociales son objeto directo de la
Sociología, y para algunos como Simmel, Parsons o Touraine, son el único
objeto esencial.

Siguiendo esta amplitud progresiva del objeto de la Sociología, nos


encontramos con las instituciones, que no son más que complejos sistemas
de relaciones sociales. Así, por ejemplo, un conjunto de actos sociales entre
una persona y su progenitor dan lugar a una relación social que por lo que
a la Sociología le interesa, puede ser llamada filiación, y un conjunto de
relaciones complementarias o afines podrán cristalizar en el mismo plano
no ético en una institución como la familia. De esta manera llegamos,
finalmente, a la sociedad, que no es más que un complejo sistema de
instituciones, en una magma de relaciones y actos sociales.

Pero todos estos objetos no se pueden entender como elementos aislados


de la totalidad, sino formando un sistema, en una relación dinámica. Los
actos sociales, las relaciones sociales, las instituciones sociales y la sociedad
son el objeto específico de la Sociología, pero no existen per se, por eso
lo que ésta estudia, son los sistemas de acción social y las interrelaciones
de éstos, como nos recuerda Inkeles y ya estaba implícito en la definición
de Weber (Inkeles, 1972: 33). Es decir, hay que ver los actos sociales,
las relaciones, las instituciones y la misma sociedad a partir de un cierto
modo de intervención de una colectividad sobre sí misma. Se está, pues,

57
Antonio Lucas y Alejandro Noboa (eds.)

recalando en el necesario riesgo de confusión, ya apuntado en las ciencias


sociales, entre objeto y método.

En el ambiente de la búsqueda de lo sistémico, y por tanto de lo dialéctico,


con clara influencia de Marx, hay que entender la exclusiva referencia de
Touraine, a las relaciones sociales como objeto de la Sociología, para evitar
que pueda pensarse en el sociólogo como estudioso de «cosas» que están
ahí, esperando ser interpretadas, como podría ocurrir en las ciencias físicas.
De ahí, que si el objeto de la Sociología no es la sociedad, lo es menos unos
pedazos de sociedad: la política, la religión, la familia, el trabajo, la ciudad y
todas las abstracciones de las que tiene necesidad la práctica social. De esta
www.fragua.es

manera, se insiste en que el objeto de la Sociología no es una “cosa” sino


“algo” que está en continua operación.

No parece necesario reducir el objeto de la Sociología sólo a las


“relaciones sociales” (Touraine, 1980: 33), como hace Touraine, para evitar
la cosificación, pues en la definición que se hizo de “acto social” hay esta
referencia implícita a otros actos sociales y a la colectividad, y por tanto
también en todos los conceptos progresivamente edificados sobre él. En
cualquier caso, sí debe insistirse en que no es suficiente con la “comprensión
pasiva”, sino que es necesario considerar los objetos estudiados en un
momento de la “dialéctica social”.

De esta manera, hablando del objeto de la Sociología y para su


comprensión real, se ha abordado un aspecto metodológico que parece
fundamental en esta disciplina, la dialéctica social. En efecto, se hace
necesario destacar la relación dinámica o dialéctica continua, existente
entre el hombre, productor del mundo social, y su producto. Lo que lleva
a distinguir tres momentos dialécticos de la realidad social ya señalados por
Berger y Luckmann: la sociedad es un producto humano; la sociedad es
una realidad objetiva, y el hombre es un producto social. De esta manera
el hombre y la estructura social interactúan, pero el producto vuelve a
actuar sobre el productor, de manera que se pierde la visión de productor y
producido. Es decir, hay una continua tensión dialéctica entre el hombre
y la sociedad, e igual ocurre con muchos aspectos de su vida por ejemplo
con el conocimiento que es un producto social y un factor de cambio social
(Berger y Luckmann, 1978: 83 y 84)

58
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

Conviene señalar que este aspecto “dialéctico” de la sociedad,


ciertamente marginado en la corriente central de la Sociología académica,
pero mantenido como elemento esencial en algunos planteamientos
radicales, está siendo objeto de creciente atención en nuestra disciplina.

3. El punto de vista sociológico

Después de las consideraciones hechas sobre el objeto, se vuelve al


camino marcado por Inkeles para comprender el concepto de la disciplina,
refiriéndola a la nomenclatura. Su importancia está, en que proporciona los
www.fragua.es

elementos intelectuales de investigación y los conocimientos acumulados,


de hecho señala el enfoque propio de la Sociología; su conocimiento
procede del estudio de las teorías de los diferentes sociólogos, por esto
tiene interés seguir la trayectoria histórica de la disciplina.

Sin embargo, como es imposible abordar la tarea de unificar las diferentes


nomenclaturas utilizadas históricamente, se intentará la vía conceptual,
delimitando cuatro grandes temas que parecen indicar el trasfondo en el
que se resume el enfoque persistente de la Sociología. Son estos puntos: la
consideración de la tarea del sociólogo como científico; la idea de progreso;
la influencia de la estructura social, y la valoración de la libertad.

La consideración del carácter científico de la Sociología, manifestada


inicialmente en el positivismo de Saint-Simón, de Comte y de Spencer, y
claramente expresada en Durkheim y Weber, es generalizada. Lo que es
posible integrar de Marx en nuestra disciplina es lo que va más directamente
al estudio de las relaciones sociales “al modo de los economistas”, es decir,
en su deseo de hacer ciencia. También los sociólogos contemporáneos al
someter a crítica al positivismo y al intentar hacer un humanismo no dejan
de mantener el prurito científico. Sin embargo, la disputa del positivismo,
tan enraizada en la tradición alemana -que se verá a continuación al referirnos
al método en Sociología- ha señalado progresivamente las características
específicas del objeto que hace necesaria una demarcación de las ciencias
sociales.

59
Antonio Lucas y Alejandro Noboa (eds.)

Respecto a la idea de progreso, es posible afirmar que su utilización es


evidente, desde luego, en los fundadores de la Sociología, como herencia de
los ilustrados, según ya se analizó. Y esto es así tanto en la línea central de
Comte y Spencer, como en las derivaciones de Tocqueville y Marx, hasta
el punto de poder señalarse en todos estos iniciadores de la Sociología un
enfoque finalista de sus teorías sociales. Quizás en Durkheim se encuentran
amortiguados estos planteamientos, con una visión progresista y sólo
un optimismo moderado. Sin embargo, el fatalismo implícito en Weber
supone una cierta ruptura. Con todo, en el funcionalismo americano está,
desde luego, presente la idea de progreso, y también en la mayoría de sus
críticos en la medida en que se evidencian las ideas marxistas.
www.fragua.es

Como tercer punto de vista persistente de la Sociología, hay que señalar


que se destaca siempre la influencia de la estructura social. Desde el mismo
inicio, con Saint-Simón y Comte, se ha tendido en esta disciplina a dar
una primacía a lo social sobre lo individual. Esto ha hecho, también, que
se tache con frecuencia a Durkheim de sociologista, por parecer que había
en sus teorías, como en las de Max Weber, un acento marcado sobre la
globalidad del fenómeno social. En efecto, después de los clásicos, aparece
en toda su nitidez la globalidad de lo social, al igual que su composición
mediante la acción social y su manifestación en instituciones como la
burocracia o en procesos como el de estratificación, sean éstos manifiestos
o latentes. Y es indudable que en autores más modernos, como en Boudon,
en Wright Mills, como en los etnometodólogos, al igual que en los clásicos,
los conceptos de estructura social y libertad del individuo aparecen siempre
unidos en la búsqueda del conocimiento complejo, subterráneo y oculto.
El sociólogo pone siempre de manifiesto la estructura social como elemento
necesario para interpretar la realidad, en especial en sus referencias al poder
(Boudon, 1982: 38; Mills, 1979: 148-153).

Finalmente, en el enfoque sociológico hay también una persistente


valoración de la libertad, de búsqueda de un nuevo humanismo. Este
planteamiento liberador, que según Comte llegaría mediante la ciencia, y
abocó en su caso en un curioso reformismo pseudo-religioso, igualmente
ha estado presente en el reformismo moral que subyace en las teorías de
Durkheim y en el compromiso weberiano con la ciencia social libre de
valores. En definitiva, la Sociología conlleva un cierto matiz reformista de la

60
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

vida social, es una disciplina científica y humanística, de liberación; aspecto


tan deseado por la Sociología académica, como por los etnometodólogos
o los sociólogos críticos en la consideración de que el conocimiento por
parte de las sociedades de sus actos sociales y de su propia historicidad es
un instrumento de innovación y libertad (Touraine, 1980: 75).

Cuadro 2.2. La imaginación sociológica de Wright Mills


www.fragua.es

(Macionis, J. J. Y Plummer, K., 2001: 15)

61
Antonio Lucas y Alejandro Noboa (eds.)

Como resumen de todo lo dicho, se puede ver que la Sociología estudia


los sistemas de acción social, entendidos en un proceso de dialéctica social
y en una tradición científica y progresista, que intenta conocer tanto la
influencia de la estructura social como una valoración persistente de la
libertad.

4. El método sociológico

Finalmente, para situar adecuadamente el sentido que tiene la Sociología,


como disciplina científica, no es necesario recordar que no es suficiente con
www.fragua.es

señalar su objeto o materia de estudio; es necesario entrar también en sus


planteamientos epistemológicos, es decir, en la doctrina acumulada sobre
los fundamentos del tipo de conocimiento que la caracteriza. En efecto,
el objeto y la forma de conocer el objeto, perfilan ya adecuadamente el
contenido de una disciplina, sin que ambos temas puedan tratarse realmente
en este caso de manera absolutamente independiente.

La Sociología es una ciencia por ser conocimiento racional y objetivo


del hombre como ser social y de la sociedad. El saber científico se aleja
de la irracionalidad y del subjetivismo, pero lo mismo se puede decir que
intenta el sentido común. Sin embargo la ciencia pretende ir más lejos en su
búsqueda que el conocimiento común, del que se diferencia por la forma o
procedimiento de acercarse al objeto de su investigación. En definitiva, no es
el tema lo que diferencia la ciencia y el sentido común, puesto que un mismo
objeto puede ser o no considerado de modo científico. La peculiaridad de
la ciencia tiene que consistir, en el modo como opera para alcanzar objetivos
determinados, o sea, en el método científico y en la finalidad para la cual
se aplica dicho método. En este sentido se ha llegado a afirmar que en
la ciencia “los resultados de las investigaciones nunca son mejores que los
métodos mediante los cuales se los obtuvo”.

En cualquier caso, no se puede olvidar que los métodos sólo constituyen


un requisito o ayuda para la investigación científica, pero nunca su fin.
El científico social no es básicamente un metodólogo. La metodología
sociológica debe suponer una reflexión crítica sobre los instrumentos

62
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

empleados en esta disciplina, esta es su función positiva (Boudon y otros,


1981: 83). Pero es necesario un equilibrio en la preocupación por el “cómo”
sin olvidar el “qué” y el “para qué”. En definitiva, no debe perderse nunca
de vista la necesidad de concretar explícitamente nuestro conocimiento
con elaboraciones teóricas, más allá de los procedimientos seguidos.

Por otra parte, la sujeción a la disciplina del método tiene también en la


ciencia social un carácter positivo, al permitir arbitrar unos procedimientos
de avance del conocimiento al margen, en buena parte, de la capacidad
genial del investigador (Nisbet, 1975: 388).
www.fragua.es

Los dos problemas epistemológicos, que parecen están más de


actualidad y que en cierta manera pueden servir para precisar el sentido
presente de la lógica de la investigación, son: el de la demarcación de la
ciencia social, planteado en la inconclusa “disputa con el positivismo”;
y el de la determinación del proceso que debe seguirse en el trabajo de
investigación en las ciencias sociales.

Se va a referir, en esta breve digresión, sólo al primero, con más interés


teórico, pues lo referente al proceso de investigación se relaciona con la
postura adoptada en la anterior polémica, y se concreta en unas técnicas
sobre las que la experiencia de los investigadores ha ido acumulándose. La
cuestión se va a centrar, por tanto, en la “disputa con el positivismo”.

El “problema de los valores”, como manifestación práctica de la ya


clásica “disputa con el positivismo”, sitúa perfectamente el problema:
que es a nivel de la relación entre el sujeto y el objeto del conocimiento
sociológico. En efecto, al estudiar los actos sociales o las relaciones sociales
no se puede olvidar que el mismo hombre es “zoom politikon” (viviente
social) y posee, además, un cierto conocimiento intuitivo del fenómeno que
estudia. Es decir, el hombre observa los fenómenos sociales, al igual que
los naturales, y los experimenta íntimamente. Pero la relación sociólogo-
ser social es diferente de la del físico-ser físico, pues el científico social se
encuentra con una capacidad de cambio en el tipo de relación, que es
impensable en el científico natural.

63
Antonio Lucas y Alejandro Noboa (eds.)

Una vez situado el problema, siguiendo con el ambiente intelectual


que se ha estudiado en otro momento, parece hoy indudable que es en
Max Weber donde el planteamiento epistemológico de las ciencias sociales
encuentra su cenit. En primer lugar, por la singularidad de sus aportaciones
teóricas generales, especialmente la construcción de «tipos ideales», que
remarca el carácter lógico original de los conceptos utilizados en Sociología,
y la utilización de la «homología estructural», que es capaz de señalar el
paralelismo entre aspectos tan diversos de la conducta humana como el
comportamiento del empresario capitalista y la mentalidad puritana, por
ejemplo. Pero sobre todo, Max Weber recoge directamente en nuestro
campo la polémica metodológica de toda la cultura alemana del siglo
www.fragua.es

XIX y da una solución sintética. Por una parte, Weber sigue fielmente la
distinción de Dilthey de “comprensión” y “explicación”, pero se separa de
sus interpretaciones al acercarse a las tesis de Rickert, pues en Max Weber
“las ciencias histórico-sociales no se distinguen por tener como objeto
el espíritu antes que la naturaleza, o bien porque procedan mediante la
comprensión interna del significado de cierto fenómeno antes que mediante
su explicación causal. Lo que distingue al conocimiento sociológico del de
la ciencia natural es su particular estructura lógica, es decir, la orientación
hacia la individualidad... no la comprensión como procedimiento
psicológico, sino el modo en que ella encuentra verificación empírica y se
traduce en una forma específica de explicación causal” (Weber, 1973: 18).

Weber, al igual que Dilthey, aunque más explícitamente, no intenta


oponer las nociones de explicación y comprensión; todo lo contrario,
en diversas ocasiones asoció ambas palabras para definir un mismo
procedimiento, el de la “explicación comprensiva” o de la “comprensión
explicativa”. Si Weber intentó desarrollar una “Sociología comprensiva”
no lo hizo como disciplina en competencia con la Sociología explicativa,
sino a título complementario. Más exactamente, la Sociología debe ser al
mismo tiempo explicativa y comprensiva para responder a la plenitud de su
vocación científica. De su misma definición de Sociología, como ciencia
que pretende entender e interpretar la acción social para de esa manera
explicarla causalmente en su desarrollo y efectos (Weber, 1969: 5; Beltrán,
1979: 380), y de sus explicaciones consiguientes, es fácil deducir el intento
de síntesis de las ideas de Weber.

64
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

De esta manera, en Weber “Verstehen” y “Erklären” no se oponen;


la “comprensión” no sustituye a la “explicación”, sino que, gracias a la
relación particular entre el observador y lo observado, se explicitan ciertas
particularidades del proceso explicativo en las ciencias sociales. El propósito
intelectivo de la metodología weberiana sería así, el de la explicación,
completada y hecha posible por la comprensión del sentido de la acción.

La insistencia de Weber en la explicación causal, hace que se diferencien


claramente de los tradicionales planteamientos historicistas alemanes. En
efecto, la posición de Weber se resume en la idea de que la explicación
sociológica ha de ser causalmente adecuada en términos de significación.
www.fragua.es

La mejor ilustración de ello es su estudio sobre las relaciones entre el


protestantismo y el capitalismo: es una explicación causal histórica del
desarrollo del capitalismo occidental. Al mismo tiempo, Weber presenta
la explicación de tal manera que permita “comprender” la afinidad entre la
ética protestante y el credo económico del empresario capitalista. Pero la
metodología weberiana no puede ser en ningún caso tachada de positivista,
por su apertura al multicausalismo y a la comprensión individual. Se está
más bien, ante un intento de estudiar los fenómenos sociales en su vertiente
histórica y con sus componentes subjetivos, por utilizar como vía de acceso
la comprensión del investigador.

A pesar de todo, y aun reconociendo el gran valor del intento sintético


de Weber, hay que tener en cuenta que la Sociología, en su finalidad de hacer
más inteligible la realidad social, no ha resuelto sus dudas de identidad y no
ha podido apoyarse en una clara solución de sus problemas epistemológicos.
Hay un “impasse” en el dilema comprensión-explicación al que teóricamente
se han propuesto tres soluciones: la primera, nos lleva a la consideración de
la comprensión como un paso en el proceso de investigación; la segunda,
subraya la explicación y termina en los planteamientos cientifistas; y la
tercera, el insistir en la comprensión, aboca en la confusión entre teoría y
praxis.

La primera de estas soluciones, eminentemente práctica, no entra en


realidad en el problema del método, procurando aprovechar lo aplicable
de las otras dos posturas intelectuales, que nos definen, por tanto, las dos
posiciones extremas básicas de la metodología sociológica; por un parte está

65
Antonio Lucas y Alejandro Noboa (eds.)

la Sociología positivista, empírica, en su intento de hacer una ciencia libre


de valores, con su insistencia en el carácter unitario del método científico,
aplicable a cualquier objeto digno de estudio, y con su preocupación por
el dato, por el fenómeno (Bunge, 1982: 33 y 34). Por otra, la Sociología
crítica, en su intento de superación del positivismo, que en su radical
opinión comprende todo lo que no sea teoría crítica, y con el acento en la
realidad estructural subyacente; y en la que en definitiva parece oírse el eco
sutil de la no abandonada 11ª tesis de Marx sobre Feuerbach, al poner la
transformación del mundo sobre la interpretación, la pasión sobre la razón
(Bottomore, 1978: 56).
www.fragua.es

Las dos posturas han cristalizado en dos estilos de investigación, aplicables


al estudio de las relaciones sociales, que pueden definirse o diferenciarse: por
su metodología, por la actitud del investigador, por la propia configuración
del universo social y por el nivel de generalización de sus teorías. El “Estilo
I” entre otras cosas, se basará en una metodología analítica, descriptiva, en
un esfuerzo no valorativo, en la cuantificación de unas relaciones particulares
presupuestas en un orden, y procurará dar teorías a un elevado grado
de formalización. Por el contrario el “Estilo II” utilizará la metodología
dialéctica, intentará confundir teoría y experiencia, buscando las relaciones
de totalidad en una perspectiva conflictiva y teorizante a nivel histórico y
totalizador (González Casanova, 1970: 23).

La difícil, y quizá remota, superación más que confluencia de ambos


estilos, igualmente incompletos, sólo podrá hacerse por la paralela revisión
metodológica, pues al método y a su dinámica pueden intentar reducirse
cada uno de los aspectos señalados. Este es el camino intentado por algunos
criticistas y por otros profetas deseosos de la síntesis. Y en esa tarea, de
alguna manera se encuentran todos (Feyeraben, 1974; Feyeraben, 1982;
Phillips, 1973; Chalmers, 1982).

66
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

Cuadro 2.3. Estilos de investigación en Sociología

PUNTO DE
Estilo I Estilo II
COMPARACION
Cualidad (naturaleza,
Foco de la Investigación
Cantidad (cuánto, cuántos) esencia)
(Centro de interés)
El positivismo, el empirismo La fenomenología, la
Raíces filosóficas
lógico interacción simbólica

Experimental, empírica, Trabajo de campo,


Conceptos asociados
estadística etnografía, naturalista
www.fragua.es

Predicción, control, Comprensión, descripción,


Objetivo de la
descripción, confirmación, descubrimiento, generadora
Investigación
comprobación de hipótesis de hipótesis
Características del Flexible, envolvente,
Predeterminado, estructurado
diseño emergente

Marco o escenario Desconocido, artificial Natural, familiar

Grande, aleatoria, Pequeña, no aleatoria,


Muestra
representativa teórica

Instrumentos inanimados El investigador como


Recogida de datos (escalas, pruebas, encuestas, instrumento primario,
cuestionarios, ordenadores) entrevista, observaciones

Inductivo (por el
Deductivo (por métodos
Modalidad de análisis investigador)
estadísticos)

Precisos, limitados, Comprehensivos,


Hallazgos
reduccionistas holísticos, expansivos
Describir y explicar la Transformar la realidad
Propósito
realidad social social

Merriam (1990), presenta un cuadro comparativo entre ambos tipos de


investigación.

67
Antonio Lucas y Alejandro Noboa (eds.)

5. Límites, perspectivas y tendencias de la investigación y medición social

La investigación social estuvo profundamente influida por la idea de


que las ciencias naturales representaban el modelo natural hacia el cual
ella debía orientarse. Frente a esa noción, se contrapuso la idea opuesta: el
mundo social constituye una realidad cualitativamente diferente de aquella
del mundo de la naturaleza. Esa diferencia estriba fundamentalmente, en
el carácter interpretativo de la realidad social, lo que implica que la ciencia
social ya no puede pensarse como una copia del proyecto de las ciencias
naturales.
www.fragua.es

En las dos últimas décadas del siglo XX se produjeron importantes cambios


en la filosofía de la ciencia natural, que derivaron en el debilitamiento del
predominio del empirismo lógico. En síntesis, surge una nueva concepción de la
ciencia, de acuerdo a la cual se pone en cuestión la pretendida neutralidad teórica
de la ciencia, pierde vigencia la búsqueda de sistemas deductivos de leyes, y se
asume el carácter interpretativo de la propia actividad científica.

Estos desarrollos han tenido un claro efecto sobre la discusión relativa


al pensamiento científico sobre lo social, disminuyendo significativamente
el predominio de las corrientes empíricas y cuantitativistas. Se ha producido
así cierta proliferación de enfoques teóricos emergentes de corrientes y
tradiciones intelectuales anteriores, o derivados de desarrollos actuales.

Por otro lado, con frecuencia los investigadores sociales han experi-
mentado esta multiplicidad de enfoques teóricos como una complicación,
más que como un enriquecimiento de las ciencias sociales.

Especialización e integración en el conocimiento de lo social

El desarrollo del conocimiento científico social, va de la mano con procesos


de especialización (diferenciación) de problemas y teorías, y con procesos de
integración al interior de la disciplina o de esta con otras que le son próximas.
Sin embargo, estos movimientos no ocurren en forma espontánea ni mecánica,
pues presentan características particulares de acuerdo a las especificidades de las
disciplinas o campos del conocimiento.

68
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

Es innegable que en el caso de la sociología, operaron durante el


siglo XX un conjunto de factores epistemológicos, sociológicos e incluso
ideológicos, que incidieron en estos procesos de transformación. Ya se han
examinado anteriormente, los factores epistemológicos distintivos que
operan en el caso de la sociología.

Entre los factores sociológicos, figura la formación de “escuelas” al


interior de la sociología, elemento que permite explicar parte importante de
las tendencias observadas al aislamiento y dogmatismo en la disciplina, en el
curso del siglo pasado. En el caso de las ciencias de la naturaleza, las diversas
“escuelas” respondían a posiciones que permanecían opuestas hasta que la
www.fragua.es

experimentación o la deducción dieron término a la discusión, como fue el


caso de la polémica entre energetistas y atomistas en física a fines del siglo
XIX. Las discusiones entre los exponentes de la escuela “estructuralista” y los
exponentes de las diversas corrientes weberianas, por ejemplo, fueron por
lo general absolutamente infructuosas, y no permitieron a la sociología dar
pasos hacia una mayor integración.

Probablemente en el caso de la sociología, se hacen más fuertes las


dificultades que planteó a su maduración como ciencia, la interferencia
de los factores ideológicos. Detrás de la opción por una corriente teórica
o por una hipótesis se llegaban a jugar visiones diferentes del mundo e,
incluso, totalmente opuestas. Mientras que el funcionalismo era visto por
sus adversarios como expresión de ideologías conservadoras, las teorías
del conflicto social eran percibidas como anti-científicas y subversivas por
quienes no las aceptaban.

La aproximación de paradigmas en la teoría social

Sin embargo, en el último cuarto de siglo, parece haber un creciente


acuerdo entre los investigadores sociales de que la existencia de diversos
enfoques y tradiciones teóricas es positiva para las ciencias sociales.

En el ámbito de la metodología, las diferencias entre los paradigmas


cuantitativo y cualitativo tienden, sin embargo, a transformarse en énfasis
diversos más que en contrapuntos radicales. La complejidad reconocida de
su objeto de análisis ha llevado a que se produzcan frecuentes solapamientos

69
Antonio Lucas y Alejandro Noboa (eds.)

entre los métodos de la investigación social, disminuyendo el recurso


exclusivo a una sola opción metodológica.

Junto a ello, se fue consolidando la señalada re-conceptualización, desde


la filosofía de las ciencias naturales, respecto de la comprensión (verstehen),
como referente obligado de la interpretación del significado, y ya no como
un procedimiento pre-científico de orden puramente psicológico. Ello
permite introducir en el paradigma positivista, nuevas consideraciones,
atenuándose las posturas más intolerantes hacia el paradigma interpretativo.

Por cierto que lo anterior, no significa que se hayan limado a tal grado
www.fragua.es

las diferencias entre los diversos enfoques y teorías, en que ya exista pleno
acuerdo sobre cuál es la naturaleza específica de las ciencias sociales.

Diversos teóricos plantearon a fines de los años sesenta, sus posturas


respecto del sentido y limitaciones de la “ciencia social”. El Cuadro 2.4
sintetiza esas posturas.

6. Otros componentes de la Ciencia Sociológica

Una comunidad sociológica internacional

Un factor de gran relevancia, en la aproximación de los enfoques y


paradigmas sociológicos en los últimos años, es el de la conformación de
una comunidad internacional de sociólogos, que se articulan en una red
global de vínculos institucionales y profesionales. La expresión más amplia
de esta red, es la consolidación de la Asociación Internacional de Sociología
(ISA) como referente mundial de la comunidad sociológica reconocida.
Esta Asociación congrega actualmente a todas las Asociaciones Nacionales
de Sociología existentes en el mundo, e incluye además a 55 Comités de
Investigación que abordan los diversos temas reconocidos como de interés
por la disciplina. Estos incluyen asuntos como las “Fuerzas Armadas y
Resolución de Conflictos”, hasta “Indicadores Sociales”, pasando por
la “Sociología de los Desastres” y el “Cuerpo en las Ciencias Sociales”.
Internacionalización y especialización de la sociología, son dos procesos
que avanzan progresivamente a lo largo de la segunda mitad del siglo XX.

70
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

Cuadro 2.4. Perspectivas de la Teoría Social

Corriente / Planteamiento sobre Objeto básico de la teoría


Autor
Enfoque la ciencia social social
El objeto del análisis social
La sociología puede ser una puede reducirse a las conductas
ciencia comprometida con de los individuos. Toda
George
Conductismo la elaboración de “leyes realidad social es conducta; las
Homans
de subsunción” y sistemas instituciones no son más que
axiomáticos deductivos. la suma de estas conductas
constitutivas.
La sociología puede aspirar
a elaborar un conjunto Análisis ecléctico de la micro
www.fragua.es

de “leyes de subsunción”, dinámica, incorporando


pero sin posibilidad de puntos de vista del
que exista una teoría interaccionismo simbólico,
verdaderamente axiomática. la etnometodología y
Jonathan
Teoría analítica Las leyes abstractas deben el conductismo. A la
Turner
complementarse con vez, conceptualización
modelos analíticos que independiente de macro
especifiquen los procesos procesos con los aportes del
causales que conectan funcionalismo y otros enfoques
las variables de una ley estructurales.
abstracta.
Se puede establecer un
marco general de referencia
que contenga una variedad
Teoría de enfoques teóricos y El objeto de la teoría son los
Richard
funcionalista de metodológicos. Hay un sistemas complejos de acciones
Münch
la acción eclecticismo comprometido interrelacionadas.
con la posibilidad de generar
y contrastar teorías de forma
sistemática.
La naturaleza pragmática,
situacional y construida
de la interacción, y de
la organización social,
haría imposible “leyes” Los interaccionistas oscilan
y “generalizaciones” entre conceder la prioridad a
Interaccionismo
Hans Joas atemporales propias la estructura o a los procesos
simbólico
del positivismo. Pero la que produce y reproducen tal
búsqueda de las propiedades estructura.
básicas de la interacción
tiene una aspiración
de desarrollo de leyes
universales.

71
Antonio Lucas y Alejandro Noboa (eds.)

Desde este enfoque no


hay una preocupación ni El objeto de estudio son los
una respuesta unánime procesos interactivos, en
sobre la cientificidad de la especial los que giran en torno
John C. ciencia social. La detallada al habla y la conversación,
Etnometodología
Heritage descripción de los procesos mediante los cuales los actores
empíricos tiende a dejar elaboran explicaciones y
de lado la “explicación” construyen el sentido del
y la “cientificidad” de las mundo externo, fáctico.
descripciones.
Como la ciencia social
trata de las emociones,
propósitos, actitudes y
www.fragua.es

disposiciones subjetivas de
los actores, sus enunciados
teóricos y empíricos serán
“intencionales” y los
investigadores deberán
realizar interpretaciones del
Thomas
significado. El empleo de
Wilson
los métodos de las ciencias
naturales tiene una utilidad
heurística. El uso de las
matemáticas puede ordenar
las relaciones con los datos
y clarificar las ideas acerca
de cómo se relaciona una
teoría con otra en un caso
particular.
A partir de la noción
de “agencia” la teoría
sólo puede destacar
las “potencialidades
constitutivas de la vida
social” que los actores
La estructura social y los
utilizan para producir y
agentes, la acción y la
Ira J. reproducir modelos sociales,
Estructuración interacción, son el foco de
Cohen de modo contextual e
atención de la investigación
histórico. Las leyes y
social.
generalizaciones son
transformables mediante
los actos de los agentes, lo
que plantea una diferencia
fundamental con las ciencias
naturales.

72
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

No es posible alcanzar
un consenso acerca de las
leyes de la vida social, y la
naturaleza de los datos de
la ciencia natural nunca
Jeffrey C.
puede conferirles carácter
Alexander
definitivo. Siempre habrá
discursos y debates sobre los
supuestos de las teorías y la
relevancia de los datos para
contrastar esas teorías.
El análisis de los “sistemas
históricos”, que se extienden
www.fragua.es

en el tiempo y en el espacio
La teoría social debe emplear
adoptando formas diversas,
“marcos de referencia” que
desde los mini-sistemas a
abarquen un tiempo y un
los imperios y economías
espacio suficientes como
Immanuel Sistemas mundiales. El poder de
para observar las lógicas
Wallerstein mundiales los imperios y sistemas
o dinámicas básicas de
económicos mundiales para
los procesos sociales. Esas
constreñís y dominar la
lógicas son cambiantes en el
acción de los individuos,
largo plazo.
corporaciones y “mini-
sistemas” es la realidad por
excelencia del universo social.
Los procesos de dominación
son una invariante de la
El análisis de la capacidad
organización social que
de controlar los medios de
Ralph es objeto del “análisis
Análisis de clases producción, administración,
Milliband de clases”. De poder ser
comunicación y coerción en
eliminada la dominación, el
una sociedad.
análisis de clases habría de
ser modificado.
El desarrollo de una teoría
materialista de la sociedad,
Axel a través de la utilización
Teoría crítica
Honneth sistemática de todas las
disciplinas de investigación
de la ciencia social.

Anthony Giddens, Jonathan Turner, et al: La Teoría Social Hoy.


Madrid: Alianza Universidad, 2001.

73
Antonio Lucas y Alejandro Noboa (eds.)

Una disciplina consolidada académicamente


En gran parte de los países del hemisferio norte, la sociología alcanzó
en el curso del siglo XX el estatus de una disciplina académica plenamente
desarrollada. En general, hasta mediados de los años 50 (cuando la ISA
inicia sus labores) la sociología era una disciplina de investigación sin un
lugar definido en la academia. Muchas veces era albergada en las Facultades
de Filosofía o Humanidades, y no había una licencia que le fuera propia.
Desde esa época, y especialmente con posterioridad a las movilizaciones
estudiantiles de 1968, se produjo la institucionalización de la sociología
como especialidad universitaria autónoma, con la formación de un creciente
número de estudiantes de pregrado. Este factor promueve la preparación y
www.fragua.es

publicación de libros de formación y manuales, cuyos objetivos didácticos,


y económicos, se acompañan de un vasto trabajo de recopilación, de
reflexión y de síntesis, que alimenta la reflexividad de la disciplina.
Entre los aspectos más significativos que marcan el desarrollo de la
sociología en los últimos años del siglo XX, figuran el creciente interés
por entender y analizar los vínculos entre lo micro y lo macro, así como la
preocupación por la relación entre acción y estructura. Todo lo anterior,
en circunstancias del aparecimiento de diversos empeños por avanzar hacia
planteamientos sintéticos en la teoría así como en la metodología.
Un camino de doble dirección: reflexión teórica e investigación
empírica
En general, los caminos que sigue la disciplina van a aproximar los
términos de la reflexión teórica y de la investigación empírica, que fueran
tan distantes y hasta opuestos hasta los años 60. Hoy, ciertamente, la
producción sociológica presenta exponentes tan variados que van desde
trabajos altamente teóricos y especulativos, construidos sobre modelos
literarios y filosóficos, hasta investigaciones centradas en el análisis de
datos de acuerdo a modelos matemáticos. Sin embargo, crecientemente la
producción sociológica se sitúa en el espacio donde lo reflexivo comparte
con lo empírico. En general, hoy no predomina el texto teórico abstracto
con una pretensión a la autosuficiencia, ni tampoco prevalece el escrito
centrado en la reproducción de datos empíricos. Es un logro de la
maduración disciplinaria de estos años el que los sociólogos (as) busquen
construir el conocimiento disciplinario en ese umbral que distingue y une
la teoría con la realidad.

74
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

Hay una reflexión metodológica que no es independiente de esta


tendencia a la vinculación entre la teoría y lo empírico. A mediados
del siglo pasado la preocupación por la metodología se centraba en los
problemas del análisis causal y de la categorización sociológica, estando
en el corazón de la discusión metodológica el análisis cuantitativo de los
hechos sociales. Con la renovación de la sociología interpretativa, entre
cuyos cultores destaca el nombre de Edgar Morin, se ponen en cuestión
los cánones vigentes de la investigación estándar. Se abren nuevos caminos
de trabajo metodológico (y epistemológico), como las historias de vida y el
análisis de redes, por ejemplo.
Las tendencias predominantes en la sociología contemporánea, se
www.fragua.es

aproximan a la idea de una perspectiva científica compartida, la cual


se concreta y diferencia de acuerdo a las condiciones de ejercicio de las
disciplinas. Lo anterior se realiza en un marco de pluralidad normada, cuyo
problema principal es el de delimitar las fronteras. La sociología no se deja
entender siguiendo estrechamente la noción de “ciencia normal” (Thomas
Kuhn), y adopta la idea de pluralidad, sometiéndose a una Meta teoría o
una matriz disciplinaria común a sus diversas expresiones legítimas.
Las confrontaciones del pasado entre los métodos y técnicas
cuantitativas, y los métodos y técnicas cualitativos han dado paso a una
aproximación más ponderada respecto de las potencialidades y limitaciones
de cada uno de ellos. Sea por razones pragmáticas o por el surgimiento
de un enfoque que parte de la noción de “complejidad” para designar su
objeto de estudio, las estrategias de investigación sociológica intentan cada
vez más, hacer un uso flexible de diversas técnicas, articuladas de modo de
complementar sus fortalezas y debilidades para dar cuenta de mejor modo
de la realidad.
Los desafíos de la ética en el campo de la investigación social
Los desafíos éticos en la investigación social, no son un capítulo cerrado
en el presente y futuro previsible. Por el contrario, hay una cantidad de
dilemas que se presentan en torno a las relaciones que se establecen al
interior de los equipos científicos, las relaciones entre estos equipos y las
fuentes que respaldan financieramente la realización de los estudios, las
relaciones entre los equipos de investigación y los sujetos que son objeto
de análisis, y las consecuencias de la publicación en revistas científicas y
de la difusión a través de los medios de comunicación de los resultados
conseguidos.

75
Antonio Lucas y Alejandro Noboa (eds.)

Un área específica donde se aprecia con gran nitidez este tipo de desafíos,
es el de los estudios de opinión pública. Diversas teorías han intentado
mostrar, por ejemplo, que la difusión a través de los medios de resultados
de este tipo de investigación, provoca efectos en el público expuesto a dicha
información, que puede variar sus preferencias sobre materias de interés
público (electoral, por ejemplo) según la imagen de prevalencia de una
opinión o de una alternativa político-electoral. De allí que exista en diversos
países un conjunto de prácticas y normas deontológicas dedicadas a evitar
la manipulación intencionada o derivada de la falta de rigurosidad de los
equipos de investigación, y de los medios de comunicación.
www.fragua.es

Conclusiones
La aproximación sociológica es un logro neto de la disciplina en el curso
del siglo pasado, que atraviesa las fronteras disciplinarias. Esta aproximación
implica que no se toma lo real como un dato, sino que aquél es construido.
Se trata de construir explicaciones satisfactorias de las prácticas sociales,
cómo ellas emergen a partir de una serie de factores sociales, socio-culturales
y socio-económicos, que el sociólogo debe descubrir.
Tales factores definen un campo delimitado de posibilidades, al interior
del cual es posible, con el concurso de otras disciplinas (geografía, economía,
psicología, etnología, derecho, etc.), afinar aún más el análisis. De allí que
quien practica la sociología debe tener una preparación suficientemente
avanzada respecto a algún campo de referencia, unida a una práctica de terreno
y a un sólido manejo de los métodos y técnicas de la investigación social.
Un aspecto central de la mirada sociológica es, pues, su permanente
y nunca acabado esfuerzo de controlar su práctica, siendo consciente de
que ve y no ve, de acuerdo a su especial posición social. La relación con su
objeto de estudio debe ser controlada, esto quiere decir, consciente de todo
aquello que la visión del objeto debe a la posición ocupada en el espacio
social y en el campo científico.
“Las posibilidades de contribuir a producir la verdad parecen depender, en
efecto, de dos factores principales ligados a la posición ocupada: el interés que se
tiene en conocer y hacer conocer la verdad (o, al revés, a ocultársela y a hacérsela
ocultar), y la capacidad que se tiene de producirla” (Pierre Bourdieu, Question
de sociologie, Paris, Ed. De Minuit, 1984).

76
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

Por consiguiente, la sociología enseña, que no hay verdades absolutas,


sino verdades parciales sujetas a la posición que ocupa el investigador.
La mirada científica se distingue en reconstituir su objeto a partir de
estas imágenes y resultados parciales, adoptando la mayor variedad de
perspectivas, y haciendo el mayor esfuerzo por descartar los supuestos
heredados. La conciencia de los obstáculos al conocimiento científico es
un requisito de su éxito.
“Integrar al sujeto de la ciencia en la historia y en la sociedad no es
condenarse al relativismo; es plantear las condiciones de un conocimiento crítico
de los límites del conocimiento, lo que es la condición de un conocimiento
verdadero” (Pierre Bourdieu, óp. cit.).
www.fragua.es

Bibliografía

Blalock, H. (1982). Introducción a la investigación social. Buenos


Aires: Amorrortu editores.

Duverger, M. (1981). Métodos de las ciencias sociales. Barcelona: Ariel.

Festinger, L.; Katz, D. (1975). Los métodos de investigación en las


ciencias sociales. Buenos Aires: Paidós.

Goode William, J.; Hatt, P. K. (1980). Métodos de investigación


social. México: Trillas.

Hernández Sampieri, R.; Fernández Collado, C.; Baptista, P. (1998)


Metodología de la investigación. México: Mc Graw Hill.

Muro, A. (2000). La cocina de la investigación. San Juan: Instituto de


Investigaciones Socioeconómicas.

Pardinas, F. (1998). Metodología y técnicas de investigación en ciencias


sociales. México: Siglo XXI.

Piscitelli, A.; Rey, F. (2004). Pequeño manual de encuestas de opinión


pública. Buenos Aires: Editorial La Crujía.

77
Antonio Lucas y Alejandro Noboa (eds.)

Rojas, A.; Fernández Prados, J. ; Pérez Meléndez, C. (1998).


Investigar mediante encuestas. Madrid: Editorial Síntesis.

Schwartz, H.; Jacobs, J. (1984). Sociología cualitativa. México:


Trillas.

Sierra Bravo, R. (1998). Técnicas de investigación social. Teoría y


ejercicios. Madrid: Paraninfo.

Sautu, R. (Comp.) (1999). El método biográfico. Buenos Aires:


Editorial de Belgrano. Valles, M.S. (1999). Técnicas cualitativas de
investigación social. Madrid: Síntesis.
www.fragua.es

Wainerman, C.; Sautu, R. (2000). La trastienda de la investigación.


Buenos Aires: Ediciones Lumiere.

78
Capítulo 3

LA CONSTRUCCIÓN DEL DATO COMO


PROCESO EN LA ENCUESTA PERSONAL
www.fragua.es

Juan Romero y Jorge Leal


Universidad de la República (Uruguay)

ÍNDICE

1. Del concepto al cuestionario, cuando el dato comienza a construirse

2. El momento de la medición

3. La fase post campo, cuando el dato sigue en construcción

79
Antonio Lucas y Alejandro Noboa (eds.)

Introducción

Tal y como sostiene Javier Gil Flores (1994), a pesar de que en su


origen etimológico la palabra dato significa “lo dado” (del latino “datum”),
en realidad no es algo que está ahí para ser tomado, sino que se trata de una
construcción. Siguiendo a Corbetta, esta postura correspondería al criterio
constructivista (en contraposición al objetivista), “para la cual el dato social
no es observado, recogido o registrado, sino “construido” o “generado” por
la interacción entre el sujeto que estudia y el sujeto estudiado” (Corbetta,
P., 2007:150).
www.fragua.es

Aceptando ese enfoque, y concretamente en el caso de la investigación


mediante encuesta, es necesario decir que esa construcción no se limita
-como se tiende a suponer- a la fase de recolección de información, sino
que se trata de un proceso que antecede y excede al denominado campo.
Esto implica que los cuidados para evitar la incidencia de los factores
que introducen error (constante o aleatorio) deban comenzar antes de
la aplicación de cuestionario, y continuar aún después de que se tiene el
“dato” pronto para ser tratado y analizado.
Si bien es cierto que es en la fase de medición donde se corre el riesgo de
romper con la condición de estandarización del estímulo, aspecto central de
la encuesta sobre el cual se sustenta el supuesto de la comparabilidad de las
respuestas; también lo es que una vez que se tiene la “marca en el casillero”, y
aún cuando ésta sea la verdadera posición de la unidad de análisis en la variable,
se corre el peligro de terminar analizando un dato erróneo.
Así, la atención que generalmente se centra en el momento del
relevamiento, debería ampliarse a la etapa previa de la operacionalización
del concepto que se va a medir, incluyendo además a las posteriores de
digitación, procesamiento y análisis, donde las posibilidades de tratamiento
estadístico del dato quedan condicionadas en el mismo diseño de la
investigación.
Sobre estas cuestiones se propone reflexionar en el presente trabajo,
en el que la construcción del dato científico se presenta como un recorrido
que atraviesa diferentes etapas de la investigación, y donde el desafío es
mantener una constante atención de aquellos factores que puedan afectar
la calidad de lo que finalmente se presentará.

80
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

1. Del concepto al cuestionario, cuando el dato comienza a


construirse
Del concepto a los indicadores
El carácter de objeto construido con el que se trabaja en investigación
social, está determinado ya desde un inicio por el hecho de intentar medir
conceptos acerca de los cuales no existe acuerdo, consecuencia de la
pluralidad teórica al momento de dar cuenta, total o parcialmente, de los
fenómenos de interés. Por lo tanto, para medir un mismo objeto se pueden
llegar a considerar diferentes aspectos, dependiendo de aquellos contenidos
en la definición; lo que obviamente termina incidiendo en cuáles serán los
www.fragua.es

indicadores seleccionados. Es por esto que se puede decir que el dato que
se va a analizar comienza a ser construido con estas decisiones referidas a,
qué es lo que se va a estudiar y a través de qué observaciones concretas.
Ejemplo:
Si se quiere medir la calidad de un empleo, en primer lugar, y para saber
qué aspectos considerar, es necesario definir dicho concepto. En cuanto a
esto, la literatura sobre el tema considera cinco dimensiones a tener en
cuenta, ellas son: el ingreso, la estabilidad, las protecciones derivadas, las
condiciones en que se realiza, la posibilidad de sindicalización. Para cada
una de ellas se deberán buscar indicadores cuantificables y que representen
al concepto original. Así, el salario mensual, la antigüedad, el tipo de
contrato, las horas semanales trabajadas, la existencia de sindicato y si la
persona está afiliada, entre otros, son algunas de las variables empíricas a
través de las cuales finalmente se podrá conocer qué valor asume la unidad
(un determinado trabajador) en la variable que se quiere medir (la calidad
del empleo).
Partiendo de asumir que no existe un indicador puro, y que ello es
más cierto cuanto más abstracto sea el concepto, surge la duda acerca de
cuántos indicadores considerar, asumiendo que esta decisión conlleva
inevitablemente a un recorte, ya que aun cuando la selección sea
representativa, lo finalmente observado nunca sea exactamente igual al
concepto que se quiere medir.
El problema radica en que la necesidad de traducirlo a indicadores
cuantitativos que lo representen, hace que se deba resignar dar cuenta de
su totalidad, lo que es señalado por González Blasco al expresar que, si bien

81
Antonio Lucas y Alejandro Noboa (eds.)

“al realizar esa operación se va ganando en precisión, pero se pierde en riqueza,


ya que en general, y por muchas dimensiones que se consideren, no se toman
nunca todos los aspectos que entraña una noción compleja” (González Blasco,
2007).
Por lo tanto, ante la pregunta de cuántos indicadores considerar, la
respuesta nunca puede ser una cantidad predeterminada, sino que ello
dependerá del nivel de abstracción/concreción del concepto particular,
así como de su complejidad. Aun así, a modo de criterio general hay
acuerdo en que los indicadores sean los suficientes como para dar cuenta
del concepto, sin que sean tantos como para que la medición se vuelva
una tarea imposible. Esto obviamente dependerá de los recursos con los
www.fragua.es

que cuente el investigador, ya sea en tiempo, humanos y/o materiales; pero


también de su capacidad y experiencia.
Asumiendo entonces el costo de la pérdida de riqueza conceptual,
queda la cuestión de qué dimensiones e indicadores tomar. En el caso de
las primeras ello viene naturalmente dado por la definición que se haga del
concepto, de cuáles sean los aspectos involucrados en la misma; en cuanto
a los segundos, el desafío es el de seleccionar los mejores, tarea en la que
entra en juego el bagaje del investigador y la revisión de antecedentes de
investigaciones que hayan pretendido medir lo mismo.
Igualmente se instala la duda acerca de si efectivamente a través de esos
indicadores se mide indirectamente al concepto, considerando que podrían
haberse elegido otros, quizás con mejor capacidad de representación, lo que
remite a la cuestión de la validez de la medida, es decir, si efectivamente se
mide lo que se pretende medir.
Así, por ejemplo, la validez de contenido se verá reducida si los
indicadores seleccionados no cubren todos los aspectos del concepto, o si
lo hacen de manera sesgada al seleccionar unos ítems del test en detrimento
de otros posibles.
De los indicadores a las preguntas del cuestionario
Aun cuando se haya realizado correctamente el procedimiento de
descomponer al concepto en dimensiones o aspectos, y haber encontrado
indicadores que lo representan; para poder medirlo a través de éstos
todavía resta el desafío de transformar esas variables empíricas en preguntas
concretas. A primera vista ese no parece ser un problema, en tanto que,

82
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

sabiendo que es lo que se quiere averiguar, no debería haber dificultad para


poder hacerlo, pero esta es una percepción de falsa simplicidad. De hecho,
la formulación de preguntas en el cuestionario es un aspecto clave en la
investigación mediante encuesta.
Aquí se presenta otra de las instancias definitorias del proceso de
construcción del dato, en tanto que, por lo general, dicha herramienta
es diseñada para cada medición. De lo anterior se desprende una las
interrogantes centrales del trabajo de investigación, la referida a si el
instrumento es válido, es decir, si mide aquello para lo que fue creado.
Pero además, el mismo puede ser válido y sin embargo no medir con la
precisión esperada, es decir, no ser confiable. Estas cuestiones obligan a
www.fragua.es

dirigir la atención hacia la forma en que es construido, lo que remite a dos


aspectos, el contenido y la forma.
Es así que, del mismo modo que al seleccionar los indicadores del concepto
que se quiere medir se debe realizar una indagación acerca de cuáles han sido
los utilizados por otras investigaciones (que se hubiesen propuesto medir
lo mismo); también al redactar las preguntas del cuestionario es necesario
conocer cómo lo han hecho otros. Esto no significa trasladar acríticamente
esos antecedentes sin considerar el contexto para los que fueron pensados,
ya que por tratarse de un instrumento de comunicación, el cuestionario
debe contemplar las características socioculturales de la población a la que
se piensa aplicar.
También se debe evitar indagar sobre temas que no están contenidos
en el problema de investigación, por lo que ante cada pregunta se debe
realizar el ejercicio argumentar el motivo de la inclusión de la misma (¿por
qué estoy preguntando esto?); así como también, pensar si la información
que se obtendrá con la respuesta refiere a lo que efectivamente se quiere
saber.
Considerando que la forma en que los encuestados procesan la pregunta
depende en gran medida en cómo ésta es presentada, en la formulación de
la misma es necesario cuidar una serie de aspectos, como por ejemplo que
la misma sea comprendida por quienes van a ser entrevistados (vocabulario
acorde, sencillo y claro); que los mismos no se sientan incomodados o
amenazados por lo que se les pregunta; que no comprendan de diferente
forma a una misma pregunta, en este sentido es importante controlar el
significado vago o ambiguo de algunos conceptos; preguntar de forma
breve y sobre una única cuestión por vez; que en la pregunta no se induzca

83
Antonio Lucas y Alejandro Noboa (eds.)

la respuesta, por ejemplo apoyándose en juicios de expertos, o planteándola


en negativo; que el interrogante no contenga implícita o explícitamente
valoraciones o connotaciones socialmente no deseadas; que estén definidos
con precisión el o los marcos temporales y/o espaciales de referencia (el
período de tiempo, el lugar, etcétera); en el caso de las preguntas cerradas de
única opción, asegurarse que exista exhaustividad y mutua exclusión entre
las categorías de respuesta; se debe evitar obligar al encuestado a realizar
cálculos, así como también abusar de su memoria.
Pero del mismo modo en que la formulación de las preguntas puede hacer
variar las respuestas, obteniendo posiciones no verdaderas del interrogado
con relación a la o las variables, ello también puede suceder debido a la
www.fragua.es

forma en que el cuestionario esté diseñado. Es por ello que se debe tener
en cuenta que el orden en que estén ubicadas las preguntas puede sesgar las
respuestas, generándose un efecto de sensibilización; esto también puede
aplicarse a las preguntas cerradas, donde es posible que algunas categorías
condicionen a las siguientes, motivo por el cual se recomienda usar tarjetas
para variar el orden de las repuestas.
Pero como el cuestionario es un medio para la interacción entre el
investigador y las unidades de la investigación, y más concretamente entre
el entrevistador y quien es interrogado, no se limita únicamente a ser el
depositario de un conjunto de preguntas ordenadas, sino que además debe
estar estructurado de forma tal que permita el desarrollo de una instancia
de conversación “controlada”. Esto implica que además de las preguntas,
exista una presentación, espacio para el control de la muestra, un título,
una numeración de caso, indicaciones al encuestador, identificación de
filtros, introducción a módulos, espacio para registro de observaciones, e
incluso agradecimiento impreso a quien brindó la información. Además de
lo anterior, se necesitan apoyos externos como la carta de presentación y las
tarjetas para preguntas con muchas categorías, a los efectos de evitar que el
encuestado responda la última opción por efecto recordación.
Para evaluar la idoneidad del instrumento, además de someterlo a
crítica de colegas, es necesario realizar una prueba piloto o pre-test, en
donde es posible obtener información acerca de aspectos tales como su
adecuación, es decir, si mide lo que pretende medir y si esas mediciones
son estables siempre y cuando las unidades no hayan modificado su valor en
la variable, y en general, el funcionamiento como un todo, el orden lógico
y coloquial de las preguntas, e incluso el tiempo de aplicación. También

84
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

acerca de posibles modificaciones, como la necesidad de codificación


de algunas preguntas abiertas, modificación de preguntas con alta tasa de
no respuesta, cambio por “contaminación” entre preguntas, necesidad de
incluir indicaciones, etcétera. Además, considerar que también sirve para
realizar, o evaluar, la capacitación de los encuestadores.
A modo de síntesis de los dos aspectos descritos, el cuadro 3.1 presenta
las recomendaciones para la elaboración de un cuestionario.

Cuadro 3.1. Diseño del cuestionario y formulación de las preguntas


www.fragua.es

PUNTO DE COMPARACION Estilo I Estilo II

Foco de la Investigación Cantidad (cuánto, cuántos) Cualidad (naturaleza, esencia)


(Centro de interés)

cas El positivismo, el empirismo lógico La fenomenología, la interacción


simbólica

Conceptos asociados Experimental, empìrica, estadística Trabajo de campo, etnografía,


naturalista

Objetivo de la Investigación Comprensión, descripción, descubrimiento,


comprobación de hipótesis generadora de hipótesis

Características del diseñoP redeterminado, estructurado Flexible, envolvente, emergente

cialN atural, familiar

Muestra G rande, aleatoria, representativa Pequeña, no aleatoria, teórica

Recogida de datos Instrumentos inanimados (escalas, pruebas, El investigador como instrumento


encuestas, cuestionarios, ordenadores) primario, entrevista, observaciones

Modalidad de análisis Deductivo (por métodos Inductivo (por el investigador)


estadísticos)

Hallazgos Precisos, limitados, reduccionistas Comprehensivos, holísticos, expansivos

PropósitoD escribir y explicar la realidad social Transformar la realidad social

85
Antonio Lucas y Alejandro Noboa (eds.)

2. El momento de la medición
El objetivo de la estandarización del estímulo
La cuestión de la construcción del dato en el caso de la encuesta,
está directamente ligada al supuesto de la igualación del estímulo para
que sea posible la comparación de las respuestas. El controlar la forma
y condiciones en que se obtiene la información, en el sentido de evitar
distorsiones provocadas por factores externos, es clave para la pretensión de
cientificidad.
Es por lo anterior que el interés se centra de manera primordial en
www.fragua.es

la estandarización como condición sine qua non de esta modalidad de


investigación. Esto es así debido a que una de las características definitorias
de la encuesta, es que la misma permite recolectar voluminosa información
acerca de una población de gran tamaño, donde las respuestas de cada
entrevistado pueden ser comparadas con las de los otros con relación a
aspectos de interés para la investigación. Para que eso sea posible, todos
deben ser sometidos a un estímulo de dirección e intensidad similar.
Esta idea de estandarización está presente en buena parte de las
definiciones sobre encuesta, ya sea haciendo referencia a la misma en
términos generales, como un procedimiento estandarizado (Cea D´Ancona,
2001; García Ferrando, 2007), o específicamente en lo que respecta al
instrumento de recolección (Corbetta, 0p.Cit).
La estandarización pretende funcionar como una limitante a la
introducción de error por parte de quien lleva a cabo la indagación, ya que
“… cuanto más estandarizadas están las preguntas, el estímulo actuante sobre
el encuestado será más independiente frente al investigador o al entrevistador
que aplica el cuestionario” (Mayntz, et al., 2004:157).
En lo que a esto refiere, el objetivo de la uniformización del instrumento
y de quienes lo utilizan, también se traslada al objeto, en el sentido de
búsqueda de regularidades más que de singularidades; como sostiene del
Pino, “la encuesta es la técnica arquetípica de la investigación cuantitativa.
Frente al objetivo, propio de la investigación cualitativa de llegar a comprender
profundamente la complejidad de lo social, aunque sea a costa de no conocer la
representatividad de nuestras conclusiones, la encuesta es una clara apuesta por
la estandarización o tipificación” (del Pino, J., 2006:s/d)

86
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

La necesidad de comparar a las unidades con relación a las variables


seleccionadas, obliga a prestar atención a aquellos factores que, en uno u
otro momento de la medición, pueden hacer inviable dicho cotejo.
Aspectos implicados en la medición
En cuanto al acto mismo de la medición, entendida esta como
la utilización de un instrumento para realizar observaciones de las
características que interesan conocer de las unidades de análisis; la misma
no difiere en sus componentes básicos de la que se realiza en cualquier
otra área de la ciencia, donde coinciden quien observa, la herramienta
que emplea para hacerlo, quien es observado, y todo ello en una situación
www.fragua.es

determinada. Lo que sí resulta particular es, que en el campo de la


investigación social existe mayor posibilidad de que se introduzca error en
la medida, ya sea por parte de cada uno de estos elementos actuando de
forma independiente o combinada. En cuanto a ello, la presencia de error
de tipo aleatorio o sistemático afectará el objetivo de la estandarización,
por lo que es necesario conocer cómo es que se produce para intentar
evitarlo o, en caso de no poder hacerlo, al menos minimizarlo.
Para comprender esto se debe tener en cuenta que, a pesar de que
la medición en una encuesta tienda a ser resumida a la formulación de
una pregunta y la obtención de una información determinada, ese acto
aparentemente mecánico conlleva implícito un proceso que involucra
varios momentos, donde en cada uno de ellos pueden ocurrir eventos que
den por resultado que el valor que finalmente se obtiene, no sea el que
defina la verdadera posición de la persona consultada con relación a la
variable que se pretende medir.
Así, aun asumiendo que la pregunta está bien formulada, y que
efectivamente a través de ella se obtiene información referida al indicador
seleccionado para representar empíricamente un aspecto del concepto; la
aplicación de la misma en el campo de encuesta presupone los siguientes
pasos:

pregunta -> interpretación -> respuesta -> percepción -> registro -> dato

Como se puede ver, se trata de un desglosamiento del esquema


pregunta-respuesta. Siguiendo la secuencia planteada, se espera que el
encuestador realice la pregunta de la forma en que esta está redactada, sin

87
Antonio Lucas y Alejandro Noboa (eds.)

alterar los términos, así como tampoco variar los énfasis. De no ser así, puede
ocurrir que los encuestados interpreten de manera diferente lo que se les
consulta, por lo que, aunque se piense que es así, las respuestas no referirán
a la misma cuestión, y por lo tanto no tendrá sentido su comparación. Pero
además del riesgo de estímulos involuntariamente diferentes, la forma en
que el encuestador percibe la respuesta también es un factor a considerar,
ya que en ella interviene la lectura que éste realiza, en la que también se
incluyen señales de tipo físico emitidas por el interrogado (muecas, gestos,
suspiros, etcétera), las que pueden ser consideradas o no, pero que en caso
de serlo, podrían incluso ser interpretados de manera diferente por parte de
distintos observadores. Finalmente, y aunque se esté convencido de que el
recorrido hasta aquí realizado ha logrado esquivar las amenazas descritas,
www.fragua.es

queda un paso más, el de registrar la respuesta. En este punto intervienen


una serie de factores que pueden hacer que finalmente en el papel se plasme
algo diferente a lo que la persona contestó, debido a por ejemplo, factores
mecánicos (rotura del lápiz), problemas en el diseño del cuestionario
(categorías de respuesta con poco espacio entre sí), o cuestiones vinculadas
al entorno de aplicación (escasa luz, intromisión de terceros, etcétera).
De lo anterior se desprende que, a diferencia de lo que se tiende a
suponer, lo que finalmente se tiene, es decir, la marca en el casillero
correspondiente a la categoría de la variable, no siempre es lo que realmente
esa unidad piensa, opina o hace.
Así, la afirmación de que el dato es “la variedad de caracteres o marcas
observadas en las dimensiones de atributos de las unidades investigadas”, y
que por lo tanto, “no representan otra cosa que un determinado valor de una
variable” (Mayntz, et al., 2004:47), únicamente indica que se está ante un
valor, pero ello no siempre implica una medición correctamente realizada.
Esto no es menor, en tanto que debido al peso que el dato científico tiene
en la sociedad moderna, muchas de las decisiones se legitiman apoyándose
en ellos; o, visto desde otro ángulo, muchos estudios se atribuyen el rango
de científicos por el hecho de generar “datos”; cuando ello en realidad nada
dice acerca de bajo qué procedimientos y condiciones fueron obtenidos. Y
es que el dato es una construcción resultante de una serie de decisiones del
investigador, las que se deben explicitar; así como también es producido
por múltiples fuentes de error.

88
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

Los elementos involucrados en la medición como potenciales fuentes


de error
El encuestador
Habiendo considerado al investigador y sus decisiones desde el
momento en que decide qué y cómo estudiar, el interés se centra ahora en
quien realiza la observación.
Si bien es cierto que la presencia del encuestador es un aspecto
importante en el logro de la entrevista, reduciendo el número de no
respuestas, también lo es que constituye una de las principales amenazas
www.fragua.es

para la estandarización. Es así que a pesar de que como sostiene García


Ferrando, “… el entrevistador ha de abstenerse de ejercer influencia en las
respuestas del entrevistado y, sobre todo, ha de evitar formular cualquier juicio
de valor” (García Ferrando, M., 178:2007), éste suele introducir variabilidad
entre una y otra entrevista, lo que incide de manera significativa en la
calidad de los datos. El cambiar el orden prefijado de las preguntas, el
formular la misma pregunta de manera distinta cada vez, el saltearse
alguna de ellas, el realizar aclaraciones que pudieran dirigir la respuesta,
así como también brindar información de diferente tipo y cantidad a los
encuestados, o el uso de forma discrecional de las tarjetas para preguntas
pluricotómicas, etcétera, son algunos de los ejemplos donde quien aplica
la encuesta se convierte en factor de error.
Pero además, en tanto que en la encuesta personal la sola presencia
del encuestador genera efectos reactivos en quien es interrogado, también
se debe considerar otros aspectos como la vestimenta y la forma en que el
mismo se presenta.
La manera de intentar disminuir la presencia de error por el factor
encuestador se vincula principalmente con el momento de la selección y
capacitación de quienes se desempeñarán en esa función. En este aspecto,
la realización del pre-test del cuestionario tiene, entre otros cometidos, el
de la realización un adecuado entrenamiento de los mismos.
A lo anterior se le debe agregar un instructivo que haga que éstos
estandaricen el procedimiento de aplicación del cuestionario, evitando
incluir improntas personales, o variabilidad en los criterios asumidos ante
imprevistos que puedan surgir.

89
Antonio Lucas y Alejandro Noboa (eds.)

El cuestionario
En cuanto al cuestionario como instrumento de observación empleado
en la medición, en la mayor parte de las veces éstos tienen que ser construidos
cada vez, lo que implica la necesidad de validación del mismo en cada
investigación.
Esto implica que ante mediciones repetidas de un mismo fenómeno,
en los que se obtienen resultados diferentes, no se está seguro de que eso
se deba a que efectivamente la unidad investigada cambió con relación a la
característica que se está midiendo, o que deba ser atribuido a deficiencias
en la herramienta.
www.fragua.es

Por otra parte, en lo que respecta al contenido de la misma, la necesaria


operacionalización de conceptos abstractos y complejos, los que como ya
se dijo, para ser medidos deben de ser traducidos a variables empíricas
(indicadores), genera dudas acerca de la selección acertada de los mismos, así
como de su capacidad de representar a aquel.
También, y a diferencia de los instrumentos que se emplean en otros
ámbitos del conocimiento los cuales miden un atributo a la vez, en el caso
de los utilizados en la investigación social la complejidad de los fenómenos
observados hace que se deban abarcar múltiples aspectos, trabajando
además con diferentes niveles de medición.
Por otra parte, y como ya se vio, el cuestionario no es solamente un papel
donde se registra la información que se recoge, sino que principalmente se trata
de un medio de comunicación entre entrevistador y entrevistado. En su calidad
de nexo comunicacional se debe prestar atención a dos aspectos generales, por
un lado, el de su contenido, por otro, el de su forma.
En cuanto a lo primero, como es sabido las preguntas incluidas en el
cuestionario son el resultado de lo que se conoce como operacionalización de
conceptos, esto significa que, lo no se trata de pensar preguntas de interés y
plasmarlas en el papel, sino que ello deriva de los conceptos que estén siendo
medidos, los que por su nivel de abstracción muchas veces deben ser traducidos
a variables empíricas, las que finalmente se convertirán en preguntas.
Este recorrido que parece no ser complejo, guarda múltiples momentos
donde se puede afectar la validez de la medida, es decir, hacer que finalmente
se mida algo distinto a lo que se quería medir.

90
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

La traducción del concepto en indicadores que lo representen en el


plano de lo medible conlleva riesgos de sub-representación del mismo, así
como de invalidez del indicador seleccionado.
Por otra parte, la traducción de estos indicadores en preguntas conlleva
riesgos inherentes a la forma en que éstas están formuladas y ordenadas.
Por lo anterior es que se debe adquirir abundante información sobre lo
que se va a estudiar, de forma saber qué y cómo indagar, esto es, conocer
la forma en que lo hicieron otros estudios, lo que implica acceder, en la
medida de que existan, a otros cuestionarios ya aplicados. Además, antes
de utilizarlo en el campo, el cuestionario será pre-testeado como forma de
www.fragua.es

probar su adecuación para obtener la información para lo que fue creado, así
como su funcionalidad y extensión.
El encuestado
Pasando ahora a quien es interrogado, a diferencia del objeto de otros
campos de la ciencia, el mismo no es pasivo al hecho de ser observado
(efecto de reactividad a la medida), pudiendo responder de acuerdo a lo
que considera que el interlocutor desea escuchar, o lo que es socialmente
aceptado (deseabilidad social). Pero además, en tanto que se trata de
características inherentes a las personas, esa reactividad es variable de una
encuesta a otra, lo que conlleva a riesgos de error que puede afectar la
comparación entre casos.
El problema de la reactividad a la medida es común a cualquier tipo de
observación donde el objeto sean seres humanos, en tanto que, aun cuando
la misma tenga un carácter menos invasivo (piénsese en una entrevista no
dirigida, por ejemplo.), de todas maneras altera la cotidianeidad de quien
responde, situándolo en un plano de quien brinda información, en una
situación de artificialidad.
En cuanto a esto, en el caso de la encuesta, aun en la modalidad auto
administrada, el entrevistado seguramente se preguntará el porqué de la
interrogación, qué efectos puede tener el brindar la información que se
pide, etcétera; lo que obviamente se ve complejizado con la presencia del
entrevistador en el caso del tipo cara a cara o personal.

91
Antonio Lucas y Alejandro Noboa (eds.)

El contexto en el que se realiza la encuesta


Finalmente, el escenario de entrevista también puede incidir en el
proceso de medición, haciendo que los datos obtenidos en un determinado
contexto, no fueran tales si éste hubiese sido diferente. Por situación se
hace referencia tanto a aspectos ambientales (luz, calor, frío, lluvia),
acontecimientos que ocurran en ese momento e interfieran en la aplicación,
la presencia de terceros, sucesos accidentales como la ruptura del lápiz del
encuestador, etcétera.
En la siguiente tabla se resumen las fuentes de diferencias de puntuación,
a qué problemas se asocian, de qué tipo de error se trata en cada caso y, las
www.fragua.es

posibles maneras de reducir su efecto.

Cuadro 3.2. Posibles fuentes de diferencias de puntuación en un


grupo de personas
PROBLEMAS MINIMIZACIÓN
FUENTES ERROR
ASOCIADOS A:
Verdaderas diferencias
en la característica que se
intenta medir
-Reducir efecto reactivo debido a la
Verdaderas diferencias presencia del encuestador (selección de
-Encuestado
en otras características encuestadores)
-Cuestionario
relativamente estables Sistemático -Instructivo para encuestadores.
del individuo que -Preguntas que no contengan
afectan su puntuación prejuicios
-Preguntas de control

-Buen adiestramiento de
encuestadores.
-Instructivo para encuestadores.
-Encuestador -Cuidar día, hora y lugar de
Diferencias debidas -Contexto (hora, realización de la entrevista
a factores personales luminosidad, De azar -Cuidar extensión innecesaria del
transitorios etcétera) cuestionario
-Cuestionario -Cuestionario que motive a responder,
con preguntas claras, no amenazantes
y que el encuestado comprenda
-Instructivo para encuestadores

92
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

-Encuestadores
Diferencias debidas a -Contexto -Entrenamiento de los encuestadores.
De azar
factores de situación (presencia de -Instructivo para encuestadores
terceros, etc.)
Diferencias debidas
-Entrenamiento de los encuestadores
a variaciones en la -Encuestador Sistemático
-Instructivo para encuestadores
administración
-Instrumento
(incorrecta -Cuidado con el pasaje de los
Diferencias debidas al eracionalización, indicadores a las preguntas del
Sistemático
muestreo de los ítems problemas cuestionario (necesidad de juicio de
de validez de colegas, pre-test)
contenido)
www.fragua.es

Diferencias debidas a -Instrumento -Cuidado en el diseño del


la falta de claridad del (redacción, Sistemático cuestionario, en la redacción de las
instrumento de medida estructuración) preguntas y en la estructuración

-Adecuada preparación del campo


-Preparación de
-Adiestramiento de los encuestadores
Diferencias debidas a campo
Azar -Instructivo para encuestadores
factores mecánicos -Encuestadores
-Cuestionario completo, claro y bien
-Cuestionario
diagramado

-Existencia de un plan de análisis de la


Diferencias debidas a
-Investigador Sistemático información
factores en el análisis
-Idoneidad del investigador

Elaboración propia sobre la base de Selltiz et al., 1968

En síntesis, la variabilidad de las condiciones en que se realiza la


medición puede hacer que los datos que se obtengan no reflejen la
verdadera posición de la unidad con respecto a la variable que se quiere
medir, lo que puede generar confusión en el análisis de los datos, arribando
a conclusiones erróneas.
Así, en términos generales se puede decir que el dato puede reflejar,
o bien las verdaderas diferencia en las características que se intenta medir;
o diferencias debidas a la presencia de error de algún tipo (aleatorio o de
azar), introducido en cualquiera de los momentos de la investigación, y
por cualquiera de los factores analizados, ya sea actuando aisladamente o
de manera combinada.

93
Antonio Lucas y Alejandro Noboa (eds.)

3. La fase post campo, cuando el dato sigue en construcción


Una vez aplicado el instrumento de medición emerge la estructura
tríadica del dato científico (unidad de análisis, variable o dimensión y el
valor), lo que se expresa en la denominada matriz; pero el mismo sigue
construyéndose aún después de que ésta fue completada.
A partir de ese momento se debe considerar que tipo de dato se puede
construir en el marco de la encuesta. En este sentido, se deberá considerar
el problema de investigación, el diseño para su estudio y la estrategia
seleccionada, dado que será el contexto metodológico que orientará la
capacidad de análisis e interpretación de la información suministrada.
www.fragua.es

Es así que se plantean determinados supuestos teóricos para que la


información que suministre pueda ser analizada e interpretada, los cuales se
sustentan en las propiedades del muestreo y a su vez permitirá decidir sobre
los diseños muestrales adecuados para la selección de los casos del problema
de investigación.
Los supuestos del muestreo serían:
Axioma 1: Todo trabajo con muestras requiere un conocimiento previo
del universo del cual se extraerán dichas muestras. El tomar muestras se
basa en la posibilidad de generalizar lo observado en una parte, hacia el
todo; es decir, en la idea de la similitud entre los elementos que integran la
muestra y el universo del cual se extrajo. Es necesario contar con algunos
conocimientos del universo de estudio en lo referente a la distribución de
las características que interesan estudiar.
Axioma 2: La similitud entre los componentes del universo no son
propiedades dadas sino distinciones hechas por el observador.
La o las características presentes en los elementos de un universo que
permiten identificarlo como tal y hacen posible el muestreo, son elegidas
por el investigador; la propiedad de ser universo, no está dada, es declarada
por el investigador.
Teorema del Límite Central: el teorema indica sea X1, X2, X3…
Xn una muestra aleatoria de tamaño n tomada de una población finita
con media µ y varianza √2, si n es suficientemente grande, X’ tiene
aproximadamente una distribución normal con media μx = µ y varianza =
, es decir, en determinadas condiciones, la media muestral de un conjunto

94
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

de variables aleatorias tiende a ser normal cuando el tamaño de la muestra


es lo suficientemente grande.
Por ejemplo, si se extrae una muestra de 400 casos y se calcula el
promedio de edad de los consumidores de cigarrillo de la ciudad X, la
probabilidad de que el promedio así obtenido se aproxime al promedio
real, será más alta si se extrae una segunda muestra pero mayor (500 casos),
lo que aumenta la probabilidad de acierto del promedio de edad de los
consumidores de cigarrillo.
La Ley de Los Grandes Números: en la medida que un experimento
es repetido varias veces, la probabilidad observada se aproxima de la
www.fragua.es

probabilidad real. Es decir, que sí un evento de probabilidad p es observado


repetidamente en ocasiones independientes, la proporción de la frecuencia
observada de este evento en relación al total o universo de pruebas
converge en dirección a p a medida que el número de repeticiones se hace
arbitrariamente grande. En definitiva, la Ley de los Grandes Números
implica que el promedio de una muestra probabilística conformada por
un mayor número de elementos, tenderá a estar más cerca de la media de
la población o universo de estudio.
De esta manera la tendencia de variables sociales a distribuirse de acuerdo
a la curva normal, tales como la edad, ingresos, gastos, años de estudio,
cantidades de consumo, etcétera, se hace visible a partir de grandes números
de casos, es decir, mayores a 30 casos tomados al azar.
Los cuatro supuestos o principios que se han indicado, fundamentan el
muestreo dado que hacen posible conocer totalidades a partir de partes, y
sustentada en ellos la técnica de encuesta para recolectar información de la
realidad social, posibilita desarrollar un método sistemático y riguroso que
posibilita generalizar las respuestas obtenidas.
De los señalados, los que se conocen y difunden con mayor difusión son
los dos últimos, mientras que los axiomas se aplican de forma tácita lo que
podría generar errores en la formulación del diseño muestral, a tales supuestos
es necesario tenerlos presentes dado que la aplicación de la técnica de encuesta
basada en muestras probabilísticas se fundamentan en los cuatro principios.
La no aplicación de los mismos incrementa las probabilidades de error en el
dato y, por la tanto, también en las inferencias que se realizan, pero no quiere
decir que el dato construido carezca de representatividad y validez.

95
Antonio Lucas y Alejandro Noboa (eds.)

Análisis de datos de encuesta


El proceso de análisis de la información generada por la encuesta
plantea al investigador el desarrollo de una determinada estrategia, para la
cual se podrían emplear determinadas herramientas estadísticas, las cuales
dependerán del tipo de problema/objeto de estudio y del nivel de medición
de las variables consideradas.
En tal sentido, una estrategia a ser aplicada es el análisis estadístico
descriptivo:
- Tiene como función principal brindar un conjunto de medidas que
www.fragua.es

sinteticen la información relevada.


- Estudia caracteres referidos a un colectivo de personas, o elementos
de naturaleza específica.
- La estadística descriptiva dispone de una serie de herramientas para
resumir la información proveniente de una muestra o universo: tablas,
gráficos, medidas de tendencia central, de dispersión, etcétera.
Otra estrategia es aplicar las herramientas del análisis estadístico
inferencial:
- El contenido central de dicho análisis es la extrapolación de los
resultados de una muestra al universo o población, cuya función es inferir
conclusiones y brindar medidas que permitan cuantificar la confianza y los
márgenes de error de tales conclusiones.
En el Cuadro 3.3 se organiza un esquema que presenta las herramientas
básicas del análisis estadístico descriptivo.
Al análisis descriptivo se lo complementa con la profundización del
mismo, cuando se aplican multivariadas que buscan describir y explicar
las relaciones en su variación de más de dos variables.Este tipo de análisis
se sustenta en los principios de la distribución paramétrica de los datos
observados, es decir, bajo los presupuestos de la ley de grandes números y
de tendencia central.
La realidad social como es sabido es muy compleja, complejidad que
se manifiesta en la multiplicidad de variables que generalmente intervienen
en los fenómenos sociales. Por ello, el análisis multivariable que no está

96
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

restringido desde su origen a un número determinado de variables, como


el uni o bivariable, puede permitir en principio el estudio de la realidad
social de una manera más completa y adecuada.

Cuadro 3.3. Herraminetas del análisis estadístico descriptivo

Variable Descripción Estadísticas y gráficos

Distribución de frecuencias
Cualitativa en escala Valores no numéricos con ausencia de orden
Moda
nominal entre ellos
Diagrama de barras
www.fragua.es

Mínimo
Máximo
Mediana
Cualitativa en escala Valores no numéricos con presencia de orden
Cuartiles
ordinal entre ellos
Presentiles
Rango intercuartílico
Gráfico de caja y bigotes
• Cuantitativa discreta: únicamente puede
Media
tomar una cantidad finita o numerable de
Rango
valores numéricos.
Varianza
• Cuantitativa continua: puede tomar
Cuantitativa en Desviación típica
cualquier valor numérico en un intervalo.
escala de intervalo o Coeficiente de variación
• En escala de intervalo: únicamente tiene
de razón Coeficiente de asimetría
sentido la diferencia entre sus valores.
Coeficiente de curtosis
• En escala de razón: si, además de la
Histograma
diferencia, tiene sentido la razón entre sus
Gráfico de tallo y hojas
valores.

Característica típica del análisis multivariable es que su complejidad


matemática aumenta progresivamente con el número de variables que
intervienen en él. Esta complejidad matemática hacía antes inviable la
extensión de su práctica habitual, pero el crecimiento y desarrollo sostenido
de la informática y de programas específicos están haciendo posible dicha
práctica.
Es de señalar la relatividad de estas técnicas estadísticas de análisis y de los
modelos matemáticos en la investigación social, con lo que se pretende prevenir
contra la posible creencia de que la simple aplicación de tales técnicas garantice
la exactitud e importancia de los resultados obtenidos. En primer lugar, se ha
de tener en cuenta que los procedimientos estadísticos y matemáticos tienen,
generalmente, sus coeficientes de error particulares, los que a veces, sobre todo
en modelos matemáticos, pueden ser bastante elevados.

97
Antonio Lucas y Alejandro Noboa (eds.)

En cuanto a la importancia de los resultados, ésta no se deriva de la


simple aplicación de las técnicas estadísticas y matemáticas, sino que depende
y está condicionada por el grado en que cumplan los datos utilizados los
presupuestos exigidos para la aplicación correcta de cada técnica, por la
calidad y exactitud de dichos datos, por la clasificación y tabulación adecuada
de los mismos y, por la correspondencia de las relaciones estadísticas y
matemáticas establecidas con relaciones significativas e importantes en la
realidad de las variables estudiadas.
Por último, como ocurre en todas las disciplinas o áreas del
conocimiento, la utilidad y eficacia de estas técnicas depende en último
término de la propiedad, inteligencia, imaginación y sentido crítico con
www.fragua.es

que se las aplique.


Dichas técnicas se distinguen en dos grandes grupos:
El primero está formado por las técnicas más antiguas en el tiempo de
carácter confirmatorio o decisorio, y el segundo por las más modernas de
carácter exploratorio e inventivo, y que suele recibir el nombre de análisis
de datos. En este sentido nos agrega Cibois que “en sociología hay métodos
“durkheimnianos” y métodos “weberianos”, los primeros ligados a los coeficientes
de correlación y a otros métodos que los utilizan (análisis de regresión y path
análisis), y los segundos ligados a métodos gráficos que presentan modalidades
de configuraciones de respuestas –datos- (multidimensional scaling) y análisis
de correspondencias” (Cibois, P.H, 1981:344).
Las técnicas primeras, presentan una relación más estrecha con las
técnicas estadísticas tradicionales o de más trayectoria en el tiempo. Por lo
general, pretenden estudiar las relaciones (frecuentemente de influencia)
entre diversas variables independientes con una, o a veces más de una,
dependiente. Estas (denominadas clásicas) son sin duda más rigurosas y
concluyentes matemáticamente que las modernas, pero por ello mismo
exigen también generalmente, mayor precisión en el nivel de medida de
las variables.
Las segundas has surgido después del desarrollo de las primeras, como
reacción ante el cansancio derivado de la aplicación de éstas. Su objetivo no
es establecer de manera precisa la determinación de unas variables por otras,
sino clasificar científicamente y representar gráficamente el conjunto de
datos obtenido en una investigación, con el fin de interpretarlos y descubrir
sus propiedades, características y posibles relaciones. De ahí el carácter

98
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

heurístico, de invención o hallazgo de idea o sugerencias a posteriori, que


tienen estas nuevas técnicas, frente al carácter apriorista, comprobatorio
y decisionista con relación a hipótesis determinadas, que ofrecen las más
antiguas. De ello se deriva la relación de aquellas con la fase inductiva del
desarrollo del modelo, más que con la deductiva de su prueba, peculiar en
las tradicionales. Ante ello se podrían considerar a estas técnicas de análisis
heurísticos, de las técnicas multivariables más importantes y aplicables que
en el contraste de hipótesis.
Por lo tanto, dado que no hay técnicas definitivas y válidas para todo
y en todos los casos, y que todas tienen sus límites e imperfecciones,
especialmente en las ciencias sociales, es necesario realizar una aplicación
www.fragua.es

inteligente de ellas en los casos para los que sean apropiadas, procurando,
siempre que sea posible, sacar partido de lo que tienen de complementarias.
Por último, no se debe olvidar que en la investigación científica las
técnicas matemáticas y estadísticas en general no son un fin en sí mismas,
sino un instrumento cuya eficacia depende de su apropiada utilización.
Como procedimientos formales que son admiten toda clase de datos,
ciertos y erróneos y sus resultados, incluso correctos operativamente,
frecuentemente lo son solamente con un grado de probabilidad mayor o
menor, por lo que deben ser siempre objeto de una interpretación racional
y crítica, teniendo en cuenta la realidad, la experiencia y la doctrina.

Cuadro 3.4. Técnicas de análisis multivariable

Componentes Principales
Regresión Múltiple
rmatorios Correlaciones Canónicas
Análisis (de) Discriminante: Factorial / Varianza / Covarianza
Senderos (Path)
TÉCNICAS DE ANÁLISIS Log-lineal
MULTIVARIABLE Sistemas

Clusters
Exploratorios Correspondencias
Análisis (de) Estructura Latente (Modelo Lazarsfeld)
Escalonamiento Multidimensional

99
Antonio Lucas y Alejandro Noboa (eds.)

Como todo esquema ayuda a sintetizar la información pero también


puede quedar otra sin ser considerada, a modo de cierre se debería tener
presente el diseño de investigación planteado y las respuestas que se
procuran con relación al mismo, para de esta manera evaluar la pertinencia
de la/s técnicas de análisis correspondientes.
Análisis e interpretación
Se han planteado los caminos posibles que orientan las técnicas de análisis
de la información recopilada por medio de la encuesta, hasta transformarse en
un dato, para lo cual la estadística resulta ser una herramienta fundamental,
pero no se termina allí sino que recién se comienza.
www.fragua.es

¿Cuáles serían los principales objetivos de análisis de una encuesta? Se


los podría esbozar en: la realización de estimaciones, síntesis y reducción de
complejidades del dato, construcción de un relato que procure ordenar y
orientar explicaciones coherentes acerca de las estructuras sociales, grupos y
procesos que se investigan de la realidad social.
Ahora, como toda herramienta la estadística puede ser de ayuda en la
configuración de los objetivos antes mencionados, pero con ello no basta,
dado que se complementa con el análisis teórico y la capacidad de ir más allá
del dato estadístico por medio de la intuición, imaginación, experiencia, y
no siempre caminos apoyados en la razón. Como menciona Aldridge, A.
y Levine, K: “Moverse entre las encuestas y los hechos requiere habilidad y
agilidad mental, y el conocimiento técnico estadístico también juega un papel
importante, aunque no esencial, puesto que los métodos estadísticos son una
herramienta, no un fin en sí mismos” (Aldridge, A. y Levine, K., 2003:174).
Lo que se pretende señalar es tener en cuenta la posibilidad de ser
“hipnotizados” por el volumen de información recolectada por medio de la
encuesta, especialmente en aquellas que responden a un diseño descriptivo
en relación con aquellas de diseño analítico/explicativo, dado que estas
últimas proporcionan un punto de referencia sobre el cual analizar lo que
posibilita orientar al investigador. Pero se corre con el riesgo de enfocar de
tal manera la encuesta, que la misma imposibilita al investigador captar
las novedades, el dato diferente o inesperado no ser considerado dado que
de antemano se están colocando a prueba una serie de proposiciones sean
empíricas o conceptuales. Mientras que en las encuestas descriptivas es
posible llevar adelante una estrategia exploratoria de los datos, dado que se
no cuentan con hipótesis que orienten su análisis.

100
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

Teniendo presente ello, se procurará continuar avanzando en tal sentido


considerando las posibles formas de análisis y su posterior interpretación,
entendiendo a la misma como la capacidad de explicar o dar sentido a los
datos construidos.
En tal sentido Cea d’ Ancona señala: “La correcta interpretación de los
datos de encuesta, y su contingente de credibilidad, precisan de la especificación
de los “límites” de la investigación. Junto con el detalle de las actuaciones
preventivas y paliativas emprendidas para su corrección” (Cea d’ Ancona, M.
2004: 97).
Análisis Descriptivo del Dato
www.fragua.es

Al ser aplicado este tipo de estrategia analítica para la construcción del


dato, se debería tener presente que el formulario elaborado no fue diseñado
en función del análisis sino a una estrategia exploratoria acerca del problema
de investigación. Ante lo cual, el camino a recorrer estaría pautado por lo
temas abordados en el formulario y las dimensiones contextuales.
Los resultados del análisis en sí obedecerán a la aplicación del
cálculo de frecuencias de las variables consideradas principales por parte
del investigador, resumen de medidas estadísticas, gráficos y tablas de
contingencia y, en el caso de respuestas abiertas la agrupación de los
comentarios de los encuestados.
En definitiva, la construcción del relato acerca del dato en un contexto
de estrategia exploratoria y descriptiva permitirá la combinación de la
dimensión descriptiva y/o explicativa, analítica, y no exclusivamente
descriptiva en forma monolítica; esta forma de presentación estaría
mediada por las características del problema social a ser analizado y la
estrategia elaborada por el investigador, la cual encontrará los límites en las
posibilidades relacionales de las variables analizadas.
Análisis Explicativo del Dato
Al hacer referencia al análisis explicativo, se deber considerar por
un lado el objetivo planteado por el investigador ante el problema a ser
analizado y, por otro, el diseño configurado para tal fin. Teniendo presente
ello, un análisis explicativo dará cuenta de una encuesta cuyo énfasis
estará pautado por establecer vínculos entre diferentes preguntas, variables
y grupos temáticos, con el objetivo de elaborar medidas e indicadores

101
Antonio Lucas y Alejandro Noboa (eds.)

externos a las variables relevadas para representar categorías conceptuales


o cuerpos teóricos y desarrollar modelos estadísticos que posibiliten dar
cuenta de los diferentes aspectos de los datos.
Para lo cual las herramientas tales como las tablas de contingencia,
las pruebas de significación, las medidas de dispersión y las diferentes
posibilidades que ofrece la inferencia estadística posibilitan la generalización
sobre el conjunto de la población del universo de estudio a partir de los datos
de la muestra, teniendo presente las posibilidades de error tanto sistemáticos
como no sistemáticos para la toma de decisiones.
Pero por otro lado, se complementa con el análisis multivariante, la
www.fragua.es

construcción de modelos tanto para variables continuas como discretas


y los procedimientos de prueba auxilian el proceso de análisis desde sus
diferentes dimensiones (Aldridge, A. y Levine, K.: 2003).
En el caso de la construcción de modelos de análisis, los mismos responden
a esquemas teóricos y conceptuales que subyacen en los mismos, poniendo a
prueba las hipótesis que integran el diseño de relevamiento y análisis del dato
construido. Ahora, si el proceso es inverso, es decir, el modelo se construye
a partir de los datos aportados por la encuesta, el mismo precisará de una
reinterpretación en tanto responda (con el mayor grado de precisión posible)
a la estructura e interpretaciones del universo social de análisis.
El análisis de la información por parte del investigador en este caso
debería conectar la evidencia empírica con los objetivos principales del
estudio, pero también tales objetivos podrían ser orientadores de que
herramientas estadísticas descriptivas se priorizan en la elaboración del
informe final y la organización de tal presentación. Tal organización y
presentación de datos, procuraría destacar las dimensiones de análisis que
han producido resultados empíricos importantes, y también señalar aquellas
dimensiones no totalmente claras y contundentes que surgen del dato.
Por otra parte, forma parte del proceso de análisis más allá del tipo de
diseño desarrollado en la construcción del dato, que el investigador lleve
adelante un esfuerzo detallado y profundo, para identificar qué resultados
empíricos no se ajustan con los presupuestos teóricos/conceptuales, para de
esta manera “exigir” de tales presupuestos sus capacidades interpretativas
de la evidencia empírica sea tanto para describir, explicar o comprender los
fenómenos sociales analizados.

102
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

Teniendo presente la capacidad configurativa del diseño de investigación


tanto para la construcción del dato como de las características centrales de
la encuesta, considerando a la misma como herramienta central para la
construcción de la evidencia empírica, tal capacidad influye en el proceso
y características de análisis de los resultados de encuesta. En este sentido,
se podrá indagar en dichos resultados posibles relaciones entre diferentes
variables, sea de manera asociativa/relacional o de carácter causal.
Lo que sigue a continuación pretende enunciar las potencialidades del
análisis de los datos en diseños no experimentales explicativos, los que serían
conjuntamente con los exploratorios y descriptivos los de mayor ejercicio
metodológico y técnico en las ciencias sociales, sin dejar de considerar el
www.fragua.es

aporte valioso de los diseños experimentales.


Posibilidades de Análisis Relacional/Causal
El objetivo no es profundizar sobre la cuestión de la causalidad, pero si
dejar establecidos criterios que permitan tener presente de que se está hablando,
especialmente al momento del análisis de los datos. En tal sentido, se tomará lo
aportado por el Prof. Schuster, F. quién señala: “…pensamos, puede intentarse el
rescate adecuado de la noción de causa, como condición suficiente, lo que además,
también creemos, tiene interesantes consecuencias, en la ciencia en general y en las
ciencias sociales en particular. De esta manera, la búsqueda de causas significaría
la búsqueda de un conjunto de condiciones suficientes para la producción de un
fenómeno, acción o acontecimiento. Y lo que suele suceder es que a menudo se
toma una de ellas, de ese conjunto, como el factor más relevante de esa producción”
(Schuster, F. 2005: 57-58).
Entonces, los datos que se construyan como resultado de un diseño de
investigación de características explicativas procuraran las principales causas
o motivos y condiciones para la ocurrencia del fenómeno social en estudio, o
porque dos o más variables se relacionan. Como bien agrega Hernández Sampieri,
R.: “Los estudios explicativos van más allá de la descripción de conceptos o fenómenos
o del establecimiento de relaciones entre conceptos; están dirigidos a responder a las
causas de los eventos físicos o sociales” (Hernández Sampieri, R. 1997: 67).
Un ejemplo de ello podría ser el estudio de opinión pública acerca
del porque determinado grupo elector votará o votó por el candidato A y
otro grupo elector por el candidato B. Este tipo de estudio respondería a
preguntas tales como: ¿qué variables mediatizan la elección por el candidato
A y cómo? ¿por qué el grupo de electores del candidato A lo prefiere con

103
Antonio Lucas y Alejandro Noboa (eds.)

relación al candidato B? ¿qué efectos tiene en el grupo de electores del


candidato A la campaña publicitaria electoral?
En definitiva, el diseño explicativo exigirá una matriz de datos que
den respuesta a este tipo de preguntas que buscan la explicación, la cual
muchas veces podrá ser orientada por relaciones causales o no, para lo cual
el análisis de tales datos demandará de herramientas de mayor complejidad
como la ya citadas en el punto anterior.
Posibilidades de Análisis Descriptivo
En este caso el dato proviene de otro tipo de diseño, el descriptivo,
www.fragua.es

para el cual el investigador busca especificar determinadas características


importantes de las personas, grupos, comunidades, o cualquier fenómeno
social que sea posible de ser estudiado. Nuevamente citando a Hernández
Sampieri, R. quién señala: “Miden o evalúan diversos aspectos, dimensiones
o componentes del fenómeno o fenómenos a investigar. Desde el punto de vista
científico, describir es medir. Esto es, en un estudio descriptivo se selecciona una
serie de cuestiones y se mide cada una de ellas independientemente, para así —y
valga la redundancia— describir lo que se investiga” (Óp. Cit.: 61).
Un ejemplo de ello podría ser la Encuesta Continua de Hogares
(ECH) del Instituto Nacional de Estadística (INE Uruguay), dado que
uno de sus objetivos es medir una serie de características de los hogares
uruguayos tales como consumo, aspectos de la vivienda (número de cuartos
y pisos, si cuenta o no con energía eléctrica y agua entubada, número de
paredes, combustible utilizado para cocinar, tenencia o a quién pertenece
la vivienda, ubicación de la vivienda; información sobre los ocupantes), sus
bienes, ingreso, alimentación, medios de comunicación de que disponen,
edades, sexo, lugar de nacimiento y residencia, número de integrantes del
hogar, tipo de familia, religión, ocupaciones y otras características que se
consideren relevantes o de interés.
Por otra parte, es de hacer notar que este tipo de estudio mide de
forma independiente los conceptos o variables con los que tienen que ver,
indicando como son y se manifiesta el fenómeno social a ser analizado y no
como se relacionan. El análisis del dato descriptivo podrá ser más o menos
profundo, pero en cualquier caso se basa en la medición de uno o más
atributos del fenómeno descrito.

104
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

Ante ello al momento de elaborar la estrategia de análisis de datos


descriptivos, se deberá tener presente las herramientas estadísticas que
se adecúan a los mismos y de las limitaciones presente. Para lo cual, los
estadísticos provenientes de las medidas de tendencia central, de dispersión,
sumado a los aportes en la construcción de tasas e índices permitirán
la medición de las variables de interés. Ahora, existe una posibilidad
“precaria” de inferencia con estas herramientas, pero supone un proceso de
acumulación de conocimiento sobre el fenómeno social en estudio, a modo
de ejemplo: el de un analista de opinión pública que, basándose en datos
descriptivos obtenidos en una encuesta realizada entre todos ciudadanos
mayores de 17 años de los diferentes niveles socioeconómicos de una
población, para las elecciones nacionales (número de personas que dijeron
www.fragua.es

que votarán por cada uno de los candidatos contendientes), intenta predecir
—probabilísticamente— qué candidato triunfará en la elección.
En resumen, el análisis del dato proveniente de un diseño descriptivo
podrá medir los conceptos o variables relacionados con ellos acerca de
un determinado fenómeno social, dicha medición caracterizará la forma
y valores centrales de tales variables, y sí el proceso de acumulación de
conocimiento sobre el fenómeno social en cuestión es tal, se podría estimar
posibles comportamientos de acuerdo a lo asumido anteriormente.

Conclusiones
La idea de la generación del dato científico en el caso de la investigación
mediante encuesta, conlleva implícito el rechazo a concebirla como una
mera instancia de recolección de información disponible. Se asume que se
trata de un proceso de construcción, el que implica una serie de decisiones
transversales a todo el estudio. Esto va más allá de la aplicación de un
cuestionario, ya que esa elaboración comienza en el momento mismo que
el investigador define el aspecto de la realidad social a abordar, a través de
que observaciones lo hará, empleando que estrategia y herramientas, y de
qué tipo de análisis realizará.
Aceptar esto supone desplazar la atención desde el problema de
recoger información, hacia el relacionado con cuánto de lo que se
finalmente se presenta en el informe final da cuenta de la real posición
del objeto, y cuánto es producto de errores introducidos por múltiples
fuentes. Esto es así porque ya en la fase de diseño de la investigación, cuando

105
Antonio Lucas y Alejandro Noboa (eds.)

se debe operacionalizar el concepto que se busca medir, se pueden seleccionar


indicadores no válidos, o que aún cuando lo sean, no se trate de los que mejor
representan al mismo; además de la consabida pérdida de riqueza debido a
imposibilidad de observación directa.
Luego, al transformar a esas variables empíricas en las preguntas del
cuestionario, la forma en que las mismas son formuladas y ordenadas en
el instrumento, puede afectar el supuesto/condición de lograr un estímulo
estandarizado, que se aplique a todos los encuestados en la búsqueda de
comparar las respuestas.
Pero también el cumplimiento de ese objetivo puede ponerse en riesgo
www.fragua.es

debido al accionar del observador, quien es portador de preconceptos,


valores e ideología, y que se enfrenta a otro que responde, el que posee
las mismas características, particularmente una, la de la reactividad a la
medición.
Además, la pretendida uniformización del conjunto de encuestas se ve
cuestionada por la dificultad para reproducir los contextos o situaciones en
los que se realiza cada una de ellas.
Aún así, la variabilidad inherente a la medición de la que se ha dado
cuenta, más que negar la posibilidad de llevar a cabo este tipo de indagaciones,
pretendió remarcar la necesidad de mantener una cuidadosa vigilancia de
las posibles fuentes de error, intentando minimizar sus efectos. Para ello
se requiere de un investigador riguroso y atento a todos los momentos del
proceso, el que además elabore un instrumento donde la improvisación
no tenga lugar, y seleccione y preparare a los encuestadores haciendo que
comprendan y asuman un compromiso con la globalidad del estudio y no
solamente con la parte que les corresponde; así como también cuidar de
todos aquellos otros aspectos que no se pueden prever, pero que agregan
variabilidad de un caso a otro.
Pero además, luego de validar los cuestionarios y asumiendo que los
digitadores han hecho bien su trabajo, entrando ya a la etapa del análisis
se observa que las herramientas estadísticas mucho dependerán del diseño
metodológico seleccionado. En el caso de diseños que procuren análisis
de relaciones/causales, las principales herramientas analíticas enfatizarán
en la construcción de tablas de contingencia, coeficientes de asociación
paramétricos y no paramétricos, análisis de varianza o multivariable.
Mientras que en los diseños descriptivos, el resumen de la información por

106
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

medio de tablas de frecuencia, gráficos y medidas de tendencia central,


posibilitarán analizar la forma de concentración y distribución de tales
datos.
Ahora, tales herramientas de análisis forman parte del proceso de
construcción del dato en las ciencias sociales y no se debería considerar
en forma aislada a tales procedimientos, sino como componentes del
mencionado proceso, integrando un todo que procura en definitiva la
construcción de evidencia empírica de manera organizada, sistematizada
y con controles metodológicos de los errores que se generan en el mismo.
Tales errores podrían sistemáticos, controlados por diferentes
www.fragua.es

procedimientos que procuren una mejor calidad del dato, o errores


estocásticos, es decir, productos del azar debido a que el dato se construye
por medio del diseño muestral y por ello no es posible de ser controlado
sino que forma parte de la distribución probabilística.
Tener en cuenta la presencia del error en los diferentes momentos
del proceso de análisis de la información que construye el dato, permite
visibilizar las condiciones de incertidumbre bajo las cuales el conocimiento
se genera acerca de un determinado fenómeno social, potenciando la
herramienta teórica para interpretar tal fenómeno a partir de datos con
niveles de incertidumbre conocida.

Bibliografía
Aldridge, A.; Levine, K. (2003). Topografía del mundo social. Teoría y
práctica de la investigación mediante encuestas. Barcelona: Editorial Gedisa.
Cea D´Ancona, M. (2001). Metodología Cuantitativa: Estrategias y
Técnicas de Investigación Social, Madrid: Editorial Síntesis.
Cea d´Ancona, M. (2005). La senda tortuosa de la “calidad” de la
encuesta, en Revista Española de Investigaciones Sociológicas . España: REIS,
nº111, pp.75-103.
Cibois, P.H. (1981). Analyse des données et sociologie, en Lannée
Sociologique, v.31.

107
Antonio Lucas y Alejandro Noboa (eds.)

Corbetta, P. (2007). Metodología y Técnicas de Investigación Social,


Madrid: McGraw Hill.
Del Pino Artacho, J. (2006). La medición en Ciencias Sociales: encuestas,
entrevistas y cuestionarios, en Medio Ambiente y Sociedad, Camarero, L.
(coord.), España: Thomson-Paraninfo, pp. 43-115.
García Ferrando, M; Ibañez, J; Alvira, F. (2007). El Análisis de la
Realidad Social: Métodos y Técnicas de Investigación, Madrid: Alianza
Editorial.
Gil Flores, J, (1994), Análisis de Datos Cualitativos. Aplicaciones a la
www.fragua.es

Investigación Educativa, Barcelona: Edit. PPU, Cap.1.


Hernández Sampieri, R. (1997). Metodología de la Investigación,
Bogotá: McGraw Hill.
Mayntz, R.; Holm, K. y Hübner, P. (2004). Introducción a los métodos
de la sociología empírica, Madrid: Alianza Editorial.
Rey Lennon, F. y Piscitelli Murphy, A. (2004). Pequeño manual de
encuestas de opinión pública, Buenos Aires: Editorial La Crujía Ediciones.
Schuster, F. (2005). Capítulo V. Explicación y causalidad. En libro:
Explicación y Predicción. La validez del conocimiento en ciencias sociales. Félix
Gustavo Schuster. Colección Biblioteca de Ciencias Sociales, Buenos Aires:
CLACSO, pp.53-58.
Selltiz, C., Jahoda, M., Deutsch, M. y Cook, S (1968). Métodos de
Investigación en las Relaciones Sociales, Madrid: RIALP, Cap. 5, págs. 170
a 214.
Sierra Bravo, R. (1999). Técnicas de Investigación Social: teoría y
ejercicios, Madrid: Paraninfo.

108
Capítulo 4

ANÁLISIS DE DATOS CUANTITATIVOS


www.fragua.es

José Manuel Segovia


Universidad Complutense de Madrid

Paula Sánchez
Meseguer IPSOS (París)

ÍNDICE
1. Antes del análisis
2. Algunos ejemplos de transformación de las variables
3. Técnicas de análisis univariable
4. Técnicas de análisis bivariable

109
Antonio Lucas y Alejandro Noboa (eds.)

Introducción
El objetivo del capítulo, no es otro que mostrar en qué consiste el
análisis de los datos; para ello se hará un análisis concreto y limitado de
unos datos sacados del Centro de Investigaciones Sociológicas (en adelante
CIS). En el análisis, se usarán distintas técnicas estadísticas uni y bivariables,
a completar en otro capítulo de este Manual con las técnicas multivariables,
implementadas mediante el paquete estadístico SPSS. Junto a los análisis
estadísticos se mostrarán otras actividades que hay que realizar, previas a
esa fase de la investigación, relacionadas con la preparación de las variables
(p. ej. recodificándolas), la creación de nuevas variables a partir de las ya
existentes (p. ej. elaboración de índices y escalas) y la ponderación de la
www.fragua.es

muestra cuando ésta no sea representativa de la población de la que se


extrajo.
En concreto los datos que vamos a analizar provienen del Barómetro
de Sanidad del CIS, realizado en el 2010, en su tercera y última oleada
(Estudio 2850). En este capítulo, se incluirá parte de la información relativa
a este Estudio: aquellas preguntas del cuestionario que se van a utilizar y
algunos datos de su Ficha Técnica, en la que se explican tanto el diseño de
la muestra que se utilizó para obtener la información como la necesidad
de ponderarla. El resto de la información (preguntas del Cuestionario y
datos de la Ficha Técnica) puede obtenerse directa y gratuitamente del CIS,
entrando en la siguiente dirección:
http://www.cis.es/cis/opencm/ES/1_encuestas/estudios/ver.jsp?estudio=11924

También es posible acceder a la misma página Web desde un dispositivo


móvil escaneando el código QR que mostramos a continuación.

Por lo demás, el capítulo contiene la información necesaria para que


pueda ser leído autónomamente, aunque se recomienda a los lectores que
hagan la lectura después de haberse bajado del CIS los siguientes ficheros:
la Ficha técnica (fichero FT2850), el Cuestionario (fichero Cues2850) y el

110
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

Fichero de datos (ficheros DA2850 y ES2850, si los datos se van a analizar


con SPSS, o DA2850 y Sas2850, cuando el análisis se haga con SAS).
El primero contiene información de cómo se hizo el Estudio, con todos
los datos técnicos necesarios para poder entender el proceso; el segundo
muestra el Cuestionario utilizado para obtener la información; y el tercero,
en formato zip, incluye un par de ficheros que siguiendo las instrucciones
que el CIS facilita han de permitir generar los ficheros SPSS o/y SAS con los
que analizar los datos. Con el fin de poder, primero, generar estos ficheros
SPSS o/y SAS y, después, analizarlos es necesario que el lector tenga acceso
a uno o a los dos programas, en cualquiera de sus últimas versiones. En
este capítulo se utiliza el fichero SPSS, y por tanto el programa SPSS, para
obtener todos los resultados que se muestran.
www.fragua.es

Si el lector dispone de estos ficheros podrá hacer un seguimiento más


completo de las explicaciones aquí contenidas. En particular, si dispone del
fichero y del programa SPSS podrá reproducir todos los análisis estadísticos
que se vayan explicando en este capítulo.
Para un estudio más profundo del análisis de los datos, que complete
la introducción que se hace en este capítulo, recomendamos al lector el
Manual de Análisis Estadístico de los Datos, publicado por Sánchez Carrión
en Alianza Editorial (Sánchez Carrión ; 2005). En ese libro se tratan con
detenimiento los temas estadísticos que aquí solo quedan introducidos.
Cuadro 4.1. Representación gráfica del paso de la información de los
cuestionarios a la matriz de datos

111
Antonio Lucas y Alejandro Noboa (eds.)

1. Antes del análisis


Del cuestionario a la matriz de datos
Antes de empezar propiamente con el análisis de los datos hay que
hacer algunas operaciones, que son las que se van a mostrar a continuación.
La primera operación tiene que ver, con el hecho de que los datos
obtenidos mediante el cuestionario hay que grabarlos en forma de Matriz
de Datos, con el fin de que puedan ser analizados estadísticamente haciendo
uso de un programa estadístico (en nuestro caso, SPSS). Y esta matriz
de datos, a la cual se vuelcan los datos del cuestionario, es una tabla de
www.fragua.es

doble entrada en la que en filas aparece la información de cada uno de los


entrevistados (las unidades del análisis) y en columnas las respuestas que
dan a las preguntas del cuestionario, que ahora vamos a llamar variables.
Es decir, mientras que en el cuestionario (véase el fichero Cues2850
bajado de la Web del CIS) se habla de preguntas, la P1, la P2, etc., en el
análisis se habla de variables. En muchas ocasiones preguntas y variables
son la misma cosa: una pregunta se transforma en una variable. Éste es el
caso de la pregunta P1 del Cuestionario (Cuadro 4.2.) tal como se dice
en la pregunta, el entrevistado ha de elegir una sola de sus alternativas
de respuesta, sea Defensa, Educación o cualquiera de las otras. Cuando
esto ocurre se dice que la pregunta P1 del cuestionario se transforma en la
variable V1 de la matriz de datos, o cualquiera que sea el nombre que se le
dé a la variable (el CIS la denomina P1).
En otros casos, cuando el número de respuestas que se le puede dar
a la pregunta es superior a uno, diremos que la pregunta tiene tantas
variables como posibles respuestas. La Pregunta P4 es un buen ejemplo de
lo que decimos (Cuadro 4.3.). Aunque la pregunta es única, realmente se
está haciendo cuatro preguntas: una por cada una de las afirmaciones que
aparecen en la pregunta, a las que el entrevistado puede contestar diciendo
que mucho, bastante… En este caso cuando se pasa a la matriz de datos
la pregunta P4 del cuestionario se transforma en las variables P401, P402,
P403 y P404 (nombre arbitrario que les atribuye el CIS).
Para empezar, ¿podría decirme cuál de las siguientes áreas que le voy
a leer es la que considera Ud. de mayor interés para los ciudadanos y las
ciudadanas? (UNA RESPUESTA). (MOSTRAR TARJETA A).

112
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

Cuadro 4.2. P.1

-Defensa 01
-Educación 02
-Sanidad 03
-Vivienda 04
-Pensiones 05 (29)(30)
-Transportes 06
-Seguridad ciudadana 07
-Servicios sociales 08
-N.S. 98
www.fragua.es

-N.C. 99

Después de la aplicación de la Ley de Tabaco, ¿en qué grado está Ud.


de acuerdo con cada una de las siguientes afirmaciones: mucho, bastante,
poco o nada?
Cuadro 4.3. P.4

Muchos Bastante Poco Nada NS NC


La mayoría de los fumadores respeta la
1 2 3 4 8 9 (34)
Ley del Tabaco
Los no fumadores sufren ahora menos 1 2 3 4 8 9 (35)
Con la Ley del Tabaco, se fuma menos
1 2 3 4 8 9 (36)
en todos los sitios
Habría que endurecer más la ley 1 2 3 4 8 9 (37)

Y lo mismo que en el cuestionario se habla de “preguntas” y en la matriz


de datos de “variables”, a las alternativas de respuesta de las preguntas del
cuestionario en la matriz de datos se las llaman “categorías” (cuando a
la alternativa se responde con nombres: por ejemplo, a la pregunta Sexo
se responde con las alternativas hombre o mujer) o “valores” (cuando la
respuesta es un número: a la pregunta Edad se responde con un número,
por ejemplo, 30 años).
El cuadro siguiente muestra la relación ente el Cuestionario y la Matriz
de datos:

113
Antonio Lucas y Alejandro Noboa (eds.)

Cuadro 4.4. Relación ente la información del Cuestionario y de la


Matriz de datos

El Cuestionario tiene… La Matriz de datos tiene…

... preguntas … variables


Las variables tienen:
• Categorías (si las variables son
Las preguntas tienen:
cualitativas), normalmente codificadas
• Alternativas de respuesta
numéricamente; o
• Valores (si las variables son
www.fragua.es

cuantitativas)

Hechas las aclaraciones anteriores, se puede empezar a hablar del análisis


de los datos, propiamente dicho. Para ello primero se debe distinguir entre
el tipo de variables que se van a encontrar, según su nivel de medida y el
papel que juegan en la investigación, pues de ello dependerá el análisis
estadístico que se va a aplicar; después se mostrara una clasificación de las
técnicas que se pueden utilizar; y, finalmente, se explicara cuáles son las
fases en las que se descompone el análisis de los datos.
Tipos de variables.
Existen diferentes formas de clasificar las variables, dependiendo de cuál
sea su nivel de medida o/y el papel que jueguen en la investigación que se esté
realizando.
Según el nivel de medida, en las ciencias sociales se suele hablar de
3 tipos de variables: variables nominales, ordinales y de escala. Las dos
primeras son variables cualitativas y la tercera cuantitativa. Se dice que
las variables nominales y ordinales son cualitativas porque su contenido
son nombres (cualidades). Otra cosa distinta es que luego, al codificar las
categorías de las variables cualitativas mediante la asignación de un código
numérico, el nombre devenga en un número. Pero se trata de un número
sin valor para hacer operaciones estadísticas que no sean simplemente su
recuento: número de veces que aparece en la encuesta. Así, si se pregunta a
los entrevistados por su lugar de nacimiento (variable nominal) la respuesta
será el nombre de una ciudad (Madrid, Barcelona…). Lo mismo ocurre

114
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

si se les pide que digan cuál es su nivel de estudios (variable ordinal), a la


que, por ejemplo, pueden responder eligiendo entre estudios superiores,
medios o inferiores. La diferencia entre ambos tipos de variables es que las
primeras no implican relación alguna de orden entre sus categorías, tan
solo diferencia: una persona de Madrid no es más o menos que otra de
Barcelona; tan solo es de distinta población. Por el contrario, una persona
que diga que tiene estudios superiores no solo tiene un nivel de estudios
diferente a otra que tenga estudios inferiores, sino que, además, también
tiene más estudios.
En las variables cuantitativas su contenido, en vez de un nombre, es un
número. Por ejemplo, al preguntar a los entrevistados por su edad (variable
www.fragua.es

de escala) responden con un número (una cantidad dentro de una escala de


edad, en este caso expresada en años): por ejemplo, 33 años. Estas variables
cuantitativas son las que desean tener todos los investigadores por la mayor
cantidad de información que contienen: una persona que tenga 33 años no
solo es diferente a otra de, por ejemplo, 45 (propiedad ésta de la diferencia,
propia de las variables nominales), sino que también tiene menos años
(propiedad de las ordinales), y, además, nos permite saber exactamente
cuánto más joven es (12 años de diferencia en una escala de edad medida
en años).
Según el papel que juegan en la investigación, en las ciencias sociales
se suele hablar de variables independientes (también explicativas) y
dependientes (también explicadas). Si se quiere explicar la razón, por la
que unas personas votan a unos partidos y otras a otros (variable Voto)
podemos pensar en sus también diferentes niveles de ingresos (variable
Ingresos) como una explicación posible. En este ejemplo la variable Voto
sería la dependiente y la variable Ingresos la independiente. El papel de los
ingresos cambiaría si, precisamente, esta variable fuera la que se quisiera
explicar; en cuyo caso pasaría de dependiente a independiente, y, por
ejemplo, los Estudios podrían actuar como nueva variable independiente.
Estas distinciones que se acaban de hacer son pertinentes porque
determinan el tipo de técnica estadística que vayamos a utilizar en cada
caso, tal como tendremos ocasión de mostrar inmediatamente.
Clasificación de las técnicas estadísticas.
En los dos cuadros siguientes, se muestra la relación de técnicas
estadísticas, que se suelen utilizar cuando se analizan las variables tomadas

115
Antonio Lucas y Alejandro Noboa (eds.)

de una en una (Cuadro 4.5) o de dos en dos (a partir de dos variables


se estaría hablando de análisis multivariable, algo que es explicado en
otro capítulo de este libro) (Cuadro 4.6). La clasificación de las técnicas,
se establece utilizando el nivel de medida como criterio. Posteriormente,
se hace referencia al tipo de uso que se hace de estas técnicas, según que
el objetivo sea describir una situación a partir de los datos obtenidos
en la investigación, o que se quiera utilizar estos datos, supuestamente
provenientes de una muestra, para generalizarlos al conjunto de la población
de la que dicha muestra se ha extraído.
www.fragua.es

Cuadro 4.5. Técnicas estadísticas de análisis univariable de los datos

Nivel de medida de la
Técnica utilizada
variable
I. Distribución de frecuencias y cálculo de porcentajes (sobre el
total de los casos, sobre los casos “válidos”, cumulados…)
Nominal (variable cuali-
II. Representación gráfica: diagrama de barras, gráfico de
tativa)
sectores…
III. Estadísticos: de tendencia central (la moda)

Ordinal (variable cuali- Iguales técnicas que para las variables nominales, más
tativa) III. Estadísticos: de tendencia central (la mediana)

I. Distribución de frecuencias: igual que nominales y ordinales,


previa recodificación (agrupamiento de los valores en interva-
los)
Escala (variable cuantita- II. Representación gráfica: histograma y curva normal.
tiva) III. Estadísticos: de tendencia (media, mediana, moda…), de
dispersión (desviación típica, varianza, recorrido intercuartíli-
co…)
IV. Forma de la distribución: normal, asimétrica…

Yendo al análisis univariable, independientemente del nivel de medida


de la variable que se está estudiando, se va a dividir su análisis en tres partes:
a) construir una distribución de frecuencias que diga cuánta gente se clasifica
en cada una de las categorías o valores de la variable (expresando el número
en términos absolutos y/o en porcentajes); b) representar gráficamente esta
distribución, estudiando sus características (p. ej. mirando si la distribución
tiene forma normal); c) y ver si los datos se pueden modelar (simplificar)
recurriendo a algún estadístico, bien sea de tendencia o de dispersión.

116
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

Complementando estas técnicas se puede recurrir a otras, llamadas “de


análisis exploratorio de los datos” (EDA), que se omite en este capítulo,
pero que el lector interesado puede ver, entre otros libros, en Sánchez
Carrión, 2005.
Cuando de estudiar la relación entre dos variables se trate, también
la técnica elegida dependerá de cuáles sean sus niveles de medida, aunque
ahora también se habrá de tener en cuenta como criterio de clasificación el
papel de las variables en la investigación. Ahora bien, ¿cómo se clasifican
las técnicas de análisis bivariable? (Cuadro 4.6).
www.fragua.es

Cuadro 4.6. Técnicas estadísticas de análisis bivariable

Nivel de medida de las variables Técnica utilizada


I. Tablas de contingencia: cálculo de porcen-
Dos variables cualitativas (no-
tajes y de estadísticos (diferentes según que las
minales u ordinales)
variables sean nominales u ordinales)
Una variable cualitativa (la I. Comparación de medias y/o Análisis de
independiente) la varianza.
y otra cuantitativa (la depen- II. Recodificar la variable cuantitativa y
diente) utilizar Tablas de contingencia (técnica de nivel
inferior)
I. Correlación (estadístico simétrico: no se
asume relación de causalidad entre las variables)
y Regresión (estadísticos asimétricos: se asume
que una variable es independiente y la otra
Dos variables cuantitativas dependiente)
(nivel de escala) II. Recodificar una de las variables (la inde-
pendiente) y utilizar la Comparación de medias
o/y el Análisis de la varianza.
III. Recodificar las dos variables y utilizar las
Tablas de contingencia

En todos los tipos de análisis, cualquiera que sea la técnica que se haya
elegido, se debe distinguir entre el análisis descriptivo y el inferencial. El
primero tiene que ver con la explotación de los datos que se han obtenido en
la investigación, sin pretensión de generalizarlos más allá del propio colectivo
del que se han extraído. El análisis inferencial utiliza los estadísticos obtenidos
en una muestra (p. ej. la media ȳ) para sacar conclusiones sobre los parámetros

117
Antonio Lucas y Alejandro Noboa (eds.)

de la población (p. ej. la Media Ȳ) de la que aquella se extrajo. La condición


para poder sacar estas conclusiones, dentro de ciertos márgenes de error y
con un determinado nivel de confianza, es que la muestra se haya obtenido
dando igual o conocida probabilidad de selección a todos los miembros de
la población, o a cualquier combinación de ellos. Y las conclusiones pueden
ser de dos tipos: estimación (inferencia) de los parámetros poblacionales a
partir de los estadísticos de la muestra utilizando la técnica de los intervalos
de confianza (véase la fórmula [1] en el apartado 4); y contraste, test o prueba
de hipótesis para ver si el estadístico obtenido en la muestra (p. ej. la Chi-
cuadrado de las Tablas de contingencia) es estadísticamente significativo
(diferente de cero en la población) o, por el contrario, es producto del azar
(su valor en la población es cero, pero debido al azar en la muestra se ha
www.fragua.es

obtenido un valor distinto; véase un ejemplo de contraste de hipótesis en


cada una de las técnicas explicadas).
Fases del análisis de los datos
Una vez que se tienen metidos los datos en el ordenador, se procede
siguiendo los pasos que se explican a continuación.

2. Algunos ejemplos de transformación de las variables


Se van dar tres ejemplos que ilustran lo que se ha explicado en el
apartado anterior sobre lo que significa la transformación de las variables.
Recodificación de variables
El Cuadro 4 muestra la recodificación de la variable Edad (P40 del
Barómetro de Sanidad) en tres grupos: 18 a 40 años, 41 a 65 y más de 65.
Creación de índices
Muchas medidas de las ciencias sociales, implican combinar las
respuestas a distintas variables para obtener un valor único. Este es el caso
de los Índices y de las Escalas, técnicas de las que inmediatamente se verá
la primera. Para ilustrar la creación de un índice, se va a utilizar la pregunta
P35 del Barómetro de Sanidad, en la que se pregunta por los errores que
hayan podido sufrir los entrevistados en 4 ámbitos de la asistencia sanitaria.
Como se puede ver, esta pregunta es un ejemplo de aquellas en las que de
una sola pregunta se derivan más de una variable, en concreto cuatro.

118
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

Cuadro 4.7. Distribución de frecuencias de la variable Edad (P40)


recodificada.

Porcentaje
Frecuencia Porcentaje Porcentaje válido
acumulado
18-40 1066 41,5 41,5 41,5
Válidos 41-65 1027 40,0 40,0 81,4
+65 477 18,6 18,6 100,0
Total 2570 100,0 100,0
www.fragua.es

Cuadro 4.8. Pregunta 35 del cuestionario del Barómetro de Sanidad


del CIS, realizado en el 2010.

P.35 ¿Ud. o alguien de su familia ha sufrido algún tipo de error en la asistencia sanitaria
recibida en…?

P.35a (Sólo a quienes contestan “SÍ” en alguna de las categorías de P.35). ¿Y este error
afectó de alguna manera muy grave, bastante grave, poco o nada grave, a su salud o a
la salud de su familia?

1. Muy grave
2. Bastante grave
3. Poco grave
4. Nada grave

P . 35 P.35a
S í No N C 1 2 3 4 N C
- Atención primaria 1 2 9 (232) 1 2 3 4 9 (236)
- Consulta de especialista 1 2 9 (233) 1 2 3 4 9 (237)
- Un ingreso hospitalario 12 9 (234) 1 2 3 4 9 (238)
- Un servicio de urgencias 1 2 9 (235) 1 2 3 4 9 (239)

A partir de estas 4 variables, se puede crear un índice que permita


conocer el número de errores sufridos por los entrevistados, no en cada uno
de los ámbitos sanitarios por separado sino en su conjunto. El recorrido
del índice irá de 0 (el entrevistado no ha sufrido error alguno) a 4 (ha
sufrido errores de los 4 tipos). El Cuadro 4.9 muestra la distribución de
frecuencias del índice.

119
Antonio Lucas y Alejandro Noboa (eds.)

Cuadro 4.9. Distribución de frecuencias del Índice de errores sufridos


en asistencia sanitaria

Porcentaje
Frecuencia Porcentaje Porcentaje válido
acumulado
0 1875 73,0 73,0 73,0
1 525 20,4 20,4 93,4
2 108 4,2 4,2 97,6
Válidos
3 39 1,5 1,5 99,1
4 23 ,9 ,9 100,0
www.fragua.es

Total 2570 100,0 100,0

Del Cuadro 5 se puede concluir que un 73% de los entrevistados dice


haber sufrido 0 errores en la asistencia sanitarias, y un 27% ha sufrido entre
1 (20,4% de los entrevistados) y 4 (0,9%) errores.

Cuadro 4.10. Pregunta 22 del cuestionario del Barómetro de Sanidad


del CIS, realizado en el 2010
Escala
01-10 N S NC
01 Aspectos de hosteleria (comidas, aseos y comodidades generales de las habitaciones) _____ 9 8 99 ( 179)(180)

02 El paseo para el ingreso _____ 9 8 9 9 (181)(182)

03 Tiempo que se tarda para un ingreso no urgente _____ 9 8 9 9 (183)(184)

04 Los cuidados y atención por parte del personal medico _____ 9 8 9 9 (185)(186)

05 Los cuidados y la atención del personal de enfermeria _____ 9 8 9 9 (187)(188)

06 El numero de personas que comparten habitación _____ 9 8 9 9 (189)(190)

07 El trato recibido del personal no sanitario


(administrativos y administrativas, celadores y celadoras) _____ 9 8 9 9 (191)(192)

08 El equipamiento y medios tecnológicos existentes en los hospitales _____ 9 8 9 9 (193)(194)

09 La información recibida sobre la evolución de su problema de salud _____ 9 8 9 9 (195)(196)

10 Los consejos del médico o de la médica sobre alimentación, ejercicio, tabaco, alcohol, etc. _____ 9 8 9 9 (197)(198)

Ítem por el que comienza ____ (199)(200)

120
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

Creación de escalas
A diferencia de los índices, que cuentan el número de veces que ocurre
un suceso (p. ej. haber sufrido un error médico en distintas situaciones), las
escalas calculan el valor medio obtenido por los entrevistados en una serie de
variables (ítems, en la terminología al uso). La pregunta P22 del Barómetro
de sanidad pregunta por la valoración que hacen los entrevistados de 10
aspectos de la asistencia que se presta en los hospitales públicos.
P.22 Por su experiencia personal o por la idea de Ud. tenga, quisiera
que valorase los siguientes aspectos de la asistencia que se presta en los
hospitales públicos, utilizando la misma escala de 1 a 10, en la que el 1
www.fragua.es

significa que lo valora “totalmente insatisfactorio” y el 10 que lo valora


“totalmente satisfactorio” (MOSTRAR TARJETA F). (LEER UNA A
UNA LAS ALTERNATIVAS ROTANDO EL ORDEN EN CADA
ENTREVISTA)
Se puede ver la valoración que hacen los entrevistados de cada uno de
los aspectos o calcular una valoración media de los 10 aspectos, obteniendo
así una Escala de satisfacción con la atención hospitalaria. El Cuadro 4.11
muestra el resultado de calcular la media y otros estadísticos de la Escala
de satisfacción.

Cuadro 4.11. Escala de satisfacción con la atención prestada en los


hospitales públicos

Válidos 1726
Perdidos 844
N
Media 6,4919
Mediana 6,5000
Moda 6,33
Desv. típ. 1,58642
Mínimo 1,25
Máximo 10,00

121
Antonio Lucas y Alejandro Noboa (eds.)

A partir de los datos del Cuadro 4.11 se puede ver, que en el cálculo
de la valoración media se han perdido 844 casos, correspondientes a
entrevistados que han dejado de contestar a alguna de las 10 variables
(ítems) que componen la escala. El resto muestra una valoración media, en
una escala que va de 1 a 10, de 6,5 puntos.
Ponderación de la muestra
Mirando la Ficha Técnica del Barómetro (Fichero Ft2850) se observa que la
muestra no es proporcional, dado que solo la mitad de las entrevistas se reparten
entre las distintas Comunidades Autónomas de manera proporcional a su tamaño,
mientras que la otra mitad se asigna de manera uniforme entre todas ellas. Como
www.fragua.es

consecuencia de ello, si se quiere calcular valores para el conjunto de la muestra,


habrá de ponderarla, no así si el interés se centra en cada una de las CC. AA. por
separado (el Cuadro 4.12 muestra los datos de población y los pesos).
Porcentaje de población y porcentaje de entrevistas en las 19 CC. AA.
y, como consecuencia de la diferencia entre ambos porcentajes, coeficientes
de ponderación (pesos) que hay que utilizar al analizar los datos.
* Los pesos no siempre coinciden con el ratio que se utiliza para
calcularlos debido a que en la ponderación el CIS ha debido utilizar datos
poblacionales distintos a los que aquí mostramos.
Los pesos, también llamados coeficientes de ponderación, se
pueden interpretar diciendo que, por ejemplo, cada vez que un andaluz
conteste a alguna pregunta del cuestionario, dado que los miembros de
esta Comunidad están infrarrepresentados en la muestra (el porcentaje
de andaluces en la muestra es menor que su porcentaje en la población
española), su respuesta valdrá por 1,74; o, lo que es lo mismo, que la
opinión de 100 andaluces cuenta como si la hubieran expresado 174. Por el
contrario, los extremeños, dado que su Comunidad está sobrerrepresentada
(el porcentaje de extremeños en la muestra es mayor que su porcentaje
en la población española), tienen un peso de 0,561, haciendo que 1.000
extremeños cuenten como 561.

122
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

Cuadro 4.12. Datos del INE referidos a la población española a 1


de enero de 2011

(2) % po- (3) % entre-


Lugar Nombre (1) Población Pesos* (2)/(3)
blación vistas
1.º Andalucía 8.424.102 17,85 9,92 1,740
2.º Cataluña 7.539.618 15,98 9,46 1,680
3.º Comunidad de Madrid 6.489.680 13,75 8,5 1,616
4.º Comunidad Valenciana 5.117.190 10,84 7,42 1,448
5.º Galicia 2.795.422 5,92 5,65 1,107
6.º Castilla y León 2.558.463 5,42 5,46 1,048
www.fragua.es

7.º País Vasco 2.184.606 4,63 5,12 0,942


8.º Islas Canarias 2.126.769 4,51 4,92 0,909
9.º Castilla-La Mancha 2.115.334 4,48 4,88 0,884
10.º Región de Murcia 1.470.069 3,12 4,38 0,670
11.º Aragón 1.346.293 2,85 4,38 0,661
12.º Islas Baleares 1.113.114 2,36 4,08 0,565
13.º Extremadura 1.109.367 2,35 4,15 0,561
14.º Principado de Asturias 1.081.487 2,29 4,19 0,591
15.º Navarra 642.051 1,36 3,73 0,360
16.º Cantabria 593.121 1,26 3,73 0,358
17.º La Rioja 322.955 0,68 3,46 0,215
18.º Ceuta 82.376 0,17 3,27 0,046
19.º Melilla 78.476 0,17 3,27 0,042
TOTAL 47.190.493 100.- 100.-

El Cuadro 4.13 muestra la Satisfacción media con el sistema sanitario


español antes y después de ponderar la muestra (pregunta P.3).

123
Antonio Lucas y Alejandro Noboa (eds.)

Cuadro 4.13. Satisfacción con el Sistema Sanitario

Desviación
(a) N Mínimo Máximo Media
típ.
¿Está Ud. satisfecho o insatisfecho
con el modo en que el sistema sani- 2551 1 10 6,68 1,901
tario público funciona en España?
Válido N (listwise) 2551
Desviación
(b) N Mínimo Máximo Media
típ.
¿Está Ud. satisfecho o insatisfecho
www.fragua.es

con el modo en que el sistema


2553 1 10 6,68 1,884
sanitario público funciona en
España?
Válido N (listwise) 2553

Se aprecia que en este caso, la ponderación apenas tiene efecto sobre


los resultados, si acaso sobre la desviación típica que varía en unas pocas
décimas. El que, el efecto sea mayor o menor dependerá del tamaño
de la infra o sobrerrepresentación de las CC. AA. y de la diferencia de
opinión entre los entrevistados de unas y otras: cuanto mayor sea la mala
representación de la población en la muestra y mayor sea la diferencia de
opiniones sobre la satisfacción con el sistema sanitario español, mayor
influencia tendrá la ponderación en los resultados.

3. Técnicas de análisis univariable


Una vez que los datos están listos se puede empezar con la fase del
análisis, consistente en describir, variable a variable del bloque de las
preguntas del cuestionario, la situación que hemos investigado. Para ello se
debe calcular la distribución de frecuencias de las variables y sus estadísticos,
en el caso de que éstas sean cuantitativas.
En este capítulo, se va a tomar una variable como referencia, “la
Satisfacción que tienen los españoles con el funcionamiento del sistema
sanitario público” (pregunta P3 del Cuestionario de Sanidad), para, primero,
describir cuál es su opinión y, después, tratar de explicarla mediante las
tres técnicas a las que hemos hecho referencia en el Cuadro 2: tablas de
contingencia, comparación de medias (análisis de la varianza) y regresión

124
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

(correlación). El mismo procedimiento habría que hacer con el resto de


las variables, si de un estudio de todo el cuestionario se tratase. El Cuadro
4.14 muestra la distribución de frecuencias de la variable Satisfacción con
el sistema sanitario, el 10 los estadísticos y el Gráfico 1 la representación
gráfica en forma de histograma.
Del Cuadro 4.14 procede comentar el escaso número de casos perdidos
(un 0,8% de los 2.570 entrevistados) y, por ende, la escasa diferencia
que hay entre los porcentajes calculados sobre el total de entrevistados
(columna porcentaje) y los porcentajes válidos (calculados solo sobre los
2.550 que han contestado válidamente). Los porcentajes acumulados
dirían, por ejemplo, que el 10,8% de los entrevistados “suspende” el modo
www.fragua.es

como funciona el sistema sanitario (nota entre 0 y 4).

Cuadro 4.14. Distribución de frecuencias de la satisfacción de los


entrevistados con el sistema sanitario público español

Porcentaje
Frecuencia Porcentaje
válido
Muy insatisfecho 49 1,9 1,9
2 32 1,2 1,3
3 82 3,2 3,2
4 113 4,4 4,4
5 359 14,0 14,1
Válidos 6 401 15,6 15,7
7 595 23,2 23,3
8 549 21,4 21,5
9 227 8,8 8,9
Muy satisfecho 143 5,6 5,6
Total 2550 99,2 100,0
ns 18 ,7
Perdidos nc 2 ,1
Total 20 ,8
Total 2570 100,0

125
Antonio Lucas y Alejandro Noboa (eds.)

Cuadro 4.15. Estadísticos descriptivos e inferenciales de la satisfacción


de los entrevistados con el sistema sanitario público español

Válidos 2550
N
Perdidos 20
Media 6,68
Error típ. de la media ,038
Mediana 7,00
Moda 7
Desv. típ. 1,902
www.fragua.es

Varianza 3,616
Coeficiente de simetría -,633
Error típico del Coeficiente de
,048
simetría
Rango 9
Mínimo 1
Máximo 10
Suma 17042
25 6,00
Percentiles 50 7,00
75 8,00

El Cuadro 4.15, muestra toda una relación de estadísticos, en su gran


mayoría descriptivos, para cuya comprensión se remite a cualquier manual
de estadística. Valga comentar, que la satisfacción media casi llega al notable
(6,68 puntos), con una desviación típica de aproximadamente 1,9 puntos
(un 28,5% de la media, tal como mostraría el coeficiente de variación, no
calculado por SPSS:
S//Y = 100
El error típico de la media, de valor 0,038, está calculado haciendo el
supuesto de que la muestra con la que se ha hecho el estudio es aleatoria
simple (MAS), y se puede utilizar para estimar el parámetro población con
un intervalo de confianza. Así se entiende que la media poblacional estará
comprendida, con un grado de certeza del 95,5%, entre 6,756 y 6,604
puntos:

126
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

Ȳ = ȳ ± (z1-α/2Sȳ) [1]
Donde es la media poblacional, ȳ es la media de la muestra, z tiene
un valor de 2,0 cuando el nivel de confianza es del 95,5% y Sȳ es el error
típico de la media, de valor igual a 0,038.
Ȳ = 6,68 ± (2,0 x 0.038) = [6,756;6,604)
Para completar la descripción se incluye la representación gráfica de
la distribución de frecuencias, a la que se le superpone la curva normal
(Gráfico 1).
Mirando el Cuadro 16 se aprecia que la distribución, más que normal
www.fragua.es

es asimétrica negativa (valor del Coeficiente de simetría de -0,633 según


el Cuadro 4.15) debido a los entrevistados que tienen posiciones extremas
negativas (valores próximos al cero). Esta asimetría negativa es la que
hace que la media, atraída siempre por los casos extremos, tenga un valor
inferior a la mediana: 6,68 vs. 7,00.

Cuadro 4.16. Representación gráfica (histograma) de la satisfacción de


los entrevistados con el sistema sanitario y curva normal superpuesta

127
Antonio Lucas y Alejandro Noboa (eds.)

4. Técnicas de análisis bivariable


Una vez vista cuál es la valoración que le merece a los entrevistados el
sistema sanitario público español, diferente según quién conteste, se trata
ahora de explicar estas diferencias. Para ello se van a utilizar tres técnicas
distintas, en función de cuál sea el nivel de medida de las variables que se
estén analizando. En este caso, se va a seguir con la variable “Satisfacción
con el sistema sanitario”, de nivel escala, que se va a intentar explicar
utilizando la variable Edad, de igual nivel de medida. Según el Cuadro 2,
dado el nivel de medida de tipo escala de estas variables, correspondería
utilizar la regresión y la correlación salvo que sean recodificadas, pasándolas
a nominales u ordinales. Eso es lo que se va a hacer en este caso. Primero
www.fragua.es

se recodificaran las dos variables, y se utilizaran las tablas de contingencia,


luego se recodificara la Edad (variable independiente) y se trabajara con la
comparación de medias y el análisis de la varianza y, finalmente, se dejaran
las dos variables tal como están para utilizar la regresión y la correlación.
Tablas de contingencia
El Cuadro 4.17 muestra el cruce de las variables Edad (P40 del
Barómetro de Sanidad, recodificada en 3 grupos) y Valoración del sistema
sanitario (P3 del Barómetro, recodificada en 4 grupos, como las notas de clase).
Con el fin de hacer comparables los números absolutos (p. ej. personas
que dan Suspenso al sistema sanitario según los distintos grupos de edad:
126, 126 y 24), dado que están basado en totales diferentes (1.060, 1.023 y
468) serán pasados a porcentajes: 11,9%, 12,3% y 5,1%. Ahora sí, una vez
calculados los porcentajes ya se puede decir que los más descontentos son
los “jóvenes” y los “maduros”, con aproximadamente un 12% de ellos que
suspenden el sistema sanitario español, mientras que los “mayores” reducen
a menos de la mitad este porcentaje (5,1% de personas que suspenden el
sistema sanitario).
Lo contrario ocurre cuando se pone la mirada, en los que dan
sobresaliente al sistema sanitario español, donde también hay una gran
diferencia entre jóvenes y maduros, por un lado, y mayores, por otro, con
porcentajes de muy satisfechos (valoración de sobresaliente) muy superiores
en este último grupo: 29,3% de mayores que valoran con sobresaliente
el sistema sanitario, por 9,6% y 12,8 en el caso de jóvenes y maduros,
respectivamente.

128
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

Cuadro 4.17. Relación entre las variables Edad (recodificada) y


la Valoración que le merece a los entrevistados el sistema sanitario
(recodificada)

Edad recodificada
Total
18-40 41-65 +65
Recuento 126 126 24 276
Suspenso % de Edad
11,9% 12,3% 5,1% 10,8%
recodificada
Recuento 362 300 98 760
Aprobado % de Edad
Satisfacción 34,2% 29,3% 20,9% 29,8%
recodificada
www.fragua.es

con sanidad
recodificada Recuento 470 466 209 1145
Notable % de Edad
44,3% 45,6% 44,7% 44,9%
recodificada
Recuento 102 131 137 370
Sobresaliente % de Edad
9,6% 12,8% 29,3% 14,5%
recodificada
Recuento 1060 1023 468 2551
Total % de Edad
100% 100% 100% 100%
recodificada

En conjunto se puede decir, que por lo que respecta a la valoración que


hacen los españoles del sistema sanitario éstos se dividen en dos grupos:
jóvenes y maduros, por un lado, y mayores, por otro, con opiniones más
positivas en este último grupo. Este hecho resulta significativo, pensando
que quizá sean precisamente los mayores quienes más utilizan el sistema
sanitario público.
Ahora bien, teniendo en cuenta que se están analizando datos de una
muestra y no del conjunto de la población española, ¿qué probabilidad
hay de que la relación que muestran estos resultados sea producto del azar,
y que en la población no exista relación entre Edad y Valoración…? Para
contestar a esta pregunta hay que realizar un test, contraste o prueba de
hipótesis. En concreto SPSS realiza diversos test, de los cuales, en este
capítulo se va a comentar el del estadístico Chi-cuadrado, por ser el más
conocido (véase Cuadro 4.17).
Según los datos del Cuadro 4.18, la probabilidad de que la relación
observada en la muestra entre la Edad y la Valoración que tienen los

129
Antonio Lucas y Alejandro Noboa (eds.)

españoles del sistema sanitario sea producto del azar es nula (la Hipótesis
nula H0 de este test justamente dice que en la población no hay relación
entre las variables y que la observada en la muestra, medida a través de Chi-
cuadrado, es atribuible al azar), como indica el valor de la Significación
asintótica bilateral de la Chi-cuadrado: ,000. Por lo tanto, se rechaza esta
Hipótesis H0, sin riesgo de cometer un error de tipo I o α, y se sostiene que
la relación observada en la muestra es estadísticamente significativa o, dicho
de otra manera, generalizable a la población

Cuadro 4.18. Pruebas de significación de la relación entre Edad y


www.fragua.es

Valoración del sistema sanitario español

Sig. asintótica
Valor gl
(bilateral)
Chi-cuadrado de Pearson 1,264E2a 6 ,000
Razón de verosimilitud 117,075 6 ,000
Asociación lineal por lineal 78,632 1 ,000
N de casos válidos 2551

a 0 casillas (,0%) tienen una frecuencia esperada inferior a 5.


La frecuencia mínima esperada es 50,63.

Como los porcentajes del Cuadro 4.17 son complejos de interpretar, de


resumir en pocos números, los investigadores han diseñado estadísticos que
permiten reducir esta información a un solo número. El Cuadro 13 muestra
algunas de las posibilidades de elección.
De las opciones (estadísticos) que presenta el Cuadro 4.19, se descartan
aquellas que están bajo la rúbrica de Nominal por Nominal (Phi, V de
Cramer y Coeficiente de Contingencia), dado que nuestras variables son
ordinales. Y de las ordinales se elige la Gamma. Este estadístico tiene un
valor que va desde -1,0 (todos los que tienen mayor edad tienen peor
valoración, y viceversa) hasta +1,0 (todos los que tienen mayor edad
tienen mejor valoración, y viceversa). En este caso el valor de Gamma
es de 0,225 puntos, lo que significa que la relación es positiva (más edad
mejor valoración, y viceversa), pero no muy elevada, como demuestra el
hecho de que, tal como se observa en el Cuadro 11, jóvenes, maduros y

130
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

mayores, aunque con distinta probabilidad (con distintos porcentajes), se


repartan por todos los tipos de valoración del sistema sanitario (suspensos,
aprobados…).

Cuadro 4.19. Estadísticos de la relación entre Edad y Valoración


del sistema sanitario español y sus correspondientes niveles de
significación

Error típ.
Valor T aproximada(b) Sig. aproximada
asint.(a)
www.fragua.es

Phi ,223 ,000


Nominal por V de Cramer’ ,157 ,000
Nominal Coeficiente de
,217 ,000
Contingencia
Tau-b de Kendall ,148 ,017 8,511 ,000
Ordinal por
Tau-c de Kendall ,146 ,017 8,511 ,000
Ordinal
Gamma ,225 ,026 8,511 ,000
N de Casos Válidos 2551
a Asumiendo la hipótesis alternativa. b Empleando el error típico
asintótico basado en la hipótesis nula.

Comparación de medias
Cuando las variables son una cualitativa (la independiente) y otra
cuantitativa (la dependiente) se puede utilizar la técnica de la comparación
de medias o el análisis de la varianza. En este caso lo que se hace es
transformar la Edad, recodificándola, mientras que se mantiene la
Valoración del sistema sanitario en el nivel de escala. El Cuadro 14 muestra
los resultados obtenidos al utilizar la Comparación de medias.

131
Antonio Lucas y Alejandro Noboa (eds.)

Cuadro 4.20. Comparación de las medias de la Valoración del


sistema sanitario según los distintos grupos de edad.

Edad recodificada Media N Desv. Típ. Coef. variación*


18-40 6,44 1060 1,823 28,3%
41-65 6,57 1023 1,926 29,3%
+65 7,49 468 1,809 24,3%
Total 6,68 2551 1,901 28,5%
* Elaboración propia, SPSS no genera esta tabla.
El Cuadro 4.20, muestra que a medida que aumenta la Edad también
www.fragua.es

lo hace la Valoración que tienen los entrevistados del sistema sanitario


español, con un salto importante a partir de los 65 años: de valores en torno
al 6,5 pasa a 7,5 (véase columna “Media”).
Este colectivo de los mayores también es el que muestra opiniones más
homogéneas, como muestra su coeficiente de variación: 24,3%.

Cuadro 4.21. Análisis de la varianza de la relación entre la Edad


recodificada y la Valoración del sistema sanitario

Suma de Media
gl F Sig.
cuadrados cuadrática
¿Está Ud.
(Combinada) 377,677 2 188,839 54,428 ,000
satisfecho o
insatisfecho
con el Inter- Linealidad 290,410 1 290,410 83,703 ,000
modo en grupos
que el Desviación de
sistema 87,268 1 87,268 25,153 ,000
Linealidad
sanitario
público
funciona Intra-
8840,398 2548 3,470
en España? grupos
* Edad
recodificada Total 9218,075 2550

132
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

Si, al igual que en el caso de la tabla de contingencia, lo que se quisiera


ver es si esta diferencia de medias es estadísticamente significativa o, por el
contrario, cabe atribuirla al azar, el análisis de la varianza viene en nuestro
apoyo para decir que el nivel de significación del test de la F, que es el que
procede en este caso, es igual a 0,000 (F2gl=54,428; Sig=.000); o, lo que es
lo mismo, que la relación entre Edad y Valoración del sistema sanitario es
estadísticamente significativa sin riesgo de error al hacer esta afirmación y
rechazar la hipótesis nula H0 (equivalente a decir que no hay relación entre
las variables) (Cuadro 4.21).
Y también, en la comparación de medias mediante el análisis de la
varianza, se puede calcular una medida de asociación entre las variables,
www.fragua.es

en este caso Eta, cuyo valor es de 0,202; un valor próximo al de la Gamma


(Cuadro 4.22). Igualmente esta técnica permite ver qué porcentaje de la
variación, que se observa en la Valoración del sistema sanitario, es atribuible
a (explicable por) la Edad de los entrevistados: en concreto, el 3,2% de
toda la variación; una cifra bastante reducida; aunque hay que decir que
a diferencia de lo que ocurre cuando se trabaja con datos agregados (p. ej.
de países), con datos individuales los porcentajes de variación explicada no
suelen ser grandes.

Cuadro 4.22. Medidas de asociación de la relación entre Edad


recodificada y Valoración del sistema sanitario (análisis de la varianza)

R R cuadrado Eta Eta cuadrado


¿Está Ud. satisfecho o insatisfecho con el modo
en que el sistema sanitario público funciona en ,177 ,032 ,202 ,041
España? * Edad recodificada

Correlación y regresión
Se llega aquí, a la última y más potente de las técnicas que se están
utilizando: la regresión, implícita va la correlación. Y se puede decir que es la
más potente, porque es la única que trabaja con las variables en su verdadero
nivel de medida (de escala), sin tener que recodificarlas. Lo que significa que
las variables tienen la máxima cantidad de información y, por lo tanto, al
relacionarlas también producen resultados con esta característica.

133
Antonio Lucas y Alejandro Noboa (eds.)

En éste análisis de regresión (lineal y bivariable) se va a ajustar un


modelo, para ver a continuación si es estadísticamente significativo y cuál
es su bondad. El Cuadro 4.23, muestra los resultados de ver la regresión
de la Edad (variable independiente) sobre la Valoración que hacen los
entrevistados del sistema sanitario (variable dependiente). Según estos
datos el modelo de regresión a ajustar sería el siguiente:
ŷi = b0 + b1xi [2]
Donde ŷi es la Valoración del sistema sanitario estimada por la ecuación
de regresión para el i-ésimo individuo, b0 es la Valoración del sistema
sanitario estimada por el modelo de regresión para un hipotético individuo
www.fragua.es

que tuviera 0 años de Edad, b1 es el coeficiente de regresión (diferencia de


Valoración entre dos individuos con un año de diferencia de Edad) y xi es
la Edad del i-ésimo entrevistado.
ŷi = 5,7 + 0,021xi; para, p. ej., xi = 50 años, …
ŷi = 6,75

Cuadro 4.23. Coeficientes de regresión de la relación entre Edad y


Valoración del sistema sanitario

Coeficientes no Coeficientes Intervalo de confianza para


estandarizados estandarizados B al 95%
Modelo
Límite
B Error típ. Beta T Sig. Límite superior
inferior
(Constante) 5,700 ,105 54,099 ,000 5,494 5,907
¿Cuántos
1 años cumplió
,021 ,002 ,194 9,956 ,000 ,017 ,025
en su último
cumpleaños?

a. Variable Dependiente: ¿Está Ud. satisfecho o insatisfecho con el modo


en que el sistema sanitario público funciona en España?

Según el modelo de regresión que se acaba de ajustar, cada año de


aumento de la Edad repercute en 0,021 puntos de aumento en la Valoración
del sistema sanitario. De manera que, por ejemplo, un hipotético individuo

134
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

que tuviera 50 años cabe esperar que tenga una Valoración del sistema
sanitario de 6,75 puntos. Siendo la influencia de la Edad estadísticamente
significativa (o lo que es lo mismo, que la relación que se observa entre las
variables no cabe atribuirla al azar), con un nivel de significación del 0,000
(B=.021; Sig.=.000).
Si la diferencia entre el valor estimado por la regresión, por ejemplo
los 6,75 puntos que este modelo le atribuye a un individuo de 50 años, y el
observado en la realidad coinciden, no solo los de un individuo particular,
sino los del conjunto, en ese caso se sostiene que el modelo se ajusta bien a los
datos. Cuanto mayor sea la desviación entre lo observado y lo estimado por la
regresión peor será el ajuste. Y para ver esta bondad se utiliza un Coeficiente
www.fragua.es

llamado de determinación o R2 (véase su valor en el Cuadro 4.23).


Cuadro 4.24. Resumen de la bondad del modelo de regresión de la
Edad en la Valoración del sistema sanitario.

R Cuadrado Error Típ. de la


Modelo R R Cuadrado
Ajustado Estimación
1 ,194a ,037 ,037 1,866
a Variables predictoras: (Constante). ¿Cuántos años cumplió en su
último cumpleaños?

El valor de la R2 es igual a 0,037, lo que significa que solo un 3,7%


de la variabilidad de opiniones que tienen los entrevistados sobre el sistema
sanitario cabe atribuirla a sus diferencias de Edad; el resto hay que pensar que
se debe a otras causas (es explicada por otras variables). Y la raíz cuadrada del
Coeficiente de determinación es el “famoso” Coeficiente de correlación, cuyo
valor oscila entre -1 (relación perfectamente negativa: a mayor Edad menor
Valoración, y viceversa) y +1 (relación perfectamente positiva: a mayor Edad
mayor Valoración, y viceversa) y que mide la relación lineal entre las dos
variables.
Comparación de resultados
En principio, las tres técnicas de análisis bivariable que se han explicado
son pertinentes, sin embargo no todas ofrecen los mismos resultados. Y no
ya porque el resultado de los estadísticos que se han obtenido en los tres
casos sean muy distintos, que no lo son, sino por el valor de la información

135
Antonio Lucas y Alejandro Noboa (eds.)

que ofrecen. Respecto de los resultados, hay que recordar que la Gamma
(estadístico de las tablas de contingencia) daba un valor de 0,225, la Eta
(comparación de medias) de 0,202 y el coeficiente de correlación de 0,194;
es decir, valores muy parecidos.
Las diferencias empiezan cuando se aprecia la “calidad” de la información
que está detrás de esos números. La Gamma solo dice que cuanto mayor es
el valor de la Edad mejor es la valoración, pero no cuánto mejor. Además,
en el caso que nos ocupa, este estadístico es deudor de la recodificación que
se haya hecho: es probable que si se cambian los intervalos tanto de la Edad
como de la Valoración del sistema sanitario, su valor se modifique. En el caso
de la comparación de medias, además de saber que cuanto mayor es la Edad
www.fragua.es

de los entrevistados mejor es la Valoración que tienen del sistema sanitario,


también sabemos cuánto aumenta la Valoración media del sistema sanitario
para cada uno de los grupos de Edad, no para valores singulares de la Edad,
puesto que esta variable está recodificada. En el caso de la regresión, a la
información anterior esta técnica añade el poder conocer cuánto cambia la
Valoración por cada unidad de cambio en la Edad. Es decir, a medida que
se cambia de técnica, subiendo la cantidad de información que contienen
sus variables, aumenta de igual manera la información que dicha técnica
ofrece.

Conclusión
En estas páginas se ha tratado de introducir al lector, en la técnica del
análisis de los datos. Ir más allá de las explicaciones que se han ofrecido
implica, por una parte, profundizar en los conocimientos estadísticos con
el fin de entender mejor las posibilidades que tiene el investigador a su
alcance, y, por otra, conocer un paquete estadístico, aquí se ha utilizado
SPSS, pero sería buena cualquier otra opción, con el que implementar esos
conocimientos estadísticos. Y complementando estos conocimientos de
tipo técnico (estadístico e informático), el análisis de los datos requiere del
investigador algo que muchas veces se suele obviar: unos conocimientos
teóricos sobre el tema que está investigando, especialmente si se trata de
pasar de describir la situación estudiada a explicarla.

136
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

Bibliografía
Bourque, L. B.; Clark, V. A. (1992). Processing data: The Survey
Example. Londres: Sage University Press.
Peña, D.; Romo, J. (1999). Introducción a la Estadística para las
Ciencias Sociales. Madrid: McGraw - Hill.
Pérez López, C. (2009). Técnicas de análisis de datos con SPSS 15 +CD.
Madrid: Prentice Hall.
Sánchez Carrión, J.J. (2005). Manual de análisis estadístico de los datos.
Madrid: Alianza Editorial.
www.fragua.es

137
www.fragua.es
Capítulo 5

ANÁLISIS MULTIVARIANTES

Millán Arroyo Menéndez


www.fragua.es

Universidad Complutense de Madrid

ÍNDICE
1. Análisis Factorial de Componentes Principales (AFCP)
2. Análisis de Cluster K-Medias
3. Análisis de regresión lineal múltiple

139
Antonio Lucas y Alejandro Noboa (eds.)

Introducción
Este capítulo está destinado a introducir al lector en las técnicas de
análisis multivariante. Dichas técnicas son hoy día, fundamentales para
un adecuado y riguroso análisis de datos de encuestas y de otras bases de
datos cuantitativas en la investigación social. Otros capítulos introductorios
similares a éste, consisten en describir un cuadro de clasificación de tipologías
de estudios, con una descripción muy general y breve de qué es lo que
hacen estos análisis. Aquí, sin embargo, se ha optado por presentar sólo
tres tipos de análisis, pero profundizando más, procurando elegir los más
populares y utilizados. Se entiende que esas otras introducciones abundan
en los manuales de metodología de encuesta y el lector interesado puede
www.fragua.es

encontrarlas fácilmente. Aquí el tema se centrará en conocer los tres más


populares, aportando los fundamentos mínimos imprescindibles para que
el lector pueda empezar a usar dichas técnicas. Se trata no obstante de una
aproximación introductoria, limitada a los aspectos más básicos.
Las tres funciones o necesidades de análisis por las que habitualmente
los investigadores sociales recurren a las técnicas multivariantes son las
siguientes:
a) Explorar interrelaciones de grandes conjuntos de variables y poder
reducir esa complejidad. Para esta necesidad, la técnica más utilizada es el
análisis factorial de componentes principales (AFCP).
b) Clasificar sujetos o variables, con el propósito de definir conjuntos de
elementos, como la elaboración de tipologías. Dentro del conjunto de técnicas
de clasificación, la más popular y utilizada en la investigación por encuesta, es
un método de conglomeración no jerárquico de individuos, conocido por el
nombre de k-medias (ó k-means).
c) Estudiar el impacto de un conjunto de variables independientes en
una variable dependiente. Bien para conocer y cuantificar el impacto o
aportación de las variables independientes sobre la dependiente, o bien para
predecir el comportamiento de la última sobre las anteriores. El análisis más
utilizado es la regresión lineal múltiple.
Por último, se hará hincapié en una visión combinada o relacionada
de estas técnicas, pues aunque sus finalidades son distintas, a menudo se
utilizan combinadamente en un estudio. Por ejemplo, recurriendo en un
primer paso al análisis factorial para explorar la interrelación de las variables

140
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

y reducirlas, y aprovechando después este trabajo de cara a obtener una


buena clasificación y/o contribuir a preparar el input más adecuado
para un análisis de regresión. Esta perspectiva combinada, aunque no es
imprescindible en la práctica de la investigación multivariante, ha dado
a menudo buenos frutos y es el embrión de la perspectiva analítica de la
minería de datos, tan en boga hoy en día.
1. Análisis Factorial de Componentes Principales (AFCP)
El AFCP transforma un conjunto amplio de variables en otro más
reducido que se denomina factores (o dimensiones o componentes). Es
decir, un factor es una variable nueva que se crea a partir de otras originales.
www.fragua.es

Cada factor estará constituido básicamente por un subconjunto de variables


que están correlacionadas entre sí. Para explicarlo de forma sencilla, se dice
que este análisis detecta conjuntos de variables correlacionadas entre sí y
agrupa las más correlacionadas en el mismo factor, diferenciándolas de
otros subconjuntos, los cuales forman otros factores.
Para que el AFCP se pueda aplicar, es necesario que las variables
originales sean métricas (también serían aceptables variables dicotómicas,
codificadas como 1,0), y estén mínimamente correlacionadas entre sí. Es
decir, este análisis (como cualquier otro análisis factorial) no tiene sentido
si las correlaciones entre variables son muy bajas o nulas. El input será por
tanto la matriz de correlaciones, aunque se puede optar también por analizar
una matriz de covarianzas. Si el número de variables originales es bajo, quizás
inferior a 6 variables, no se obtendrá el mejor provecho de la técnica, debido
a que su principal beneficio se basa en reducir un número muy amplio
de variables para hacerlo más manejable. Esta operación permite desvelar
con nitidez una estructura de interrelaciones, que puede ser muy compleja
cuando hay muchas variables, mientras que cuando hay pocas no lo es tanto.
Es decir, hay varios motivos para usarlo y varios beneficios que se
desprenden de su aplicación; uno, reducir el conjunto de variables a solo
unas pocas, capaces de representar ese conjunto más amplio. Dos, resumir
o desvelar la estructura de interrelaciones (correlaciones) entre variables.
Esto se consigue viendo qué factores se forman y en qué medida las
variables originales contribuyen a éstos.
Hay más posibles aplicaciones o beneficios, como es explorar o confirmar
la existencia de variables no observadas, también llamadas variables latentes.
Es el caso por ejemplo de la investigación con actitudes, tan común en la

141
Antonio Lucas y Alejandro Noboa (eds.)

práctica de encuesta. Las actitudes son construcciones cognitivas complejas, no


directamente observables. Para medir una actitud mediante encuesta a menudo
se recurre a distintos ítems o preguntas, presuponiéndose que la actitud subyace
y es común a esas variables, las cuales se suponen correlacionadas entre sí (porque
son manifestaciones específicas de algo más general y común a éstas). A menudo
se operativiza la actitud como el factor resultante de ese conjunto de variables
correlacionadas. El AFCP sirve en este caso para explorar las relaciones entre
variables, confirmar que éstas permiten la configuración matemática de una
variable latente, y construir una nueva variable que se utiliza como indicador
de la actitud. Esta misma operación se puede hacer extensiva a otros fenómenos
complejos y no directamente observables, aparte de las actitudes, como pueden
ser los valores o sensibilidades sociales, etc.
www.fragua.es

Otro ejemplo para ilustrar este abanico de posibilidades, es la obtención de


una variable que represente y cuantifique del mejor modo posible la posición
socioeconómica de los sujetos. En la encuesta se pueden encontrar variables
parciales de esta concepción general, como son los ingresos, clase social
subjetiva y/o objetiva, nivel de estudios, categoría ocupacional, etc. Todos ellos
contribuyen a definir el nivel o posición socioeconómica, pero por sí solos
son indicadores incompletos, parciales. Agrupándolos en un mismo factor
(suponiendo que todas estas son variables métricas) se obtiene una nueva variable
más afín al concepto general de posición socioeconómica (todas estas variables
originales participan en el factor), y que empíricamente mejora la capacidad de
discriminación de cualquiera de las variables anteriores, como indicadores de
posición socioeconómica.
En este párrafo, se va a plantear un caso práctico para explicar con éste,
la operativa del análisis. Así, estudios cualitativos previos sugieren que la
identidad de grupo de escolares adolescentes se organiza principalmente en
torno a dos ejes de oposición. En el primer eje o bien tienden a personalidades
extrovertidas y orientadas a adquirir popularidad y el estrellato del grupo, o
bien se centran en relaciones de amistad con grupos más pequeños o cerrados.
Pueden ubicarse en alguno de estos dos polos o en posiciones intermedias.
En el segundo eje o bien se comportan de forma responsable y orientada a los
estudios, o bien tratan de destacar por ser divertidos y más despreocupados.
Igualmente pueden ubicarse en algunas posiciones extremas o intermedias.
Para determinar si esta observación se confirma en una encuesta, se
formuló una pregunta donde se daba a los adolescentes la opción de elegir
de una lista de cualidades personales aquellas en las que más destacaban,

142
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

cualidades a través de las cuales se trataba de reproducir aquellos aspectos o


valores que conformaban cada uno de los polos de los ejes mencionados, de
acuerdo con la información previa. (Ver Cuadro 5.1).
Cuadro 5.1. Cualidades personales
Lee esta lista de cualidades personales. Elige las que creas que destacas
más.
• Espíritu de líder 1
• Alegría 2
• Buenos sentimientos 3
• Constancia 4
www.fragua.es

• Preocupación por los demás 5


• Sensatez 6
• Destreza o habilidades físicas, corporales 7
• Capacidad de trabajo o estudio 8
• Simpatía, don de gentes 9
• Sinceridad 10
• Atractivo físico, belleza 11
• Ganas de disfrutar de la vida 12

Un examen preliminar de los resultados confirmó que estos ítems


correlacionaban entre sí, a veces de forma positiva y a veces negativamente,
por lo que se procedió a analizar mediante el AFCP. Aunque en realidad se
estaban buscando dos dimensiones latentes, en principio se decidió no obligar
a la extracción de dos únicos factores, sino tratar de ver cuántos y cómo se
formaban desde un criterio más aséptico. Este es el criterio que casi siempre
se utiliza cuando no hay hipótesis o ideas previas acerca de cuantos factores
hay en un conjunto de variables, y el que por defecto suele encontrarse en los
paquetes estadísticos. El criterio operativo es que cada factor a formar tenga un
auto valor mínimo de 1. La suma de auto valores de todos los factores es igual al
número total de variables input, por tanto, con esta instrucción, se impide que
un factor tenga una varianza explicada inferior al de una variable promedio,
cuando esto ocurre, deja de generar más factores. La opción alternativa sería
determinar a priori el número de factores a extraer.

143
Antonio Lucas y Alejandro Noboa (eds.)

Antes de presentar los resultados obtenidos, se presentan los resultados


de unos test para determinar la adecuación del análisis a los datos. La prueba
KMO y la prueba de esfericidad de Barlet. (Ver Cuadro 5.2).

Cuadro 5.2. KMO y prueba de Bartlett


Medida de adecuación muestral de Kaiser-Meyer-Olkin. , 612
Prueba de esfericidad de Bartlett Chi-cuadrado aproximado 444,107
Gl 66
Sig. ,000
www.fragua.es

El test de KMO es un estadístico que compara los coeficientes de


correlación simple con los de correlación parcial de las variables input. Debe
ser superior a 0,6 y menor que 1,0, como es el caso. La prueba de Barlet,
comprueba si la matriz de correlaciones es una matriz identidad. Se busca un
chi-cuadrado elevado con significatividad inferior a 0,05 como también es el
caso. Estas dos pruebas confirman que el AFCP es adecuado para el análisis
del conjunto de variables elegido. Si no fuese así el análisis no procedería.
A continuación se ilustra la información sobre los factores resultantes.
Con el criterio de extracción señalado, se han obtenido cuatro factores, de
un total de 12 variables. La varianza explicada de estos 4 factores con un
auto valor mayor que 1 acumula el 44,35%. Es una varianza explicada algo
baja, siendo deseable que sea más alta. Indica que el análisis explica solo
una parte de la variabilidad de la matriz de correlaciones. Es deseable que
alcance el 50-60%, (más de la mitad de la varianza explicada) aunque no
siempre los análisis empíricos consiguen este objetivo deseable. A veces la
omisión de algunas variables en el cuestionario o una operativización poco
adecuada de algunas variables, impiden que la varianza explicada sea mayor.
La mayor parte de los análisis factoriales no alcanzan este objetivo deseable;
no es razón para prescindir de sus resultados aunque el modelo estadístico
no sea óptimo. (Ver Cuadro 5.3)

144
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

Cuadro 5.3. Varianza total explicada

Suma de las saturaciones al


Auto valores iniciales
Compo- cuadrado de la rotación
nente % de la % de la % acu-
Total % acumulado Total
varianza varianza mulado
1 1,642 13,686 13,686 1,444 12,031 12,031
2 1,555 12,955 26,640 1,362 11,346 23,377
3 1,115 9,294 35,934 1,292 10,763 34,140
4 1,010 8,415 44,349 1,225 10,209 44,349
5 ,999 8,322 52,671
www.fragua.es

6 ,954 7,947 60,618


7 ,890 7,420 68,038
8 ,838 6,985 75,023
9 ,794 6,614 81,636
10 ,780 6,500 88,136
11 ,720 5,996 94,133
12 ,704 5,867 100,000
Método de extracción: Análisis de Componentes principales

En el cuadro 5.3 la varianza correspondiente a los auto valores iniciales


se refiere a la solución no rotada, y a la derecha, la suma de las saturaciones
al cuadrado de la rotación, se refiere a la solución factorial rotada. Al
rotar varía algo la varianza de los factores, pero se mantiene constante su
suma. Más abajo se explica el concepto de rotación. Antes de pasar a esto,
conviene saber que el tamaño de los auto valores, indica la importancia
y poder explicativo de cada factor; estos se presentan en orden de mayor
a menor. El primero es el más importante, después viene el segundo, así
sucesivamente.
A menudo los investigadores se fijan en cómo decrecen los auto valores
para determinar cuántos de los aparecidos con un auto valor superior a 1,0
van a tener en cuenta en sus explicaciones. Es un criterio comúnmente
admitido, no tener en cuenta los factores restantes cuando se observa
decrecer la caída de la varianza explicada. Esto ocurre en el caso que
planteado a partir del tercer factor, por lo que el cuarto podría no ser tenido

145
Antonio Lucas y Alejandro Noboa (eds.)

en cuenta por el analista, si considera oportuno seguir este criterio. Es tan


común este criterio, que los programas estadísticos ofrecen opcionalmente
la representación gráfica de esta caída para ayudar a su percepción mediante
la representación visual.

Cuadro 5.4. Matriz de componentes


Componente
1 2 3 4
liderazgo -,596 ,017 -,170 -,056
buensentim ,556 -,041 -,249 ,408
www.fragua.es

habfísica -,482 ,208 ,153 ,022


belleza -,456 ,229 ,041 ,245
preocxdemás ,452 ,095 ,256 ,323
alegria ,235 ,577 ,223 -,139
constancia ,035 -,560 ,313 ,381
sensatez ,099 -,523 -,451 -,083
disfrutar ,173 ,441 ,181 -,029
captrabajo ,001 -,355 ,715 -,108
sinceridad ,487 ,102 -,072 -,527
simpatía ,012 ,442 -,183 ,462

En el cuadro 5.4 aparece la matriz de componentes todavía sin rotar.


Las puntuaciones son las correlaciones entre las variables originales y los
componentes o factores extraídos indican la contribución de cada variable
al factor.
A veces se puede optar por una solución sin rotar, si resulta más deseable
o interpretable que una rotada, pero lo más habitual es lo contrario. La
rotación supone un ajuste que casi siempre mejora la interpretación de
los factores, por lo que es habitual comenzar analizando directamente una
matriz rotada.
Como más adelante se presenta la misma matriz rotada, el lector puede
comprobar si lo desea que la interpretación de los factores es algo diferente
y más complicada en esta tabla que en la siguiente (Cuadro 5.5).

146
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

Cuadro 5.5. Matriz de componentes rotados a:

Componente
1 2 3 4
alegria ,657 ,051 -,117 -,093
sensatez -,631 ,040 -,282 -,125
disfrutar ,496 ,086 -,028 -,067
buensentim -,112 ,680 -,102 -,232
preocxdemás ,241 ,552 -,002 ,144
www.fragua.es

liderazgo -,168 -,486 ,322 -,138


sinceridad ,214 ,003 -,690 -,092
belleza ,096 -,190 ,520 -,085
habfísica ,159 -,353 ,386 ,037
captrabajo ,061 -,027 -,044 ,802
constancia -,369 ,325 ,198 ,526
simpatía ,222 ,282 ,384 -,408
Método de extracción: Análisis de componentes principales.
Método de rotación: Normalización Varimax con Kaiser.
a. La rotación ha convergido en 6 iteraciones.

Una rotación es una operación de transformación de los factores.


Consiste en girar los ejes (en el sentido de las agujas del reloj, si se representan
en un plano las dos primeras dimensiones) para que estos se aproximen a las
variables originales. De esta manera se obliga a que las variables contribuyan
en mayor medida sobre todo a un factor, y participen menos en otros.
Hay dos grandes grupos de rotaciones, ortogonales y oblicuas. Las
ortogonales son con diferencia las más empleadas. Tienen en común que
la correlación entre factores es igual a cero. Esta propiedad de los factores
se mantiene también cuando no se aplica la rotación, aunque no ocurre así
en las oblicuas, en las que si hay correlaciones.
El tipo de rotación ortogonal más frecuente es la “Varimax”, que consiste
en aumentar la varianza de los coeficientes en cada factor, es decir, la varianza se
maximiza para mejorar la interpretación de los factores. Casi siempre los analistas

147
Antonio Lucas y Alejandro Noboa (eds.)

priman este criterio. Pero también existen otras: “Quartimax” opera a la inversa,
en lugar de maximizar la varianza en cada factor, maximiza la varianza en cada
variable, con lo que se minimiza el número de factores necesarios para explicar la
varianza de cada una. Esto puede causar el efecto de que el primer factor presente
numerosos coeficientes elevados; “Equamax” actúa como una combinación de
los dos anteriores. Es conveniente que el analista explore distintas soluciones
rotadas y sin rotar antes de optar por la definitiva. Las rotaciones oblicuas se
reservarían para aquellos casos en los que se tenga especial interés en que los
factores correlacionen entre sí, a sabiendas de que este procedimiento puede
restar nitidez a la composición e interpretación de los factores, pues se favorece
que las variables contribuyan a más de un factor. (Ver Cuadro 5.5).
www.fragua.es

El componente 1 está compuesto principalmente por 4 variables.


Con dos correlaciona positivamente, y con las otras dos negativamente, lo
que significa que es un factor bipolar. Es muy frecuente esta organización
bipolar de los factores, aunque no siempre se produce (depende de que en
la matriz original existan o no correlaciones negativas). En el polo positivo
se encuentran las cualidades de alegría y ganas de disfrutar de la vida. En
el negativo, la sensatez y la constancia. Este primer factor se aproxima
a la concepción latente postulada a priori, a partir de las observaciones
cualitativas. Podría recibir el nombre de ‘divertidos vs responsables’.
El componente 2 está compuesto principalmente por 3 variables,
aunque en un plano más secundario se encuentran otras dos con
coeficientes moderadamente elevados. En el polo positivo se encuentran:
buenos sentimientos, preocupación por los demás y constancia. En el
negativo: espíritu de líder y habilidad física. También se parece al otro
eje latente postulado hipotéticamente, si bien al menos uno de sus polos
aparece muy centrado en la cualidad del liderazgo. Quizás resulte un poco
forzado llamar a este factor, configurado así, ‘amigos vs populares’ y resulte
más apropiado denominarlo ‘amigos vs líderes’. Hay todavía al menos un
factor más a considerar.
El componente 3 se ha llevado las otras características de la popularidad.
En el polo positivo se encuentra la belleza y la habilidad física, y también
en menor medida la simpatía. En el negativo, se encuentra la sinceridad.
Podría llamarse a este factor ‘cualidades físicas vs sinceridad’.
El componente 4 no cumple el criterio de la caída de la varianza, por
lo que podría no ser tenido en cuenta. Es además un componente un tanto
‘redundante’, en el sentido de que dos de las tres variables que la componen

148
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

los encontramos también en otros factores. Está oponiendo la capacidad


de trabajo y la constancia a la simpatía. En situaciones así, una opción
posible consistiría en eliminar este cuarto factor obligando a una salida
de tres factores, esperando que la redistribución de las tres variables que
lo componen, mejore la interpretación de los tres restantes. (El analista
tendría que decidir si hace un nuevo factorial obligando a 3 factores, o
prefiere quedarse con los tres primeros de esta misma solución).
A continuación, se presenta una solución obligando a tres dimensiones.
(Ver Cuadro 5.6). Examinándose, se puede comprobar que este resultado se
aproxima más a las conceptualizaciones previas y a las dimensiones latentes
postuladas, si bien se tiene una más: amistad vs popularidad, diversión vs
www.fragua.es

sensatez, esfuerzo vs simpatía, sería una opción muy razonable para que el
analista la presentase como la configuración factorial definitiva, salvo que
encontrase razones para preferir otra mejor.

Cuadro 5.6. Matriz de componentes rotados a:

Componente
1 2 3
buensentim ,587 -,059 -,156
liderazgo -,557 -,222 -,157
habfísica -,527 ,145 -,022
belleza -,487 ,099 -,122
sinceridad ,470 ,142 -,109
preocxdemás ,385 ,328 ,151
sensatez ,250 -,651 -,023
alegria ,103 ,628 -,181
disfrutar ,071 ,485 -,131
captrabajo -,054 ,162 ,780
constancia ,075 -,231 ,595
simpatía -,030 ,230 -,419

Método de extracción: Análisis de componentes principales.


Método de rotación: Normalización Varimax con Kaiser.
a. La rotación ha convergido en 4 iteraciones.

149
Antonio Lucas y Alejandro Noboa (eds.)

Aquí se ha preferido presentar como definitiva una representación


de solo dos factores, por el motivo de que los dos factores resultantes
responden mucho mejor a los a prioris, conceptualizaciones previas y
antecedentes teóricos. En el caso de que los antecedentes teóricos y/o las
conceptualizaciones previas coincidan mejor, puede estar justificado este
proceder, a pesar de que matemáticamente encontramos el inconveniente
de que, suprimiendo dimensiones, reducimos todavía más la varianza
explicada. Si con 4 dimensiones se trabaja en este caso concreto con el 44%
de la varianza explicada, con 3 se reduce a 36% y con 2 a 27%. Pero si, el
constructo empírico obtenido se parece más y mejora la operativización de
un concepto teórico, está sobradamente justificado este proceder, siempre
y cuando dichas conceptualizaciones sean sólidas y fundamentadas por la
www.fragua.es

teoría y/o por la experiencia empírica. Se perdería capacidad explicativa,


pero a cambio se gana la posibilidad de construir una variable no disponible
(latente) que puede resultar idónea para los objetivos e hipótesis planteados.
(Ver Cuadro 5.7).

Cuadro 5.7. Matriz de componentes rotados a:

Componente
1 2
liderazgo -,596 -,027
buensentim ,557 ,000
habfísica -,496 ,172
sinceridad ,478 ,138
belleza -,472 ,195
preocxdemás ,443 ,128
alegria ,192 ,593
constancia ,077 -,556
sensatez ,138 -,515
disfrutar ,140 ,453
simpatía -,020 ,442
captrabajo ,028 -,354
Método de extracción: Análisis de componentes principales.
Método de rotación: Normalización Varimax con Kaiser.
a. La rotación ha convergido en 3 iteraciones.

150
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

En esta solución bidimensional que se presenta como definitiva,


emergen con claridad los ejes postulados a priori. En el primer componente
se encuentran: buenos sentimientos, sinceridad y preocupación por los
demás, opuesto a liderazgo, habilidades físicas y belleza. Puede recibir
claramente el nombre de ‘amigos vs populares’. En el segundo componente
se encuentra alegría, ganas de disfrutar de la vida y simpatía opuesto a
constancia, sensatez y capacidad de trabajo. Puede recibir claramente el
nombre de ‘divertidos vs responsables’.
Es importante señalar, que los programas de análisis factorial tienen
la opción de crear y guardar estas nuevas variables en el fichero de datos,
para que se dispongan de estos factores como nuevas variables, y se pueda
www.fragua.es

trabajar con ellos como con cualquier otra variable, examinándolos y


relacionándolos con otras variables. Esto es posible porque cada individuo o
registro recibe una puntuación en cada factor, en función de las menciones
dadas a cada una de las cualidades que componen cada factor; puntuará
alto cuanto más menciones tenga y viceversa. A continuación se presentan
los estadísticos descriptivos de estos dos factores. (Ver Cuadro 5.8).

Cuadro 5.8. Estadísticos descriptivos

N Mínimo Máximo Media Desv. típ.


Amigos vs Populares 1004 -3,58012 1,83605 ,0000000 1,00000000
Divertidos vs
1004 -3,12450 2,24286 ,0000000 1,00000000
Responsables
N válido (según lista) 1004

Se puede comprobar, que los factores son constructos de media 0 y


desviación típica 1. Los valores máximos y mínimos son variables. Son,
por tanto, variables estandarizadas en unidades de desviación típica.
Tener en cuenta este hecho es importante para su interpretación, cuando
se examinan o combinan con otras variables. También se recuerda que la
correlación entre estos es igual a cero (son independientes entre sí). Si se
trabaja con ficheros ponderados, se podría encontrar valores aproximados,
sin coincidir con la media = 0 y desviación típica = 1.

151
Antonio Lucas y Alejandro Noboa (eds.)

2. Análisis de Cluster K-Medias


La finalidad de este análisis consiste en clasificar a los sujetos formando
“k grupos” (los k tipos de una tipología). La clasificación, asegura que la
membrecía dentro de cada grupo es razonablemente homogénea, mientras
que los distintos grupos son heterogéneos entre sí. Al investigador le
corresponde definir el número de grupos que desea obtener y definir
también los criterios de comparación, para establecer las similitudes y
diferencias de los sujetos entre sí, las cuales servirán de base para clasificarles.
Dichos criterios no son otra cosa que variables. El conjunto de variables
input define una medida de la distancia entre sujetos (distancia euclídea)
que sirve para clasificarles, y para saber cuánto se aproxima cada uno a la
www.fragua.es

media del grupo al cual se le asigna.


La dificultad intrínseca de esta aplicación, radica en el trabajo previo
que se necesita para la selección de los criterios o variables input, así como la
determinación del número de grupos, decisiones que se dejan al investigador.
En relación a las variables hay que asegurarse de seleccionar aquellas que
sean especialmente discriminantes de diferencias entre sujetos. Es necesario
información previa, que puede provenir de una fuente cualitativa y/o del
análisis previo de variables potencialmente elegibles, disponibles en la
encuesta o base de datos (mediante estadísticos descriptivos univariables y
bivariables). Cuanto más discriminantes sean, de los sujetos o registros de
la base de datos y más variedad haya de criterios no correlacionados, más
posibilidades se tienen de configurar clasificaciones discriminantes.
A veces una buena clasificación puede considerar muy pocas variables.
Para otras pueden ser necesarias más. Cuando se hace un cluster con muchas
variables, uno de los problemas que suele plantearse es la interpretación de
cada uno de los grupos, que se complica conforme aumenta el número de
variables. La interpretación se hace a partir de las puntuaciones medias de los
grupos en cada una de las variables input.
Para paliar estos problemas, a veces se recurre a utilizar factores en
lugar de variables originales para el input. Dichos factores pueden
obtenerse de diversos modos, aunque es lo más frecuente recurrir al AFCP.
La utilización de los factores a tal fin presenta algunas ventajas y también
algunos inconvenientes. Las ventajas son: la reducción del número de
variables y por tanto la simplificación de la interpretación de la tipología.
Por otro lado, al no estar correlacionados entre sí los factores extraídos en
un mismo análisis, permiten aumentar la capacidad de discriminación de

152
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

la clasificación, comparado con introducir todas las variables originales.


Además resolverían problemas de colinealidad de variables si se plantearan.
Un análisis factorial presupone la exploración previa de las variables
originales, y un cierto conocimiento de la capacidad de discriminación de
dichos factores y de las variables que contribuyen a éstos. Las desventajas
pueden hacerse manifiestas (no necesariamente) por el hecho de que a
menudo los factores son más abstractos que las variables concretas, y este
hecho podría contribuir también a dificultades de interpretación de los
grupos o a elaborar clasificaciones tan abstractas como absurdas. En algunas
ocasiones, los investigadores pueden optar por una solución intermedia: la
de presentar por cada factor que quieran incluir en el input, en lugar de
éstos, la variable o variables originales que más contribuyen y explican la
www.fragua.es

varianza de cada uno. De esta forma se reduce de forma parsimoniosa la


cantidad de variables y se facilita la interpretación y comprensión de los
grupos, así como a la disminución de la alta colinealidad de las variables
en caso de que exista.
De modo que el input puede estar formado por muchas o pocas variables,
incluso por una única variable, y estas pueden ser variables originales,
o factores, o una combinación de variables y factores. No obstante, no
es necesario ni recomendable incluir muchas variables en el input. Es
mejor hacer una selección previa de cuáles son las más discriminantes,
procurando que no correlacionen mucho entre sí. A falta de otros criterios,
la reducción de variables mediante análisis dimensionales, puede resultar
una buena opción.
Otra decisión, es la de decidir el número de conglomerados o grupos.
Para este fin hay quien utiliza, de modo exploratorio, una clasificación
jerárquica (otro tipo de cluster, jerárquico, utilizando el método de Ward) y
a partir de estos resultados se decide el número de grupos (Cea D’Ancona,
2004. P247). También es muy frecuente que los investigadores opten por
ensayar varias clasificaciones con distintas composiciones de grupos, las
comparen y elijan finalmente la que consideran más adecuada. Los criterios
para tomar tales decisiones son los siguientes:
• que las medias reflejen conglomerados bien diferenciados entre sí.
• que la clasificación sea inteligible y discriminante de
comportamientos y actitudes, (o de los sujetos o registros de la base de
datos).

153
Antonio Lucas y Alejandro Noboa (eds.)

• que los tamaños de los grupos no sean desproporcionados, tratando


de evitar que salgan demasiado grandes o demasiado pequeños.
Cuando un grupo sale demasiado grande pero otros quedan bien
perfilados, una posibilidad es mantener los pequeños y repetir la partición
seleccionando para ello sólo este grupo grande. Bien partiéndolo en k’
grupos con los mismos criterios (variables), o bien incluso cambiando el
input si resultase oportuno.
La realización de una buena clasificación mediante k-medias es
todo un arte. Difícilmente a la primera se obtiene un buen resultado,
introduciendo simplemente un conjunto de variables sin más. Será preciso,
www.fragua.es

que el investigador conozca bien las posibilidades de las variables para


clasificar, que recurra quizás a otras técnicas de conglomeración jerárquica
de modo exploratorio, que haga diversas pruebas hasta conseguir la mejor
clasificación posible, y sin descartar controlar la formación inicial de las
medias o centroides de los grupos o conglomerados (más adelanta se
explica). Con todo, no resulta difícil hacer esto. Es cuestión de paciencia y
de trabajo.
El procedimiento que sigue k-medias es el siguiente (Cea D’Ancona,
2004;255. Hair et al. 2000; 513):
1º Paso: se especifica el número de conglomerados
2º Paso: se calculan los centroides iniciales de los conglomerados, si el
investigador tiene información para decidir sobre estos; también llamados
puntos de semilla. Por defecto, si no se especifican, los distintos programas
de software ofrecen distintas soluciones, como la selección aleatoria o los k
primeros casos del fichero de datos.
3º Paso: Mediante proceso iterativo cada sujeto o registro de la base
de datos va adscribiéndose al conglomerado de cuyo centro se sitúe más
próximo. Para esta asignación es preciso calcular la proximidad de cada
sujeto a cada centroide, habitualmente se utiliza la distancia euclídea.
4º Paso: Tras cada reasignación se recalculan los centroides de los
conglomerados, que van experimentando variaciones a lo largo de proceso
iterativo. A su vez los centroides recalculados pueden provocar una nueva
reasignación de casos a conglomerados, y así sucesivamente hasta que se
alcanza la convergencia, que significa que un nuevo recalculo no produce

154
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

ninguna modificación. Se habla por tanto de centroides iniciales y de


centroides finales, porque el resultado final no coincide con el inicial,
aunque esté influenciado por éste.
Existe la alternativa de clasificar sin iterar, que se puede utilizar en
el caso de que se conozcan los valores iniciales y se quieran minimizar
las variaciones de los iniciales respecto de los finales. También se puede
aumentar o disminuir el número de iteraciones posibles. El aumento,
lógicamente, está condicionado a que se alcance la convergencia.
Probablemente el uso más frecuente es el de no especificar valores
iniciales, dejando que el programa de clustering seleccione iniciales de
www.fragua.es

acuerdo con sus criterios por defecto. Cuando se procede de esta manera
interesa conseguir el máximo de iteraciones posible, para que los centroides
finales dependan lo menos posible de los valores iniciales. La situación más
deseable es introducirlos, pero no siempre se cuenta con información para
ello. La introducción de iniciales se reserva para los siguientes casos: cuando
hay información previa proveniente de un cluster jerárquico realizado
de modo exploratorio; en tal caso, además de seleccionar el número de
conglomerados de acuerdo con dicha exploración, también se toman las
medias de estos como iniciales, para que el resultado se asemeje lo más
posible a dicho patrón. También se toman como iniciales los centroides
de otros análisis de cluster en estudios longitudinales en los que se desea
repetir una clasificación previamente realizada en la nueva ola de encuesta.
O cuando se desea que los conglomerados coincidan con determinadas
características de los sujetos y dichas características se priman como
criterios de adscripción de sujetos a grupos, como será el caso que más
adelante se ilustrara. En tales situaciones, además de especificar dichos
iniciales, conviene limitar o eliminar el número de iteraciones, para que
los centroides finales se alejen de estos lo menos posible.
Las precauciones y consideraciones previas a la utilización de k-medias
son las siguientes: el análisis es aplicable con variables métricas, o dicotómicas
codificadas con 1,0. En el caso de que las variables tengan distintos rangos
procede la estandarización de las mismas en unidades de desviación
típica (puntuaciones z). Es especialmente importante eliminar o suavizar
posibles casos atípicos (puntuaciones excesivamente elevadas o bajas de las
variables input), ya que estos podrían distorsionar las medias de los grupos
y contribuir a la formación de conglomerados poco consistentes. La alta
colinealidad de las variables input también afecta a los resultados de forma

155
Antonio Lucas y Alejandro Noboa (eds.)

poco deseable, ya que en la clasificación pesan los grupos de variables con


correlaciones altas. Es deseable, si se puede, evitar esto, quizás seleccionando
solo una de las parejas o grupos de variables más correlacionadas, o bien,
si esto es inevitable o no resulta deseable, es preferible para minimizar este
efecto no utilizar la distancia euclídea sino la distancia de Mahalanobis,
que compensa los efectos de las correlaciones. Por último, la bondad de la
clasificación depende de la representatividad de la muestra. La clasificación
sólo resulta adecuada en muestras representativas probabilísticas. (Hair et
al. 2000; 508). Sin embargo, se pueden pasar aquí por alto las exigencias
de otros análisis multivariantes, relativos a la normalidad multivariable,
linealidad y homocedasticidad.
www.fragua.es

Dicho esto, se pasara a ilustrar con un ejemplo, una aplicación de


k-medias; para ello se parte del supuesto de que se desea una clasificación de
adolescentes en la encuesta, de acuerdo con los dos ejes de discriminación
hipotéticos, anteriormente tratados en el apartado de AFCP: ‘amigos vs
populares’ y ‘divertidos vs responsables’.
Aquí se tiene la opción de incluir todas las variables originales (o
una selección de estas), o utilizar los dos factores resultantes, que se han
guardado como nuevas variables. Ambas opciones son posibles y de las dos
pueden salir clasificaciones adecuadas. Se opta por construir una propia
clasificación tomando como variables input los dos factores mencionados,
por el hecho de que los factores resumen bien el conjunto de variables, están
relacionados con conceptualizaciones previas importantes para nuestra
investigación (y presuntamente valiosas como criterios de clasificación) y
además utilizar solo dos criterios simplifica mucho la interpretación de los
conglomerados finales. Al margen de las razones analíticas, desde un punto
de vista didáctico es interesante contemplar un cluster formado por solo
dos variables, porque se puede representar gráficamente y comprenderse
mejor lo que hemos hecho.
Ahora hay que enfrentarse a las principales decisiones a tomar en un
análisis de este tipo, la determinación del número de grupos y si introducir
o no valores iniciales. Existe la opción de dejar correr el programa sin
más ‘a ver que sale’, haciendo diversas pruebas con diversos números de
conglomerados; esta es la forma de proceder más habitual. Se va a pensar,
en que se desea que la clasificación distinga claramente entre personas bien
orientadas hacia los valores y comportamientos de los ‘amigos’, es decir, se
quiere un grupo con sujetos con estas características. Por otro lado, se desea

156
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

otro grupo de ‘populares’, otro de ‘divertidos’ y otro de ‘responsables’. Es


sumamente improbable sin definir iniciales crear 4 grupos y que salgan
estos con nitidez. Si se tiene claro que se quiere basar la clasificación en
esto, conviene definir los centroides iniciales, y para que emerjan con más
nitidez estos 4 grupos, se van a pedir cinco, reservando el quinto grupo a
individuos promedio, indiferenciados o no bien definidos en los dos polos
de estos factores.
Como las variables input son dos factores de media 0 y desviación
típica 1, se pueden definir los valores iniciales del primer conglomerado
como (1,0) es decir, valor uno en el primer factor y cero en el segundo; se
está apuntando a individuos claramente auto identificados como ‘amigos’
www.fragua.es

en el primer factor e intermedios en el segundo. El segundo grupo (0,1):


serán los ‘divertidos’. El tercero (-1,0) serán los ‘populares’. El cuarto
(0,-1) serán los responsables y el quinto (0,0) serán los intermedios o no
diferenciados. Abajo se muestra la tabla informativa de los centros iniciales.
(Ver Cuadro 5.9).

Cuadro 5.9. Centros iniciales de los conglomerados

Conglomerado
1 2 3 4 5
Amigos vs
1,00000 ,00000 -1,00000 ,00000 ,00000
Populares
Divertidos vs
,00000 1,00000 ,00000 -1,00000 ,00000
Responsables
Entrada desde el subcomando FILE

En este caso, no se ha permitido iterar y solo se ha clasificado, para


minimizar las diferencias entere iniciales y finales. Abajo se presenta el cuadro
con los centros de los conglomerados finales. Se observa que no son iguales a
los iniciales pero se aproximan bastante. Si se hubiese permitido la iteración la
diferencia hubiese sido mucho mayor. (Ver Cuadro 5.10).

157
Antonio Lucas y Alejandro Noboa (eds.)

Cuadro 5.10. Centros de los conglomerados finales

Conglomerado
1 Amigos 2 Divertidos 3 Populares 4 Respons. 5 Medios
Amigos vs
1,04450 ,20241 -1,51015 ,07938 ,02908
Populares
Divertidos vs
,11254 1,10009 ,13181 -1,32479 -,01861
Responsables

Se aprecia que estos resultados son fácilmente interpretables y coinciden


www.fragua.es

con lo que se buscaba. Así, ya se tienen clasificados a todos los sujetos de


la muestra de acuerdo con la conceptualización a priori. No es ni mucho
menos la única forma de clasificación. Depende de cómo se proceda, se
pueden obtener resultados muy diferentes.
Queda por examinar a continuación la composición de los
conglomerados. Es de lo que informa el cuadro siguiente. (Cuadro 5.11).
En dicho cuadro puede apreciarse que los 4 grupos quedan en torno a
los 200 casos, y solo el quinto grupo de indiferenciados es más pequeño,
algo superior a 100. La solución es excelente, porque se ha conseguido una
partición muy buena de los casos. En parte es debido al procedimiento
utilizado, a la utilización de variables estandarizadas y a hacer la partición
en unidades de desviación típica. Cuando se procede de esta manera se
garantizan particiones equilibradas.

Cuadro 5.11. Número de casos en cada conglomerado

1 220,000
2 234,000
Conglomerado 3 198,000
4 231,000
5 121,000
Válidos 1004,000
Perdidos ,000

158
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

Los programas de k-medias, dan opción a guardar en el fichero de


encuesta, dos variables como output de este análisis. La más importante es
la clasificación. Es decir, en el fichero personal de datos, si se desea guardar
la clasificación, se tendrá una variable con rango de 1 a 5, en la que se
asigna a cada sujeto o registro de la base de datos un código que coincide
con el número del conglomerado (1=amigos, 2=divertidos, 3=populares,
4=responsables, 5=medios). Además, se tiene la opción de guardar otra
variable que nos informa de la distancia de cada sujeto al centroide del
grupo al que se le ha asignado. Esa información sirve para saber el grado
de representatividad tipológica de los sujetos respecto de cada tipo; cuanto
menor es la distancia más típicos serán y viceversa. También sirve para
conocer la dispersión, homogeneidad o heterogeneidad dentro de cada
www.fragua.es

conglomerado. Esta información, aunque más complementaria que la


anterior, puede resultar muy útil si por ejemplo, se quiere tener en cuenta
solo opiniones de individuos con cierto umbral de representatividad de la
tipología, o para seleccionar en estudios cualitativos individuos prototípicos
de la tipología que se maneja.
La primera variable tiene mayor utilidad todavía, ya que constituye la
tipología y puede cruzarse con otras variables. Por regla general, cuando se
recurre a una clasificación tipológica es con una finalidad instrumental, la
de crear una variable de clasificación y poderla utilizar para explicar otras,
mediante elaboración de tablas de contingencia, y otros tipos de análisis.
Una clasificación que no se utilice es una curiosidad yerma, que tiene poco
sentido en la investigación social.
Se verá a continuación la representación gráfica de la tipología creada.
El gráfico representa la nube de puntos de individuos, sobre los ejes
factoriales empleados como variables input. En el eje horizontal, está el
primer factor: populares a la izquierda y amigos a la derecha; en el eje
vertical está el segundo factor: divertidos arriba y responsables abajo. Con
distintos colores están representados los diferentes conglomerados en los
que se han clasificado los sujetos o puntos. (Ver Cuadro 5.12).
Amigos, de color azul a la derecha. Divertidos, de color verde arriba.
Populares, de color beige a la izquierda. Responsables, de color morado
abajo. Los medios, de amarillo en el centro. Pueden apreciarse con nitidez,
los cortes que el análisis k-medias ha efectuado para clasificar a los sujetos,
de acuerdo con nuestras especificaciones.

159
Antonio Lucas y Alejandro Noboa (eds.)

Por último, se presenta a continuación una solución alternativa, para


que el lector tenga ocasión de comparar distintas posibilidades. (Ver Cuadro
5.13). En este otro caso, se ha recurrido también a la formación de cinco
grupos, pero utilizando como input las 12 variables originales, sin definir
valores iniciales y buscando la máxima iteración posible. Se obtiene en
fin una clasificación más difícil de interpretar, con menor nitidez de los
criterios, que no tiene para nada en cuenta las conceptualizaciones previas
de la investigación, (como cabía esperar) y que conceptualmente es poco
convincente. Hay algunas variables, como alegría o buenos sentimientos,
que salen altas en 3 grupos, y luego hay grupos en los que no destacan
variables. Cabe concluir diciendo que este resultado no sería una buena
clasificación, y de continuar por este camino, habría que seguir trabajando
www.fragua.es

y haciendo más pruebas hasta conseguir una clasificación más sólida.

Cuadro 5.12. Representación gráfica de las particiones en la nube de puntos

160
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

Cuadro 5.13. Centros de los conglomerados finales

Conglomerado
1 2 3 4 5
resolconflic ,20 ,64 ,18 ,28 ,18
liderazgo ,02 ,24 ,12 ,23 ,08
superación ,16 ,43 ,30 ,32 ,28
iniciativa ,03 ,93 ,14 ,25 ,16
alegria 1,00 ,88 1,00 ,00 ,00
imaginación ,21 ,64 ,28 ,29 ,26
www.fragua.es

buensentim 1,00 ,66 ,00 ,00 1,00


preparación ,00 ,12 ,04 ,12 ,07
constancia ,09 ,13 ,13 ,18 ,27
astucia ,10 ,22 ,17 ,20 ,10
intuición ,12 ,37 ,13 ,18 ,22

Además, el número de casos en cada conglomerado es menos


equilibrado que el de la solución anterior. Estos datos subrayan la dificultad
de encontrar una buena clasificación a la primera, sin un trabajo previo y
sin probar distintos ensayos y soluciones. (Ver Cuadro 5.14).

Cuadro 5.14. Número de casos en cada conglomerado

1 250,000
2 67,000
Conglomerado 3 295,000
4 215,000
5 177,000
Válidos 1004,000
Perdidos ,000

161
Antonio Lucas y Alejandro Noboa (eds.)

Con todo, para validar una clasificación, o seleccionar entre varias


alternativas si fuese el caso, además de la claridad conceptual, la prueba
de fuego está en su comportamiento empírico: es necesario cruzarla con
otras variables para comprobar que el constructo obtenido se comporta
coherentemente, si tiene capacidad de discriminación de los sujetos y es útil
para explicar fenómenos y datos.

3. Análisis de regresión lineal múltiple


Dentro de los distintos métodos multivariantes de regresión, el de la
www.fragua.es

regresión lineal es sin duda el más utilizado, por su mayor simplicidad y


porque son muchos los fenómenos que pueden resumirse razonablemente
bien mediante una función lineal. No obstante, cuando las relaciones entre
la variable dependiente y la independiente, no es lineal, su utilización no
es tan adecuada como la de otra regresión no lineal. En ciencias sociales, la
relación de no linealidad más frecuente se observa cuando la dependiente
es una variable dicotómica, pues una función logística, en forma sinusoide,
ajusta mejor que una línea recta, de ahí que la principal alternativa a la
regresión lineal sea la regresión logística.
La regresión lineal multivariante pone en relación un conjunto de
variables independientes con una dependiente. El análisis exige que todas
estas variables sean métricas, y que se cumplan ciertos supuestos que a
continuación se enunciaran. Dos son las grandes utilidades del análisis
de regresión. Una, conocer los parámetros de la ecuación de regresión, lo
cual permite estimar y predecir valores no observados. Dos, determinar y
cuantificar el impacto de las variables independientes sobre la dependiente,
lo que implica explicar y predecir. Se estaría ante un análisis causal con
propósitos explicativos y predictivos.
La ecuación de regresión adopta la siguiente forma, descontando la
estimación del error de muestreo:

La ecuación permite predecir el valor de la variable dependiente Y,


una vez conocidos sus parámetros, estos son la constante a’ y los valores
de las independientes, b1, b2, b3… (coeficientes de pendiente parcial o

162
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

de regresión parcial) Por tanto, para valores dados de las independientes


podemos conocer el valor de Y.
Los supuestos necesarios para que el análisis sea pertinente y para
garantizar la bondad y adecuación del modelo, son mucho más exigentes
que en el caso de los anteriores, K-medias y AFCP. Son los siguientes:
• Linealidad y correlación con la dependiente: todas las variables
independientes han de correlacionar con la dependiente. Además las
nubes de puntos de cada variable independiente con la dependiente deben
ajustarse razonablemente bien a una función lineal.
www.fragua.es

• Normalidad: Las variables input han de tener una distribución


normal.
• Homocedasticidad: las varianzas deben ser iguales en el valor
residual de las variables independientes. Debe permanecer constante con
independencia de los valores que adopten las independientes. Es uno de
los supuestos más incumplidos, aunque se cumple cuando el supuesto de
normalidad se satisface.
• Ausencia de alta colinealidad: no pueden observarse correlaciones
altas entre variables independientes.
• Aditividad. Los efectos de las variables independientes en la
dependiente han de poder sumarse entre sí.
• Independencia de los términos de error. No deben estar
correlacionados.
• Muestra no pequeña. No conviene que la muestra sea muy inferior
a 400 casos. Afortunadamente la mayoría de los muestreos probabilísticos
cumplen este criterio, por lo que no suele plantear problemas.
Por razones de espacio no se puede ampliar la información relacionada,
por lo que se remite al lector no familiarizado con estos conceptos a otros
manuales. Es importante el examen previo de las variables input para
garantizar el cumplimiento de estos supuestos. A veces algunos de estos
incumplimientos se pueden solucionar, como es el caso de la normalidad
u homocedasticidad, transformando las variables originales, o en el caso
de la alta colinealidad suprimiendo las variables más correlacionadas o
recurriendo al análisis factorial. Otras veces la solución no es posible, o el

163
Antonio Lucas y Alejandro Noboa (eds.)

problema solo se suaviza sin desaparecer, obligando al analista a elegir entre


presentar un modelo que incumple algún supuesto o no realizar el análisis.
No obstante cabe decir que los criterios son rigurosos y no es infrecuente
que el análisis de regresión se realice pese a dichos incumplimientos, sobre
todo los relativos a la normalidad y homocedasticidad.
Es muy frecuente incluir dentro del conjunto de independientes
alguna variable no métrica. Se admite en este caso la aplicación de variables
dicotómicas, de valores 1,0. Es importante considerar que cuando las
variables input tienen diferente rango, como en el caso de incluir algunas
dicotómicas, es preciso estandarizar las variables.
www.fragua.es

A continuación se ilustra con un ejemplo una aplicación de análisis de


regresión. En esta ocasión la base será una encuesta realizada para evaluar, a
partir de la opinión y experiencia de los usuarios, unos cursos de formación
continua, entre trabajadores del sector minero-metalúrgico. Se trataba de
conocer cuáles en qué medida habían contribuido los diversos aspectos
concretos de la valoración de los cursos en la satisfacción o valoración
general con los mismos. Para ello se formuló en el cuestionario la siguiente
pregunta, y se elaboró la correspondiente batería de ítems:
P4) Valora cada aspecto siguiendo la escala de 1 a 5. ‘1’ quiere decir
‘Muy negativamente’ y ‘5’ Muy positivamente.

a) La organización del curso en general


b) Los medios e instalaciones
c) La atención personal recibida por los organizadores del curso
d) La accesibilidad del aula
e) Condiciones ambientales del aula (ventilación, luminosidad, etc.)
f ) El estado de las instalaciones y mobiliario auxiliar
g) La disponibilidad y funcionamiento de medios técnicos
(ordenadores, herramientas,…)
h) La adecuación del número de alumnos por clase
i) Documentos y materiales actualizados y puestos al día
j) Documentos y materiales bien presentados
k) Documentos y materiales permitían profundizar en los contenidos
de la materia
l) Los contenidos impartidos se adecuaban a lo que esperaba del curso

164
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

m) Los contenidos resultaron aplicables a la práctica profesional de


esta materia
n) Los temas eran coherentes con los objetivos y la duración del
curso
ñ) Los contenidos impartidos resultaron sencillos y claros
o) El profesorado dominaba la materia
p) El profesorado era claro en sus explicaciones
q) Mi valoración global del curso, teniendo en cuenta todo es...

La variable dependiente del análisis era por tanto la valoración global


www.fragua.es

del curso (P4Q) y el resto pasaban a ser variables independientes. Un


primer examen detallado del conjunto de variables, (se omiten aquí los
detalles por cuestión de espacio) revela lo siguiente: existe una elevada
correlación entre las variables independientes y las dependientes, Dichas
relaciones pueden resumirse adecuadamente mediante funciones lineales.
Sin embargo se observa una alta colinealidad de las variables independientes
entre sí, constituyendo el principal problema al que se debe hacer frente,
aunque no único; en una medida menos preocupante, también se observan
otros incumplimientos de los criterios adecuados para el análisis, como
son que algunas variables se alejan algo de una distribución normal, con el
fenómeno asociado de la homocedasticidad.
Ante situaciones como esta, las alternativas para afrontar la alta
colinealidad (para eliminarla o la menos reducirla todo lo posible) serían
reducir el número de variables independientes, o bien recurrir a un AFCP
e introducir los factores resultantes en lugar de las variables originales,
ya que así aseguraríamos la correlación cero de las independientes. El
AFCP es en todo caso útil, aunque no se decidan utilizar los factores en el
input, para decidir cuáles de las variables podrían ser seleccionadas como
input del modelo de regresión (la primera o primeras variables que más
contribuyen en cada factor). Por tanto, se decidió realizar este análisis, con
los resultados que figuran abajo. Se formaron un total de 3 factores, que
conjuntamente explicaban el 69,6% de la varianza, una proporción muy
elevada. El primer factor explicaba por sí solo un 50,5%, el segundo un
12,2% y el tercero un 6,9%. (Se aplicó la Rotación varimax). (Ver Cuadro
5.15).

165
Antonio Lucas y Alejandro Noboa (eds.)

Cuadro 5.15. Matriz de componentes rotados

Componente
1 Contenidos 2 Medios 3 Profesor
P4J ,888 ,189 ,114
P4K ,870 ,220 ,117
P4I ,844 ,202 ,125
P4L ,801 ,231 ,303
P4M ,761 ,236 ,305
P4N ,712 ,208 ,239
www.fragua.es

P4N_ ,638 ,276 ,361


P4A ,488 ,421 ,245
P4C ,458 ,328 ,389
P4F ,153 ,890 ,091
P4E ,121 ,871 ,140
P4D ,148 ,778 ,218
P4B ,300 ,750 ,008
P4G ,354 ,656 ,124
P4H ,289 ,523 ,250
P4O ,258 ,178 ,892
P4P ,335 ,168 ,866

Criterios de valoración de cursos de formación continua.


• El primer componente se refiere a los contenidos, bien presentados,
que permitan profundizar en la materia, actualizados, adecuados a las
expectativas, prácticos, coherentes con los objetivos.
• El segundo componente se refiere a los medios. Instalaciones,
condiciones del aula, accesibilidad a los mismos, medios utilizados,
disponibilidad de ordenadores y aparatos.
• El tercer componente se refiere a la actuación del profesor. Domino
de la materia, claridad de exposición.
Los factores formados tienen un significado sólido e inequívoco, a
lo que hay que añadir el aval de una elevada varianza explicada. Son por
tanto excelentes opciones para constituir el input de un análisis de regresión

166
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

múltiple. Además de haberse resuelto el principal problema de elevada


colinealidad, al estar estandarizados se resuelven también los problemas de
normalidad y homocedasticidad detectados. Sin embargo, no siempre es
buena idea sustituir las variables originales por factores, sobre todo debido
a que su naturaleza más abstracta pueda hacer que el analista pierda el
contacto con la realidad empírica, sobre todo cuando la interpretación no
es tan clara ni sólida como el caso que nos ocupa. A veces este inconveniente
es mayor que los beneficios que aporta. Antes de tomar la decisión de
incluirlos como input se ha explorado la alternativa de seleccionar algunas
variables originales, concretamente las que más contribuyen a cada factor.
Un análisis de correlaciones (ver Cuadro 5.16) nos desvela que el problema
de la alta colinealidad en este caso no desaparece, aunque se suaviza, al
www.fragua.es

seleccionar estas.

Cuadro 5.16. Correlaciones

P4J P4F P4O


Correlación de Pearson 1 ,337** ,400**
P4J Sig. (bilateral) ,000 ,000
N 408 407 407
Correlación de Pearson ,337** 1 ,310**
P4F Sig. (bilateral) ,000 ,000
N 407 407 407
Correlación de Pearson ,400** ,310** 1
P4O Sig. (bilateral) ,000 ,000
N 407 407 407
**. La correlación es significativa al nivel 0,01 (bilateral).

Por tanto se toma la decisión de realizar el análisis con los factores


como independientes, en sustitución de las variables originales. Como
dependiente, se elige la variable de valoración global (P4Q) sin ningún
tipo de transformación, salvo la recodificación de los escasísimos casos
sin respuesta en medias, operación también realizada en las variables
independientes originales antes de la transformación factorial.

167
Antonio Lucas y Alejandro Noboa (eds.)

Se procede a la elección del método de regresión. Existen varias


opciones. Por el que se opta es por el método ‘introducir’, el más simple, que
considera sin más todas las variables independientes, sin excluir ninguna, y
en una única etapa o paso. Otros métodos alternativos son los siguientes:
Eliminar: Semejante al anterior. En un solo paso, entran en el modelo
solo las variables estadísticamente significativas, eliminando las que no pasan
la prueba de significación.
• Hacia adelante: En cada paso, se incorpora, una a una, una nueva
variable en el modelo de regresión, en función del grado de relación con
la dependiente y la significatividad de la asociación con ésta. La inclusión
www.fragua.es

de una variable con alta colinealidad puede presuponer la disminución del


coeficiente de regresión de las anteriores correlacionadas, sin que este hecho
suponga la expulsión de variables en la ecuación.
• Hacia atrás: Es el procedimiento contrario, el análisis comienza con
todas las variables y a cada paso se van eliminando las variables según el orden
de relación con la dependiente. (Más aconsejable cuando hay colinealidad).
• Por pasos: Combina los dos anteriores. Añade al procedimiento ‘hacia
adelante’ la posibilidad de eliminar una variable predictiva introducida en
un paso anterior.
Cuando hay un conjunto más amplio de variables es conveniente
utilizar alguno de los métodos de diversas etapas, de los cuales el más
popular es el llamado ‘por pasos’. Cuando las variables son pocas, suele
aplicarse más el método ‘introducir’ o ‘eliminar’.
A continuación se presentan los resultados resumen del modelo de
regresión, que sirven para evaluarlo. (Ver Cuadro 5.17).

Cuadro 5.17. Resumen del modelo b

Error típ. de la
Modelo R R cuadrado R cuadrado corregida
estimación
1 ,783a ,612 ,609 ,48766
a. Variables predictoras: (Constante), Profesorado, Medios, Contenidos
b. Variable dependiente: P4Q

168
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

R es el coeficiente de correlación múltiple (oscila entre 0 y 1, y se


expresa siempre en valor absoluto, sin signo positivo o negativo), que en
este caso resulta muy elevado, indicando que la correlación conjunta de las
independientes con la dependiente es elevada. R cuadrado, o coeficiente
de correlación múltiple cuadrado, o coeficiente de determinación, indica la
proporción de varianza de la dependiente explicada por la regresión. En este
caso es grande, del 61,2%. La R cuadrado sobreestima el valor poblacional.
Una estimación más adecuada de la bondad de ajuste poblacional es R
cuadrado corregida, interpretándose del mismo modo. Por último aparece
el error típico de la estimación, error calculado del conjunto del modelo.
Es la raíz cuadrada de la varianza residual.
www.fragua.es

Una vez estimado el error de predicción, corresponde determinar su


significación, y con este la significación del modelo. Es lo que se refleja en
el siguiente cuadro. (Cuadro 5.18).

Cuadro 5.18. ANOVAb

Suma de Media
Modelo gl F Sig.
cuadrados cuadrática
Regresión 151,766 3 50,589 212,726 ,000a
1 Residual 96,076 404 ,238
Total 247,842 407

a. Variables predictoras: (Constante), Profesorado, Medios,


Contenidos
b. Variable dependiente: P4Q
El análisis de la varianza (anova) trata de comprobar si las variables
independientes conjuntamente difieren significativamente de cero o
no. La comprobación se realiza mediante el cálculo del estadístico F (o
F de Snedecor), definido como el cociente entre varianza explicada de la
dependiente por el modelo de regresión y la varianza residual.
Al resultar la probabilidad de error, o significación de F menor de 0,05,
se descarta la hipótesis nula y se concluye que las variables independientes
son capaces de explicar la dependiente.

169
Antonio Lucas y Alejandro Noboa (eds.)

Una vez efectuada esta prueba, se da paso para conocer los coeficientes
calculados, principal output del análisis de regresión. (Ver Cuadro 5.19).

Cuadro 5.19. Coeficientes aa

Coeficientes no Coeficientes
Modelo t Sig.
estandarizados tipificados
B Error típ. Beta
www.fragua.es

1 (Constante) 4,123 ,024 170,782 ,000


Contenidos ,443 ,024 ,568 18,345 ,000
Medios ,251 ,024 ,322 10,384 ,000
Profesorado ,337 ,024 ,431 13,922 ,000

Variable dependiente: P4Q


Los coeficientes de regresión aparecen no estandarizados y
estandarizados. Los no estandarizados son los parámetros de la ecuación de
regresión. Aparece la constante de la regresión, que adopta el valor de 4,123
y los coeficientes B de las distintas variables independientes. La ecuación de
regresión sería por tanto la siguiente:

Y = 4,123 + 0,443 contenidos + 0,251 medios + 0,337 profesorado


Una vez conocidos los parámetros de la ecuación, podrían inferirse los
valores no observados, y utilizarse con fines predictivos.
También figuran dichos coeficientes de regresión estandarizados. La
estandarización permite comparar la aportación independiente de cada
uno de estos a la explicación de la dependiente. Suponen por tanto una
cuantificación de los pesos individuales de las variables independientes a la
hora de explicar la dependiente.

170
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

En este caso, el factor (o variable latente) que más aporta a explicar la


satisfacción general de los cursos, es la relativa a los contenidos, seguida de
la actuación del profesorado y en tercer lugar por los medios.
Por último, se presenta la prueba de significación estadística, basado
en el estadístico t, para cada una de las variables independientes. Las
hipótesis nulas consisten en la ausencia de relación, o relación cero,
entre cada independiente y la dependiente. La probabilidad de error o
significación, siempre inferior al umbral de 0,05, indica que los efectos de
las tres variables independientes son estadísticamente significativos. Si en
un modelo surgiesen variables independientes no significativas, el analista
debería considerar su no inclusión en el modelo.
www.fragua.es

Bibliografía:
Bisquerra Alzina, R. (1989). Introducción conceptual al análisis
multivariable. Barcelona: PPU.
Cea D’Ancona, Mª. A. (2004). Análisis multivariable. Teoría y práctica
en la investigación social. Madrid: Síntesis.
Hair, Anderson, Tatham, Black. (1999). Análisis multivariable.
Madrid: Prentice Hall.
Sánchez Carrión, J.J. (Coordinador). (1984). Introducción a las técnicas
de análisis multivariable aplicadas a las ciencias sociales. Madrid: CIS.

171
www.fragua.es
Capítulo 6

LA INVESTIGACIÓN MEDIANTE
EXPERIMENTOS. EL RETO DE ESTUDIAR
CAUSAS Y EFECTOS
www.fragua.es

José A. Ruiz San Román


Mariam González Fernández
Universidad Complutense Madrid

ÍNDICE
1. El experimento y las Ciencias Sociales
2. La necesidad del control de las variables. Aislar mediante grupos de control
3. Causalidad
4. Diseños experimentales
5. Diseños pre experimentales
6. Ventajas y limitaciones de los experimentos
7. Ejemplos del uso de experimentos en la investigación social

173
Antonio Lucas y Alejandro Noboa (eds.)

Introducción
María Moliner (1999:1256), en su conocido diccionario señala que
un experimento vendría a ser la «operación consistente en provocar cierto
fenómeno para estudiar sus efectos». Estaríamos ante un experimento si se
dieran esas dos fases: primero se provoca cierto fenómeno y, a continuación
se estudian sus efectos. Cambell y Stanley (especialistas en investigación
de cuestiones educativas) en su conocido libro Diseños experimentales y
cuasi experimentales en la investigación, afirman prácticamente lo mismo
cuando señalan que «por experimento entendemos aquella parte de la
investigación en la cual se manipulan ciertas variables y se observan sus
efectos sobre otras» (Cambell y Stanley, 1991; v. o.,1996). Esta segunda
www.fragua.es

definición ha optado por una explicación algo más técnica sustituyendo


“provocar fenómenos” por “manipular variables”.
Básicamente se puede decir que todo experimento tiene dos partes:
Se provoca un fenómeno o lo que también hemos denominado se
manipula una variable. Por ejemplo, cuando el investigador introduce un
nuevo líquido en la probeta con la que está trabajando.
Se comprueban (se miden, se observan de alguna manera) los efectos
de lo que se ha provocado o manipulado. Por ejemplo, se mide si ha subido
la temperatura, se observa si sale humo, si cambia el color…
El experimento tiene interés porque no se limita a describir un hecho,
sino que «provoca» un fenómeno y después lo «estudia». Y lo hace con la
finalidad de establecer relaciones causales entre los fenómenos, esto es, trata
de «estudiar efectos» y, en consecuencia, sus causas.

1. El experimento y las Ciencias Sociales


Es conveniente subrayar la importancia del estudio de causas y efectos
de los experimentos. Cuando la investigación se limita a “describir” aporta
conocimiento de indudable interés. Pero cuando la investigación es capaz de
explicar las causas, el conocimiento que aporta es cualitativamente superior.
Por ejemplo, si una investigación muestra que “cada vez se venden
menos periódicos”, estamos ante una “descripción”, un dato científicamente
contrastable, verdadero e interesante. Una descripción puede ser una

174
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

investigación rigurosa y pertinente. Una adecuada descripción aporta


investigación de interés. Por ejemplo, son datos meramente descriptivos
las cifras de ventas de diarios de información general en Madrid. Con el
solo dato de la evolución de las ventas de periódicos en un año, se aprecia
una importante caída de las ventas de los periódicos. En la siguiente tabla
se puede apreciar una descripción de datos de venta y su evolución.
Pero si además de describir el hecho, pudiéramos disponer de la «causa»
por la que se venden menos periódicos, nuestro conocimiento de la realidad
sería cuantitativa y cualitativamente mucho más amplio. A la vez, resulta
claro que la mera descripción de que “cada vez se venden menos periódicos”
parece más sencilla de constatar que averiguar incontrovertiblemente las
www.fragua.es

causas por las que ocurre. La investigación sobre las causas (y los efectos)
es más compleja pero en su favor podemos asegurar que aporta más
conocimiento.

Cuadro 6.1. Número de ejemplares diarios vendidos entre mayo de


2012 y mayo de 2013

El País El Mundo ABC La Razón


Mayo 190.314 151.402 115.362 64.971
Junio 197.046 158.748 112.623 52.959
Julio 201.273 151.187 115.137 51.942
Agosto 189.422 141.961 107.865 48.167
Septiembre 197.490 153.925 121.708 61.884
Octubre 185.210 138.108 114.662 65.723
Noviembre 187.627 138.511 108.421 58.544
Diciembre 182.464 135.773 106.698 49.840
Enero 195.357 157.095 103.069 46.692
Febrero 201.075 165.674 106.404 66.804
Marzo 183.054 147.632 110.939 69.296
Abril 168.108 132.232 105.017 68.746
Mayo 164.483 128.635 97.754 57.164
Fuente: Datos de OJD (Oficina de Justificación de la Difusión)

175
Antonio Lucas y Alejandro Noboa (eds.)

Aronson, Ellsworth, Carlsmith y Gonzales (1990:10 y ss), al referirse a


la naturaleza de los experimentos señalan tres características fundamentales:
Primera. Un experimento se diferencia de cualquier otro tipo de
investigación científica en que el investigador crea las condiciones para
la observación. En el caso antes referido es claro que los responsables de la
investigación están creando un ambiente de laboratorio, han preparado unos
líquidos en la probeta, controlan cuanto, cómo y qué van a introducir en
la probeta, etc. Se han creado unas condiciones especiales, también llamadas
condiciones de laboratorio, que permiten un gran control de todas las variables
que intervienen: tiempo, sustancias, temperatura, etc. Un laboratorio no es la
naturaleza sino un lugar creado para investigar.
www.fragua.es

Segunda. El investigador puede controlar, y normalmente también


modificar, las condiciones de experimentación para poder estudiar la misma
situación con o sin la variable experimental. El investigador que ha creado
las condiciones puede mantener un control sobre las condiciones que ha
creado y muchas veces irlas modificando en función de las necesidades de la
investigación. Podrá cambiar la temperatura, echar en la probeta más o menos
líquido, repetir el experimento dejando todas las circunstancias inalteradas,
etc. Controlar significa casi siempre aislar. Para controlar la temperatura o
para que tal sustancia sea exactamente la que se pretende es preciso aislar el
laboratorio y que nada interfiera en el proceso. Aislar se convierte en una de
las claves de un experimento.
Tercera. El investigador decide quiénes se someten o no al experimento.
En la observación directa de la naturaleza, el investigador tiene mucho
menos control de los sujetos y objetos que va a observar. En el laboratorio
es el investigador el que selecciona los sujetos y objetos observados. En
consecuencia, decide cómo se seleccionan.
Inmediatamente se plantea la cuestión de si es posible hacer experimentos
en las ciencias sociales. Lo que equivale a preguntar si podemos crear unas
“condiciones de laboratorio”, es decir si podemos “controlar” todos los
factores que pueden influir en el comportamiento eligiendo a una serie de
personas y “aislándolas” para que nada más les afecte… Y, una vez “aisladas”,
observarlas para medir sus comportamientos.
Todo suena muy artificial. Alguien podría imaginarse, por ejemplo, un
experimento que consiste en observar si un grupo de personas es capaz de
seguir una dieta muy rigurosa de adelgazamiento. Para eso se controlarían

176
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

todos los factores “aislándolos” en unas casas siempre controladas, etc.


Pero… ¿sería extrapolable lo observado en esa situación a la vida corriente
de las personas? Parece que no.
La cuestión es que “aislar” personas para observarlas es una alteración
tan radical de su hábitat natural que las observaciones no pueden
extrapolare a la vida real. El aluminio se comporta igual en un laboratorio
que fuera de él. Pero en el caso de las personas, el aislamiento altera su
comportamiento. Por este motivo muchos han afirmado que no es posible
la experimentación sobre los comportamientos de las personas. (cfr. Ruiz
San Román, 2010: 222-223)
www.fragua.es

Sin embargo, los experimentos han conseguido hacerse un sitio en


la investigación social porque han logrado un modo de “aislar” original.
Aunque ciertamente no ha sido un camino fácil. A lo largo de la historia
la humanidad ha intentado ampliar y analizar el conocimiento de todo
aquello que le rodea. Para tratar de explicar un determinado fenómeno, se
utilizaron en un principio métodos como la genealogía o la comparación.
El Renacimiento entiende que debe darse una descripción del mundo
más allá de los postulados clásicos que habían servido como pilares del
conocimiento hasta el momento. Surge entonces una nueva concepción
que sentará las bases de una posterior revolución científica.
Entre las nuevas maneras de investigar que se empiezan a proponer,
destacan las enunciadas por Francis Bacon en su obra Novum Organum
(1620), en la que “pretendía suplantar la influencia del Organum de
Aristóteles enfrentando la lógica experimental e inductiva al silogismo”.
Bacon promovió la recopilación de grandes colecciones de datos en
experimentos exploratorios anteriores a la construcción de hipótesis y
teorías. Asimismo “insistió en la importancia de anotar cuidadosamente
los resultados obtenidos en unos experimentos claros y detallados, fácilmente
reproducibles en condiciones reales.” (Burke, 2002).
En la década de 1840, técnicas como la de la comparación fueron
variando. John Stuart Mill utilizó como método la denominada “variación
concomitante” : «Cualquier fenómeno varía de algún modo siempre que
otro fenómeno varía de algún modo en particular, es una causa o un efecto
de ese fenómeno, o bien está conectado con él por mediación de algún
hecho causal.»

177
Antonio Lucas y Alejandro Noboa (eds.)

Posteriormente el auge del experimento tal y como hoy lo conocemos


se extendió de las disciplinas como la física o la química hacia otros campos
como es el caso de la medicina. Siguiendo esta tendencia, aparecen obras
tan significativas como Introducción al estudio de la medicina experimental
(1865) de Claude Bernard, padre de la medicina experimental.
A partir de finales del siglo XIX y principios del XX, comienza a
utilizarse la metodología experimental para campos como la psicología, las
ciencias sociales o las humanidades. Se da una creciente fascinación por la
jerga y los métodos científicos como inspiración, ya que intentaban ofrecer
explicaciones claras y sencillas de aquello que les rodeaba.
www.fragua.es

Normalmente, un experimento comienza con una hipótesis referida a


la relación entre dos situaciones sobre las que el investigador tiene que tener
capacidad de control.
Por ejemplo, si queremos medir la relación que hay entre el consumo de
medios con contenidos violentos y los posibles comportamientos violentos
que estos programas pudieran alentar, podría parecer que es suficiente
hacer que un grupo de personas vean un programa violento y observar
posteriormente sus comportamientos.
Es decir, se trataría de seguir dos pasos:
Paso 1: Hacer que unas personas vean un contenido audiovisual con
violencia. Este paso se suele llamar “intervención” o “tratamiento”. La
intervención se suele esquematizar con “X”
Paso 2: Observar sus comportamientos. Este paso se suele llamar
“observación”. La observación se suele esquematizar con “O”
Así, lo descrito hasta ahora podría esquematizarse así:
XO
Siendo X la intervención del equipo investigador (en este caso hacer
que los sujetos vean un contenido audiovisual violento) y siendo O la
observación (el equipo investigador observa lo que le ocurre a los que han
visto el contenido audiovisual violento, por ejemplo que se ponen a pegarse
unos con otros).

178
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

2. La necesidad del control de las variables. Aislar mediante grupos


de control
Sin embargo, estos pasos no son una adecuada investigación
experimental. ¿Por qué no es suficiente esa medición? Porque el
comportamiento violento después de ver el programa de televisión con
contenido violento puede estar causado por muy diversos factores, muchos
de ellos pueden ser distintos de ver la televisión. Por ejemplo, el frío del
lugar de observación que mueve a hacer ejercicio físico, las actitudes de los
compañeros etc. Cuestiones que pueden no tener relación con el consumo
de programas con contenidos violentos.
www.fragua.es

Para poder atribuir que el visionado de contenidos violentos (X) causa


el comportamiento violento que observamos (O) sería preciso aislar de
tal modo a los sujetos de las influencias que reciben que podamos llegar
a atribuir las consecuencias observadas a la intervención que hemos
realizado. Pero aislar fenómenos sociales y comportamientos humanos no
es nada fácil.
Ante las dificultades para aislar, los investigadores encontraron
una estrategia de investigación de gran interés: la utilización de grupos
de control. Se trata de crear distintos grupos de individuos, unos verán
programas violentos, otros no, para después hacer una comparación entre
ellos.
Insistimos en que lo deseable sería establecer unas condiciones tales
en las que todas las variables que intervienen estén controladas por el
investigador mediante el aislamiento de sus efectos. En investigación
sobre comportamientos humanos, esto resulta inviable la mayoría de
las veces. De ahí la aparición de los grupos de control como modo de
«sustituir» el aislamiento.
Los participantes en un experimento son asignados a dos tipos de
grupos: grupo experimental o grupo de control. El grupo de control es
aquel individuo o grupo de individuos que es observado, «pero que no
recibe ningún tratamiento» (Aronson et al, 1990: 347)
Los participantes que son miembros de grupo experimental son
sometidos a la manipulación de la variable independiente. Los participantes
que son asignados al grupo de control no son sometidos a ninguna
manipulación en la variable independiente.

179
Antonio Lucas y Alejandro Noboa (eds.)

De este modo pueden compararse el grupo experimental y el grupo


de control con el fin de comprobar si la manipulación es causa de los
efectos observados en el grupo experimental. La mayoría de los diseños
experimentales requiere una combinación de grupos experimentales y
grupo de control.
Cuestión de interés es el dilema entre el control y la no artificialidad.
De una parte, el investigador quiere el máximo control sobre la variable
independiente con mínimas diferencias entre los distintos grupos a los que
se somete a control. De otra el experimentador quiere que los resultados
obtenidos no se vean alterados por situaciones excesivamente artificiales. El
dilema, en algunos casos, se torna irresoluble.
www.fragua.es

Un buen resumen de lo que es un experimento lo recoge Lucas (1996:


164) tomado de Sellitz (1965): el esquema básico de una experimentación
será sencillamente «un grupo experimental expuesto a la presunta variable
causa (o independiente) en tanto un grupo de control no lo está; ambos grupos
son comparados en términos del efecto presumido (o variable dependiente). Este
planteamiento permite la recogida de tres tipos principales de evidencia relevante
para la comprobación de hipótesis acerca de las relaciones causales: 1) evidencia la
variación concomitante, es decir, que la variable causal y la variable independiente
están asociadas; 2) evidencia de que la variable dependiente no tuvo lugar antes
de la variable causa, y 3) la evidencia de eliminar otros factores como posibles
condiciones determinantes de la variable dependiente »
(Sellitz, 1965: 115-116).

3. Causalidad
Lo decisivo de la investigación mediante experimentos es que se propone
determinar causas y efectos. Cuando decimos que se da una relación causa-
efecto, queremos decir que siempre que en la variable-causa se modifican
determinadas condiciones se provoca necesariamente en otra variable
unas determinadas consecuencias. A esta segunda variable, la llamamos
variable-efecto. Es decir, decimos que hay causalidad si al alterar la variable
causa se producen modificaciones en la variable efecto atribuibles a las
modificaciones provocadas en la variable causa.
Existen dos fenómenos que podrían confundirse con una relación
causal: La mera sucesión temporal de acontecimientos y lo que técnicamente
denominamos correlación.

180
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

La sucesión temporal se refiere a la constatación de que un hecho


es siempre posterior a otro. Por ejemplo, cumplir diez años siempre es
anterior a terminar los estudios universitarios. Todas las personas que
han sufrido de apendicitis se han alimentado la semana anterior a sufrir
la enfermedad. Pero es evidente que cumplir diez años no causa obtener
un título universitario. También es claro que alimentarse durante una
semana no causa un ataque de apendicitis. Comprobar que un hecho se da
después de otro, no significa comprobar que entre esos dos hechos haya
una relación causal.
Causalidad tampoco es correlación, la correlación puede confundirse
con la causalidad. Decimos que hay correlación cuando modificando
www.fragua.es

una variable se modifica otra. Por ejemplo, en Estados Unidos se detectó


que en las familias con mayor número de hijos los niños obtenían peores
calificaciones. Se podía apreciar una relación entre las dos variables y se
aseguró que existían causalidad: si tienes más hijos obtienen peores notas.
Sin embargo, se trataba de una conclusión equivocada. Investigaciones
posteriores comprobaron que la causa no era el número de hermanos, sino
el nivel en el manejo de la lengua inglesa. Las familias con mayor número
de hijos eran familias de origen latino, sobre todo mexicanos. En muchas
de esas familias se habla mejor el español que el inglés. La causa de las
malas calificaciones era la falta de dominio del inglés y no el número de
hermanos, sin embargo, el hecho de que las familias latinas fueran mayores
confundió a los investigadores y donde había una correlación pensaron
que había una causa. La explicación real era que cuanto peor conocimiento
del inglés, peores calificaciones. Ahí sí se detectó causalidad.
Para probar que hay una relación causal no basta con descubrir una
correlación, sino que es necesario mostrar como una variable realmente
causa la otra.
El modo de comprobar que existe causalidad, es a través de los diseños
experimentales.

4. Diseños experimentales
Los experimentos obedecen a diseños lógicos generalizables. Pueden
ser descritos con símbolos sencillos que expresan el procedimiento de la
investigación.

181
Antonio Lucas y Alejandro Noboa (eds.)

Para representar un diseño experimental utilizamos tres símbolos


(R, X, O) que representan tres actividades básicas que puede hacer el
experimentador:
1. Escoger los elementos con los que va a experimentar. La elección
de elementos debe ser aleatoria, es decir, todos los elementos del universo
estudiado deben tener las mismas posibilidades de ser parte de la muestra.
Este proceso de selección aleatoria de los elementos de la muestra se
denomina aleatorización o randomización. Se representa con la letra R.
2. Observar los elementos con los que se va a experimentar. Esta
actividad se representa con la letra O.
www.fragua.es

3. Modificar o intervenir de un modo u otro sobre los elementos con los


que se está experimentando. Esta actividad se representa con la letra X.
Dicho de otro modo:
R Representa la selección de una muestra aleatoria, esto es, la selección
de elementos que componen la muestra con la que vamos a experimentar,
de manera que todos los elementos del universo tengan las mismas
posibilidades de ser escogidos para formar parte de la muestra.
Los estudios experimentales requieren que se dé un proceso
de aleatorización o randomización que se representa en los diseños
experimentales por la letra R. Si no se da esa aleatorización en la
selección de la muestra, no podemos decir que nos encontramos ante un
experimento, sino, si se dan las oportunas condiciones, estaremos ante un
cuasi experimento.
X Representa un tratamiento, modificación o manipulación de las
variables independientes (variables causa) de forma que permita medir
los efectos producidos por esas variables en las variables dependientes
(variables efecto), En las ciencias naturales, experimentales, un tratamiento
o manipulación sería calentar el objeto, añadirle una sustancia, someterlo a
un tratamiento médico, etc.
O Se refiere al proceso de observación o medida. Generalmente, se
le añade un subíndice que indica el número de la observación. (O₁ debe
entenderse como primera observación). En las ciencias naturales, la
observación consiste en medir, pesar, etc.

182
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

La combinación de estas tres actividades (R, X, O) genera diversos


diseños experimentales. La utilización de unos u otros depende de motivos
diversos, que van desde la disponibilidad de recursos económicos hasta la
viabilidad física de hacer una selección aleatoria.
A estas tres posibilidades de actuar (R, X, O) hay que añadir que es
necesario expresar gráficamente el tratamiento del grupo de control.
Como ha quedado explicado anteriormente, el grupo de control nace
ante la imposibilidad de lograr un perfecto aislamiento de todas las variables
que queremos controlar. De manera que en lugar de empeñarnos en un
inasequible esfuerzo de control de la infinidad de variables, utilizamos
www.fragua.es

la comparación con un grupo semejante no sometido a la manipulación


experimental para tratar de descubrir qué efectos están vinculados al
experimento y qué otros efectos son fruto de circunstancias que no
controlamos.

A partir de estos presupuestos podemos distinguir diversos diseños:


Según las posibilidades de la investigación varios diseños son aceptables
y ofrecen suficientes garantías. Los tres diseños siguientes son clásicos.
- Diseño de grupo de control pretest-postest:
R O X O
R O O
- Diseño de cuatro grupos de Solomon:
R O X O
R O O
R X O
R O
- Diseño de grupo de control con postest:
R X O
R O

183
Antonio Lucas y Alejandro Noboa (eds.)

5. Diseños pre experimentales


Son diseños pre experimentales aquellos en los que no están garantizadas
las condiciones mínimas para verificar la causalidad, bien por falta de
aleatoriedad a la hora de seleccionar los elementos, bien por problemas de
control, etc.
Son ejemplos de diseños pre experimentales:
- Estudio del caso con una sola medición:
X O
www.fragua.es

- Diseño pretest-postest con un solo grupo:


O X O
- Comparación con un grupo estático:
X O
O
Los diseños expuestos son considerados pre experimentales porque la
selección de los elementos de la muestra no se hace de manera aleatoria.
Obsérvese que en el diseño no aparece la letra R, que representa la selección
aleatoria o randomización.

6. Ventajas y limitaciones de los experimentos


De un modo o de otro, los distintos autores se refieren a las ventajas y
desventajas que tienen los experimentos.
Siguiendo lo propuesto por Rodrigo Alsina (2001) y por Lucas (1999)
podemos destacar las siguientes ventajas e inconvenientes de los diseños
experimentales.

184
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

Ventajas Limitaciones
Posibilidad de establecer la relación cau- Muchos aspectos de la vida no pueden
sa-efecto. estudiarse en el laboratorio.
Control de la influencia de las variables
específicas. Control sobre sujetos y circuns- Problemas de validez externa.
tancias ambientales.
Posibilidad de replicación exacta del expe- En ocasiones resulta difícil la extrapolación
rimento. a un contexto real. Artificialidad.
Las respuestas de los individuos pueden
Permite la generalización. verse afectadas por el experimento (Efecto
Heisemberg).
www.fragua.es

Permite la predicción.
Bajo coste económico
Fuente: Elaboración propia a partir de Rodrigo Alsina (2001) y Lucas
(1999)

Los problemas planteados deben verse sólo como «limitaciones»


(Rodrigo Alsina, 2001: 160) o como «inconvenientes» (Lucas, García y
Ruiz, 1999: 23) a la hora de aplicar la experimentación, pero no como
argumentos que prueben la imposibilidad de llevarlos a cabo. Sin embargo,
las ventajas de los experimentos, esto es, la posibilidad de establecer
relaciones causales, de reproducir las condiciones experimentales en
sucesivas ocasiones, etc., merecen gran consideración.
Con todo, las dificultades para realizar experimentos en las ciencias
sociales han llevado a los científicos sociales a detenerse particularmente en
los factores que pueden atentar contra la validez de la experimentación con
vistas a asegurar la calidad de los experimentos.
En la literatura científica se vienen desarrollando estudios sobre los
factores que atentan contra la validez de la experimentación. Veamos, a
modo de ejemplo, algunos de ellos. Seguimos lo indicado por Campbell y
Stanley (1966: 16-18):
1. Historia. Acontecimientos ocurridos entre la primera y la segunda
observación distintos del a manipulación de la variable X.

185
Antonio Lucas y Alejandro Noboa (eds.)

2. Maduración. Procesos internos de los participantes que operan como


resultado del mero paso del tiempo (no son peculiares de los acontecimientos
en cuestión) y que incluyen el aumento de la edad, el hambre, el cansancio
y similares.
3. Administración de test anterior. El influjo que la administración del
test ejerce sobre otro posterior.
4, Instrumentación. Los cambios en los instrumentos de medición
o en los observadores o calificadores participantes que pueden producir
variaciones en las mediciones que se obtengan.
www.fragua.es

5. Selección diferente de los grupos. Sesgos resultantes de una selección


diferenciada de participantes en los grupos que se comparan
6. Mortalidad experimental o diferencia en la pérdida de participantes
de los grupos de comparación.
No es ésta una relación exhaustiva de los factores que pueden atentar
contra la validez de la experimentación. Pretende ser únicamente una
aproximación útil a la cuestión.
7. Ejemplos del uso de experimentos en la investigación social
Puede resultar de interés para una mejor comprensión de la materia
tratada en este capítulo comentar algunos experimentos realizados en la
investigación social.

Hovland, Lumsdaine y Sheffield (1949)


Algunos de los experimentos más conocidos, fueron los realizados por
Hovland, Lumsdaine y Sheffiel durante la Segunda Guerra Mundial. En
esta época algunos de los mejores investigadores en comunicación, fueron
requeridos por el Departamento de Guerra de los Estados Unidos para
realizar estudios en las Fuerzas Armadas. En concreto, Hovland se puso
al frente de la Sección Experimental de la División de Información y
Educación, desde donde coordinaba los programas sobre el cambio de
actitud a través de la información y la propaganda. Todos los trabajos
realizados en esta época, están compilados en la obra Experiments on Mass
Communication.

186
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

El caso de la película documental The Battle of Britain, es utilizado por


Klapper (1979) para ilustrar la comunicación de hechos sin consecuente
cambio de opinión. Los autores distinguían tres etapas en los propósitos de la
serie de películas que iban a visionar:1) informar sobre algunos antecedentes
de la guerra, con los que se pretendía, 2) sugerir a los soldados opiniones y
actitudes más favorables en relación con la participación estadounidense,
opiniones y actitudes que, a su vez, pudieran 3) incrementar la motivación
y buena disposición de dichos soldados hacia sus obligaciones militares.
(Klapper 1974: 80)
Tras ver el filme, se observó que las películas habían resultado muy
eficaces para la transmisión de hechos objetivos. Así se subraya el ejemplo
www.fragua.es

de que resultaba cuatro veces más frecuente (78%) el conocimiento que


tenían los que habían visto la película sobre cómo los ingleses consiguieron
proteger del bombardeo alemán a los aeroplanos que estaban en tierra;
frente al 21% de los que no habían visto The Battle of Brittain.
Asimismo y aunque en menor medida, se observaron diferencias entre
los grupos experimental y de control que llegaban hasta el 27%, respecto
a algunos temas como si hubo realmente una “Batalla de Inglaterra en la
que la heroica resistencia inglesa se puso de manifiesto y fue secundada
por la gran contribución de la Royal Air Force”. (Hovland, Lumsdaine y
Sheffield, 1965: 33-37)
Pero también hubo algunos aspectos sobre los cuales el filme no presentó
eficacia alguna. Una muestra de esto es que no se pudieron cambiar las
actitudes que se tenían hacia los ingleses o hacia la necesidad de participación
de E.E.U.U. en la guerra. Aunque los temas no se trataban explícitamente
en la cinta, los investigadores creyeron, en un primer momento que las
imágenes y los hechos presentados en el filme influirían en tales opiniones.
De esta manera las diferencias que se observaron tras los test fueron de
apenas un 3% menos. (Hovland, Lumsdaine y Sheffield, 1965: 64).
A pesar de que el principal objetivo del programa de orientación, era
variar la motivación de los hombres para servir como soldados, las películas
no ejercieron influencia alguna que variara estas opiniones. (Hovland,
Lumsdaine y Sheffield, 1965: 62). Klapper resume que “el éxito de los
filmes decreció regularmente a medida que el efecto buscado dejó de ser la
comunicación de hechos objetivos para pretender el cambio de actitudes.
Los filmes comunicaron información, pero consiguieron escasa o nula
conversión”. (Klapper 1974: 81)

187
Antonio Lucas y Alejandro Noboa (eds.)

En Experiments on Mass Communication, se establecen hipótesis


sobre la comunicación explícita frente a la implícita y sobre una posible
“necesidad de un periodo de penetración”. (Hovland, Lumsdaine y
Sheffield, 1965: 71)
Hovland y Weiss (1951)
En este experimento Hovland y Weiss trataban de analizar cómo
afecta a la recepción del mensaje la fiabilidad de la fuente. Durante el
experimento presentaron a unos estudiantes universitarios cuatro artículos
que versaban sobre la venta de drogas antihistamínicas, la posibilidad de
construir submarinos de propulsión atómica, la escasez de acero y el futuro
www.fragua.es

de la industria cinematográfica. A la mitad de ellos se les dijo que los textos


estaban escritos por una fuente establecida como de “gran credibilidad”,
mientras que para la otra mitad pertenecían a una “fuente de credibilidad
dudosa”.
Tras la lectura de estos artículos se observó cómo efectivamente, aquellas
comunicaciones que venían de fuentes con mayor credibilidad eran más
aceptadas y sus conclusiones más justificadas, que las que contaban con
menor credibilidad.
Estas diferencias resultaron mayores a la hora de tratar el cambio de
opinión. En este caso el cambio neto en la dirección pretendida era tres veces
y media mayor, entre los que habían leído el artículo de fuentes con gran
credibilidad que en el resto. Sin embargo, se encontró un cambio en esta
tendencia a la hora de volver a realizar los test un mes después. En esta
ocasión “el grado de cambio en el grupo que recibió la comunicación como
fuente muy digna de crédito había disminuido, en tanto que el grupo que la
recibió de fuente de escaso crédito, había aumentado” (Klapper, 1974: 92-
93).
Este fenómeno fue definido como sleeper effect, y consiste en que “el
efecto positivo de las fuentes de alta credibilidad y el negativo de las de baja,
tienden a desaparecer después de un periodo de varias semanas”. (Hovland,
Janis y Kelley, 1966: 269-270)
Janis y Feshbach (1953)
Con el fin de estudiar los efectos del miedo a la hora de comunicar
un determinado mensaje, Janis y Feshbach realizaron diversos estudios

188
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

al respecto. Uno de estos experimentos trataba de demostrar que cuanto


más amenazadoras fueran las comunicaciones utilizadas por el emisor del
mensaje, menos efectivas resultarían para los receptores. Para demostrar
esto realizaron un experimento sobre una muestra escolar, que consistía
mostrar los beneficios que podrían obtenerse del lavado de los dientes.
Dicho experimento consistía en exponer a tres grupos de estudiantes
a una serie de conferencias y diversos materiales audiovisuales sobre la
higiene dental. En todas las versiones se coincidía en la conveniencia de
un correcto aseo dental, sin embargo se difería a la hora de ilustrar los
peligros de descuidar el cuidado de los dientes, incluyendo mensajes como
“la suciedad dental podía provocar todo tipo de enfermedades”.
www.fragua.es

Tanto antes como después de la exposición al mensaje, se realizaron una


serie de test que revelaron que los procedimientos recomendados se adoptaron
más ampliamente en el grupo que recibió la versión que presentaba una
amenaza más moderada, seguido por el grupo expuesto a la amenaza de tipo
medio y por último los más intensamente amenazado. Estas diferencias se
mantuvieron a lo largo de todo un año. (Klapper, 1974: 109)
Milgram (1963)
El teniente coronel nazi Adolf Eichmann, responsable directo de la
solución final en Polonia fue condenado a muerte en 1961. El propio
Eichmann, alegó durante el juicio que sólo se limitaba a cumplir órdenes.
Este suceso llevó al investigador Stanley Milgram a cuestionarse el
papel de la obediencia a la autoridad y hasta dónde llegaba el ser humano
al obedecer órdenes. Milgram decidió ir más allá del experimento de
conformidad de Asch y diseñó un experimento que contaba con tres
papeles: alumno, maestro e investigador.
El comienzo era el encuentro entre el investigador, miembro del
equipo de Millgram y que actuaba como máxima autoridad; y los otros
dos sujetos. Uno de los individuos creía que estaba allí para participar en
un estudio sobre la memoria y el otro también formaba parte del equipo.
Se sacaron dos trozos de papel para ver quién sería el profesor y quién el
alumno, pero estaban trucadas de manera que el sujeto que no pertenecía
al grupo de investigación tuviese siempre el papel de maestro.

189
Antonio Lucas y Alejandro Noboa (eds.)

En el experimento se pagó a un individuo para que participara en lo que


él creía que era un estudio sobre la memoria. Se le pidió que representara el
papel de un profesor ayudando a alguien a mejorar su memoria. Guiando al
sujeto estaba el investigador, que actuaba como la máxima autoridad de la
situación. Tanto el investigador como el alumno formaban parte del equipo
de Milgram
Tras el reparto de roles se explicaba al maestro la dinámica de la prueba,
que consistía en que cada vez que el alumno contestara erróneamente, se
le castigaría mediante una descarga eléctrica. A pesar de que no existían
las descargas, el maestro creía estar castigando al alumno. Inicialmente, las
descargas eran leves, pero iban incrementándose con cada error que cometía
www.fragua.es

el alumno, llegando a resultar potencialmente mortales.


Antes de comenzar el experimento, Millgram pidió a un grupo de
psiquiatras que predijeran la reacción que tendrían los sujetos en el papel
de maestros. Estimaron que la mayoría no pasaría de 150 voltios. Sin
embargo, tras la existencia del investigador en que siguieran con la prueba,
el 65% de los participantes llegaron a aplicar la descarga máxima, aunque
muchos pusieron objeciones, y ninguno se negó rotundamente a aplicar las
descargas hasta alcanzar los 300 voltios.
Este experimento resultó bastante controvertido y planteó la cuestión
ética del investigador. La posibilidad de un posterior trauma para los
participantes, puso sobre la mesa el debate sobre la protección de los sujetos
de investigación.
Bibliografía
Achen (1986). The Statistical Analysis of Quasi-Experiments. University
of California Press
Aronson, E; Ellsworth, P.C.; Carlsmith, J. M. y Gonzales, M. H.
(1990). Methods of Research in Social Psychology. Nueva York: McGraw-
Hill.
Asch, S. E. (1951). «Effects of group pressure upon the modification and
distortion of judgements», en Guetzkow (ed.): Groups, leadership, and men.
Pittsburg, Carnegie Press, pp. 170-190.
Bandura, A.; Walters, R. (1963). Social Learning and Personality
Development. Nueva York: Holt, Rinehart and Winston.

190
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

Belson, W. A. (1967). The Impact of Television. Londres: Crosby


Lockwood and Son.
Berkowitz, L. (1964). «The Effects of Observing Violence », Scientific
American, 21, 35-41
Burke, P. (2002). Historia Social del Conocimiento. Vol. II. Barcelona:
Paidós, pp.: 95-97.
Caballero Sánchez, S. (1971). «El principio de causalidad» en GER,
tomo V. Madrid: Rialp, p. 409.
Campbell, D.; Stanley, J. (1991). «Diseños experimentales y cuasi
www.fragua.es

experimentales en la investigación social» (v. o., 1966: Experimental and


Quasi- Experimental Designs for Research). Buenos Aires: Amorrotu
Editores.
Dader, J. L. (1997). Periodismo de precisión. Vía Socioinformática de
descubrir noticias. Madrid: Síntesis.
Dewey, R. (2011). Psychology: An introduction. Disponible en web:
http://www.intropsych.com/
Dollar, J.; Miller, E.; Doob, L.; Mowrer, O.; Sears, R. En colaboración
con Ford, C.; Hovland, C.; Stollenberger, R. (1957). Frustration and
Agression. New Haven: Yale University Press. (Versión original 1940).
Feshbach, S. (1961). «The Stimulating vs. Cathartic Effects of a Vicarious
Aggressive Experience», Journal of Abnormal and Social Psycology, 63, 381-
385
Gaitán Moya, J. A., Y Piñuel Reigada, J. L., (1997). Técnicas de
Investigación en comunicación social. Elaboración y registro de datos.
Madrid, Síntesis.
Giddens, A (1998). Sociología. Madrid, Alianza.
Gunter, B. (2002). «The Quantitative Research Process », en K.B. Jensen
(ed.): A Handbook of Media and Communication Research. Qualitative and
Quantitative Methodologies. Londres, Routhledge.
Hovland, C; Janis, I.; Kelley, H. (1966). Communication and
Persuasion. New Haven: Yale University Press. (Versión original 1953).

191
Antonio Lucas y Alejandro Noboa (eds.)

Hovland, C; Lumsdaine, A y Sheffielf, F. (1965). Experiments on Mass


Communication. New York: Science Editions. (Versión original 1949)
Klapper, J.(1974). Efectos de las comunicaciones de masas: poder y
limitaciones de los medios modernos de difusión. Madrid: Aguilar.
Lucas Marín, A.; García Galera C.; Ruiz San Román J.A. (1999).
Sociología de la comunicación. Madrid, Trotta, p 40 y ss.
Moliner, M. (1999, 2ª ed.): Diccionario del uso del español. Madrid.
Gredos.
Piñuel Reigada, J.L. (2002). « Formación universitaria y formación
www.fragua.es

profesional en métodos y técnicas de investigación social en comunicación»,


Ateneo Ayuí de Ciencias Sociales, num.1, pp. 34-59.
Oficina de Justificación de la Difusión. (2013). Informe mensual
consultado en http://www.introl.es/
Rizter, G. (2000). Teoría Sociológica Clásica. Madrid. Mc Graw-Hill
Rodrigo Alsina, M. (2001). Teorías de la Comunicación. Ámbitos,
métodos y perspectivas. Barcelona: Universidad Autónoma de Barcelona, p
160.
Rogers, E. (1994): A History of Comunication Study. A Biographical
Aproach. Nueva York: The Free Press.
Ruiz San Román, J. A (2010): « Los experimentos» en Berganza, M.R
.y Ruiz
San Román J.A. Investigar en Comunicación, Madrid: McGraw Hill.
Wimmer, R. D.; Dominick, J.R. (1994): «Investigación experimental»
en R.D. Wimmer y J.R. Dominick: La investigación científica de los medios
de comunicación. Barcelona: Bosch, pp.: 88-111.

192
Capítulo 7

ANÁLISIS DE CONTENIDO
www.fragua.es

Francisco Bernete
Universidad Complutense de Madrid

ÍNDICE
1. Los inicios del AC y su distinción respecto de otras tradiciones de
interpretación de textos
2. Definiciones, objetivos e inferencias más habituales en los análisis de
contenido
3. Los pasos en la investigación donde se utiliza el análisis de contenido
4. El análisis de las relaciones entre elementos del texto

193
Antonio Lucas y Alejandro Noboa (eds.)

Introducción
El análisis de contenido se utiliza para estudiar cualquier tipo de
documento en el que esté transcrito algún relato, relativo a cualquier objeto
de referencia. Estos documentos pueden ser orales, escritos, icónicos;
y pueden referirse a aconteceres reales, por ejemplo en los noticieros de
los medios de comunicación; y también versar sobre contenidos no reales
-ya sean posibles o imposibles- por ejemplo en los relatos míticos, en los
cuentos y en cualquier otro producto de ficción.
El análisis de contenido es una metodología sistemática y objetivada
porque utiliza procedimientos, variables y categorías que responden a
www.fragua.es

diseños de estudio y criterios de análisis, definidos y explícitos. Por esta


razón, permite realizar estudios comparativos, entre diversos documentos,
o distintos objetos de referencia; entre diversas fuentes o épocas. La práctica
del análisis de contenido, puede adecuarse a los requerimientos de la
investigación científica. Así sucederá cuando utilice materiales que sean
representativos (por ejemplo, en un estudio comparado, las descripciones
sobre <Hernán Cortés> que se estudian en los colegios de España y de
México, se puede llevar a cabo analizando los correspondientes libros de
Historia) Además, se requiere que el estudio aporte resultados significativos,
que son las diferencias que no quepa atribuir a sesgos de la investigación; por
ejemplo, si las narraciones del mismo personaje, giran en torno al atributo
“valeroso” en los libros históricos de España, y en torno al rasgo “codicioso”
en sus equivalentes mexicanos. Finalmente, el análisis de contenido será
científico, cuando sus resultados sean validables. La validez científica consiste
en la posibilidad de comprobar que los datos y las conclusiones del análisis
son correctos.
A propósito de este procedimiento científico de investigación que se
conoce como “análisis de contenido” desarrollamos a continuación cuatro
apartados:
1) El primero para dar a conocer sus inicios, algunos hitos en su
evolución y el modo en que podemos distinguir el análisis de contenido de
otras tradiciones de interpretación de textos.
2) El segundo para mostrar las definiciones de que fue objeto por
parte de autores clásicos en la materia, los objetivos que se atribuyen a esta
estrategia metodológica y las clases de inferencias que permite su aplicación.

194
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

3) El tercer apartado sirve como guía para quienes se propongan llevar


a cabo una investigación social con análisis de contenido de documentos.
Describimos el trabajo previo a la obtención de los datos, la extracción
de la información pertinente que se encuentra en los documentos y su
posterior explotación.
4) Finalmente, en el cuatro apartado se proporciona información
sobre tres maneras de abordar el estudio de las relaciones que los elementos
del contenido mantienen entre sí cuando el objetivo del análisis requiere el
conocimiento de tales vínculos.
www.fragua.es

1. Los inicios del AC y su distinción respecto de otras tradiciones


de interpretación de textos
Los primeros análisis del contenido de las comunicaciones
El AC comienza cuando se interpreta un relato, para identificar las
representaciones que los autores tienen de sus objetos de referencia,
siguiendo un procedimiento objetivado de validación. Estamos seguros de
que este proceder estaba institucionalizado y se aplicó al menos durante
seis siglos, en las universidades medievales, por todos los magister a cuyo
cargo estaba la interpretación y el comentario de los textos sagrados y
profanos: análisis que por lo general, utilizaba como rejilla interpretativa
y evaluadora, las visiones del mundo, del hombre y de la divinidad que
estaban codificadas en el dogma cristiano. Por este motivo, la exégesis
hermenéutica se menciona como antecedente de todas las interpretaciones
de relatos, incluidas aquellas, que -como sucede con el AC- se proponen
que el intérprete se ajuste a las reglas del análisis científico.
El comienzo concreto del AC está vinculado con el análisis de las
comunicaciones que circulan por los sistemas y medios de comunicación
colectivos. Se inicia en U.S.A. hacia finales del siglo XIX. Los primeros
análisis se limitaban a cuantificar ciertos elementos de los periódicos que,
al entender de los investigadores, permitían inferir y comparar el grado de
sensacionalismo. Se identificaron y contaron palabras “cargadas” de dichas
connotaciones y se midieron los espacios que ocupaban los asuntos que
consideraban sensacionalistas en las páginas de los diarios. Midiendo los
centímetros de columna que ocupaban los distintos asuntos en los periódicos,
o el tamaño de los titulares, ponían de relieve que había un periodismo

195
Antonio Lucas y Alejandro Noboa (eds.)

amarillo y chabacano; pero además, que su causa era la búsqueda del lucro y
que su efecto era el aumento del delito y otras actividades antisociales.
Este estudio pionero ya tienen su razón de ser en una crítica a los usos de
la información en los medios de masas. Venía a mostrar que los periódicos
estaban prestando menos atención a temas que “valían la pena” (cuestiones
religiosas, científicas, literarias); dejando ese espacio para tratar los chismes,
los escándalos y los deportes; es decir, aquellos contenidos que directa o
indirectamente, motivaban la compra por parte de más consumidores. A
partir de entonces, durante más de un siglo, se han sucedido los análisis
críticos de los medios de masas, en tanto que inundan la comunicación
pública de asuntos triviales, malsanos o desmoralizadores. Se reitera así la
www.fragua.es

crítica de la responsabilidad que tienen en la degradación de la cultura de


masas.
Cabe referir en este capítulo tres etapas fundamentales en la evolución
del AC durante el siglo XX: a) la edad de oro del análisis behaviorista de
contenido que tiene lugar durante el primer tercio del siglo; b) su utilización
durante la Segunda Guerra Mundial y c) la extensión de su uso en las
Ciencias Sociales a partir de los años cincuenta.
Los rasgos de los análisis que se realizan durante el primer tercio del
siglo XX, según Krippendorff (1990), serían los siguientes:
1) Científicos sociales de la talla de Lippmann o Laswell se incorporan
al AC proporcionando marcos teóricos.
2) Se definen conceptos como “actitud”, “estereotipo”, “estilo”,
“símbolo”, “valor”, “método de propaganda” y se hacen corresponder con
ciertos datos.
3) Se usan técnicas estadísticas (las mismas de las encuestas y de los
experimentos psicológicos).
4) Se incorporan los datos del AC a trabajos mayores (que combinan
datos de diferente procedencia).
En la Segunda Guerra Mundial, se utiliza el AC en aplicaciones militares.
Las cartas capturadas a los soldados alemanes, se analizaron para evaluar el
estado de la moral del enemigo, y para diseñar cuales tenían que ser los
argumentos de la propaganda aliada que acompañaba a los bombardeos de
las posiciones militares y de la población civil. Se analizaron las emisiones

196
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

radiofónicas internas del Eje para inferir sus propósitos y sus debilidades.
Esos mismos protocolos de análisis, se adaptaron en Psicología, para el
análisis de conflictos, utilizando los intercambios verbales en pequeños
grupos.
De la aplicación del AC en el estudio pragmático de la propaganda
política (en torno a las dos guerras mundiales), Krippendorff (1990: 22-
23) destaca cuatro observaciones que tienden a relativizar la importancia
del “contenido compartido” y a poner más énfasis en las condiciones en
que se produjo la comunicación (la comprensión del proceso político
implicado, la aportación de los propios analistas a la comprensión de los
mensajes que analizaban, la naturaleza sistémica de las comunicaciones
www.fragua.es

de masas) y avisar de que no siempre vale la pena disponer ‹‹de la gran


cantidad de datos que exigen los análisis estadísticos (porque estos) no
conducen a las conclusiones ‘más obvias’ que los expertos en política son
capaces de extraer paralelamente observando con más profundidad las
variaciones cualitativas››.
En realidad, el declive del análisis de contenido en clave behaviorista,
que se consumó al final de la segunda Guerra Mundial, está relacionado
con el ascenso del funcionalismo, el estructuralismo y la dialéctica, como
los paradigmas que serían dominantes hasta la década de los ochenta
del siglo pasado. De hecho, desde los años treinta, ya se estudiaban las
narraciones con otros enfoques menos empíricos y se hacían aplicaciones
menos instrumentales del análisis de contenido.
Tales innovaciones, fueron consecuencia de la incorporación de
investigadores, procedentes de otros campos más directamente relacionados
con los fenómenos culturales: principalmente de la Antropología, de la
Lingüística y de la Historia; y también de la Sociología del Conocimiento
y de la Comunicación Social. Los antropólogos utilizaron el AC para el
estudio de los mitos: y de estos análisis deriva la Antropología Cultural, que
tendrá en Levi-Strauss su figura más señera. Los lingüistas hicieron otro tanto
con los cuentos y leyendas. Los historiadores analizaron documentos que
permitirían inferir acontecimientos y rellenar lagunas en el conocimiento
de la Historia; por ejemplo, estudiando textos de autoría dudosa para su
identificación. Los sociólogos emplearon el AC principalmente en clave
de historia de las ideas, identificando la permanencia y el cambio de las
representaciones ideológicas en relación con la socialización y con el
control social.

197
Antonio Lucas y Alejandro Noboa (eds.)

El análisis de contenido de la comunicación social, es el material de


referencia al que recurren los autores de la Escuela de Frankfurt desde los
años treinta, para mostrar el vínculo que existe entre la producción social
de comunicación, las prácticas de control social y las representaciones de las
personas. Estos planteamientos y metodologías, se utilizaron para el análisis de
materiales educativos, por ejemplo para comprender las tendencias de carácter
político, actitudinal y axiológico que aparecen en los libros de texto.
A mediados de los años cincuenta se organiza una conferencia sobre
AC donde participan investigadores de diferentes disciplinas. En esta
conferencia Osgood presenta algunas propuestas que tienen en común el
énfasis sobre las connotaciones de los enunciados, creyendo que responden
www.fragua.es

a estructuras latentes que están formadas por dimensiones bipolarizadas


(positiva y negativamente) y mensurables en escalas.
Esas y otras aportaciones están recogidas en un libro compilado por
Ithiel de Sola Pool (1959), quien observa la coincidencia de la mayoría de
los ponentes en dos aspectos, pese a la diversidad de intereses y enfoques:

“Existía una grave preocupación por el problema de las inferencias realizadas


a partir del material verbal con respecto a sus circunstancias antecedentes, y
se insistía en el cómputo de las relaciones internas entre símbolos, y no en el
cómputo de las frecuencias de aparición de los mismos símbolos” (Pool, 1959: 2).
Otros autores, señalarán más tarde que el análisis (más allá de ser
descriptivo del material) tiene como finalidad la inferencia, definida por
Bardin (1977: 29) como “operación lógica por la que se admite una proposición
en virtud de su relación con otras proposiciones admitidas ya como verdaderas” .
En 1967 The Annenberg School for Communication auspicia otra
conferencia donde los investigadores iban a presentar sus técnicas de análisis
por ordenador. Pero, además del análisis por ordenador, sirve de foro para
debatir nuevas cuestiones de método como: las dificultades para registrar
los datos de las comunicaciones no verbales, la necesidad de establecer
categorías estandarizadas, la obtención de inferencias, el papel de las teorías
y de las construcciones analíticas. Problemas metodológicos, que trascendían
los problemas informáticos y de los que hemos de seguir ocupándonos en
nuestros días.

198
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

El uso de ordenadores en las investigaciones a partir de los años sesenta


revela nuevas posibilidades, desde la más evidente, el perfeccionamiento
de los recuentos de frecuencias, hasta su aplicación para diseñar programas
de análisis y su uso para identificar correspondencias, estructuras y
dimensiones a escala del relato en su conjunto. Al tiempo, conduce a poner
de manifiesto cuestiones de método que se van haciendo ineludibles: por
ejemplo, la necesidad de precisar el criterio para definir las unidades de
análisis (de muestreo, de contexto y de registro. Véase apartado 3), definir
cómo y cuándo reconocer un dato relevante, o vincular expresiones literales
del texto con las categorías analíticas, entre otras.
www.fragua.es

La conexión entre AC y otras tradiciones de interpretación de


textos
Llevar a cabo un “análisis de contenido” es realizar un conjunto de
operaciones que tienen por finalidad desvelar un sentido no explícito en
un producto narrativo. Y esta tarea sólo puede llevarse a cabo a partir de las
expresiones del texto. Puede ser objeto de interpretación cualquiera de las
cosas que nos rodean: objetos materiales, productos, acciones, etc. Pero el
objeto privilegiado de la interpretación son las expresiones, consideradas la
vía más directa para conocer la estructura de la subjetividad humana y el
sentido de las acciones.
En el glosario que aporta el libro de GUTIÉRREZ y DELGADO
(1995: 616), podemos leer la siguiente definición de “expresiones”:
“Conjuntos de símbolos o elementos significativos (elementos a los que se
pueda adscribir un significado). En la medida en que el sentido se construye
a partir de varios niveles de articulación de los elementos significativos, una
expresión compuesta por elementos que son individualmente portadores de
algún significado, puede, sin embargo, carecer globalmente de sentido. Una
expresión con sentido es aquella que admite al menos una interpretación por
algún sujeto”.
Las dos primeras acepciones de “análisis” que ofrece el Diccionario de
la Real Academia Española de la Lengua son las siguientes:
1. Distinción y separación de las partes de un todo hasta llegar a
conocer sus principios o elementos.

199
Antonio Lucas y Alejandro Noboa (eds.)

2. Examen que se hace de una obra, de un escrito o de cualquier


realidad susceptible de estudio intelectual.
Esas dos acepciones nos sirven para desarrollar este epígrafe, toda vez que
el AC es un procedimiento utilizado para identificar las formas narrativas y
/o de las representaciones que incluye un documento; procedimiento que
consiste en descomponer el total del objeto del conocimiento en partes y
descubrir un sentido no aparente o manifiesto a primera vista. El objetivo del
análisis se ha definido tradicionalmente como inferir un contenido latente a
partir de un contenido manifiesto. La narración (oral, escrita, icónica, etc.)
se considera un texto que ha sido producido en un con-texto. En la medida
en que se conozca este contexto de producción, se comprenderán mejor
www.fragua.es

tanto el “contenido manifiesto” como el “contenido latente”.


Pero existen otros análisis textuales que también consisten en descomponer
e interpretar, dando un sentido al producto, distinto del sentido manifiesto.
Por tanto, es pertinente enmarcar el AC como una modalidad de análisis
textual y conocer lo que le distingue.
Rigor en el nivel analítico y construcción de un nuevo sentido
Pablo Navarro y Capitolina Díaz llaman “análisis textual” a un “conjunto
de perspectivas metodológicas que se proponen examinar algún aspecto del
sentido subyacente a corpus textuales. Los distintos tipos de análisis textual se
diferencian por el modo como conciben ese sentido y por los procedimientos
que siguen para su esclarecimiento” (1995: 606). Distinguen el AC de otras
técnicas de análisis textual, delimitándolo “por abajo”, con al análisis
sintáctico, que no interpreta, y “por arriba”, con los análisis del discurso
que utilizan teorías ambiciosas y abarcadoras -psicoanálisis, ciertas clases de
marxismo, ciertos estructuralismos, etc.- como marco interpretativo.
Estas últimas serían metodologías que raramente se imponen como
tarea la investigación directa y exhaustiva de (algún aspecto de) esa forma
superficial que el texto adopta. Más que analizar los textos, los descubren
-revelan un sentido subyacente, a la luz de su marco teórico de referencia.
Tienden a saltar directamente del nivel de la superficie textual al nivel
interpretativo. Los autores consideran clave la diferenciación entre nivel
analítico y nivel interpretativo (este segundo podría estar hegemonizado
por alguno de esos marcos teóricos generales).

200
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

Este enfoque es diferente de la perspectiva original, según la cual el


AC debía llevar incorporada su propia interpretación, en cuyo caso debía
ser visto como un instrumento que proporciona evidencias interpretables
(desde un nivel teórico autónomo). Distinguir entre nivel analítico y nivel
interpretativo y, sobre todo, negar que el AC lleve incorporada su propia
interpretación- implica reconocer el carácter no neutral de cualquier
metodología relevante de AC. El diseño de una investigación parte de
unos presupuestos teóricos y, consecuentemente, esa investigación arrastra
de entrada algunos compromisos con el marco teórico que debe guiar la
fase interpretativa. Pero también el marco teórico se ve comprometido
por la práctica del análisis, porque los resultados del análisis habrán de ser
contrastados con lo preconizado por la teoría y no es seguro que la teoría
www.fragua.es

pueda asimilar lo que desvela el AC.


El AC no es sólo descriptivo ni sólo interpretativo: ese procedimiento
lógico que se llama la inferencia permite transitar de forma controlada de una
fase descriptiva de las características de un texto, a una fase interpretativa,
que explique lo que significan esas características. La inferencia que se hace
con el AC marca su diferenciación del análisis documental: si se prescinde
de la inferencia (del tránsito a la fase interpretativa), quedaría limitado
a un análisis consistente en clasificar elementos de información, como
descriptores, palabras claves, índices, etc., con fines de archivo y consulta.
El recurso al rigor forma parte del ejercicio de la sospecha. Pero
no se trata de sospechar de un determinado significado, para darle otro
inmediatamente. De lo que se sospecha es de la comprensión espontánea,
de la lectura simple o intuitiva. Ni el conocimiento subjetivo puede
presentarse como algo “evidente”, ni los hechos sociales son transparentes
(ni mucho menos, sus significaciones para los diferentes actores sociales).
El análisis comienza cuando nos disponemos a zarandear nuestras
impresiones y aceptamos poner a prueba unas hipótesis forjando, para
ello, conceptos operativos. De este modo es cómo podemos obtener: una
lectura más provechosa que la lectura inmediata y superficial; y una mayor
certeza de que nuestras visiones personales pueden ser compartidas por
otros. Todo ello sin caer en brazos de la técnica, utilizándola sólo porque da
más prestigio y olvidando el sentido de las operaciones que se desarrollan;
sino vigilando todas y cada una de las operaciones y reflexionando sobre
las ventajas de su aplicación.

201
Antonio Lucas y Alejandro Noboa (eds.)

De acuerdo con Bardin (1986: 22), el AC es tanto más rico cuanto


mejor combine: a) una verificación prudente (proponiendo hipótesis
y siguiendo un método para probarlas) y b) una interpretación brillante
(función de enriquecer una visión exploratoria y una descripción), pero no
completamente libre, sino justificada con los datos obtenidos aplicando la
técnica (resultados que debiera obtener otro investigador que aplicara la
misma técnica).

2. Definiciones, objetivos e inferencias más habituales en los


análisis de contenido
www.fragua.es

En este segundo apartado comparamos entre sí las definiciones de los


autores más clásicos y repasamos la tipificación de las inferencias propuesta
por KRIPPENDORFF con el fin de invitar a una reflexión acerca de qué
podemos y qué no podemos inferir del contenido de un texto, tomando en
cuenta la naturaleza del mismo (obra literaria, artículo de opinión, manual
de instrucciones, etc.).
Definiciones de análisis de contenido
Hacia mediados del siglo XX, los estadounidenses Lazarsfeld y Berelson
exponen las reglas que, según ellos, debía seguir todo análisis, pero que
después serían revisadas y completadas por otros autores.
Como es conocido, Berelson (1952: 18) afirma: “El análisis de contenido
es una técnica de investigación para la descripción objetiva, sistemática y
cuantitativa del contenido manifiesto de la comunicación”. Mientras que
en la definición de Krippendorff (1990: 28) “El análisis de contenido es
una técnica de investigación destinada a formular, a partir de ciertos datos,
inferencias reproducibles y válidas que puedan aplicarse a su contexto”.
Reproducible debe ser toda técnica de investigación. Quiere decir que
otros investigadores puedan aplicar la misma técnica a los mismos relatos
y obtener los mismos resultados. El mismo autor explica que considera
incluidas las condiciones de “objetividad” y “sistematicidad” en la
condición de “reproducible”. Para que el procedimiento sea “reproducible”
o “replicable”, las reglas que se siguen deben ser explícitas e igualmente
aplicables a todas las unidades de análisis.

202
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

¿Qué significa el requisito de que sea cuantitativo? La cuantificación


puede ser importante, según el objetivo del análisis, pero definido así, parece
descartar cualquier método cualitativo. Precisamente, la objeción principal
de Krippendorff a la definición de Berelson es que no aclara para que debe
usarse el análisis de contenido: algunos analistas creyeron que se trataba
sólo de cuantificar atribuciones a algo (palabras, colores, cualidades, etc.);
mientras que otros creyeron que se podía “extraer” el contenido de los datos,
como si estuviera objetivamente “contenido” en la superficie textual.
Krippendorff plantea el AC como un método de indagación del
significado simbólico de los mensajes. Pero, en primer lugar, los mensajes no
tienen un único sentido que esté ahí envuelto y pueda ser desempaquetado.
www.fragua.es

Un mensaje puede transmitir una multitud de contenidos, incluso para


un sólo receptor. Los significados no son necesariamente compartidos.
Productores y usuarios de los textos pueden atribuir significados
distintos a las expresiones en el lugar donde se encuentran. Por todo ello,
difícilmente podremos defender que hemos descubierto “el contenido” de
la comunicación.

El sentido se construye. Al hablar de la interpretación, dimos por


sentado que existe un “doble sentido”: uno explícito (en el texto) y otro
implícito (subyacente al texto), como si el trabajo del analista fuera
reconocer el primero y desvelar el segundo. Ahora ponemos en duda la
misma existencia de un sentido reconocible en el texto y otro (también
único) desvelable por las operaciones. Ese sentido que le atribuimos a un
texto es una producción nuestra que tiene lugar como consecuencia de
nuestro enfrentamiento con el texto. De ese choque con lo producido por
otro/s, surge un sentido que creemos atribuible al propio texto.
Clases de inferencias
Como ya se ha mencionado, la historia del AC refleja que ha sido utilizado
en distintos campos del saber, además de la comunicación y con variados
fines: en Psicología, Historia, Literatura, etc. La variedad de aplicaciones del
AC conduce a preguntarse sobre qué podemos y qué no podemos deducir
del contenido de un texto. A qué nos autoriza ese conocimiento: ¿es posible
hacer inferencias sobre el autor a partir de la obra?, ¿acerca de la obra a partir
del conocimiento disponible sobre la vida o la psicología del autor?, ¿acerca
de las características de los destinatarios?, ¿acerca de los efectos (beneficiosos

203
Antonio Lucas y Alejandro Noboa (eds.)

o perjudiciales) de los mensajes sobre sus destinatarios? Estas y otras


alternativas merecen ser objeto de cuidadosa reflexión, tomando en cuenta
la naturaleza de los productos que se analizan. Es muy distinto, por ejemplo,
analizar un texto artístico, donde la experiencia estética del receptor o la
subjetividad del autor juegan un papel fundamental, que analizar el prospecto
de un medicamento o las instrucciones de manejo de un electrodoméstico,
donde lo importante es el referente (medicamento o electrodoméstico) y la
información que sobre él se proporcione (composición, uso (in)debido, etc.).
Uno de los más reconocidos especialistas en AC, Klaus Krippendorff
(1990) apunta posibles inferencias y las agrupa con criterios distintos:
www.fragua.es

Inferencias que denomina “Sistemas”. Entre este tipo de inferencias,


incluye:
a) Tendencias: estudios longitudinales para comprobar cambios temáticos,
axiológicos, etc.
b) Pautas: pautas de co-ocurrencia para identificar los elementos
constitutivos de un género (cuentos, mitos, leyendas).
c) Diferencias: halladas con la comparación entre dos comunicadores, o
uno sólo en dos situaciones distintas, o entre datos de entrada y de salida en
una fuente informativa, etc.
Inferencias que denomina “Normas” (con análisis que implican la
comparación con un patrón exterior al producto analizado). Entre este tipo
de inferencias, incluye:
a) Identificaciones: de documentos, obras de arte, etc. para probar su
autoría o su autenticidad.
b) Evaluaciones: con escalas que miden, por ejemplo: importante /
trivial, favorable /desfavorable, etc.
c) Verificaciones de cumplimiento de una norma legal. Por ejemplo,
proporción de películas europeas frente a americanas, o proporción de anuncios
durante la emisión de una película.
Lógicamente, las inferencias que interesan en cada análisis de contenido
dependerán de la perspectiva teórica adoptada para enfocar el objeto de
estudio. En todo caso, el AC debe servir para ayudar a comprender mejor la

204
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

producción comunicativa en la cual la información se transmitió de unos


a otros para ofrecer unas representaciones sobre unos objetos de referencia.
Producción comunicativa que tuvo lugar en un contexto social
determinado, cuyo conocimiento será de utilidad para entender el
documento objeto de estudio y, después, será enriquecido con el análisis
de ese mismo producto. Pero los contextos tienen que ser construidos,
o al menos delineados, reconociendo ciertos límites: el investigador debe
definir hasta dónde alcanza la validez de lo que encontramos, cuáles son
los límites más allá de los cuales ya no son extensibles nuestras inferencias
(porque los materiales analizados no son representativos de todas las épocas
ni de todas las sociedades).
www.fragua.es

3. Los pasos en la investigación donde se utiliza el análisis de


contenido
Hemos indicado en el primer apartado que el AC se distingue de
otros procedimientos de análisis textual porque no es sólo descriptivo,
ni directamente interpretativo del corpus textual que se somete a la
observación. Incluye un nivel analítico previo a la interpretación. Las fases
de una investigación donde se utiliza el AC son similares a las de cualquier
investigación social, donde se emplean otros métodos que el lector puede
conocer por este mismo volumen. Cabe distinguir tres grandes fases que
haremos corresponder con los tres epígrafes de este apartado:
1.- Trabajo previo a la obtención de los datos
2.- Extracción de los datos (“trabajo de campo”)
3.- Explotación de los datos: operaciones e interpretación de resultados.
Antes de describir esas fases, cabe señalar dos distinciones respecto de
otros métodos de investigación social, derivadas del hecho de que los datos
se extraen de documentos pre-existentes.
1) A diferencia de los experimentos, entrevistas, cuestionarios y test
proyectivos, el AC está libre de errores provocados por el hecho de que los
sujetos son conscientes de que se les está midiendo algo (comportamientos,
respuestas valoradas socialmente, etc.). Característica que podría
considerarse una ventaja.

205
Antonio Lucas y Alejandro Noboa (eds.)

2) Nos enfrentamos a un material que ha sido estructurado para otros


fines. En consecuencia, no tiene la forma que quisiéramos, los enunciados
no están en el orden que nos resulta más fácil para volcar en nuestras fichas,
ni están siempre en el lenguaje que vamos a usar nosotros. Característica
que podría considerarse un inconveniente.
Trabajo previo a la obtención de los datos
Las etapas del trabajo referidas a la obtención y tratamiento de los
datos, se realizan siguiendo los mismos procedimientos que se requieren
para cualquier investigación social. Se tratarán brevemente para no saltar
ningún paso metodológico importante.
www.fragua.es

Un proyecto de investigación donde se utilicen técnicas de análisis de


contenido debe contener:
Formulación del problema, los objetivos y, en su caso, las hipótesis, con sus
correspondientes definiciones de términos.
Las definiciones nominales y operativas de los términos que se emplean en estas
formulaciones son ineludibles para que una investigación empírica tenga validez.
Puede servir como ejemplo de definición operativa, el modo en que
Igartua, J. J. y otros (2001: 4) en un análisis de contenido de productos
de ficción televisiva, determinaron cuándo un acto de los que aparecían en
tales productos sería registrado como «acto de violencia»:
“Los tres criterios fundamentales para determinar que un acto cualquiera era
violento fueron los siguientes: a) se apreciaba (en el agresor) la intención de dañar
a una víctima: es decir, no se trataba de una conducta que, accidentalmente,
causaba daño en otro objeto o persona (quien actúa violentamente pretende
hacerlo aunque las motivaciones puedan ser muy diferentes); b) el daño (en la
víctima) puede ser físico o psicológico; y, c) la violencia la cometía un ser animado
contra otro ser animado, contra animales o contra objetos inanimados”.
Sólo después de haber precisado los conceptos o nociones que se
incluyen en su formulación, una hipótesis puede cumplir su función de
hilo conductor de la investigación y hacerse operativa; lo que requiere llegar
a especificar de qué modo se van a observar (directa o indirectamente)
cada uno de sus términos y en qué casos quedaría confirmada o refutada:
cuales son los resultados (frecuencias de aparición, asociaciones, etc.) que
autorizan al investigador a considerarla confirmada o refutada.

206
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

La hipótesis debe formularse en los términos de lo que puede


ser comprobado mediante un AC. Por ejemplo, con el análisis de un
determinado conjunto de periódicos, tal vez podría comprobarse la
hipótesis de que “en la prensa de Cortilandia, los jóvenes de clase trabajadora
aparecen como delincuentes con más frecuencia que los de clase alta”. Pero
no podría comprobarse la hipótesis de que “los jóvenes de clase trabajadora
cometen más delitos que los de clase alta”.
Elección de documentos
El conjunto de los documentos que se analizan recibe el nombre de
corpus o universo de análisis y se determinan en función de los objetivos
www.fragua.es

y las circunstancias de la investigación. En la elección de documentos hay


que contemplar las reglas siguientes:
- pertinencia: deben contener información adecuada a los objetivos
del análisis
- exhaustividad: no se pueden seleccionar arbitrariamente. Toda selección
debe justificarse. También ha de recordarse que la elección marca los límites a las
inferencias.
- representatividad: ya sea porque se acota correctamente el universo
de estudio o porque se analiza una muestra estadísticamente representativa.
- homogeneidad: se acota el universo de estudio con un criterio de
selección específico, que incluya un conjunto de productos en los que se
espera encontrar información de la misma naturaleza (por ejemplo, de
un mismo género audiovisual o impreso). Si se pretende hacer un análisis
comparativo, previamente habrá que explicitar cuál es el punto de vista
que se establece para realizar dicha comparación. Puede compararse, por
ejemplo, información que reproducen dos o más fuentes a las que llegó un
mismo documento original.
c. Selección de datos para verificar las hipótesis y organización de los datos
en un sistema de categorías
Los documento que forman parte del universo de análisis pueden
contener información irrelevante para contrastar las hipótesis. Los datos
que sí son relevantes se identifican y se extraen de los documentos para su
explotación.

207
Antonio Lucas y Alejandro Noboa (eds.)

Los criterios de clasificación de la información relevante para los


objetivos propuestos dan lugar a un repertorio de categorías analíticas,
cuya presencia o ausencia (en su caso, frecuencia, asociación, etc.) se espera
que tengan una cierta significatividad. Para probar esa adecuación, por lo
general habrá que hacer varias pruebas piloto. Tanto en los análisis piloto,
como en el análisis final, el texto se reorganiza en un orden que responde a
la sistemática del análisis, diferente al que tenía en el documento original.
Las categorías (construcciones conceptuales del investigador) pueden
establecerse a priori, en cuyo caso, las expresiones que tengan valor
informativo irían encajando en ellas (sin forzarlas) a medida que se las
encuentre en el texto. Alternativamente, el repertorio de categorías no está
www.fragua.es

cerrado de antemano, sino que se cierra una vez inventariadas las expresiones
encontradas en los documentos. Véase en la Cuadro 7.1

Cuadro 7.1. Ejemplo de categorías establecidas a priori para “medir


aspectos formales. La importancia de una información en un diario”

Aparecer en portada. ¿Se hace mención a la noticia en la portada del diario?


0. No
1. Sí
Abrir la sección. La información en cuestión ¿aparece en el diario abriendo
alguna de sus secciones?
0. No
1. Sí
Página. ¿En qué página aparece la noticia?
0. Par
1. Impar
Tamaño. ¿Cuál es el tamaño aproximado de la información en relación con
el tamaño de su página?
1. Menos de 1 cuarto de página
2. Entre 1 y 2 cuartos de página
3. Entre 2 y 3 cuartos de página
4. Más de 3 cuartos de página, pero no completa
5. Página completa o más de una página
Elementos gráficos. En la información analizada ¿se incluyen elementos
gráficos como esquemas, fotografías o infografías?
0. No
1. Sí

Fuente: Igartúa, J. J., Muñiz, C. y Chen, L. (2005: 2)

208
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

Cuadro 7.2. Ejemplo de categorías homogéneas, excluyentes y


exhaustivas

Nombre del presidente que pronuncia el discurso ante el


Variable
Congreso de Venezuela (entre 1958 y 2010)
Categorías: 1 Rómulo Betancourt
2 Raúl Leoni
3 Rafael Caldera
4 Carlos Andrés Pérez
5 Luis Herrera Campíns
6 Jaime Lusinchi
www.fragua.es

7 Ramón J. Velásquez
8 Hugo Chávez Frías
Fuente: Valecillos, Carmen Aidé: Análisis de las representaciones sociales
en el discurso político presidencial venezolano (1958-2010). UCM. Tesis
Doctoral en curso.

El análisis de contenido requiere por lo general, la construcción de


variables y categorías específicas, que se correspondan con las características de
los materiales que se analizan, y a la vez con los objetivos y el enfoque teórico
de cada investigación.
También pueden utilizarse variables y categorías que sean utilizadas
en diferentes análisis de contenido. Es el mismo proceder que se adopta en
las encuestas, con las preguntas y sus opciones de respuesta más habituales,
cuando se trata de reduplicar un análisis previo.
d. División del corpus en unidades de análisis.
El corpus o conjunto de documentos se fragmenta en unidades
más pequeñas a diferentes niveles. Los manuales suelen referirse a tres
niveles, que señalamos a continuación, comenzando por el más general y
apoyándonos para su ilustración en el gráfico extraído de la investigación
del profesor Vicente Baca (1993), sobre representaciones de los hombres y
las mujeres en la televisión.

209
Antonio Lucas y Alejandro Noboa (eds.)

1) Unidad de muestreo: está constituida por cada uno de los documentos


constitutivos del corpus o universo al que se referirán los resultados del
análisis. El investigador deberá garantizar el acceso a cada unidad de
muestreo del universo que pretende abarcar, o bien delimitar de otro modo
ese universo. Puede hacerse un muestreo, si el universo es muy extenso
y los documentos que lo componen son independientes unos de otros.
Teóricamente, también podrían muestrearse las unidades de registro y de
contexto, pero lo más habitual es que no se haga. En la Cuadro 7.2, tomada
de la investigación mencionada, se indica que han sido muestreados tanto
los anuncios publicitarios como los programas televisivos que constituían
el corpus de productos comunicativos cuyas representaciones se analizaban.
www.fragua.es

2) Unidad de contexto: se llama así a cada una de las partes en las que se
divide la unidad de muestreo, si se considera que tiene interés para la explotación
de los datos. No se considera necesaria en muchas de las investigaciones donde
se utiliza el AC. En el ejemplo, se llama “sección” (como en los periódicos) a un
fragmento del anuncio o del programa televisivo. Cada sección o fragmento de
la unidad de muestreo puede contener información que dé lugar a una o más
unidades de registro (en este caso, información sobre un actor).
3) Unidad de registro: es cada una de las entradas de información
relevante para su posterior tratamiento. En AC es equivalente a respuestas
de cada sujeto entrevistado en una encuesta. En el caso de la encuesta, la
unidad de registro suele ser cada una de las entrevistas realizadas. O mejor,
el conjunto de las respuestas obtenidas en cada entrevista, que se plasman
en un documento intermedio (el cuestionario) y de ahí pasan a la base de
datos, susceptible de tratamiento informático. En el AC el equivalente al
cuestionario se llama “protocolo de análisis” o “ficha de registro”: en esta
ficha figuran las variables y las categorías tal como han sido ordenadas
definitivamente (después de las pruebas piloto). En el ejemplo que seguimos,
la unidad de registro está constituida por la información que se obtiene a
propósito de cada uno de los actores que aparecen en el anuncio o programa
televisivo.
En el esquema de la página siguiente, tomado de mi propia Tesis
Doctoral (Bernete, 1990), figuran los bloques de categorías donde encajan
las características del personaje que ofrece un libro determinado en el relato
referido a una etapa histórica.

210
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

Cuadro 7.3. Tres niveles de unidades de análisis: de muestreo, de


contexto y de registro
www.fragua.es

Fuente: Baca, 1993: 40

La estructura del diseño se deriva del modo en que ha sido definida


previamente la unidad de registro. A este propósito se decidió que sólo
serían consideradas “unidades de registro” las referencias a los actores que
son descritos, asignándoles, al menos, un atributo en el desempeño del rol
principal (igualmente asignado al actor).
El diseño partía de la hipótesis siguiente: “las semejanzas y las diferencias
entre las caracterizaciones de unos personajes y las de otros pueden estar
relacionadas bien con su pertenencia a una u otra nación, bien con su

211
Antonio Lucas y Alejandro Noboa (eds.)

inclusión en otra clase de agrupaciones (políticas, étnicas, etc.)”. Por tanto,


tendría que servir para poner de relieve las correspondencias existentes
entre:
a) el conjunto de atributos empleados en la representación de cada
personaje y
b) la pertenencia del personaje descrito a un grupo determinado (por
ejemplo, al colectivo que desempeña el rol «1», que procede de la nación «A»,
o que pertenece a la etnia «X»).
www.fragua.es

Cuadro 7.4. Diseño para la recogida de los datos


Unos emisores que son autores de los libros de texto más utilizados para la
enseñanza de la Historia en cada país construyen unos relatos sobre cada época
histórica en los cuales aparecen unos actores descritos por:
* su NATURALEZA
* su ETNIA
* su NACIONALIDAD
* su ROL PRINCIPAL, en cuyo desempeño se le atribuyen:
- DERECHOS Y OBLIGACIONES
- RELACIONES CON OTROS ACTORES
- CUALIDADES Y RASGOS CULTURALES
- EMOCIONES Y SENTIMIENTOS
Relatos destinados a unos receptores de ese mismo país, que son estudiantes
de un nivel determinado.
Fuente: Bernete, 1990: 119

Un diseño bien representado permite ver todas las opciones de explotación


de los datos; o, si se prefiere, el juego de combinaciones posibles. Pero, si
sólo incluye (como en el Cuadro 7.4) las clases de datos que se recogen, no
permite saber qué significado dará el investigador a los resultados que podrían
aparecer llevando a cabo esas combinaciones. Expresado de otro modo, qué
hipótesis (si hubiera sido formulada) quedaría confirmada o refutada por los
resultados obtenidos. Para anticipar cómo van a interpretarse los hallazgos de
la investigación, ese diseño de recogida de los datos tendría que completarse,
con un modelo de análisis donde queden señaladas las posibles explicaciones

212
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

de los resultados que alternativamente podrían obtenerse. Por ejemplo, un


modelo donde se anuncia que si se manifiesta semejanza (o variación) entre
las representaciones que ofrecen dos periódicos distintos, esa semejanza (o
variación) será atribuible a (los intereses de los propietarios, las vinculaciones
políticas, etc.).
La extracción de los datos.
a) Transcripción de los datos encontrados en el material que se analiza a
los documentos intermedios.
Lo que en otros procedimientos técnicos de recogida de información
www.fragua.es

suele llamarse “trabajo de campo”, en el AC consiste en la transcripción


de los datos encontrados en el material que se analiza a los documentos
intermedios que llamamos “protocolos de análisis” o “fichas de registro”.
Esta ficha, donde se transcriben los datos del documento original, sirve
para transformar el contenido de cada unidad de registro en información
codificada, pues cumple en el AC la misma función que el cuestionario
implementado en un sondeo o encuesta.
Cada una de las fichas (y, con ella, cada registro en la base de datos)
debe recoger todos los datos pertinentes (es decir, ajustados al diseño) que
puedan obtenerse de la unidad de análisis. Para estar seguros de que así se
hace y también para evitar errores, es necesario cumplimentar la ficha en su
totalidad, aunque sea señalando “no consta” en la mayoría de las variables.
Berelson propugnaba la aplicación de la técnica al contenido manifiesto
para asegurar que la codificación de los datos sea verificable y confiable
intersubjetivamente. El problema de esta “confiabilidad intersubjetiva” se
plantea cuando se trata de analizar un material voluminoso y nos vemos
obligados a contar con varios analistas. Éstos deben familiarizarse con los
documentos, pero también con los términos en los cuales se expresan los
datos y con las categorías finales, de tal manera que la transcripción de
las expresiones del texto a categorías sea confiable. Para ello, es necesario
un entrenamiento en sesiones donde se redefinen las categorías, se altera
alguna parte del procedimiento, o se revisa el protocolo hasta que los
analistas trabajan confiadamente con ese protocolo.

213
Antonio Lucas y Alejandro Noboa (eds.)

b. Construcción del libro de códigos


En el libro de códigos se darán definiciones explícitas de las categorías,
con reglas de codificación y ejemplos. Se indicará con claridad en qué casos
unas expresiones serán registradas como categorías. Véase el ejemplo a
continuación.

Cuadro 7.5. Reglas de codificación y ejemplos


www.fragua.es

Será registrado en “pobre genérico” toda persona que tenga alguna


de las siguientes características pero que no sea necesariamente
el foco de la noticia:
- Ingresos muy exiguos la mayor parte del tiempo.
- Viva en situación de calle, asentamientos irregulares o de
vivienda social.
- Pase hambre o frío la mayor parte del tiempo.
- Sea beneficiario de algún programa social focalizado en
pobreza.
- Sea declarado en esa situación en la noticia
Fuente: Fundación para la Superación de la Pobreza, 2005: 18

Si las categorías no están definidas de antemano, se van inventariando


en el libro de códigos. Una vez finalizado el inventario, se agrupan en
categorías más generales. El proceso sigue, aproximadamente, estas etapas:
1) Se hace un inventario de todos los elementos que se van a tomar en
cuenta, asignando un código a cada uno. Lo que no se haya inventariado
antes de comenzar la extracción de los datos, puede inventariarse y
sistematizarse a medida que se encuentran datos susceptibles de convertirse
en categorías de análisis

214
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

2) Agrupación de diversas categorías en una sola: se agrupan bajo


títulos genéricos, asignando un código a ese título genérico.
Puede haber tantas agrupaciones como se consideren convenientes
para la explotación de los datos, antes y después de la obtención de las
frecuencias.
Desde el punto de vista operativo, cuando sea posible atribuir más de
una categoría del mismo grupo a la misma unidad de registro, será más
provechoso explotar cada una de ellas como variable con dos opciones
(presencia y ausencia). Si volvemos a la figura 1 (página ), veremos cuatro
categorías convertidas –operativamente- en variables dicotómicas.
www.fragua.es

Explotación de los datos: operaciones e interpretación de resultados


Como quedó indicado anteriormente por Berelson (1952: 18) que
definió el AC como “una técnica de investigación para la descripción objetiva,
sistemática y cuantitativa del contenido manifiesto de la comunicación”. En
la tradición del AC de las comunicaciones de masas, la aproximación
cuantitativa, fundada en la frecuencia, con la que se obtienen datos
distributivos, parece más precisa, más fiable y más demostrativa.
El requisito de la cuantificación ha suscitado muchas objeciones
porque el cálculo de frecuencias se convirtió durante mucho tiempo en la
actividad principal, y a veces única, de los analistas. Los elementos de un
producto comunicativo, en numerosas ocasiones, se aislaban, se extraían
de su contexto y se contabilizaban sin más.
Después se fue pasando de la fascinación por las mediciones exactas
y los recuentos de cada elemento por separado a contar frecuencias de
pares de palabras, co-ocurrencias de símbolos, patrones de aparición de
referencias, que se obtienen con indicadores de presencia o ausencia de
un elemento en relación a los restantes y, en general, a la valoración del
contexto de aparición de ese elemento que se observa.
Un mismo objeto material de análisis (por ejemplo, un corpus
de noticias sobre un determinado referente) puede ser tratado con
aproximaciones cuantitativas y cualitativas. Lo que importa es que el
tratamiento al que van a someterse los datos se planifique en función de los
objetivos e hipótesis propuestas, para obtener los indicadores que permiten
su verificación.

215
Antonio Lucas y Alejandro Noboa (eds.)

Recordemos que el modo de proceder del AC responde, en última


instancia, al objetivo que tiene toda investigación científica: en este caso,
el descubrimiento de pautas en la producción narrativa. La transcripción
de las formas y las representaciones narrativas en variables y atributos (o
valores que puede adoptar la variable) se hace para encontrar esas pautas.
Para que los resultados de un análisis puedan ser verificados por otros
investigadores, se requiere que el autor defina con claridad cuál es su objeto
de estudio y cuáles son las operaciones a las que lo somete. Un buen plan de
explotación indica qué se espera de cada operación prevista con los datos y
para qué objetivo específico o hipótesis será útil esa operación, ya se trate de
un cruce de variables o de la distribución de una sola variable.
www.fragua.es

El plan de explotación de los datos de cualquier investigación está


enfocado al hallazgo de regularidades en los fenómenos que se investigan
porque así es como progresa el conocimiento científico. Si se hallan
excepciones a las reglas y a tales excepciones se les encuentra una razón
de ser, entonces se está proponiendo una nueva regularidad (que puede
ser una ampliación o matización de la anterior, no necesariamente una
sustitución). En esta etapa se entra en el análisis propiamente dicho, porque
se inicia el proceso de identificación y representación de pautas relevantes
en los resultados.
Habitualmente, se interpretan los datos obtenidos, según ciertos
patrones que tenemos presente. Por ejemplo, puede apelarse al patrón de
las distribuciones uniformes (se considerarían significativos los datos que
estuvieran por encima o por debajo de la media aritmética), al patrón de
la distribución estable (se consideraría normal que un dato se mantuviese
estable a lo largo del tiempo y significativas las desviaciones), o al patrón de la
distribución no sesgada en la representación de algo pre-existente (por ejemplo
en los AC de las comunicaciones de masas, cuyo objetivo es comprobar si
están o no están proporcionalmente representadas las profesiones, las etnias,
los géneros, las religiones, las edades, las clases sociales, etc.).
De acuerdo con el criterio que se elija para encontrar pautas
representativas, se llevaría a cabo la interpretación de los resultados,
siempre con la cautela necesaria para evitar derivas que serían incorrectas
en la valoración de lo conseguido. Lo que suele ocurrir cuando se hacen
afirmaciones tan rotundas como “es un indicio de los prejuicios…, “refleja
los intereses de clase”, etc. Llegado el momento de las interpretaciones,
conviene tener presente las cautelas recomendadas por quienes llevan más

216
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

tiempo en el oficio. Por ejemplo: “el indicio se toma como tal sólo con tres
condiciones: que no se lo pueda explicar de una manera más económica,
que apunte hacia una sola causa (o hacia una clase restringida de causas
posibles) y no a una pluralidad indeterminada y disconforme de causas, y
que pueda formar sistema con otros indicios”. (Eco: 1992: 99)
Pueden interpretarse los datos obtenidos sólo con los resultados del AC
o relacionando éstos con los que pueden hallarse por otras vías: percepciones
de la audiencia, comportamientos, comentarios de otros autores, etc.. El
cotejo con los datos de otras fuentes podría ser muy útil para conocer
el alcance y la singularidad del instrumento de registro diseñado (hemos
elegido las categorías y las formas de definirlas).
www.fragua.es

En todo caso, disponiendo o no de esas otras referencias, se da el


paso a la interpretación recurriendo al marco teórico que se considere
adecuado al efecto y con el cual debió plantearse el diseño del análisis. La
teoría que se va desarrollando en torno a un objeto de estudio describe las
relaciones entre variables que podrían esperarse, si llegaran a comprobarse
empíricamente tales relaciones.

4. El análisis de las relaciones entre elementos del texto


Las técnicas de análisis han ido orientándose, cada vez más, al estudio
de las relaciones que los elementos del contenido mantienen entre sí y cada
vez menos al recuento de las frecuencias de aparición de cada elemento del
texto. En este último apartado describimos el estudio de las relaciones entre
los datos a tres niveles: 1) el de las contingencias, 2) el de las estructuras y
3) el de las relaciones lógicas.
El análisis de las contingencias
El análisis de las contingencias trata de mostrar las asociaciones (o
presencias simultáneas) de dos o más elementos en una misma unidad de
análisis. Pone de manifiesto la frecuencia con la cual dos elementos del
texto aparecen juntos.
Osgood (en 1959) aplicó los “análisis de contingencia” para identificar
las co-ocurrencias de referencias a conceptos. Estas co-variaciones dentro
de un discurso, las utilizó como indicadores de asociaciones y disociaciones
cognitivas, según alcanzaran una frecuencia superior o inferior de la

217
Antonio Lucas y Alejandro Noboa (eds.)

que correspondería proporcionalmente. Con esta operación, se hacían


inferencias sobre la “estructura cognitiva” del productor del discurso.
Es decir, se operaba con el supuesto de que esas mismas asociaciones y
disociaciones estarían funcionando como tales en la mente del emisor.
El estudio de las contingencias también sirve para saber si la frecuencia
de aparición de una categoría determinada se mantiene aproximadamente
constante, con independencia de la presencia de otras categorías en la
misma unidad de análisis; o, por el contrario, si sufre altibajos dependiendo
de la presencia de esas otras. Un procedimiento seguido para la explotación
de los datos es el cálculo de las contingencias obtenidas (en una tabla de
doble entrada) y su comparación con las contingencias esperables si sólo
www.fragua.es

influyera el azar. Esa comparación permite ver en qué medida el dato que
aparece en cada celda se ha desviado de lo “esperado”, entendiendo por tal el
mantenimiento sin cambios significativos de una determinada frecuencia.
El análisis de las estructuras
El análisis estructural se propone descubrir constantes significativas en las
relaciones (manifiestas o latentes) que organizan los elementos del discurso.
Es decir, tiene por objetivo descubrir otro código, otra sintaxis, no reconocida
como la gramática de un grupo social, pero que funciona como tal. La
estructura que da nombre a este tipo de análisis hace referencia a un orden
oculto, del cual depende el funcionamiento del sistema de datos.
“¿Qué hacen los estructuralistas? Buscan el orden inmutable bajo el
desorden aparente, el esqueleto o la osamenta invariable bajo la heterogeneidad
patente de los fenómenos...Tras el análisis frecuencial estaba la manía de
coleccionar. En el análisis de carácter estructural hay un regusto por el juego
de mecano: desmontar el mecanismo, explicar el funcionamiento y... volver a
encontrar los mismos rodamientos o el mismo motor, cualesquiera que sean
la forma del reloj o el color de la carrocería.” (Bardin, 1986: 160)
Ese modelo operativo es, a la vez, descubierto y construido por
el analista, que es quien pone de manifiesto los elementos y las reglas
mediante las cuales se articulan. Ese código profundo es más determinante
que las unidades expresivas, que por estar también provistas de significado
pueden enmascarar el verdadero sentido del relato. Por eso, las técnicas
estructuralistas se centran en los vínculos que mantienen entre sí los
componentes del producto, más que sobre los propios componentes.

218
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

Según la exposición de Roland Barthes en el libro colectivo Análisis


estructural del relato (1974), los estructuralistas proceden constatando la
existencia de una variedad de relatos. Ante ese hecho se preguntan si esa
variedad puede manejarse sin referirse a un modelo común.
¿Qué hay de común en toda narración? Lo que haya de común en todo
relato podría servir de foco para iluminar y descubrir desde ahí las formas
particulares de narración. Es decir, serviría de modelo implícito, desde el cual
cabría valorar las formas narrativas particulares.
BARTHES se remonta a los formalistas rusos, a Propp y a Levi-Strauss
para recordar el dilema planteado por ellos:
www.fragua.es

- “o bien el relato es una simple repetición fatigosa de acontecimientos, en


cuyo caso sólo se puede hablar de ellos remitiéndose al arte, al talento o al genio
del relator (del autor) -todas formas míticas del azar-.
- o bien posee en común con otros relatos una estructura accesible al análisis
por mucha paciencia que requiera poder enunciarla; pues hay un abismo
entre lo aleatorio más complejo y la combinatoria más simple, y nadie puede
combinar (producir) un relato, sin referirse a un sistema implícito de unidades
y de reglas”. (Barthes, 1974: 8)
Si se cree en la existencia de una estructura accesible al análisis, cabría
proceder de dos modos:
- Inductivamente, estudiando relatos de un género, época, sociedad,
para conseguir el esbozo de un modelo general. (Perspectiva utópica pues
hay demasiada cantidad y variedad).
- Deductivamente, concibiendo primero un modelo hipotético de
descripción; y, a partir de este modelo, comprobar las conformidades y las
desviaciones de cada especie, género o forma particular de relato, según su
procedencia, o momento de producción.
En resumen, cuando se trabaja con una perspectiva estructuralista,
se busca un orden de los elementos que no se ve a primera vista. Ya no se
trata de sumar los elementos buscados, sino de encontrar el mecanismo de
ensamblaje, el esqueleto revestido en un cuento, una película, etc. Interesa
descubrir las reglas de articulación, no las unidades de significación.

219
Antonio Lucas y Alejandro Noboa (eds.)

El análisis de las relaciones lógicas


El análisis de las relaciones lógicas es un instrumento con el cual
puede objetivarse la estructura de los modelos comunicativos, donde se
expresan cada una de las visiones del mundo propuestas por los mediadores
culturales. Ello es posible con el análisis de las relaciones lógicas porque
son códigos lógicos los que se emplean en la comunicación para ejercer el
control cognoscitivo. Otras instituciones, no especializadas en la producción
de comunicación, ejercen el control sobre el conocimiento sirviéndose de
códigos sociales (autorizaciones, prohibiciones, etc.).
Manuel Martín Serrano expuso la necesidad de aplicar métodos lógicos
www.fragua.es

para el estudio de las ciencias sociales porque los tradicionales métodos


estadísticos podían explicar cuantitativamente la frecuencia de aparición
de un factor que determina un fenómeno social, pero no podía dar cuenta
de la discriminación cualitativa que ejerce ese factor u otros aun siendo
de aparición poco frecuente. El autor utiliza pruebas de diferencia o
conmutaciones cuando analiza el discurso de la televisión, para mostrar
que una variación en la posición de uno de los elementos constitutivos lleva
consigo un cambio de sentido en el relato.
Si trabajamos con el paradigma de la mediación, según el cual los
relatos de las comunicaciones median entre el acontecer referenciado y el
conocimiento del que disponen los destinatarios del relato, en el análisis
de las narraciones es pertinente el uso de técnicas adecuadas para estudiar
una actividad mediadora. Esto es, una “actividad que impone límites a lo
que puede ser dicho y a las maneras de decirlo, por medio de un sistema de
orden” (Martín Serrano, 2008: 76).
Las limitaciones en la libre selección de referentes, de datos y de
organizaciones de los datos, indica que en las interacciones comunicativas,
como en otras interacciones sociales, existen constricciones explícitas o
implícitas, ya sean impuestas por el Sistema Social, ya sean por la propia
institución mediadora.

220
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

Cuadro 7.6. Ejemplo de relaciones lógicas entre datos


www.fragua.es

Fuente: Bernete, 2008: 80

Manuel Martín Serrano (1974) investigó el sistema de formación de


estereotipos en la televisión examinando las relaciones lógicas que cada uno
de los atributos asignados a los personajes mantiene con todos los demás.
Para llevar a cabo este análisis, se distinguen cuatro clases de funciones:
determinación, interdependencia, constelación y exclusión. Las tres primeras
fueron utilizadas anteriormente por Hjelmslev. Martín Serrano incorporó al
análisis la “exclusión” entre dos elementos en la misma unidad de registro
(cuando la presencia de un elemento supone necesariamente la no presencia
de otro elemento).

221
Antonio Lucas y Alejandro Noboa (eds.)

La metodología quedó explicada en una publicación mimeografiada,


destinada a la docencia de los métodos de análisis de contenido
(Dpto. de Información y Comunicación, 1978).
Se parte de dos supuestos interrelacionados: el de la independencia
(imaginaria) de las atribuciones y el de su asociatividad:
a) El primero de estos supuestos querría decir que cualquier atributo
puede asignarse a cualquier personaje y combinarse con cualquier grupo de
atributos para configurar el perfil del personaje.
b) El supuesto de la independencia de las atribuciones se usaba como
www.fragua.es

punto de partida para comprobar hasta qué punto ocurría el segundo: las
atribuciones están asociadas, no son independientes unas de otras.
Los comunicadores, cuando seleccionan los datos, introducen un
cierto grado de control que puede ser definido como la reducción de la
variedad posible. Por ejemplo, imaginemos que estamos analizando la
representación de varios grupos de personas: el conjunto de tipologías
usadas para representar a estos grupos es siempre menor que el total de
tipologías posibles. Más aún, entre las tipologías usadas, algunas lo serán
más que otras.
En la construcción de tales tipologías, se opera con restricciones lógicas
(por ejemplo, no podemos atribuir al mismo grupo y al mismo tiempo, la
condición de analfabeto y la de letrado o poseedor de una escritura); pero
también se opera con restricciones sociológicas, que son las que expresan
un cierto control de las asociaciones posibles. Son selectivas, desde el punto
de vista de la libre combinación (por ejemplo, si encontramos que los
personajes “indios” nunca aparecen como “letrados”). El descubrimiento de
estas restricciones sociológicas nos permite identificar, mediante el análisis
de contenido, la manera en la cual las coerciones sociales están implícitas en
la comunicación.
Cabe aceptar (en tanto que la investigación no demuestre lo contrario)
que las limitaciones o constricciones formales en el código empleado en
una práctica comunicativa institucional suelen ser congruentes con las
limitaciones o constricciones sociales. Si así fuera, recurriendo al análisis
de las narraciones podría mostrarse que unos prejuicios compartidos en
el seno de una comunidad se reflejan en las relaciones lógicas (inclusión,

222
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

implicación, exclusión, etc.) que mantienen entre sí los datos de referencia


contenidos en esas narraciones. En todo caso, el estudio de los códigos que
rigen las estructuras narrativas abre una vía metodológica para penetrar en el
conocimiento de los códigos del control social.

Bibliografía
Baca, V. (1993). Representaciones de los hombres y las mujeres en la
televisión. Madrid: UCM. Tesis Doctoral.
Bardin, L. (1986). El análisis de contenido. Madrid: Akal.
www.fragua.es

Barthes. (1974). «Introducción al análisis estructural de relatos», en


Barthes, Roland et al. Análisis estructural del relato. Buenos Aires: Tiempo
Contemporáneo.
BERELSON, B. (1952, 1971). Content Analysis in Communication
Research. Glencoe: The Free Press.
Bernete, F. (1990). Los estereotipos de la Comunidad Iberoamericana.
La representación de los personajes en los libros de texto de Historia. Tesis
Doctoral. Universidad Complutense de Madrid. Accesible en http://
eprints.ucm.es/10765/
— (1994). “Como analizar las representaciones sociales contenidas en
los libros de texto de Historia”, en COMUNICACION, LENGUAJE Y
EDUCACION, nº 22, Madrid, Aprendizaje, pp. 59-74; I.S.S.N.: 0214-
7033.
— (2008). “El estudio de los estereotipos a través del análisis de relatos”,
Mediaciones Sociales. Revista de Ciencias Sociales y de la Comunicación,
nº 3, segundo semestre de 2008, pp. 73-90. ISSN electrónico: 1989-0494.
Universidad Complutense de Madrid. Disponible en: http://www.ucm.es/
info/mediars
Dpto. de Información y Comunicación (1978). Métodos de análisis de
contenido. Facultad de Ciencias de la Información. UCM.
Eco, U. (1992). Los límites de la interpretación. Barcelona: Lumen

223
Antonio Lucas y Alejandro Noboa (eds.)

Fundación para la Superación de la Pobreza (2005). La pobreza es


noticia. Coedición Hogar de Cristo, Facultad de Comunicación y Letras,
U. Diego Portales, Fundación para la Superación de la Pobreza.
Igartua, J. J. y otros (2001). “La violencia en la ficción televisiva. Hacia
la construcción de un índice de violencia desde el análisis agregado de la
programación” ZER. Revista de estudios de comunicación, nº 10, junio
2001. Disponible en: http://www.ehu.es/zer/
IGartúa, J. J., Muñiz, C.; Chen, L. (2005). La inmigración en la prensa
española. Aportaciones empíricas y metodológicas desde la teoría del encuadre
noticioso. Migraciones, 17, 143-181
www.fragua.es

Igartua, J. J., Muñiz, C.; Otero, J. A. (2006). “El tratamiento informativo


de la inmigración en la prensa y la televisión española. Una aproximación empírica
desde la Teoría del Framing”. Global Media Journal en español, Volumen 3,
Número 5, Primavera 2006.
Igartua, J.J. (2006). Métodos cuantitativos de investigación en
comunicación Barcelona: Bosch, 704 pp.
Krippendorff, K. (1990). Metodología del análisis de contenido. Teoría y
práctica. Barcelona, Paidós (1ª ed. 1980): Content analysis: an introduction
to its methodology.
Lombard, M., Snyder-Duch, J., & Bracken, C. C. (2002). Content
analysis in mass communication: Assessment and reporting of intercoder
reliability. Human Communication Research, 28, 587-604.
Lopez Aranguren, E. (1986). “El análisis de contenido”. En García F.,
M. y otros: El análisis de la realidad social. Madrid: Alianza.
Martín Serrano, M. (1974). “Nuevos métodos para la investigación de
la escritura y la dinámica de la enculturización”, Madrid: REOP, núm. 37.
— (1978). “Un método lógico para analizar los significados. Aplicación al
estudio del lenguaje de la TV.” Madrid: Centro de Investigaciones Sociológicas.
Disponible en: http://www.reis.cis.es/REIS/PDF/REIS_002_05.pdf
— (2004). La producción social de comunicación. Madrid, Alianza, 3ª
edición.

224
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

— (2008): La mediación social. Madrid: Akal, 2ª edición.


Navarro, P. y Díaz, C. (1995). “Análisis de contenido”; en DELGADO,
J. M. y Gutiérrez, J. (coord.): Métodos y técnicas cualitativas de investigación
social. Madrid, Síntesis Psicología.
Neuendorf, K. A. (2002). The Content Analysis Guidebook. Thousand
Oaks, CA: Sage,.
Piñuel, José Luis (2002). Epistemología, metodología y técnicas del
Análisis de Contenido Estudios de Sociolingüística 3(1), pp. 1-42
Pool, Ithiel de Sola (1959). Trend in content análisis. University of
www.fragua.es

Illinois Press, Urbana.


Riffe, D., Lacy, S.; Fico, F. G. (2005). Analyzing media messages: Using
quantitative content analysis in research. Mahwah, NJ: Lawrence Erlbaum.
2º ed.
Rosengreen, K. E. (ed.) (1981): Advances in Content Análisis. Beverly
Hills: Sage
Sánchez Carrión, J.J. (1978). “Análisis estructural del telefilm”, Revista
Española de Investigaciones Sociológicas, nº 3, pp. 95 – 110. Disponible
en http://www.reis.cis.es/REIS/PDF/REIS_003_06.PDF
— (ed.) (1985): “Métodos y técnicas del análisis de contenido”; Revista
Internacional de Sociología, Vol. 43, fascículo 1, Madrid, enero-marzo.
Weber, R.P. (1990): Basic content analysis. 2nd ed. Newbury Park, CA:
Sage,

225
www.fragua.es
Capítulo 8

LAS BASES DE DATOS PARA


LA INVESTIGACIÓN SOCIAL
www.fragua.es

Rosa Berganza
Carmen García
Universidad Rey Juan Carlos

ÍNDICE
1. Investigación primaria y secundaria
2. La organización del sistema oficial estadístico español: INE
3. El Centro de Investigaciones Sociológicas (CIS)
4. Otras fuentes de datos privados sobre la realidad política y social
5. Bases de datos internacionales para la investigación: El Sistema
Estadístico Internacional
6. La importancia de las bases de datos para la investigación de las audiencias
7. Fuentes secundarias sobre audiencias de medios de comunicación:
El estudio General de Medios (EGM)
8. Panel de audimetría de Kantar Media
9. Ventajas e inconvenientes del uso de fuentes estadísticas

227
Antonio Lucas y Alejandro Noboa (eds.)

Introducción
A lo largo del presente capítulo recogeremos algunas de las fuentes
estadísticas básicas que pueden servir de base para trabajos que se realicen
en el campo de la investigación social y de la comunicación. En este sentido,
llamaremos la atención sobre las posibilidades que ofrecen algunas bases
de datos y otros sistemas de almacenamiento de información sobre los
comportamientos de la sociedad en general y mediáticos en particular.
Así pues, respecto a las fuentes estadísticas para la investigación social y
política, nos hemos detenido, en primer lugar, en las que ofrecen datos que
ayudan, por ejemplo, a crear y poner en marcha políticas públicas, como es
www.fragua.es

el caso del Instituto Nacional de Estadística (INE), o aquellas que tienen un


especial interés para quienes investigan en Ciencias Sociales como la Base de
Datos del Centro de Investigaciones Sociológicas, sin olvidar otras fuentes
de datos nacionales e internacionales básicas para el trabajo investigador.
Por otra parte, la importancia que tiene la investigación de los hábitos
mediáticos de la ciudadanía en el ámbito del estudio de la sociedad lleva a
plantear en este capítulo un recorrido por las principales fuentes de datos
secundarias sobre las audiencias y el comportamiento de usuarios y usuarias
ante los medios (impresos, radio, cine, televisión e Internet).
Entendemos que cualquiera de las fuentes estadísticas recogidas en este
capítulo pueden ser de gran utilidad a la hora de desarrollar investigaciones
relacionadas con la comunicación política, los problemas y tendencias
sociales y su tratamiento en los medios, las relaciones entre Comunicación
(periodística, audiovisual o publicitaria) y sociedad, las interacciones entre
la Comunicación de masas y la ciudadanía, etc.
A la hora de exponer las distintas fuentes, hemos otorgado una especial
atención a la metodología empleada por algunas de ellas con el fin de que
se pueda evaluar más claramente la calidad de los datos que proporcionan
y su representatividad. También para facilitar la comprensión de cómo se
llevan a cabo los procesos de recogida de datos, algo que pudiera servir
de orientación a la hora de plantear estudios a quienes se enfrentan por
primera vez con la investigación en el ámbito de las Ciencias Sociales.
Con ese fin se ofrecen también algunos ejemplos de datos que facilitan
las distintas fuentes seleccionadas y que pueden ser de especial interés a la
hora de sugerir temas de investigación que tengan como punto de partida
análisis secundarios de datos. Entendemos que la consulta de fuentes

228
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

secundarias de datos constituye una de las fases fundamentales del proceso


de investigación si queremos que esta contribuya realmente al avance del
conocimiento.

1. Investigación primaria y secundaria


El concepto de alfabetización estadística
Las investigaciones que se realizan en el ámbito de las Ciencias Sociales
pueden nutrirse de lo que se llaman datos o fuentes primarias, de datos o
fuentes secundarias, o de ambas. En general, por investigación primaria
www.fragua.es

se entiende aquella que se realiza a partir de datos que son recogidos


de la realidad directamente por quien realiza la investigación mediante
la aplicación de una o varias técnicas de obtención de información
(cuestionario, entrevista, experimento, análisis de contenido...). Sin
embargo, la investigación secundaria es la elaborada a partir de datos
recogidos en estudios previos por otras personas.
La separación entre uno y otro tipo de investigación no es radical. De
hecho, no puede realizarse una buena investigación primaria sin haber realizado
algún tipo de investigación a partir de datos secundarios. Todo estudio parte de
la revisión bibliográfica de las investigaciones previas existentes sobre el mismo
tema y, desde este punto de vista, la investigación secundaria (a pesar de su
nombre) constituye el punto de partida de todo estudio, vaya este a realizarse
sólo gracias a fuentes secundarias de datos o bien pretenda recoger datos
primarios. Así, el análisis secundario de datos y de investigaciones constituye
una estrategia básica en investigación (Cea D’Ancona, 1996:219).
Existen tres tipos principales de investigación secundaria (Hakim,
1994): el análisis secundario, la revisión de investigaciones y el meta-
análisis.
A) El análisis secundario es el realizado a partir de información recogida
por otras personas. Puede partir del uso de varias fuentes o de una sola.
Gracias a él se realizan muchos estudios comparativos (por ejemplo, de las
mismas variables en distintos momentos históricos o en distintos contextos
nacionales o regionales). Así, por ejemplo, algunas preguntas incluidas en
los Barómetros que realiza el Centro de Investigaciones Sociológicas (CIS)
o en los Euro barómetros (Comisión Europea) que han sido incluidas en

229
Antonio Lucas y Alejandro Noboa (eds.)

distintos cuestionarios permiten desarrollar series temporales e indicadores


de gran interés que pueden dar lugar a interesantes investigaciones.
B) La revisión de investigaciones. Constituye, como se ha dicho, el
paso previo de todo trabajo de investigación. Supone, además, uno de
las fases más importantes del proceso investigador, ya que puede evitar
recoger datos de primera mano (con todo el esfuerzo que ello supone) que
finalmente no aporten nada nuevo al conocimiento (porque habían sido
obtenidos ya por otras personas, por ejemplo). También puede constituir
una fuente muy valiosa de nuevas hipótesis de trabajos de investigación y
de estudios comparativos.
www.fragua.es

C) El meta-análisis. Se define como “el análisis de los análisis: el análisis


estadístico de los hallazgos de muchos análisis particulares” (Glas y otros,
1987:21). Su objetivo es sintetizar los resultados cuantitativos de distintas
investigaciones.
Será pues en la investigación secundaria, presente en cualquier
investigación en el ámbito de las Ciencias Sociales, donde se convierte en
protagonista principal el uso y manejo de las bases de datos, como fuente
básica de información para cualquier estudio.
No obstante, esta necesidad de información no viene demandada de
manera exclusiva para quienes se dedican a la investigación. En los últimos
años, y como señala Montaña (2005), se ha popularizado el término
alfabetización informacional, traducido directamente del inglés information
literacy. En la misma línea, muchos especialistas hablan de alfabetización
estadística (también denominada matemática o cuantitativa). El concepto
alude a la necesidad que tienen no sólo quienes investigan, sino también
la ciudadanía en general (expuesta diariamente a través de los medios de
comunicación a mucha información numérica) de mayores conocimientos
estadísticos. Por ejemplo, a qué fenómenos económicos aluden, qué
repercusión tienen, cómo evaluar su fiabilidad, qué metodología hay detrás,
etc.
Montaña (2005) se refiere a tres principales carencias que tiene la
ciudadanía, estudiantes universitarios y muchas personas que investigan la
realidad política y social:
a) Una base matemática muy deficiente en amplios sectores de la
población.

230
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

b) Problemas de terminología, principalmente económica. Así, muchas


personas no saben realmente qué es el Producto Interior Bruto (PIB), por
ejemplo. Tampoco conocen los equivalentes ingleses, cuando el inglés es el
idioma de búsqueda de la mayoría de bases de datos estadísticas.
c) Conocimientos de metodología. Dicho de otra manera, la mayor
parte de la ciudadanía no sabe cómo se recopilan y calculan las estadísticas
y, por lo tanto, no tienen en realidad herramientas para criticarlas.

2. La organización del sistema oficial estadístico español: INE


www.fragua.es

Las estadísticas más conocidas son las producidas por los sistemas
estadísticos oficiales de cada país. En el caso español, el Instituto Nacional
de Estadística (INE). Como señala Montaña (2005), este sistema se
gestiona por y para la Administración, y su función principal no es ofrecer
información al público en general, sino proporcionar al gobierno (en
un sentido amplio) los datos que necesita para crear y poner en marcha
políticas públicas.
El INE recopila datos a diferentes niveles: nacional, autonómico,
provincial y local. Pero también delega algunas funciones en las agencias
estadísticas autonómicas, a las cuales también coordina. Estas agencias
llevan a cabo una tarea importante al ofrecer estudios especializados y
datos a un nivel de desagregación más detallado que el INE (Montaña
(2005). Un ejemplo de oficina estadística autonómica de tipo oficial es el
Institut d’Estadística de Catalunya (IDESCAT, http://www.idescat.net/).
Las administraciones locales son también fuentes de datos importantes.
Los ayuntamientos, por ejemplo, desarrollan el padrón, aunque sólo
los municipios más importantes se pueden permitir disponer de un
departamento de estadística o de una unidad similar propias, como por
ejemplo el Departament d’Estadística del Ayuntamiento de Barcelona
(http://www.bcn.es/estadistica/catala/index.htm)”.
El INE es un organismo autónomo de carácter administrativo
adscrito al Ministerio de Economía y Competitividad (2012). Como se
señala en su página web, posee personalidad jurídica y patrimonio propio.
La Constitución establece en su artículo 149.1.31 que “el Estado tiene
competencia exclusiva sobre las estadísticas para fines estatales”. El INE

231
Antonio Lucas y Alejandro Noboa (eds.)

se rige, básicamente, por la Ley 12/1989, de 9 de mayo, de la Función


Estadística Pública, que regula la actividad estadística para fines estatales
y por el Estatuto aprobado por Real Decreto 508/2001 de 11 de mayo,
y modificado por el Real Decreto 947/2003, de 18 de julio, por el Real
Decreto 759/2005, de 24 de junio y por el Real Decreto 950/2009, de 5
de junio.
Como se señala desde el propio Instituto, la ley asigna al Instituto
Nacional de Estadística un papel destacado en la actividad estadística
pública encomendándole expresamente la realización de operaciones
estadísticas fundamentales: los censos demográficos y económicos; las
cuentas nacionales; las estadísticas demográficas y sociales; los indicadores
www.fragua.es

económicos y sociales; la coordinación y mantenimiento de los directorios


de empresas; la formación del Censo Electoral, etc.
La ley atribuye también al INE las siguientes funciones: la formulación
del Proyecto del Plan Estadístico Nacional con la colaboración de los
Departamentos Ministeriales y del Banco de España; la propuesta de normas
comunes sobre conceptos, unidades estadísticas, clasificaciones y códigos;
y las relaciones en materia estadística con los Organismos Internacionales
especializados y, en particular, con la Oficina de Estadística de la Unión
Europea (EUROSTAT).
Además existen los siguientes órganos colegiados con importantes
competencias en materia estadística: Consejo Superior de Estadística,
Comisión Interministerial de Estadística, Consejo de Empadronamiento y
Comité Interterritorial de Estadística. En todos ellos el INE desempeña un
importante papel.
Desde la página web del INE (http://www.ine.es/serv/estadist.
htm#europa) se puede acceder a una la amplísima red de estadísticas
que ofrecen las oficinas estadísticas de las comunidades autónomas, de
los departamentos estadísticos de los Ministerios y del Banco de España
y de otras oficinas estadísticas españolas. También se ofrecen los enlaces
de las oficinas estadísticas más relevantes del mundo y de las principales
organizaciones internacionales (Organización del Tratado del Atlántico
Norte –OTAN-; Organización para la Cooperación y el Desarrollo
Económicos –OCDE-; Fondo Monetario Internacional –FMI-; Banco
Mundial; Organización de las Naciones Unidas –ONU-; Organización
de las Naciones Unidas para la Alimentación y la Agricultura, “Food and
Agriculture Organization” –FAO-; Organización de las Naciones Unidas

232
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

para la Educación, la Ciencia y la Cultura, “United Nations Educational


Scientific and Cultural Organization” –UNESCO-, etc.).
INEbase
Prácticamente el total de la información estadística que recoge el
INE (http://www.ine.es/) se almacena en INEbase (http://www.ine.es/
inebase/), un sistema de consulta a través de Internet. En él los datos están
actualizados y se ofrecen por esta vía una vez que se hacen públicos a los
medios de difusión. De hecho, contiene también las notas de prensa y los
resúmenes de las tablas que se facilitan a estos.
www.fragua.es

INEbase incluye estadísticas de los siguientes temas (http://www.ine.


es/inebmenu/indice.htm, consulta realizada el 28 de mayo de 2012):
1.Entorno físico (datos sobre territorio, climatología y sismología) y
Medio ambiente. Bajo este último epígrafe se presentan estadísticas sobre
medio ambiente (sobre agua, residuos y gasto de empresas en protección
ambiental); cuentas ambientales (cuenta satélite sobre agua y emisiones
atmosféricas, cuenta del gasto en protección medioambiental, cuentas de
flujos de materiales y cuentas de los bosques); indicadores ambientales
(sobre el agua, residuos y emisiones); y otros estudios medioambientales
(incendios forestales y espacios naturales protegidos).
2. Demografía y población. En este apartado aparecen cifras de
población (padrón municipal, series históricas de población, proyecciones
de población, estimaciones intercensales y censo de población y viviendas);
del movimiento natural de la población (también de la ciudadanía
española en el extranjero); de migraciones; y por último, análisis y estudios
demográficos (encuesta de fecundidad, indicadores básicos y tablas de
mortalidad).
3. Sociedad. Se ofrecen datos de Educación (enseñanza universitaria,
infantil, preescolar, primaria y secundaria, financiación y gastos de la
enseñanza privada, becas y ayudas al estudio y gasto público); Cultura y
ocio (producción editorial de libros, estadística de bibliotecas, archivos y
museos, recursos musicales y de la danza, deportes, cinematografía, teatro
y espectáculos taurinos, juegos del azar y medios de comunicación); Salud
(morbilidad hospitalaria, indicadores hospitalarios, defunciones según
la causa de muerte, profesionales sanitarios colegiados, discapacidades,
deficiencias y estado de salud, encuesta nacional de salud, hábitos sexuales,

233
Antonio Lucas y Alejandro Noboa (eds.)

establecimientos sanitarios con régimen de internado, SIDA, etc.);


Justicia (estadísticas judiciales, de población reclusa, de adquisición de la
nacionalidad española, de registro y notariado y de suicidio); Nivel, calidad
y condiciones de vida (IPC, resultados del panel de hogares de la Unión
Europea, encuesta continua de presupuestos familiares, de condiciones de
vida, de tecnologías de la información en los hogares, de empleo del tiempo
y de protección social); Mercado laboral (Encuesta de Población Activa,
del Coste Laboral, sobre el tiempo de trabajo, de salarios, paro registrado
y movimiento laboral, condiciones de trabajo y relaciones laborales y
colectivos laborales); y análisis sociales (indicadores sociales y encuestas
sobre personas sin hogar).
www.fragua.es

4. Economía. Bajo este epígrafe aparecen operaciones estadísticas sobre


empresas; cuentas económicas (contabilidad nacional y regional, turismo
y balanza de pagos); datos financieros y monetarios (suspensiones de
pagos y declaraciones de quiebras, hipotecas, ventas a plazos, sociedades
mercantiles, mercado bursátil, tipos de interés y de cambio, etc.); e
información tributaria.
5. Ciencia y tecnología. En este apartado se pueden encontrar datos
sobre investigación y desarrollo (innovación tecnológica e indicadores
de alta tecnología); y sobre nuevas tecnologías de la información y de la
comunicación (encuesta sobre uso de tecnologías y comercio electrónico en
las empresas y en los hogares).
6. Datos de agricultura, ganadería, selvicultura, caza y pesca (censo
agrario, estructura de las explotaciones agrícolas, producción, maquinaria,
fertilizantes, medios de producción agropecuaria, precios y salarios agrarios,
selvicultura, etc.).
7. Industria, energía y construcción. Se ofrecen estadísticas de industria
sobre, por ejemplo, índices de producción industrial, precios industriales,
entradas de pedidos en la industria, cifras de negocios industriales o de
fabricación de vehículos. Respecto a energía se lleva a cabo una encuesta de
consumos energéticos, entre otros datos. Y en este apartado también están
disponibles estadísticas sobre la construcción.
8. Servicios. Se ofrecen datos de encuestas globales del sector servicios,
del comercio (al por menor y al por mayor y sobre el uso de las tecnologías
de la información y el comercio electrónico en las empresas); transporte
y comunicaciones (estadísticas de transporte de personas, ferroviario, por

234
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

carretera, marítimo, aéreo, por tubería, de turismos de servicio público y


servicios postales y de telecomunicaciones); hostelería y turismo (ocupación
hotelera, de acampamentos turísticos, de turismo rural, de albergues y
ciudades de vacaciones, entre otros datos); y de otros servicios empresariales,
personales y comunitarios (encuesta de servicios audiovisuales, de servicios
técnicos y personales).
9. Clasificaciones y estándares de tipo nacional e internacional. Estas
clasificaciones son de especial utilidad a la hora de investigar puesto que
ofrecen la posibilidad de estandarizar la propia investigación con la del
INE (o al menos, tenerla en cuenta) con el fin de que los resultados puedan
ser comparables. Así, ofrece, por ejemplo, la clasificación nacional de
www.fragua.es

ocupaciones, la clasificación nacional de educación, la clasificación nacional


de actividades económicas, o la clasificación nacional de productos por
actividades.
Desde esta página del INEbase (http://www.ine.es/inebmenu/indice.
htm#4011, consultada el 28 de mayo de 2012) se puede acceder al Banco
se series temporales Tempus2. También a una síntesis de datos estadísticos
que aparecen en distintas publicaciones (boletines, anuarios, etc.) en las
que ha colaborado el INE. Entre las más relevantes se encuentran: el
Boletín mensual de estadística; el Anuario Estadístico de España; España
en cifras; Indicadores de desarrollo sostenible; o los Indicadores de España
para el Fondo Monetario Internacional.

La Oficina del Censo Electoral


De especial interés son los datos que ofrece la Oficina del Censo
Electoral, encuadrada dentro del Instituto Nacional de Estadística. Como
se indica en su página web, es el órgano encargado de la formación del
censo electoral y ejerce sus competencias bajo la dirección y la supervisión
de la Junta Electoral Central.
La Oficina del Censo Electoral tiene Delegaciones Provinciales. Los
Ayuntamientos y los Consulados actúan como colaboradores de la Oficina
del Censo Electoral en las tareas censales.
La Oficina del Censo Electoral lleva a cabo las competencias que
le asigna la Ley electoral en la elaboración del Censo Electoral y en el

235
Antonio Lucas y Alejandro Noboa (eds.)

desarrollo de los procesos electorales. También ejerce otras dos funciones


destacadas: certifica la inscripción en el censo electoral de los firmantes de
las iniciativas legislativas populares y efectúa el sorteo de candidatos/as a
jurados.

3. El Centro de Investigaciones Sociológicas (CIS)


El Centro de Investigaciones Sociológicas (http://www.cis.es) es un
organismo autónomo adscrito al Ministerio de la Presidencia que estudia
la sociedad española principalmente mediante encuestas. Su denominación
www.fragua.es

actual data de 1977, aunque su antecedente, el Instituto de la Opinión


Pública, fue fundado en 1963.
Para quienes investigan en Ciencias Sociales tiene especial interés el
Banco de Datos, donde se depositan todas las investigaciones realizadas
por el CIS. Su información está disponible tanto de forma presencial como
a través de la web y los datos del CIS son de dominio público. Entre las
publicaciones del organismo destaca la Revista Española de Investigaciones
Sociológicas (REIS) y diversas colecciones de libros.
Como se indica en la página web del organismo, el catálogo de encuestas
del Banco de Datos reúne la información de todas las encuestas y estudios
cualitativos que el Centro ha llevado a cabo desde su creación. Todos ellos
son de acceso público. Desde enero de 2009, el Banco de Datos ofrece
gratuitamente la descarga de los ficheros de microdatos de los estudios
realizados durante los últimos años y siguen trabajando para que todos los
estudios estén disponibles para su descarga gratuita en un futuro próximo.
El acceso on-line al Banco de Datos permite consultar los casi 2000
estudios que almacena, con más de 100.000 preguntas que corresponden
a los más de 5.000.000 de cuestionarios respondidos por la ciudadanía
desde 1963. A través de distintos tipos de búsquedas se puede acceder a la
información de los estudios y a todos los productos del Banco de Datos, que
son de distribución gratuita. Los productos no accesibles a través del catálogo
pueden ser obtenidos del Banco de Datos empleando un impreso de solicitud.

236
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

Los Barómetros de Opinión


Como refleja la web del Centro, los barómetros consisten en una
encuesta, realizada con cuestionario estandarizado y que siempre utiliza la
misma metodología. Poseen una periodicidad mensual –excepto los meses
de agosto– y tienen como principal objetivo medir el estado de la opinión
pública española del momento. Para ello se entrevista en torno a 2.500
personas elegidas al azar dentro del territorio nacional, de las que, además
de sus opiniones, se recoge una amplia información social y demográfica
para su análisis.
Estos estudios contienen un bloque de preguntas fijas a partir de las
www.fragua.es

cuales se elaboran los “indicadores del barómetro”. Además de estas, cada


barómetro contiene otro bloque de preguntas variable, que en cada ocasión
se dedica a un tema de interés político o social.
Los meses de enero, abril, julio y octubre los barómetros incluyen un
conjunto de preguntas fijas de actitudes políticas a partir de las que el CIS
calcula y publica la estimación de voto.
Los resultados de los barómetros mensuales se hacen públicos a través
de la web del CIS inicialmente en formato de “avance de resultados”. Tras
la finalización del resto de procesos técnicos, los datos del estudio pasan
a formar parte del Banco de Datos del CIS, momento en el que ya puede
descargarse de la página web el fichero de microdatos del estudio y el resto
de la documentación asociada.
El universo de los Barómetros de Opinión está compuesto por toda la
población española, de ambos sexos, de 18 años y más. Las encuestas son
personales y se realizan en los hogares. La muestra es nacional y su tamaño
gira alrededor de 2.500 entrevistas. Se trabaja con un nivel de confianza del
95,5% (dos sigmas) y se considera la situación más desfavorable (P=Q). El
error real suele estar en torno a ±1,9 para el conjunto de la muestra y en el
supuesto de muestreo aleatorio simple.
La afijación suele ser proporcional en la mayoría de los estudios. El
método de muestreo es polietápico, estratificado por conglomerados. Las
unidades primarias de muestreo son los municipios y las secundarias, las
secciones. En estas etapas, la selección se lleva a cabo de forma aleatoria
proporcional. La selección final de las unidades últimas (las personas) se
lleva a cabo a través de rutas aleatorias y cuotas de sexo y edad.

237
Antonio Lucas y Alejandro Noboa (eds.)

Los estratos se han formado por el cruce de las 17 Comunidades


Autónomos. Están compuestos por siete categorías. Son las siguientes:
Menores o iguales a 2.000 habitantes; de 2.001 a 10.000; de 10.001
a 50.000; de 50.001 a 100.000; de 100.001 a 400.000; de 400.001 a un
millón; y más de un millón de habitantes.
El trabajo de campo se realiza en la primera quincena de cada mes, con
la excepción del mes de agosto, que no se realiza. La publicación del avance
de resultados en la web del Centro de Investigaciones Sociológicas con
inclusión de tablas de marginales y de cruces con variables sociodemográficas
principales, se realiza en la primera semana del mes siguiente al que se ha
www.fragua.es

realizado el trabajo de campo.


El fichero de microdatos está disponible en la Web del Centro de
Investigaciones Sociológicas en un plazo máximo de cuatro semanas después
de publicado el avance de resultados. A continuación ofrecemos algunos
ejemplos de los tipos de datos que se pueden encontrar en los Barómetros
de opinión. (Cuadro 8.1 y 8.2)
Cuadro 8.1. Valoración de la situación política actual de España (mayo
2011-abril 2012) en porcentajes
Refiriéndonos ahora a la situación política general de España, ¿cómo la
calificaría Ud: muy buena, buena, regular, mala o muy mala?”

Muy No
Buena Regular Mala Muy mala No Sabe (N)
buena Contesta
MAY 11 0.2 2.8 25.5 38.8 28 3.7 1.0 2482
JUN 11 0.2 2.4 23.5 38.3 31.2 3.9 0.5 2472
JUL 11 0.1 3.0 24.4 37.7 30.6 3.6 0.5 2475
SEP 11 0.2 2.6 21.6 38.7 31.8 4.4 0.8 2465
OCT 11 0.2 2.1 19.8 40.2 33.4 3.7 0.7 2472
NOV 11 0.1 2.8 24.9 37.3 30 4.1 0.9 2859
DIC 11 0.3 4.3 27.2 39.8 22.2 5.8 0.4 2483
ENE 12 0.5 7.8 30.8 35 18 7.1 0.8 2480
FEB 12 0.3 7.5 29.9 34.1 21 6.4 0.8 2471
MAR 12 0.3 7.4 30.1 35.4 21.3 4.7 0.7 2474
ABR 12 0.4 6.6 27.7 34.3 26 4.5 0.5 2484

238
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

Cuadro 8.2. Auto ubicación ideológica de los españoles (mayo


2011-abril 2012) en porcentajes
Los datos de la siguiente tabla son el resultado de la siguiente pregunta:
“Cuando se habla de política se utilizan normalmente las expresiones
izquierda y derecha. En esta tarjeta hay una serie de casillas que van de
izquierda (con el valor 1) a derecha (con el valor 10). ¿En qué casilla se
situaría Ud.?”.

Izquierda Derecha
(3-4) (5-6) (7-8) (N .S.) (N. C.) (N)
(1-2) (9-10)
MAY 11 7.2 22.3 31.8 12.5 3.2 11.9 11.1 2482
www.fragua.es

JUN 11 7.1 25.9 32.7 10.5 2.8 10.6 10.3 2472


JUL 11 8.7 28.7 32.2 11.7 2.9 9.7 6.1 2475
SEP 11 6.2 24.7 30.7 11.8 3.1 11.3 12.1 2465
OCT 11 8.6 25.6 31.3 12.5 3.2 10.8 8.1 2472
NOV 11 7.6 25.2 33.2 11.5 3.1 10.2 9.2 2859
DIC 11 8.3 22.9 30.3 12.4 4.1 11.7 10.2 2483
ENE 12 7.7 25.3 33.3 12.3 3.3 10.1 8.0 2480
FEB 12 6.2 23.5 30.3 12.6 3.2 11.9 12.3 2471
MAR 12 7.0 23.5 33.1 11.1 2.6 10.8 11.9 2474
ABR 12 8.5 28.1 30.9 10.8 2.4 11.2 8.1 2484
Fuente: CIS

Los Barómetros mensuales suelen incluir al inicio de cada cuestionario


dos preguntas acerca de los problemas más importantes para la ciudadanía,
de las cuales los medios de comunicación suelen hacerse eco y son también
ampliamente utilizadas en la investigación política y social (para comprobar,
por ejemplo, la teoría de la “agenda-setting”. Son las siguientes: “Para
empezar, ¿cuáles son, a su juicio, los tres problemas principales que existen
actualmente en España” (máximo tres respuestas)” y “Y cuáles son los
tres problemas que a Ud., personalmente, le afectan más? (máximo tres
respuestas)”.

239
Antonio Lucas y Alejandro Noboa (eds.)

A continuación ofrecemos una tabla de resultados de la primera de las


dos preguntas mencionadas (resultados del Barómetro de marzo de 2012,
estudio nº 2.935). De los 36 problemas mencionados como respuesta a
esta pregunta hemos seleccionado sólo los que recibieron más del 1% de
las menciones (lo cual supone que fue un tema indicado por al menos 24
personas). (Cuadro 8.3).

Cuadro 8.3. Los principales problemas de España según la ciudadanía (%)

% (N)
www.fragua.es

El paro 83,9 (2075)


Los problemas de índole económica 49,2 (1217)
La clase política, los partidos políticos 18.1 (448)
La corrupción y el fraude 12,2 (303)
La educación 9,9 (245)
La sanidad 9.3 (230)
La inmigración 7,5 (186)
La inseguridad ciudadana 6,3 (155)
Otras respuestas 4,6 (114)
Los problemas de índole social 4.5 (111)
La vivienda 4.3 (107)
Los problemas relacionados con la calidad del empleo 3,6 (88)
Las pensiones 2.5 (61)
La crisis de valores 2.3 (56)
La Administración de Justicia 2.2 (54)
El Gobierno, los políticos y los partidos 2,1 (53)
Los problemas relacionados con la juventud 2,1 (53)
Los recortes 1.7 (43)
El terrorismo, ETA 1.3 (31)
La reforma laboral 1.2 (30)
Fuente: CIS

240
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

4. Otras fuentes de datos privados sobre la realidad política y social


Aparte de las fuentes oficiales de datos que hemos señalado hasta el
momento, existen otras bases estadísticas que quedan fuera del sistema
oficial, pero que no por ello carecen de validez y fiabilidad, y que pueden
ser utilizadas como paso previo a una investigación primaria. Se trata, por
ejemplo, de entidades privadas que periódicamente llevan a cabo encuestas
sociales. Merecen especial atención los estudios de opinión sobre aspectos
sociológicos que desde 1990 lleva a cabo el Centro de Investigación
de la Realidad Social (CIRES). (Véase http://www.jdsurvey.net/jds/
jdsurveyAnalisis.jsp?Idioma=E&ES_COL=129T(consulta realizada el 29
de mayo de 2012).
www.fragua.es

También los estudios realizados por la Fundación FOESSA (Fomento de


Estudios Sociales y de Sociología Aplicada, http://www.foessa.es/, consulta
realizada el 29 de mayo de 2012) que, desde 1969 patrocina los Informes
sociológicos sobre la situación social en España. Asimismo, también resulta
obligado hacer referencia a las publicaciones de los distintos servicios de
estudios de algunas entidades bancarias (como el Banco Bilbao-Vizcaya
Argentaria, Banesto o la Confederación de Cajas de Ahorro) y los informes
anuales del Centro de Estudios sobre el Cambio Social y los sociológicos
de la Fundación General de la Universidad Complutense.

5. Bases de datos internacionales para la investigación: El Sistema


Estadístico Internacional
En este apartado, vamos a diferenciar entre aquellas bases de datos
de origen europeo y aquellas que engloban otras zonas del mundo.
Comenzando por el ámbito territorial más cercano, y tal y como se
señala en la página web del INE, el Sistema Estadístico Europeo (SEE)
está formado por Eurostat (la oficina de estadística de la UE), las oficinas
de estadística de todos los estados miembros (los diferentes INE) y otros
organismos que elaboran estadísticas europeas.
El Sistema Estadístico Europeo garantiza que las estadísticas europeas
elaboradas en todos los Estados miembros de la Unión Europea sean fiables,
siguiendo unos criterios y definiciones comunes y tratando los datos de la
manera adecuada para que sean siempre comparables entre los distintos
países de la UE.

241
Antonio Lucas y Alejandro Noboa (eds.)

En la actualidad el SEE se regula fundamentalmente por la Ley


Estadística Europea, aprobada en 2009 mediante el Reglamento (CE)
223/2009 del Parlamento Europeo y del Consejo.
Las estadísticas de la Unión Europea se preparan, elaboran y difunden
tanto por el Sistema Estadístico Europeo (SEE) como por el Sistema Europeo
de Bancos Centrales (SEBC).
La producción de estadísticas nacionales armonizadas corresponde a
las autoridades de los Estados miembros, mientras que Eurostat recopila
los datos que aportan los Estados, los analiza y en base a ellos ofrece cifras
comparables y armonizadas, de forma que se puedan definir, acometer y
www.fragua.es

analizar las políticas comunitarias. Así pues, Eurostat armoniza los datos, es
decir, los tratar para que sean comparables. Hecho esto, los difunde y ofrece
así fuentes estadísticas excelentes para la comparación internacional.
Además, Eurostat se encarga de asegurar la coordinación necesaria para
garantizar el funcionamiento de este complejo sistema (lenguas diferentes,
formas de organización administrativa muy diversas, nomenclaturas
específicas...) y para asegurar la coherencia y calidad de los datos.
Las estadísticas oficiales europeas se rigen por los principios recogidos
en el Código de Buenas Prácticas de las estadísticas europeas (CBP), que
buscan asegurar la calidad y la credibilidad de los datos. Estos principios
hacen referencia, entre otros aspectos, a la independencia profesional,
la protección de la confidencialidad, la fiabilidad de los resultados, su
precisión, actualidad, puntualidad, accesibilidad, claridad, comparabilidad
y coherencia. La información estadística europea es amplísima y cubre todos
los temas del ámbito económico, demográfico y social. En la página web
de Eurostat (http://epp.eurostat.ec.europa.eu/portal/page/portal/eurostat/
home/, consultado el 29 de mayo de 2012) se puede encontrar toda la
producción estadística europea en inglés, francés y alemán.
Además, los Institutos de estadística de los diferentes países de la UE
difunden los datos nacionales a través de sus respectivas páginas web. En la
página web del INE, en el apartado INEbase, se puede acceder a una amplia
selección de datos europeos, junto con los datos nacionales. A continuación
se ofrece una Tabla con las estadísticas europeas más consultadas a través
del INE referentes a economía y finanzas y población y condiciones sociales
(http://www.ine.es/ine/see/see_infoestadistica.htm, consulta realizada el 29 de
mayo de 2012).

242
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

Por lo que se refiere a las oficinas centrales de estadística de los países


europeos, Francia cuenta con el INSEE (Institut National de la Statistique
et des Etudes Economiques); el Reino Unido con el Central Statistical
Office; Italia con el ISTAT (Istituto Nazionale di Statistica); y Alemania
con el Statistiches Bundesamt Deutschland. Además de Eurostat, CESSDA
(Council of European Social Science Data Archives), como Federación de
institutos de opinión representantes de quince naciones europeas posee
datos comparables de distintos países.
Cuadro 8.4. Tablas estadísticas europeas más consultadas

Economía y finanzas
www.fragua.es

1.1 PIB per cápita en PPA


1.2 PIB real per cápita, tasa de crecimiento y totales
1.3 Producto Interior Bruto a precios de mercado
1.4 Deuda bruta de las Administraciones Públicas
1.5 Déficit (-) y superávit (+) de las Administraciones
Públicas
1.6 Gasto total de las Administraciones Públicas
1.7 IPCA general
Población y condiciones sociales
2.1 Tasa de paro armonizado por sexo - total
2.2 Tasa de ocupados por sexo, grupo de edad 20 - 64
2.3 Población por grupos de edad
2.4 Población extranjera
2.5 Esperanza de vida al nacimiento por sexo
2.6 Tasa bruta de natalidad
Fuente: INE

En cuanto a encuestas de opinión en otros países, se encuentran el


British Public Opinion, el British Social Attitudes, el Bolletino della Doxa
y L’Etat de l’Opinion. El instituto estadístico oficial de cada país transmite
los datos a las agencias internacionales de las cuales el país forme parte.
Pueden ser instituciones regionales (en el sentido de agrupar distintos
países sobre una base geográfica o cultural, como por ejemplo la Unión
Europea o el Asian Development Bank) o internacionales (como por

243
Antonio Lucas y Alejandro Noboa (eds.)

ejemplo las Naciones Unidas). Pueden encargarse de todo tipo de datos o


sólo un tema concreto.
No obstante, en este contexto europeo, no puede dejar de mencionarse
la encuesta de opinión pública que se realiza en todos los países miembros
de la Unión Europea (UE) y que es conocida como el Eurobarómetro. Véase
http://ec.europa.eu/spain/eurobarometro/index_es.htm (consulta realizada
el 29 de mayo de 2012). Lo desarrolla la Comisión Europea desde 1973 en
su versión Standard. Sirve para evaluar el estado de opinión y actitudes de la
ciudadanía sobre la Unión, sobre los distintos temas de actualidad, sobre las
políticas que se llevan a cabo y además, se utiliza en la toma de decisiones.
Así, las distintas preguntas del cuestionario tienen que ver con cuestiones,
www.fragua.es

por ejemplo, relativas a la situación social, sentimiento de europeísmo,


salud, cultura, tecnologías de la información, el Euro, medio ambiente,
defensa, ampliación a otros países, etc. Los principales datos de los distintos
Eurobarómetros son accesibles a través de la red.
Existen también diferentes asociaciones regionales (por ejemplo, la
OCDE) y un amplio número de entidades sectoriales —como por ejemplo
el Fondo Monetario Internacional (FMI), la Organización Mundial del
Comercio (OMC), la Unesco, la Organización Internacional del Trabajo
(OIT), etc., que recopilan y difunden datos estadísticos dentro de su
ámbito de actuación.

6. La importancia de las bases de datos para la investigación de las


audiencias
Una vez que hemos mostrado algunas de las principales bases de datos
existentes para la investigación social y política, merece un espacio en este
capítulo las fuentes secundarias de investigación en el campo de la investigación
de audiencias. El papel que están desempeñando en la actualidad los medios
de comunicación tradicionales –como la radio y/o la televisión, en proceso de
cambio y adaptación- o los nuevos medios –como Internet o las propias redes
sociales - hace que la información sobre su uso sea básica tanto para la propia
sociedad, como para los medios y para los diferentes sectores implicados –
publicistas, empresas en general, distribuidoras, guionistas…-. Estas estadísticas
les ayudarán fundamentalmente a diagnosticar el éxito o no del negocio
mediático y/o publicitario.

244
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

No obstante, antes de entrar en profundidad a analizar estas fuentes,


resulta de interés tomar como punto de partida una aproximación
conceptual al término “audiencia”, en tanto que implica uno de los
elementos más importantes del proceso comunicativo y sirve para conocer
la importancia que está tomando en la actualidad la investigación en este
campo.
Inicialmente, el concepto de audiencia no parece plantear dificultades
conceptuales y es uno de los pocos términos que se comparten sin problemas
tanto dentro de las universidades y centros de investigación como para
quienes ejercen la profesión en los medios de comunicación. Audiencia,
simplemente, se refiere a quienes leen, ven y escuchan los medios de
www.fragua.es

comunicación y a quienes utilizan Internet.


Desde otro punto de vista, la audiencia se puede definir también como
el conjunto de personas que mantiene contacto con un medio a través
de un contenido o espacio publicitario y durante un período de tiempo
determinado (Jauset, 2008). Siguiendo este planteamiento, la audiencia no
sería más que un conjunto de personas anónimas que consumen medios de
comunicación y su publicidad.
En la actualidad, los medios parecen enfocar sus mensajes o contenidos
en función de la publicidad que puedan conseguir y a la audiencia
que puedan alcanzar. Tal es así, que medios de comunicación como la
televisión, por ejemplo, obtienen gran parte de su financiación de la venta
de audiencias a las empresas anunciantes, no de programas.
Desde este punto de vista, la programación se entendería como un
vehículo para atraer a las audiencias a los mensajes que transmite, entre
ellos, los mensajes publicitarios. Este modelo simplificado de audiencia
como consumidora de contenidos mediáticos tiene su sentido si se considera
que la “moneda de cambio” habitual para la contratación de espacios
publicitarios está basada en los “impactos”, es decir, en la estimación de la
audiencia que existirá durante esos segundos y que podrá ser receptora de
los mensajes publicitarios emitidos.
Para saber hasta qué punto la inversión es rentable, las empresas
anunciantes que deseen insertar su publicidad en un medio de comunicación
tienen la necesidad de contrastar el presupuesto invertido con las cifras de
audiencia potenciales. De ahí surge la necesidad, tanto por parte de las
propias empresas como de los medios de comunicación, de contar con

245
Antonio Lucas y Alejandro Noboa (eds.)

una medición de las audiencias –y sus correspondientes bases de datos-


consensuada y fiable.
No obstante, la investigación de audiencias no tiene su origen
únicamente en la planificación de los medios de comunicación, que
utilizan la información obtenida con fines comerciales. El conocimiento de
la audiencia constituye obviamente una herramienta esencial para las y los
profesionales de la comunicación y las organizaciones mediáticas. También,
el estudio de las audiencias es necesario para los muy distintos propósitos
del estudio sobre los efectos mediáticos y constituye, asimismo una forma
de feedback y evaluación. Para quienes se dedican a la investigación de la
sociedad y la conducta humana, el uso de los medios es tema de estudio
www.fragua.es

debido a que estos constituyen un componente importante de la vida


cotidiana y por sus otras numerosas interrelaciones.
En el siguiente apartado podremos mostraremos las principales fuentes
secundarias de investigación de audiencias. En España, existen en la
actualidad diversas empresas dedicadas a su investigación. Entre todas ellas
destacan el Estudio General de Medios (EGM), la Oficina de Justificación
de la Difusión (OJD) y el panel de audimetría de Kantar Media.

7. Fuentes secundarias sobre audiencias de medios de comunicación:


El estudio General de Medios (EGM)
Según la primera ola del Informe del Estudio General de Medios
(2011), los españoles y las españolas que contestaron que habían leído la
prensa el día anterior a la realización de la encuesta trimestral que realiza
la AIMC (Asociación para la investigación en medios de comunicación)
se aproxima al 37%. Cuestión diferente es plantear qué leen. Así, según el
ranking de medios impresos, en primer lugar se encuentra el diario Marca,
que a lo largo de los años, no ha perdido esta posición. Es más, se consolida
en la misma con cerca de 3 millones de lectores y lectoras. El primer diario
de información general y de pago que le sigue de cerca es El País, con
1.888.000 lectores/as (www.aimc.es).
Esta información estadística-descriptiva forma parte de la investigación
de audiencias que, como ya hemos mencionado, realiza la Asociación para
la Investigación de los Medios de Comunicación (AIMC), una entidad sin
fines lucrativos que se ha convertido en la fuente secundaria de referencia

246
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

sobre datos de utilización y/o consumo de medios tanto para quienes se


dedican a la investigación como para las empresas anunciantes o como
para los propias organizaciones mediáticas. En este caso, y a diferencia de
los apartados anteriores, la información proporcionada procede de bases
de datos desarrolladas por organizaciones de carácter privado, si bien el
propio INE ofrece también datos sobre comportamientos mediáticos de la
sociedad española.
La AIMC nace en 1968, cuando un grupo de empresas –agencias,
anunciantes y algún medio de comunicación- trata de consolidar un estudio
de audiencias que había dado algunos pasos a lo largo de esta década. La
Asociación encargará al Instituto ECO un trabajo de investigación que se
www.fragua.es

haría en 8 oleadas de 4000 entrevistas cada una para un período de dos


años. El precio fue de 10 millones de pesetas. Este fue el origen del Estudio
General de Medios, que se ha ido adaptando a los cambios sociales y
mediáticos que han tenido lugar a lo largo de estos años y ha llegado hasta
el día de hoy. De hecho, los datos que proporciona son una cita obligada
cuando se investiga y se habla de consumo de medios de comunicación por
parte de la audiencia en España.
Cada país cuenta con una organización diferente que se encarga de
observar y medir la audiencia de los medios de comunicación. De hecho,
una de las características de las fuentes secundarias de investigación de las
audiencias es que se trata de investigación enfocada a territorios nacionales.
En el contexto europeo, las primeras asociaciones encargadas de investigar
las audiencias nacen el siglo pasado en los cincuenta y sesenta.
Hay que destacar el caso de Alemania, que se puede considerar
como el país europeo que realiza, en 1954, la primera investigación de
audiencias. Finlandia se encuentra entre los países que se pueden considerar
también pioneros en este tipo de investigación. Cuenta con el Finnish
Audit Bureau of Circulations (FABC), fundado en 1955, cuyo objetivo es
proporcionar datos imparciales, válidos y fiables sobre los medios impresos,
principalmente, con el fin de ayudar a la toma de decisiones tanto de
anunciantes como de los propios medios de comunicación http://www.
levikintarkastus.fi/ Por otra parte, será en el año 1965 cuando se publique el
primer análisis de las audiencias de los medios de comunicación en Austria,
realizado la Asociación Media Analyse, que sigue siendo la encargada, aún
hoy, de recoger la información sobre los hábitos de lectura y mediáticos, en
general, de la ciudadanía de este país (www.media-analyse.at).

247
Antonio Lucas y Alejandro Noboa (eds.)

Las peculiaridades de las organizaciones que se encargan de la


investigación de audiencias en Europa y en el mundo podría ser objeto de
un manual, por ello no lo abordaremos en profundidad aquí. No obstante,
cabe señalar que todas ellas tienen en común un objetivo: responder a la
necesidad de información sobre los hábitos mediáticos de la ciudadanía
y hacerlo con la mayor rigurosidad científica posible. Esta necesidad
de información surge desde los propios medios y, por este motivo, las
asociaciones suelen estar integradas por anunciantes, propietarios/as de
medios de comunicación y diferentes agentes que intervienen en el proceso.
En el caso de España, las empresas que actualmente forman parte de
la AIMC se distribuyen entre estos dos grandes grupos: el primero está
www.fragua.es

integrado por anunciantes, agencias de publicidad, agencias de medios


y profesionales de la consultoría. El segundo agrupa a los medios de
comunicación y exclusivistas (empresas que llevan la exclusiva de la
publicidad de un medio de comunicación). Así, en España, el cine tiene
grandes exclusivistas (como Movirecord, Screenvision y Discine) que
cuentan con la mayoría del porcentaje de la publicidad (Berganza y García,
2005: 79).
Entre los fines de la AIMC, según se pone de manifiesto en los estatutos
de la misma, se encuentran el de la investigación, medición y control
de la audiencia de los diferentes medios de comunicación o publicidad,
a través de informaciones y estudios de carácter periódico y su posterior
distribución entre los miembros de la Asociación. El Estudio General
de Medios (EGM) es el reflejo de estos objetivos de la Asociación y se
constituye, en la actualidad, como una investigación multimedia (medios
impresos, radio, televisión, cine y, desde 1996, Internet) que trata de
conocer el comportamiento de la sociedad respecto a cada uno de estos
medios de comunicación y además, recoge datos complementarios sobre
equipamiento del hogar, consumo de productos y estilos de vida. Estos
datos, no obstante, son solamente accesibles para las y los miembros de la
Asociación, si bien periódicamente en su página web se publican diferentes
y rigurosos estudios de libre acceso que permiten tener información sobre
la situación del consumo mediático de la sociedad española.
Metodología del Estudio General de Medios. Universo y tamaño muestral
El universo del Estudio General de Medios está formado por personas
mayores de 14 años y residentes en hogares unifamiliares de municipios
de toda España (quedan excluidas Ceuta y Melilla). Una característica del

248
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

universo considerado es que su estudio se ha adaptado a los cambios sociales


que han tenido lugar en España. Así, por ejemplo, ha modificado conceptos
como el de “ama de casa”, que se define como la persona responsable de las
compras habituales del hogar y del cuidado de la casa, extrayendo el género
de la definición. También se experimentan medidas para mejorar los perfiles
de las segmentaciones. De este modo, el EGM ha introducido variables
geodemográficas que clasifican a las personas según el lugar donde residen, al
advertir que esta característica da cuenta de una notable homogeneidad entre
ellas (Huertas Bailén, 2002:154).
El tamaño muestral utilizado por el Estudio General de Medios ha
fluctuado a lo largo de los años. A partir de la tercera ola de 2000, la
www.fragua.es

muestra se amplió para el medio radio, con 38.000 entrevistas telefónicas


en toda España. Y tras un acuerdo firmado en noviembre de 2003 con la
Asociación de Radio de Cataluña se incrementaron las entrevistas mediante
el sistema CATI (Computer Assistance Telephone Interview), que permite
tabular los resultados de la encuesta de manera simultánea. Así pues, a
partir de la primera ola de 2004, el estudio EGM Radio XXI empezó a
contar con una muestra de 81.000 entrevistas anuales.
En el año 2008, la muestra utilizada hasta ese momento para el estudio
EGM Multimedia y que ascendía a 43.000 personas que se repartían en tres
oleadas, experimentó un reajuste a la baja, situándose en 30.000. Este reajuste
que observa en un incremento del EGM Radio XXI y en el hecho de que,
por primera vez, aparece el apartado EGM Revistas, con 20.000 encuestas
adicionales realizadas solo para conocer los hábitos de la ciudadanía relacionados
con la lectura de revistas semanales, quincenales y mensuales (www.aimc.es).
Otro cambio también de interés desde el punto de vista de validez de
la muestra se observa en el número mínimo de personas encuestadas por
provincias. Así, hasta el año 2007, no había ninguna provincia española
cuya muestra de sujetos seleccionados fuera inferior a 300. Sin embargo,
desde el año 2008, este mínimo descendió hasta 210, como puede observarse
en el caso de Cuenca, Guadalajara, Huesca o Teruel. Esta es una de las
situaciones que da lugar a diversas críticas por parte de los propios medios de
comunicación. No obstante, si se tiene en cuenta que esas 210 personas que
forman la muestra de estas provincias hay que dividirlas en las tres oleadas,
resulta que tan solo el comportamiento mediático de 70 personas en cada
provincia y en cada oleada habría que extrapolarlo a toda la población de
Cuenca, por ejemplo. Es un dato para la reflexión.

249
Antonio Lucas y Alejandro Noboa (eds.)

Es de interés mencionar que en el año 2009, la Asociación incluyó en la


muestra de su estudio a 13.000 personas más que formarán parte de lo que
denominaron EGM Televisión, con la finalidad de profundizar en las conductas
televisivas de la audiencia española. Este dato es de interés ya que quienes
programan televisión, anunciantes y guionistas cuentan con una herramienta
más para poder conocer las preferencias de la audiencia por un canal u otro, ya
que el EGM no analiza las audiencias de los programas de televisión, solamente
la de los canales. Esta situación se ha mantenido con alguna modificación
muestral poco significativa hasta la actualidad. (Cuadro 8.5)
www.fragua.es

Cuadro 8.5. Evolución tamaño muestral EGM

EGM MULTIMEDIA
2007: 43.000 encuestas
2008: 30.000 encuestas
EGM RADIO XXI Encuestas telefónicas
2007: 38.000 encuestas adicionales
2008: 49.400 encuestas adicionales
EGM PRENSA: Encuestas telefónicas
2007: 32.000 encuestas adicionales
2008: 45.000 encuestas adicionales
EGM REVISTAS
2008: 20.000 encuestas adicionales
EGM TELEVISIÓN
2008: 13.000 encuestas adicionales

Así pues, a través de 30.000 entrevistas personales en el hogar,


distribuidas en tres olas (enero-marzo, abril-junio y septiembre-noviembre),
cuyos resultados se conocen en abril, junio y diciembre, el EGM ofrece un
retrato sobre el consumo de medios a escala nacional y autonómica. El
tamaño muestral del EGM le hace ser uno de los estudios de audiencia de
mayor tamaño de los que se realizan en el mundo.
A partir de la segunda ola de 2002, todas las entrevistas se realizan con
el sistema CAPI (Computer Assistance Personal Interview), que permite
la introducción de datos directamente a pequeños ordenadores portátiles
tipo Tablet. Así, en la actualidad, quienes llevan a cabo las encuestas tan

250
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

sólo llevan consigo una pequeña pantalla de ordenador que permite, con
el simple tacto, desde realizar las operaciones para el sorteo de la persona
del hogar que será entrevistado/a hasta tomar nota de todas las respuestas
(Cuadro 8.6).
El método de muestreo empleado es polietápico y estratificado por días
de la semana, por provincia y por tipo de hábitat. La selección de las unidades
muestrales es otro de los aspectos que ha experimentado un cierto cambio en
los últimos años. Así, el hogar se selecciona a partir del factor 10, es decir,
el ordenador elige el punto de partida (calle o plaza) y, desde ese punto, la
persona encargada de hacer las encuestas contará 10 plantas de los edificios,
no bloques de viviendas. Una vez que ha llegado al piso que le corresponde,
www.fragua.es

puede ser que en esa planta se encuentre, por ejemplo, con cuatro viviendas.
De nuevo, el ordenador hará un sorteo aleatorio y decidirá a qué vivienda le
corresponde formar parte de la muestra, ya que el CAPI tiene incorporado un
sistema de sorteo que selecciona a la vivienda y, posteriormente, a la persona,
que tiene que formar parte del estudio. Una vez en la vivienda, se introducen
una vez más en el ordenador el número de personas mayores de 14 años que
viven en la misma, y mediante sorteo, el ordenador decidirá a quién se le
realiza la encuesta. Si hay que sustituir a una persona se elige del mismo sexo,
intervalo de edad y categoría socioeconómica (Berganza y García, 2005:80).

Cuadro 8.6. Tamaño muestral EGM 2012

EGM Ampliación Ampliación


Medio Total Entrevistas
Multimedia monomedia Cataluña
79.100 (EGM Radio
12.100 XXI)
Radio 30.000 37.000 telefónicas
telefónicas 22.662 (EGM Radio
Catalunya)
Prensa 30.000 45.000 telefónicas --- 75.000 EGM Prensa
Revistas 30.000 20.000 personales --- 50.000 EGM Revistas
43.000 EGM
Televisión 30.000 13.000 telefónicas ---
Televisión
Fuente: www.aimc.es. Elaboración propia

251
Antonio Lucas y Alejandro Noboa (eds.)

El EGM ofrece los datos tanto de forma impresa como para ordenador
y los dispone en forma de tablas ya elaboradas o preparadas para su análisis
mediante el programa informático Tom-Micro. Éste está especialmente
diseñado para la planificación de medios. Los resultados, además, se facilitan
por olas, presentando años móviles que permiten disminuir el error estadístico
y disponer de datos actualizados en períodos anuales (http://www.aimc.es). El
año móvil hace referencia a las tres últimas oleadas aportadas por el EGM y se
utiliza, especialmente, en prensa.
El Estudio General de Medios está pensado sobre todo para los medios
de difusión, anunciantes, agencias de publicidad y centrales de compra de
medios. Los medios utilizan los datos que les facilita el EGM para realizar
www.fragua.es

los cambios en su programación, analizar a la competencia, establecer tarifas


publicitarias y elaborar estrategias de posicionamiento, principalmente
(Fernández Nogales, 1997: 188). Por su parte, las empresas anunciantes
obtienen mediante estos datos información sobre los y las consumidores/
as, volumen de mercado, determinación de perfiles (“targets”) de producto
y pueden analizar el resultado de sus campañas publicitarias en relación con
el consumo de sus productos y buscar nuevas oportunidades (Fernández
Nogales, 1997: 187). Las agencias publicitarias y centrales de compra
de medios se sirven de esta información de forma similar a las empresas
anunciantes.
Otras fuentes de datos sobre comportamiento mediático social: la
Oficina de Justificación de la Difusión (O.J.D.)
También resulta de interés en este ámbito otra fuente de referencia para
la investigación como es la Oficina para la Justificación de la Difusión o más
conocida como OJD. El objetivo de la OJD (http://www.ojd.es) es facilitar
información de la difusión y distribución de las publicaciones periódicas
para uso de anunciantes, agencias de publicidad, empresas editoras y demás
personas interesadas. Para ello, controla la tirada, difusión y distribución, de
acuerdo con unas normas establecidas, de aquellas publicaciones periódicas
que voluntariamente se adscriben a la institución. En la actualidad (mayo
de 2012) controla la tirada y difusión de 359 publicaciones tanto impresas
como digitales.
Conviene mencionar una diferencia de interés entre el Estudio General
de Medios y la Oficina para la Justificación de la Difusión, y es que mientras
que el EGM centra su investigación en conocer los hábitos de consumo
multimedia de la población española (qué leen, cuánto tiempo dedican a

252
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

escuchar la radio o a ver la televisión) la OJD mide solamente la difusión


de las publicaciones periódicas. Así, poniendo un ejemplo, en una familia
de cuatro personas puede ser que solo una compre o adquiera un periódico
o una revista (en este caso, la OJD se encargaría de recoger este acto)
mientras que ese ejemplar puede ser leído por todos los integrantes de esa
unidad familiar (en el EGM se reconocería que son cuatro personas las
que han leído ese ejemplar).
El órgano de comunicación de la institución es El Boletín de la OJD,
una publicación electrónica en la que se difunden periódicamente las cifras
de difusión o distribución de las publicaciones. Recoge las actas de control,
acreditaciones de tirada y distribución de cada una de las publicaciones
www.fragua.es

controladas, así como las nuevas solicitudes de control.


La OJD realiza sus controles a través de unos procedimientos de
verificación que parten de la declaración, por parte del editor o editora
de la publicación que se audita, de las cifras de difusión obtenidas en un
periodo de tiempo. Establece también un procedimiento sancionador para
los casos de grave incumplimiento de las normas del control.

8. Panel de audimetría de Kantar Media


Las fuentes de datos sobre un medio como la televisión y su investigación
han evolucionado siguiendo básicamente las exigencias del mercado
publicitario. La televisión continúa siendo uno de los medios más eficaces
para conseguir los objetivos de ventas. A pesar del rechazo que, aparentemente
produce entre quienes ven la televisión, la publicidad en este medio ejerce en
la audiencia una influencia superior a la de otros medios de comunicación. La
combinación de imagen en movimiento, color y sonido permite expresar el
mensaje publicitario de la forma más conveniente para destacar los beneficios
del producto o servicio (González Lobo, 2008: 100). A su vez, la actitud
relajada de quien ve la televisión, es un factor que contribuye positivamente
a que este medio se siga situando a la cabeza en inversión publicitaria por
parte de las empresas.
El precio de los espacios publicitarios en televisión se establece en
función de la audiencia prevista para el momento de emisión, pronóstico
que se realiza esencialmente a partir de la audiencia obtenida en situaciones
similares anteriores. En la actualidad, existe una gran presión por parte de

253
Antonio Lucas y Alejandro Noboa (eds.)

las empresas publicitarias hacia las cadenas de televisión para precisar los
datos de la audiencia, lo que ha llevado al desarrollo de mecanismos que
contabilizan la audiencia, incluso, segundo a segundo, ante la demanda de
datos cada vez más precisos.
Así pues, la mayor preocupación de las empresas encargadas de las
mediciones ha sido cómo encontrar los datos más exactos sobre la naturaleza
sociodemográfica y el volumen de la audiencia y no indagar en un entendimiento
e interpretación de la misma. Es decir, en la medición, lo que interesa de
los telespectadores y telespectadoras es qué se es y no quién se es (Huertas
Bailén, 2002:146). Las mediciones sólo detectan lo que Vilches denomina la
recepción efectiva “lo que el público ve y el lugar que ocupan los varios géneros
www.fragua.es

de programas en el tiempo efectivamente dedicado a la televisión”(Vilches,


1993:166).
Hasta que nació el EGM en 1968, no había en España gran interés en la
medición de las audiencias. Al tiempo que el EGM daba datos de consumo
y otros comportamientos demográficos a las empresas anunciantes, TVE era
la única que realizaba algunos estudios de carácter cualitativo y cuantitativo.
En esos momentos, la televisión en España estaba considerada como el
medio más efectivo al menor coste, debido a su gran implantación en un
gran número de hogares españoles. No obstante, la primera investigación
sistemática de audiencias la realiza TVE diez años después de haber entrado
en funcionamiento. Esta situación en la que no existe ninguna organización
independiente que realice una investigación sobre el comportamiento
televisivo de la ciudadanía y que se convierta en referente como fuente
de datos secundaria, se justifica, fundamentalmente, por la situación de
monopolio que tenía TVE, la situación política en el régimen de Franco y
el sistema económico del país en ese período de tiempo. Sería la llegada de
las televisiones autonómicas al escenario televisivo español a mediados de
los 80 lo que introduciría el primer elemento de competencia para TVE.
Ello contribuyó a que empezaran a demandarse datos fiables por parte
de las empresas anunciantes y las agencias de publicidad. Por lo tanto, la
investigación de audiencias en España nació de una necesidad percibida
entre los anunciantes de determinar los niveles de audiencia, como una
forma de controlar sus inversiones en publicidad.
El interés por los audímetros o “people-meters” como herramienta
para medir las audiencias de televisión data de 1981, si bien será en 1985
cuando se abre un concurso público para asignar la administración y la

254
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

organización de dichos audímetros. Gana ECOTEL, que pertenece en un


60% a ENTEL, compañía de Telefónica y un 40% a ECO, el instituto de
investigación. En 1992 Sofres se hace con la empresa Ecotel y aparece Sofres
Audiencia de medios. Se trata de una firma francesa que actúa en España y
que en 1997 se fusiona con el grupo británico Taylor Nelson AGB. Desde
ese momento, y hasta el año 2010, será la empresa Taylor Nelson Sofres la
que se convierta en la principal fuente de datos sobre el comportamiento
televisivo de los españoles. Desde principios de 2010 opera bajo la marca
Kantar Media. (Véase http://www.infoperiodistas.info/busqueda/noticia/
resnot.jsp?idNoticia=9460 -consulta realizada el 30 de mayo de 2012-)
Kantar Media, en cuanto a la medición de audiencias televisivas en
www.fragua.es

nuestro país se refiere, registra principalmente los siguientes datos: qué


canal se está visualizando (soporte digital u otro); si se trata de video
o videojuegos; el tiempo de visión (hora y duración); qué televisor del
hogar se está utilizando; y qué miembro del hogar lo está viendo. Esta
información la reciben directamente los audímetros personales instalados
en los hogares previamente elegidos para el muestreo.
En Estados Unidos y Canadá, la principal fuente de datos sobre el
comportamiento televisivo de sus ciudadanos es Nielsen. Fundada en 1923
por Arthur C. Nielsen, fue la primera que puso en marcha el audímetro
como herramienta para investigar cuantitativamente las audiencias
de televisión. En Iberoamérica, en lo que a medición de audiencias se
refiere, resulta obligado hablar de IBOPE. Creado en 1942 en Brasil, es
un importante instituto de estudios de mercado y desde 1988 se extiende
por todo el continente (Argentina, Chile, Colombia, Costa Rica, Ecuador,
México, Panamá, Paraguay, Perú, Uruguay, Estados Unidos y Venezuela).
Según Santiago y González (2011), España tiene el sexto panel de
carácter nacional más grande, teniendo por delante a países como Estados
Unidos en primer lugar, seguido de India, Alemania, Italia y Gran Bretaña.
En el Cuadro 8.7 se pueden ver algunos datos adicionales sobre las fuentes
de datos de audiencias televisivas internacionales.

255
Antonio Lucas y Alejandro Noboa (eds.)

Cuadro 8.7. Datos sobre la bases de datos internacionales de audiencias

1. En Estados Unidos hay un panel en los 25 mercados más importantes (15.400)


2. En India el panel de 8.000 hogares mide 160 ciudades de más de 100.000
habitantes. Hay otro panel más de 6.000 hogares
3. En China hay 16 paneles provinciales (11.000) y 55 en ciudades (11.000)
4. En Canadá hay cuatro paneles locales más de PM (1.750) y otro local de PPM
(530)
5. En Australia el panel representa cinco áreas metropolitanas; hay dos paneles
.más de regiones (2.015) y de televisión de pago (1.200)
6. Corea del Sur mide únicamente nueve ciudades
www.fragua.es

7. Indonesia mide únicamente diez ciudades


8. Filipinas mide únicamente las áreas urbanas más grandes
9. Brasil sólo mide 13 mercados
10. Japón mide con PM Osaka, Nagoya y Tokio (600 en cada ciudad)
Fuente: Santiago y González, 2011

Metodología de Kantar Media. Universo y muestra.


El universo de Kantar Media lo constituyen los hogares con televisión.
Se consideran hogares, a efectos de la muestra de audimetría, a todo grupo
de personas que habitualmente viven juntas y se benefician de gastos
comunes de alimentación, mantenimiento, etc. La condición indispensable
y lógica para que un hogar forme parte de una muestra es que debe poseer
al menos un televisor.
Dentro del hogar se analiza el consumo de las personas mayores
de cuatro años. Se describen tres tipos de personas según el papel que
desempeñan: “ama/o de casa”, que es la persona responsable de las compras
y las tareas de la casa; sustentador/a general (cabeza de familia), que es
la persona del hogar que aporta los ingresos principales al mismo; y los
invitados e invitadas, que serán aquellas personas de más de cuatro años que
no forman parte del hogar de la muestra pero que ven la televisión en él.
La muestra empleada es fija (a ello se le llama estudio panel), lo que
se considera un importante progreso. El método de panel permite estudios
longitudinales (a lo largo del tiempo) sobre un mismo grupo de personas

256
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

durante un largo período, lo cual garantiza una mejor visión de la evolución.


A lo largo de los años, el tamaño de las muestras se ha ido ampliando. Por
ejemplo, en 1990, el panel audimétrico español de Sofres estaba formado por
1.255 hogares y en 2004 la cifra alcanza los 3.105 hogares, lo que incluye a
un total de unas 10.173 personas. Desde el año 2009, el panel de hogares se
incrementó hasta los 4.500, cifran que se mantiene en la actualidad.
En estos hogares se ha colocado previamente un aparato de televisión
con un mando que posee un botón que se asigna a cada miembro de la familia
(a las personas de 4 años o más) y a las posibles visitas, el cual debe apretarse
cuando se comienza la emisión. A todo este entramado tecnológico se le
denomina audímetro, que si bien inicialmente se aplicaba a la radio, desde
www.fragua.es

1950 se emplea para la televisión. Entre sus avances más destacados está el
que ha permitido el paso del audímetro-hogar, al audímetro-individual. Este
hecho es el que ha posibilitado saber cuántas personas se encuentran frente
a la pantalla y de qué persona o personas se trata. Con anterioridad sólo se
tenía constancia del funcionamiento del televisor en la vivienda (Berganza y
García, 2005: 84)
Cada cuatro años se cambia toda la muestra mientras que cada año
cambian algunos miembros de la muestra (bien por baja voluntaria del o la
panelista o por baja obligada porque no ha habido una adecuada colaboración
o porque se necesita reajustar la muestra). Las razones de las bajas son claras: la
colaboración por parte de los hogares resulta cansada y es necesaria la rotación.
Además, se establece la condición de que la persona con un audímetro en la
casa no debe identificarse públicamente. Kantar Media ofrece una serie de
puntos canjeables por regalos, siguiendo una política de incentivos más que
de pagos.
Algunas voces críticas consideran que el tamaño de las muestras
y el número de variables que se emplean para segmentar las audiencias
continúan siendo muy reducidos, sobre todo si tenemos en cuenta el
uso que se da a la información que se obtiene, es decir, que sirve para
justificar la programación a partir de los gustos que se reflejan, ya que
se consideran representativos del universo investigado. Hay que decir
igualmente que, atendiendo a los parámetros estadísticos, las muestras son
suficientemente representativas de la población que estudia. De hecho,
superan las recomendaciones mínimas propuestas por la Unión Europea
de Radiodifusión (UER) y suponen bajos índices de error muestral y
elevados niveles de confianza.

257
Antonio Lucas y Alejandro Noboa (eds.)

La Asociación para la Investigación de los Medios de Comunicación


(AIMC), de la que hemos hablado con anterioridad, desarrolla también
una auditoría técnica permanente sobre el sistema de audimetría de Kantar
Media. Desde la AIMC se realizan distintas comprobaciones de todo el
proceso de medición de la audiencia de televisión: representatividad del
panel, corrección de los procedimientos y programas utilizados, inspección
estadística de la información de detalle, funcionamiento de los audímetros,
cálculo de las estimaciones de audiencia, etc. Cada año publica un informe
con los resultados de la supervisión, auditoría y control.
www.fragua.es

9. Ventajas e inconvenientes del uso de fuentes estadísticas


Para terminar, ciertamente de interés para el tema de estudio la
aproximación que hace Cea d’Ancona (1996:232-234) a algunas de las
ventajas e inconvenientes del uso de fuentes documentales y estadísticas.
Para comenzar, se recomienda su uso en los siguientes casos:
1. Cuando se desea información sobre un acontecimiento pasado y ésta es
difícil de obtener
2. Cuando se diseña una investigación primaria. La revisión bibliográfica
ayuda a formular el problema, plantear las hipótesis, acotar la población a
analizar y seleccionar la metodología más conveniente. Es decir, la utilización
de bases de datos o fuentes de datos secundarias es recomendable a lo largo de
todo el proceso de investigación primaria
3. Cuando se dispone de recursos (económicos, materiales y/o
humanos) limitados
4. Cuando se precisa una visión general de un fenómeno social
concreto; cuando se desea realizar estudios comparativos (nacionales
o internacionales) y de tendencias. Ello exige que se hayan seguido los
mismos criterios en la obtención de información. De hecho, como cita la
autora siguiendo a Stewart, es relativamente frecuente utilizar prestados
cuestionarios o preguntas (en el caso de encuestas) o códigos o sistemas
de codificación (cuando se realiza análisis de contenido o del discurso) de
trabajos ya existentes. Cuando se hace es costumbre citar la fuente, ya que
en caso contrario, podría ser considerado como plagio

258
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

5. Para los diseños muestrales, al proporcionar los datos censales


características de la población de interés. Esta información es importante
para adecuar la muestra a la población y conseguir mayor representatividad
6. Para diseños cuasi-experimentales, cuando se comprueban los
efectos de intervenciones o tratamientos concretos antes y después de su
aplicación
7. En cualquier investigación en la que se utilicen varias metodologías,
como complemento de la información obtenida mediante otras estrategias
de investigación
www.fragua.es

Por otra parte, como inconvenientes principales, Cea D’Ancona cita


los siguientes:
1. Antigüedad de los datos que se ofrecen (a veces transcurre un largo
período de tiempo desde que la información se recoge hasta que se publica).
De hecho, es uno de los principales inconvenientes que están teniendo las
revistas científicas en este momento. Desde que el investigador o investigadora
realiza su estudio y consigue publicarlo en una revista científica de impacto,
pueden haber transcurrido, en ocasiones, más de dos años.
2. Dificultades para evaluar la calidad de los datos secundarios. No
siempre se tiene información sobre errores muestrales, errores de medición
(operacionalización de conceptos e interpretación) y de obtención y análisis
de los datos. De ahí la importancia de conocer las especificaciones técnicas
del instrumento de medición y de contar con él.
3. Las fuentes secundarias pueden reunir información sólo de algunas
variables que quien investiga precise conocer. Puede ocurrir también que
su medición no coincida con los objetivos de la investigación, o pueden no
estar desagregados para el segmento de población específico que se necesita
en el estudio
4. Los conceptos también pueden cambiar de significado a lo largo
del tiempo, lo cual dificulta su comparación con los reunidos en distintas
fechas. Además, los conceptos pueden haberse medido de distinta forma
en diferentes fuentes de datos secundarios.
Como señalan Berganza y de Miguel (2012: 341), existen algunos tipos
de errores que no pertenecen propiamente a los datos estadísticos o a las
herramientas de recogida de información, sino a su difusión y publicación

259
Antonio Lucas y Alejandro Noboa (eds.)

en informes, investigaciones o en los propios medios de comunicación y/o


difusión. Así, por ejemplo, suele ocurrir que al no aparecer en estos medios
el informe completo de la encuesta (por problemas de espacio o de tiempo).
De esta forma, la publicación de los datos se presta en muchas ocasiones a
una interpretación sesgada (Monzón, 1990:184-185).
Esta publicación parcial de los resultados, por tanto, se traduce en
errores que pueden tener distintas causas:
1. La falta de contextualización. Esto se produce frecuentemente
cuando no se hace referencia al objetivo general de la encuesta, a la fecha
del trabajo de campo, al tamaño de la muestra, a los errores muestrales o a
www.fragua.es

las condiciones científicas en que ha sido efectuada.


2. La postura del o la periodista o del medio de comunicación.
Cualquiera de estos agentes periodísticos puede tener una posición
ideológica que le empuje a no publicar todos los datos, silenciar algunos
importantes, conceder demasiada relevancia a otros o desviar la orientación
de la encuesta hacia intereses particulares o personales.
3. No tener en cuenta los NS (no sabe) y NC (no contesta), a pesar
de que representen porcentajes de respuesta elevados. Este es uno de los
fallos más comunes que tienen lugar en los medios de comunicación y
en los informes estadísticos. El aumento de este tipo de respuestas en las
encuestas les ha llevado en muchas ocasiones a silenciarlas, o bien a forzar
la interpretación de los porcentajes de las otras alternativas de respuestas
y sacar conclusiones que no se podrían extraer en ningún caso de dichos
resultados.

Bibliografía
Berganza, M.R.; De Miguel, R. (2012). Opinión Pública. Madrid:
Centro de Estudios Financieros.
Berganza, M.R.; García Galera, .M.C. (2005). Investigar en
Comunicación. Guía práctica de métodos y técnicas de investigación social en
comunicación. Madrid: McGraw Hill.
Cea D’ancona, Mª Ángeles (1996). Metodología cuantitativa. Estrategias
y técnicas de investigación social. Madrid. Síntesis Sociología.

260
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

De Pablo, A. (2001): “La medición de audiencias ante el reto digital”,


en La nueva era de la televisión. Academia de las Ciencias y las Artes de
Televisión. Madrid, pp. 188-191.
Fernández Nogales, A. (1997). Investigación de mercados: planificación
de información. Madrid. Civitas.
Fuentes Pujol, M.E. (ed.) (1995). Manual de documentación
periodística, Madrid. Síntesis.
Glass, Gene, McGraw, Barry y SMITH, Mary Lee (1987). Meta-
analysis in social research. Beverly Hills. Sage.
www.fragua.es

González Lobo, M. (2008). Manual de planificación de medios: todo


lo que hay que saber para planificar correctamente los medios. ESIC.
Madrid.
Hakim, C. (1994). Research design: strategies and choices in the design of
social research. Londres: Routledge.
Huertas Bailén, A. (2002). La audiencia investigada. Gedisa. Barcelona.
Montaña Lacambra, R. (2005). “Fuentes estadísticas y bibliotecas:
Estado de la cuestión”, BID, Textos Universitaris de Biblioteconomia i
Documentació, 15, diciembre de 2005. Disponible en http://www.ub.edu/
bid/15monta2.htm#a51 (fecha de consulta, 28 de mayo de 2012).
Rey del Castillo, P. (2004): “Nota metodológica sobre los indicadores
del Barómetro del CIS”. Disponible en http://www.cis.es/File/ViewFile.
aspx?FileId=2644 (Consulta realizada el 11/12/2004).
Santana, F.; Pérez-Luque, María José (1993). “Superando barreras de
dispersión documental en investigación”, en Comunicación y Sociedad, 1
y 2, pp. 247-257.
Santiago, F.; González, I. (2011). “Panorama Internacional frente a
los retos de la audimetría actual”. Disponible en www.aimc.es/Panorama-
internacional-frente-a.html (Consulta realizada el 23 de marzo de 2012)
Vilches, L. (1993): La televisión. Los efectos del bien y del mal. Barcelona.
Paidós.

261
www.fragua.es
Capítulo 9

DISEÑO CUALITATIVO DE
INVESTIGACIÓN SOCIAL
www.fragua.es

Alejandro Noboa
Universidad de la República

ÍNDICE
1. Los paradigmas actuales en la investigación cualitativa
2. La investigación cualitativa empírica
3. Un ejemplo de investigación práctica
4. Tipos de diseño

263
Antonio Lucas y Alejandro Noboa (eds.)

Introducción
Una de las cuestiones más estudiadas en la Sociología, tiene que ver
como se construye el sentido de la realidad social y como esta concepción,
fue variando desde los clásicos hasta nuestros días, pertrechándose de todos
los desarrollos metodológicos y tecnológicos que la ciencia ha dado con
este fin.
Si se observa desde el principio, sin duda uno de los grandes maestros
fundadores de la sociología y dentro de ella la investigación cualitativa
fue Max Weber. Este autor incorporó dos conceptos que dan cimientos
a esta perspectiva, la idea de verstehen y el concepto de tipo ideal. Ambos
www.fragua.es

enmarcados dentro de la gran meta que significa encontrar el sentido de las


acciones de los actores.
La verstehen, operación fundamental para la construcción del sentido de
la acción individual, parte de la base que desde la interioridad del observador
y teniendo en cuenta la exterioridad de las acciones del actor, es posible
construir el sentido, o mejor los motivos, por los cuales ese actor produce
una determinada acción. En todos los casos se parte del supuesto de que es
imposible para el observador (científico) descubrir las causas que dan lugar
a la acción individual. Ante esta imposibilidad lo que queda es reconstruir
el sentido partiendo de la racionalidad contextualizada del observador y sin
dejar de lado las observaciones que se puedan hacer del comportamiento del
actor.
“Debe entenderse por sociología: una ciencia que pretende entender,
interpretándola, la acción social para de esa manera explicarla causalmente en su
desarrollo y sus efectos” (Weber, 1969:5).
Lo que el observador históricamente condicionado, va a realizar
cuando opera mediante la verstehen, es atribuir a las acciones observadas
del actor, un sentido en función de los motivos que a partir de una
racionalidad reconstruida por el observador, él pueda estar esgrimiendo.
Se dice históricamente condicionado, porque la perspectiva que produce
la sociología está condicionada por el contexto histórico y social de cada
época, tanto el comportamiento del actor como el conocimiento que crea
el observador, están sometidos a un tiempo histórico.
Weber, refiere al sentido de varias formas: el sentido mentado,
mentado por quién, por el actor, es decir, el existente de hecho en un

264
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

caso históricamente dado; el sentido calculado, como promedio en una


determinada masa de casos (esto no es posible para las ciencias humanas);
y el sentido construido científicamente en un tipo ideal con actores de ese
carácter (ideal).
Sin duda que la posición metodológica del autor abre el camino a la
investigación cualitativa, en la medida de que sólo es posible interpretar la
acción social, asumiendo que interpretar significa darle sentido, buscar sus
motivos, mediante la construcción de tipos ideales racionales con arreglo
a fines y luego detectar las variaciones debidas al efecto de los afectos, de
las emociones.
www.fragua.es

1. Los paradigmas actuales en la investigación cualitativa


La idea de paradigma está tomada de Thomas Kuhn, quién en su
libro “La estructura de las revoluciones científicas” (Kuhn, T. S.; 1965: 13),
define: “Considero a éstos (paradigmas) como realizaciones científicas
universalmente reconocidas que, durante cierto tiempo, proporcionan
modelos de problemas y soluciones a una comunidad científica.”
En otras palabras, son grandes cosmovisiones más o menos articuladas
lógicamente, que posibilitan observar y transformar el mundo desde
una perspectiva. Kuhn, nos habla de que los paradigmas proporcionan
conceptos, explicaciones, herramientas, etc., son las gafas con las que se
mira el mundo.
De esta manera, se ha preferido clasificar los diferentes enfoques que
existen sobre la investigación cualitativa, en tres grandes paradigmas: el
postpositivista, el interpretativo y el sociocrítico o también conocido como
transformativo.
El postpositivismo
Destronado el positivismo como desideratum de la razón y de la
verdad objetiva, se alza una nueva versión más matizada denominada
postpositivismo. El descubrimiento de las leyes generales causales
verdaderas, deja lugar a la probabilidad, a la provisoriedad del conocimiento
científico. El criterio de contrastación deja de ser la verificabilidad y pasa
a ser la falsabilidad. El apego a las técnicas estadísticas se mantiene, pero
con la convicción de que no son el único modo de conocer, aunque sí el

265
Antonio Lucas y Alejandro Noboa (eds.)

más importante. Ya no se sostiene la unicidad del método, aunque si la


necesidad de un proceso explícito de acercamiento a la realidad de las cosas.
No se renuncia ni a la precisión de la medida, ni a la formalización
de las relaciones encontradas, solamente se las matiza a un contexto
social determinado. Sin duda, que esta tradición permanece alejada
de la perspectiva cualitativa, reduciendo su accionar a la realización de
estudios exploratorios. No se puede ni validar, ni construir teorías con la
investigación cualitativa, solamente es posible concretar exploraciones que
luego habiliten estudios que permitan generalizar sus conclusiones, y esto
es en función de niveles de confianza y márgenes de error.
www.fragua.es

El paradigma interpretativo
Sociofenomenología
Concebida por Alfred Schutz, quién se inspiró en Husserl, publica su obra
principal en 1932. La preocupación principal de los sociofenomenólogos está
centrada en el modo en que los actores crean y construyen la realidad social,
realidad social del mundo de la vida cotidiana. Ahora bien, esto lo hacen
desde la conciencia y no en relación a una realidad empírica. La propuesta es
priorizar formas de conocimientos no empíricos, en el entendido de que es la
conciencia la que confiere significado a los objetos y que las personas actúan
en consecuencia.
La ciencia (no la ciencia positiva) es una entre muchas otras formas de
conocer, debe describir el mundo y ocuparse de la construcción de modelos
teóricos y conceptuales de ese mundo. Incluso más, el mundo a estudiar, es
el mundo de la vida cotidiana. Los actores operan dentro de los significados
otorgados por el mundo de la vida, en cambio al científico (positivo) se le
exige separarse de sus propias situaciones biográficas, realizar su actividad
esterilizado de las posibles influencias humanas.
¿Cuál es el método propuesto por los sociofenomenólogos? Recuperan
de Weber la construcción de tipos ideales, esa es su propuesta y en ese sentido
abogan por la elaboración de tipificaciones y de recetas. En tal sentido, las
tipificaciones son los tipos ideales que se construyen para conceptualizar un
tipo personal, se refiere a las personas. Mientras que, las recetas tienen que
ver con situaciones o acciones que se producen en la vida cotidiana.

266
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

La construcción de tipos ideales en la perspectiva de esta escuela no es


arbitraria, exige el cumplimiento de una serie de criterios:
a. relevancia, que sea relevante para el mundo que se está estudiando;
b. adecuación, sentido para los propios actores, es decir estos deben
identificarse con la construcción teórica, no debe generar extrañamiento;
c. coherencia lógica, claridad y nitidez, el tipo ideal no puede ser
contradictorio en sí mismo;
d. compatibilidad, la construcción que se efectúe debe ser compatible
con el conocimiento acumulado hasta el momento, exigiría una fuerte
www.fragua.es

fundamentación, un constructo que contradijera lo conocido;


e. interpretación subjetiva, el tipo ideal debe estar de acuerdo con las
significaciones de los actores del mundo de la vida.
En síntesis, el trabajo de los investigadores partidarios de la
sociofenomenología, es construir un discurso a partir de los discursos
que cotidianamente construyen los actores sociales, y en ese sentido, es
una construcción de segundo orden. Esta tarea, es perfectamente posible
extrayendo los aspectos típicos de la situación cotidiana.
Otro aspecto no menos importante de la teorización de Schutz, es
el requisito de intersubjetividad del conocimiento que se construye,
y este es intersubjetivo en tres sentidos: reciprocidad de perspectivas,
intercambiabilidad de puntos de vista, origen y distribución social del
conocimiento. Esto en el entendido de que son las conciencias que se
comprenden mutuamente y no las interacciones entre los individuos.
Interaccionismo simbólico
A partir de una relectura de George H. Mead (1934), Charles Horton
Cooley (1902) de Robert Park (1915) entre otros, es que Herbert Blumer
(1969) va a fundar una nueva corriente teórica de gran influencia en la
investigación cualitativa: el interaccionismo simbólico.
Su preocupación central estuvo en la influencia que produce en los
comportamientos de los hombres el significado que estos otorgan al
mundo que los rodea. En esta línea, el interaccionismo simbólico propone
tres premisas básicas:

267
Antonio Lucas y Alejandro Noboa (eds.)

1. las personas actúan respecto de las cosas y de las otras personas, sobre
la base de significados que estas entidades tienen para ellas. Es decir, hay
una implicación directa entre el aspecto simbólico de una cosa o persona y
la acción que se produce.
2. los significados son productos sociales que se crean en la interacción
social. No hay una significación dada o natural de las cosas, más bien por
el contrario, el significado lo da la interacción social, o sea los actores en su
desempeño cotidiano.
3. los actores crean ese significado mediante un proceso de interpretación,
y este proceso pasa por dos momentos: uno, es que el actor se indica a sí
www.fragua.es

mismo cuáles son las cosas sobre las que actúa; y dos, en esa comunicación
consigo mismo, el actor interpreta manipulando los significados, en función
de la situación en que está y de la dirección de su acción.
La hipótesis de trabajo creadora según Blumer, es la propuesta de George
Mead, que distingue la interacción simbólica de la interacción no simbólica.
Sea esta cuando emplea gestos o cuando emplea símbolos significantes. Los
gestos según Mead atienden a una respuesta sin interpretación, en tanto en
el caso de la interacción simbólica, esta está presente. O sea, hay una acción
pero también una interpretación de esa acción que motiva una respuesta,
dando lugar a la interacción social. La respuesta no es automática sino que
responde a los significados que esa acción tiene para el actor, y esta no
es cuestión objetiva sino subjetiva del actor. Además, para que se dé la
interacción, las personas tienen que posicionarse en la situación en la que
está el interlocutor, para poder captar el sentido que él le está dando a su
acción, y así permitir el entendimiento.
Etnometodología
“La Etnometodología es la búsqueda empírica de los métodos empleados
por los individuos para dar sentido, al mismo tiempo, realizar sus acciones
de todos los días: comunicarse, tomar decisiones, razonar. Para todos los
etnometodólogos, la Sociología será, pues, el estudio de estas actividades,
ya sean triviales o científicas, considerando que la propia Sociología debe
ser entendida como una actividad práctica” (COULON, A. 1987: 32).
Esta corriente, a diferencia de la sociofenomenología, va a producir un
sinnúmero de trabajos empíricos. Su fundador, Harold Garfinkel (Studies
in ethnometodology, 1968), se preocupa por estudiar los modos de cómo

268
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

la gente organiza el conocimiento que tiene sobre los cursos de acción


normales, de sus asuntos habituales y de los escenarios acostumbrados.
Toda su producción va a estar orientada a poner en evidencia cuales
son las reglas que rigen la vida cotidiana, aspecto que comparten con la
fenomenología, pero estos, las buscan generando situaciones que rompen
con esas reglas. Han producido ingentes cantidades de experimentos de
ruptura, aquellos que mediante la provocación del investigador dejan en
evidencia los marcos normativos que rigen la vida cotidiana. Su objetivo,
es estudiar las prácticas y los métodos normales que las personas ponen
en juego permanentemente, y que dan estabilidad y continuidad a la vida
cotidiana.
www.fragua.es

El carácter obvio y natural del mundo social, es el producto de las prácticas


sociales (socializadas) mediante la educación, en ese sentido forman parte de
las cosas que todos saben, y para conocerlas, a los etnometodólogos no se le
ocurrió mejor cosa que romperlas experimentalmente, generando situaciones
problemáticas y extrañas para hacer emerger los supuestos que todos manejan en
la vida social.
“Me refiero a las prácticas que realizan las partes dentro de los escenarios
en los que obstinadamente dependen de habilidades y conocimientos que dan
por sentados y reconocen, y al conocimiento y al derecho o competencia que
tienen de realizar el trabajo necesario para esos logros. Por último también
me refiero a que el hecho mismo de que den por sentadas esas competencias
proporciona a las partes escenarios distintivos y características particulares y, por
supuesto, les aporta también recursos, problemas y proyectos” (GARFINKEL,
H.; 2006:9) Meridianamente clara, esta cita de Garfinkel describe el objeto
de la sociología para los etnometodólogos.
El paradigma socio-crítico
El análisis de las posturas metodológicas de la Escuela de Frankfurt, y
en especial la adoptada por Jürgen Habermas, no resulta fácil, especialmente
y en el entendido de que estos autores han desarrollado su pensamiento más
en el campo teórico, y en algunos casos filosóficos.
Una de las obras representativas de la investigación de esta escuela,
es “La personalidad autoritaria” de Adorno y Horkheimer. Es allí donde
su propuesta, más se ha orientado hacia el campo empírico, logrando
un producto excepcional y sellando el precepto de que la ciencia social
se construye en esos dos ámbitos: el teórico y el empírico. En cuanto a

269
Antonio Lucas y Alejandro Noboa (eds.)

Habermas, su reflexión teórico-metodológica está plasmada en varios


trabajos, donde se rescata particularmente la “Lógica de las ciencias
sociales”. La iracunda crítica al positivismo, especialmente en lo que hace
a la incompetencia de la Ciencia (naturales) para juzgar sobre los fines
que persigue, alcanza y deja al desnudo, sin argumentos válidos, a dicha
tradición.
La tan manida objetividad y neutralidad de la Ciencia, cae bajo la
artillería demoledora de los escritos habermasianos, centrando su mira en
las implicaciones éticas que tiene todo trabajo científico, alejándolo de
la neutralidad y de la objetividad reivindicada por los positivistas. En ese
sentido, el positivismo se descubre como aparato teórico de dominación, que
www.fragua.es

bajo su supuesta objetividad y neutralidad de la técnica, sólo va a esconder


un sistema de dominación que oprime y explota a los sujetos observados,
ahogando y manipulando sus conciencias y sus intereses.
En tal sentido, la Ciencia no deja de ser ideología e ideología de la
sociedad capitalista, que pretende esconder la estructura de dominación bajo
el nombre de la neutralidad y de la objetividad. “El proceso de investigación
organizado por los sujetos pertenece, a través de los actos de conocimiento, al
contexto objetivo que se busca conocer” (Habermas; 1990: 22).
En otras palabras, no se puede hacer ciencia social y dejar de pertenecer
al mundo de lo social del cual se es parte, o sea, no se puede obviar la forma de
pensar, la forma de sentir, las aspiraciones, etc. En tanto sujeto cognoscente,
es imposible abandonar las posiciones sobre el “objeto” del cual se es parte,
e igualmente no es posible dejar de lado los principios respecto a un sistema
que explota y aliena. Por tanto, no se puede dejar aparte los propósitos que
se persiguen con el trabajo de investigación, que no pueden ser otros que
aquellos iluminados por la ética del cambio social, o sea, la liberación de los
hombres sojuzgados por el sistema de dominación capitalista.
La realidad no está “dada”, sino que es construida y transformada por
la acción humana. La ética no está ajena al conocimiento científico, sino
que debe formar parte de él. La objetividad no es una prueba empírica
sobre el objeto sino que es un acuerdo de puntos de vista fundamentado
en un argumento discursivo, es decir, un discurso que explica la realidad
y no a la inversa; que la realidad posibilite el discurso, como sostienen los
positivistas.

270
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

La Ciencia como actividad humana, no puede dejar de lado los


aspectos éticos que bajo su falsa neutralidad y objetividad deja ocultos.
La Ciencia sólo puede ser una herramienta de cambio social, si adopta la
acción comunicativa, “racionalidad dada por la necesidad de entendimiento
entre sujetos capaces de lenguaje y acción. Acción que desvela los argumentos
ideológicos de los discursos de dominación volviéndolos transparentes y posibles
de ser comprendidos en libertad”. La acción comunicativa es un proceso
cooperativo de entendimiento, claro está si dos personas están de acuerdo sobre
algo eso no significa que ello es verdad” (Habermas; 1990: 74). Introduce
también, la discusión sobre los fines que persigue: “Las referencias valorativas
son metodológicamente inevitables y sin embargo (para el positivismo) no
vinculantes objetivamente. Estamos, pues (si aceptamos tal cosa), obligados
www.fragua.es

a hacer explícita la dependencia de nuestros enunciados descriptivos respecto


de nuestros presupuestos de contenido normativo (necesariamente teóricos y
valorativos)” (Habermas; 1990: 74).

2. La investigación cualitativa empírica


Las investigaciones más notables a lo largo de la historia
Taylor y Bogdan están de acuerdo en afirmar que el estudio de Frederick
LePlay de 1855 sobre familias y comunidades europeas, constituye una de
las primeras piezas auténticas de investigación cualitativa. Posteriormente,
los trabajos de Franz Boas (1911) y Malinowski (1932), introducen en el
campo antropológico la rigurosidad científica.
En la sociología, la investigación cualitativa toma relevancia en los
estudios realizados en la Universidad de Chicago a partir de 1910, siendo
uno de los más conocidos exponentes: El campesino polaco en Europa y en
América, de Thomas y Znaniecki (1920).
Luego de un declive, debido al florecimiento de los métodos cuantitativos
(Universidad de Columbia con Paul Lazarsfeld) y de la gran teoría de Talcott
Parsons en los años 40 y 50, el desarrollo de la investigación cualitativa va a
resurgir en la década de 1960. Especialmente, es posible resaltar los estudios
de Goffman sobre los enfermos mentales de 1959, y antes White con La
sociedad de la esquina (1955). Por último, y en particular, por el auge que ha
tomado en la actualidad los trabajos de Glasser y Strauss que datan de 1967,
y que vinculan la investigación cualitativa con la construcción de teoría local,

271
Antonio Lucas y Alejandro Noboa (eds.)

más conocida como Teoría Fundamentada. En los últimos años, los grupos
más conocidos de investigación cualitativa en lengua anglosajona se localizan
en la Universidad de California, en Los Ángeles (Glaser, Morse, Corbin, etc.),
y en habla española, la Escuela Cualitativa de Madrid.
Para ilustrar mejor la evolución del empleo de los métodos cualitativos,
Miguel Valles (VALLES, M.; 1997: 32) elabora un cuadro histórico para
el Siglo XX, tomando como base el trabajo de Denzin y Lincoln (1994):
Para terminar, Álvarez Gayou-Jurgenson describe lo que sería la
actualidad de la investigación cualitativa, donde persiste la representación del
otro, especialmente con el surgimiento de nuevas perspectivas provenientes
www.fragua.es

de grupos socialmente relegados, destacándose la estrecha vinculación entre


investigación y acción social. En otras palabras, persiste la preocupación de
verificar, a través de los procesos de investigación, la transformación de lo
social.

Cuadro 9.1. Evolución del empleo en el siglo XX

Denominación
Período Caracterización
período histórico
Inicios Siglo XX a
Tradicional Positivismo. Época del etnógrafo solitario
mitad de Siglo
Postpositivismo. Análisis cualitativo
Mediados de siglo Modernista. Edad riguroso: Boys in white (Becker et al.,
hasta años ‘70 dorada 1961) The discovery of grounded theory
(Glaser y Strauss, 1967)
Interpretativismo. Geertz (1973, 1983
1970 a años ‘90 Géneros desdibujados La descripción densa) Reflexividad (auto)
Marcus y Fischer (1986), Cliford (1988)
1990 a principios Descubrimiento y redescubrimiento de los
Postmoderno
Siglo XXI modos de investigar cualitativos.
Comienzos del
La generalización del uso de la perspectiva.
Siglo XXI hasta Actualidad
El énfasis en la sistematización del análisis
nuestros días
Fuente: Elaboración propia, a partir de Miguel Valles (óp. Cit.), basado en
Denzin y Lincoln (1994ª:1-2, 6-11).

272
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

Los diseños en la investigación cualitativa


Resulta tentador afirmar, que a cada una de las grandes tendencias
paradigmáticas se corresponde un tipo de diseño de investigación. Así, para
la perspectiva postpositivista, se vincula el diseño etnográfico más clásico,
en tanto, para la perspectiva interpretativa, se asocia un diseño de corte
narrativo, para el paradigma socio-crítico, un diseño de investigación-acción,
y para la perspectiva de la teoría fundamentada, un diseño emergente. Se
sabe que esto no es tan así en investigación cualitativa, que las diferencias
entre los tipos de diseño refieren a aspectos fundamentalmente didácticos,
que cuando se planifica y se lleva adelante un estudio cualitativo se apela
a todos los recursos que están al alcance y, seguramente, se van a mezclar
www.fragua.es

muchos de estos tipos de diseño en la propia práctica de la investigación.


En este trabajo, como se verá más adelante, se van a distinguir cuatro
tipos de diseños cualitativos (ya mencionados en el párrafo anterior),
con el convencimiento que habrá muchos más, quizás tantos como
investigaciones haya.
Características generales del diseño cualitativo
En principio, parece bueno comentar la razón última del diseño, es
decir ¿qué significa diseñar?, ¿para qué diseñar?, ¿cuáles son las coordena-
das del diseño?
Pensar el diseño, significa pensar la investigación anticipadamente, es
decir, imaginar y explicitar cuáles son los objetivos que se persiguen con la
realización de la investigación.
Esto se puede hacer con cierto detalle y minuciosidad, o puede
hacerse con mayor laxitud, expresando grandes orientaciones de trabajo
y de enfoque, para luego, a partir de que la investigación que se está
desarrollando, ir afinando las diferentes fases y técnicas a utilizar.
¿Qué aspectos hay que tener en cuenta para construir el diseño
cualitativo de la investigación? Lo primero, como ya se ha dicho, es
determinar la aspiración teórico-metodológica del trabajo, es decir precisar
sus objetivos o el a dónde se quiere llegar en términos de conocimiento sobre
el asunto planteado, y esto depende, fundamentalmente, de la sapiencia que
el investigador tenga sobre el tema a investigar. Esto, muchas veces viene
dado por una demanda concreta de alguna empresa, alguna institución o
individualmente, en virtud de algún requerimiento académico.

273
Antonio Lucas y Alejandro Noboa (eds.)

En segundo término, calibrar las coordenadas de tiempo y presupuesto


disponible para llevar adelante el trabajo. No es conveniente plantearse
objetivos que puedan sobrepasar los límites de tiempo y de dinero con que
se cuenta para el proyecto. Estas tres coordenadas van a definir la diferencia
entre diseño proyectado y diseño emergente, con la salvedad de que el
diseño cualitativo del investigador, en última instancia, va a ubicarse en
cualquiera de los puntos del continuum.
Diseño proyectado, es aquel que prevé con antelación, todos los pasos
y operaciones a seguir para llegar a los productos de la investigación. En
tanto, diseño emergente, es aquel donde los componentes principales del
diseño van generándose durante el proceso de investigación.
www.fragua.es

La estructuración avanzada de los tres condicionantes del diseño:


conocimiento, tiempo y dinero, van a generar un proyecto diseñado con una
importante aproximación a lo que se va a hacer, sin perjuicio que se le pueda
modificar en alguna forma. Si bien es cierto, que es muy difícil en investigación
cualitativa, prever con anterioridad todas las etapas del trabajo, ya que muchas
veces se apela a los estudios cualitativos, cuando se conoce poco del problema a
investigar, u otras veces, el propósito de la investigación es generar nueva teoría
local sobre un problema concreto.
De todas formas, en términos generales habrá una definición (mayor
o menor) del problema a investigar, un diseño del trabajo de campo y la
recogida de información, el análisis de los datos y la redacción del informe,
e incluso su publicación. Siempre bajo la regla de que la planificación será
mayormente flexible, permitiendo la modificación de la estrategia y de las
técnicas, o incluso la ampliación de las técnicas en todo momento. Valles
(1997: 77), citando a Marshall y Rossman, extracta lo siguiente: “un plan de
investigación que incluya muchos de los elementos de los planes tradicionales,
pero reserve el derecho a modificar y cambiar durante la recogida de datos”,
“la flexibilidad es crucial”.
El mismo Valles, habla de decisiones de diseño en la investigación
cualitativa para referirse más a un proceso, que a la posibilidad de fijar
con demasiada antelación los extremos del trabajo de manera inequívoca
y sin modificaciones. Vale decir, que el producto del diseño resulta de un
conjunto de decisiones justificadas que cooperan con el objetivo pensado
de la investigación.

274
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

Resulta interesante quizás, incorporar aquí, la idea de linealidad o


circularidad del proceso, de forma de abonar la explicación sobre diseño
proyectado o diseño emergente. En ese sentido, el tipo de diseño proyectado
se corresponde con la linealidad del proceso, es decir que una etapa se sucede
a la otra de la manera que está planificada en el diseño, aunque en cualitativa
se pondera la flexibilidad como se ha dicho. Las coordenadas de mucho
conocimiento, poco tiempo y poco dinero, marcan a fuego la evolución del
diseño, debiéndose prever con anticipación los pasos que se pretenden realizar
en la construcción del conocimiento. En tanto, el diseño circular representa
con mayor verosimilitud la forma de trabajo cualitativo, dejando a la orden del
investigador la posibilidad de volver a etapas anteriores, a efectos de corregir
errores o faltantes del diseño inicial. Modificar las técnicas programadas,
www.fragua.es

agregar nuevas técnicas o explorar nuevos asuntos, son las particularidades


de este tipo de diseño. En cualquier caso, se deberá tener muy presente la
reactividad de las intervenciones, a efectos de evaluar posibles influencias
sobre la población.
Además, están cruzando todo el proceso de forma transversal, las
características personales y profesionales del investigador, especialmente
su cultura teórica y su cultura general (es notable observar, como los
investigadores más preparados, además de leer materiales que tienen que
ver con la especialidad, están pendientes de lecturas literarias, y eso lo
realizan como forma de disciplinamiento).
Es posible precisar algunas características más sistematizadas del diseño
cualitativo:
a. Es flexible, si bien hay que tener algunas coordenadas de inicio del
trabajo, las mismas se pueden modificar durante la marcha; la aplicación
de nuevas técnicas, mejora de las pautas de observación, agregar otros
temas en función de lo que aportan los sujetos investigados, etc. Todas
posibilidades de reconducir el camino de la investigación.
b. Muchas veces es un mix metodológico, la estrategia cualitativa es
eso, una estrategia; por tanto, casi nunca se agota con la aplicación de una
sola técnica de observación, ya que la actitud es captar la subjetividad de
los actores sociales, y para comprender esa subjetividad, se apela a todas
las técnicas disponibles, siempre cuidando la reactividad de las mismas,
procurando que las menos reactivas vayan primero y las más reactivas
después, a efectos de no alterar excesivamente la situación observada.

275
Antonio Lucas y Alejandro Noboa (eds.)

c. Es holista, busca abarcar la totalidad del fenómeno, es decir, todas sus


manifestaciones y además, hacerlo en profundidad, de ahí la necesidad de
mezclar técnicas, siempre teniendo como objetivo, desentrañar el sentido
del fenómeno.
d. Comprende el fenómeno y su contexto, toda interpretación es un
viaje de ida y vuelta del centro del fenómeno y el contexto socio-histórico
que lo genera, esa es la forma de construir interpretaciones solventes y con
sentido.
e. Exige esfuerzo personal del investigador, implicando a éste, ya
que no es posible hacer investigación cualitativa sin hacer inmersión en
www.fragua.es

el campo estudiado. En ese sentido, compromete al investigador en su


totalidad, y quizás su preocupación principal en este estado de situación,
será el sostenimiento de la distancia del rol profesional a efecto de impedir
su conversión como nativo en la investigación.
f. Requiere de un análisis continuo de los datos, si una cosa hace al
investigador cualitativo, es su análisis constante, anota interpretaciones,
corrige pautas de observación, compara con los conceptos de la teoría, va
construyendo poco a poco el análisis, desde el momento mismo en que le
toca diseñar la investigación o sus instrumentos.
g. Exige la auto-reflexión constante del investigador, como
investigadores siempre es conveniente pensar y poner explícitos nuestros
propios prejuicios, de forma que el lector desprevenido conozca desde que
lugar se está observando el fenómeno. Nunca es una mirada neutral sino
que es recomendable poner en claro cuáles son los marcos para observar el
fenómeno.
El proceso del diseño cualitativo
Parece razonable pensar el diseño cualitativo como un proceso, donde
más que una decisión inicial que dominará todo el trayecto, resulte un
conjunto de decisiones, que den sentido a la necesidad de estudiar en
profundidad un asunto, abarcando los diferentes extremos que este
puede tener en la vida social. Es así, que resulta didáctico el planteo de
Miguel Valles, sobre los distintos tipos de decisiones que deberá adoptar el
investigador, sin olvidar que este es un proceso con cierta linealidad, pero
potencialmente circular en la medida en que las circunstancias lo ameriten.

276
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

El Planteamiento del problema cualitativamente


La metodología cualitativa responde a un enfoque holístico, de acuerdo
al cual se busca reconstruir la realidad “tal como se observa”. Hay una
realidad a descubrir, la que está constituida por personas y colectividades
que construyen significados y entran en relaciones entre ellas. Por otro
lado, la realidad social sólo puede ser conocida a través de interpretaciones
que den cuenta de los fenómenos de la realidad social, incluyendo las
interpretaciones sociales que construyen y reconstruyen permanentemente
la realidad social. Los métodos cualitativos ayudan a descubrir y precisar
las preguntas de investigación. Permiten recoger datos que no implican
mediciones numéricas, tales como las descripciones y las observaciones.
www.fragua.es

En el proceso mismo de aplicación de estos métodos se van generando las


preguntas e hipótesis, las que pueden ser el resultado fundamental de la
investigación. La flexibilidad del proceso, permite al investigador transitar
con fluidez entre los eventos (observaciones) y las categorías, a través de las
cuales poder interpretarlos.
Las investigaciones cualitativas abordan temas sobre los cuales existe
muy poca acumulación de información, y que no han sido objeto de
teorización. Se hacen cargo también de fenómenos que pueden haber sido
tratados por teorías con un importante grado de formalización, pero los
problematiza desde una nueva perspectiva: buscando precisar cómo los
sujetos experimentan, interpretan y contribuyen, o no, a la reproducción
de esos fenómenos.
El planteamiento del problema en una investigación cualitativa es
tan fundamental como en una investigación cuantitativa. El investigador
debe identificar el tema o problema a estudiar, partiendo de una pregunta
inicial, lo mejor formulada y precisada que sea posible. En el curso de
la investigación, esa formulación inicial se irá modificando, hasta llegar
en etapas incluso avanzadas de la investigación misma, a su enunciación
definitiva.
La identificación del problema en una investigación cualitativa tiende a
recurrir a preguntas que se concentran en los aspectos subjetivos o culturales,
en los significados individuales y colectivos, y en la totalidad del proceso
social involucrado. La investigación se estructura sobre la indagación de la
lógica interna de los fenómenos estudiados. En consecuencia, la orientación
del esfuerzo investigativo es el descubrimiento, en una lógica inductiva,
más que la comprobación de tipo deductiva.

277
Antonio Lucas y Alejandro Noboa (eds.)

La identificación del problema, requerirá apoyarse en una adecuada


revisión y análisis de la literatura concerniente al problema, y considerar
además toda evidencia y documentación concerniente directamente a
la realidad que va a ser estudiada. Si bien es cierto, que en investigación
cualitativa no siempre se define con precisión el problema a investigar y
las hipótesis, es conveniente esbozar una orientación general sobre lo que
se quiere investigar. Cuando se trata de investigadores en formación, es
conveniente plantearlo en forma de pregunta.
La formulación del problema, tiene que ver con la definición de las
preguntas principales de la investigación, sus orientaciones hipotéticas
fundamentales y las relaciones con los conceptos. Es fruto de una buena dosis
www.fragua.es

de lectura sobre el tema que se propone conocer, a partir de la realización


de una minuciosa búsqueda bibliográfica que sustente la pregunta de
investigación. Además, resulta interesante realizar en este mismo sentido,
la definición del problema, una entrada a campo de tipo exploratorio que
permita conocer los componentes fundamentales de la realidad a estudiar,
de esta forma se construyen algunas primeras aproximaciones, que luego
pueden funcionar como orientaciones hipotéticas en la investigación.
Las preguntas de una investigación, guían todo el proceso de investigación.
En el caso de una investigación cualitativa, se parte de una interrogante
general sobre un área de investigación. Se trate de un estudio organizacional,
cultural o de otro tipo, la investigación debe identificar lo que está ocurriendo
o lo que está siendo experimentado, más que medir cuánto existe de algo, o
que centrarse en la manera que un cambio en una cosa, produce un cambio
en otra. Es por ello, que se define lo apropiado de un estudio cualitativo. En
la medida que un estudio cualitativo avanza, la pregunta de investigación
debería ir refinándose y ser reformulada. Esta flexibilidad de la metodología
cualitativa es una característica distintiva que la contrapone a la metodología
cuantitativa.
La revisión y análisis de la literatura existente sobre el problema de
investigación es, también, crucial en la investigación cualitativa. Hay sin
embargo, diferencias concernientes a la dinámica de su realización, a su
empleo, y al momento en que se lleva a cabo. Desde la mirada cualitativa, el
examen de la literatura es vista como un importante apoyo para enriquecer
la construcción de las categorías de análisis en un proceso de diálogo con
las observaciones de la realidad durante la misma investigación. No se trata
de configurar en forma acabada, antes de la investigación, las categorías que
orientarán la investigación.

278
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

La revisión de la literatura es sostenida a lo largo de la investigación,


cuyos avances generan nuevas preguntas a la información teórica. Además,
mediante el estudio de las investigaciones publicadas, se busca disponer
de un marco general de interpretación, abierto y flexible. La investigación
cualitativa no pretende con la revisión de la literatura, confirmar y fijar el
conocimiento previo, sino disponer de una guía provisional que sustente
su propia construcción conceptual.
La documentación y observación previa sobre la realidad a estudiar,
tiene una importancia fundamental para la investigación cualitativa. Es
la fase que permite al investigador, compenetrarse de la realidad que se
intentará estudiar, y que de realizarse exitosamente, le permitirá percibir
www.fragua.es

y manejar sus claves sociales y culturales básicas, abriéndole además la


posibilidad de entrar en interacción con las personas, grupos y situaciones
objeto de su investigación.
Cuando la investigación se propone profundizar en situaciones
específicas dentro de la realidad estudiada, se requiere elaborar un mapa que
permita predefinir el conjunto de los aspectos principales que caracterizan
la realidad estudiada. El “mapeo” (de la expresión inglesa “mapping”)
permite al investigador, contar previamente con la identificación de los
actores individuales y colectivos principales, las situaciones clave que
estructuran las interacciones de esos actores, cómo ambos se articulan en
las dimensiones de tiempo y espacio.
Muestreo cualitativo
El muestreo en la investigación cualitativa es progresivo, distinguiéndolo
del muestreo en la investigación cuantitativa, y además está sujeto a la
dinámica de la propia investigación. Los participantes son ubicados
consecutivamente, dependiendo de quiénes han sido los anteriores, de
modo que la selección muestral posterior apoye la teorización que emerge
de la investigación. El muestreo termina cuando el investigador percibe
que ya no se recoge información significativa, alcanzándose un punto de
saturación, por la redundancia de la información recogida.
El muestreo cualitativo no busca llegar a establecer generalizaciones
estadísticas, sino seleccionar un número de casos con un sentido estratégico
o de propósito. El procedimiento de muestreo, puede ser determinado con
anticipación al proceso de investigación, o puede definirse gradualmente
a medida que avanza dicho proceso, incluyendo la etapa de análisis e

279
Antonio Lucas y Alejandro Noboa (eds.)

interpretación de la información. Cuando la muestra cualitativa se define


con anticipación al proceso de investigación, se recurre al criterio de muestra
de cuota, seleccionando los casos de acuerdo a los criterios identificados como
relevantes para el estudio. Eventualmente, se podría recurrir al procedimiento
de “colección completa” de los casos correspondientes al objeto específico de
estudio, lo que requiere que la cantidad de casos comprendida sea manejable.
Cuando la muestra cualitativa se define gradualmente a medida que
avanza la investigación, las restricciones prácticas tienden a cobrar gran
relevancia. De allí la importancia de adecuar la investigación a los criterios
de buenas prácticas de muestreo, dando cuenta de las características
de quienes forman parte del estudio, demostrando que la estrategia
www.fragua.es

contribuye a la búsqueda de evidencia contradictoria con las hipótesis o


ideas preconcebidas del equipo investigador, y dando honesta cuenta de la
totalidad de las operaciones realizadas.
Como se afirmó en el capítulo sobre diseño cualitativo, es posible
que haya tantos tipos de diseños como investigaciones, para el caso del
muestreo es igual, aunque se intentará conformar algunas tipologías con
fines educativos. También es cierto, que en un diseño se emplean muchas
veces varios tipos de muestreo a la vez, es decir combinándolos. En los
diseños cualitativos se utilizan muestras pequeñas no aleatorias, lo que no
significa que los investigadores cualitativos se preocupen por ellas, sino que
manejan criterios diferentes para su constitución.
¿Que implica el muestreo cualitativo? Fundamentalmente, se refiere a
adoptar un conjunto de criterios no probabilísticos para seleccionar casos
y contextos, pasibles de ser observados, como también definir tiempos de
observación y personas o situaciones.
Si bien es cierto, que no hay criterios indiscutibles para definir la cantidad
de observaciones a realizar o el número de personas a entrevistar, sí pueden
darse algunos elementos, que permitirán determinar un número razonable
de observaciones. El primero y más usado, es lo que se llama: criterio de
saturación, que incide en la producción de información. Es decir, cuando
se alcanza un nivel de producción de datos que elimina la originalidad y
mantiene la redundancia, ese es un indicador firme de que ya se realizaron
las observaciones suficientes para abarcar el fenómeno investigado.
El concepto de representatividad en la investigación cualitativa, tiene
que ver más con la presencia de todas las configuraciones subjetivas que

280
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

conforman el objeto, y no con la cantidad de personas o situaciones


observadas. Por otro lado, resulta interesante incluir en la muestra,
los perfiles socio-demográficos como componentes contextuales que
enriquecen el análisis de los materiales cualitativos.
En principio, se pueden clasificar los tipos básicos de muestreo
cualitativo (descartando aquellos que se hacen recurriendo a la probabilidad,
que son propias de los diseños cuantitativos), en tres: muestreo teorético,
muestreo bola de nieve y muestreo por conveniencia.
1. Muestreo teorético
www.fragua.es

El muestreo, pretende posibilitar generalizaciones y proposiciones


teóricas. Los nuevos casos se seleccionan por su potencial para extender o
delimitar nociones emergentes sobre la realidad estudiada. En este caso, el
investigador selecciona deliberadamente en función de las necesidades de
información. Se puede recurrir a dos variables relevantes para el problema
en estudio, una de ellas de carácter estructural (sincrónica) y la otra de
carácter temporal (diacrónica). El cruce de las dimensiones de ambas
variables dibuja una matriz, cuyas celdas clasifican los posibles casos a
seleccionar para el estudio.
Sin duda, la matriz se puede complejizar más si el investigador lo ve
conveniente, pero eso atenta con las posibilidades de detectar casos que se
ajusten a los ejes clasificatorios. En cualquier caso mantiene vigencia, a pesar
de esta prescripción canónica, el criterio de saturación de la información en
todas o cualquiera de las celdas que conforman la matriz.
2. Muestreo bola de nieve
En casos que el investigador tiene poco conocimiento del problema
a investigar y de la población estudiada, puede resultar útil, proceder
progresivamente a la construcción de la muestra. A partir de un primer
contacto, se van generando otros y así, sucesivamente ampliando el número
de observaciones. También es recomendada esta modalidad, cuando se
trata de poblaciones cerradas, en la cual la referencia a otros miembros de
la comunidad, permite ir abriendo paso a la investigación.
Este tipo de muestreo, recurre a la proximidad y familiaridad que el
entrevistador deberá ir generando en el grupo o comunidad para construir
apropiadamente la muestra, apelando a sus habilidades sociales que

281
Antonio Lucas y Alejandro Noboa (eds.)

permitan ampliar su red de relaciones y así alcanzar la saturación teórica,


criterio delimitador por excelencia de la dimensión de la muestra. Se apoya
en referencias, de los primeros participantes a otros que son sugeridos o
contactados por aquellos. Este procedimiento ayuda a los investigadores
a emplear las redes informales que, de otro modo, serían de difícil acceso
(trabajadoras sexuales, drogadictos, víctimas de violencia doméstica, etc.).
3. Muestreo por conveniencia.
Se construye la muestra, a partir de la localización estratégica que ocupe el
investigador respecto al problema a investigar. La conveniencia de recepcionar o de
estar cerca de los sujetos investigados, implica una ventaja que se puede aprovechar
www.fragua.es

en investigación cualitativa. Obviamente, que los riesgos de este tipo de muestreo


tienen que ver con el hecho de que a la posición pueden acudir solamente algunas
personas, impidiendo contar con una distribución estructural y topológica, que
abarque las diferentes tipologías de casos presentes en la población estudiada.
Se seleccionan los casos por facilidad de acceso. Sin duda que la
relación coste/beneficio es muy ventajosa en este tipo de muestreo. Los
investigadores seleccionan a quienes estarán disponibles y dispuestos a
participar, tal vez en un período de tiempo.
Otros tipos de muestreos.
Muestreo de caso típico: los investigadores deciden cuáles son las
características de los individuos “típicos”, y seleccionan la muestra para que
corresponda a las características de los casos típicos (como en los estudios
de grupos focales).
Muestreo de caso crítico: los investigadores eligen casos que creen tienen
una especial importancia por el tipo de posición que ocupan (por ejemplo,
por su lugar particular en una organización), o porque están especialmente
bien capacitados para articular una visión (por ejemplo, los portavoces de
determinado tipo de organización).
Muestreo de variación máxima: los investigadores identifican casos
con características diferentes para maximizar la diversidad de la muestra,
generalmente para obtener la más amplia gama de visiones que sea posible.
Esto se logra mejor, usando una muestra de cuotas y en forma iterativa (de
acuerdo a los análisis que se van realizando, desde los primeros análisis,
el investigador puede decidir afinar sus cuotas para investigar un grupo
específico con mayor profundidad).

282
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

Muestreo de intensidad: los investigadores extraen muestras de


las mismas características en forma reiterada. Tiende a ser empleado en
investigaciones inspiradas en los análisis fenomenológico-interpretativos.
4. Proceso del muestreo.
Hay autores (SALAMANCA y MARTÍN-CRESPO; 2007) que
hablan de proceso de muestreo, y enumeran las siguientes fases:
1. comienzo, mediante una selección por conveniencia o bola de
nieve, a efectos de seleccionar los primeros casos;
2. se ajusta la muestra en función de criterios teóricos más
www.fragua.es

focalizados, se puede optar por una selección topográfica en función de una


dimensión estructural y otra temporal;
3. se continúa hasta la saturación teórica;
4. seleccionar casos que confirman y casos que desconfirman las
hipótesis del investigador.
En todas las fases, es la información la guía del muestreo, y en función
de su producción es que se suspenden o agregan casos.

3. Un ejemplo de investigación práctica


La gestión pública local en movimiento: estudio de la experiencia de
los presupuestos participativos de Paysandú y Salto
Formulación del problema
Objetivos
1. Objetivo general: Contribuir al conocimiento de los procesos de PP
en el país, en especial los realizados en Paysandú y Salto.
2. Objetivos específicos: Describir en profundidad desde la percepción
de los ciudadanos participantes, los procesos de PP en Salto y Paysandú en
sus dimensiones organizacional, social y psicológica.

283
Antonio Lucas y Alejandro Noboa (eds.)

Relevar las representaciones sociales sobre las fortalezas y las debilidades


de los procesos de participación en el PP en Paysandú y Salto, desde la
perspectiva de los ciudadanos participantes.
Preguntas que busca responder el proyecto
1. Las dimensiones a tener en cuenta para describir las experiencias
En función de los argumentos y del enfoque que se desarrollaron
anteriormente sobre la percepción de los impactos de esta política en
particular hacen necesario el despliegue de algunas dimensiones a saber:
dimensión organizativa, la dimensión social y la dimensión psicológica o
www.fragua.es

de la personalidad de los implicados.


En este sentido las organizaciones no son fenómenos naturales sino
constructos sociales (Crozier, M. y Friedberg, 1990), entonces va a tomar
importancia en qué condiciones y dentro de que marco de restricciones es
posible la acción colectiva, en este caso los PP.
Se habla de dimensión organizacional para especificar las formas de
organización de la propuesta, las prácticas para generar las alternativas de
funcionamiento, los actores que están en juego en cada una de las instancias,
forma de participación, poder de decisión, órgano de decisión, seguimiento
y control, ámbito de participación, proporción del presupuesto y grado de
formalización, etc. (Pineda. 2005).
Dicha dimensión responde a la pregunta: ¿cuál es la percepción sobre
los mecanismos de la implementación del presupuesto participativo?
La referencia a dimensión social tiene que ver con los impactos sociales
de tal experiencia: ¿cómo percibe el impacto social de la experiencia
Presupuesto Participativo?; ¿qué características tienen los que participan?;
¿cuál es el papel asumido por las mujeres?
En tanto la dimensión psicológica o de la personalidad, se refiere más a
los procesos de aprendizaje para la democracia que dichas prácticas disparan,
la percepción de dignidad sobre el actuar y sus resultados, la percepción
acerca del ejercicio de la libertad y el desarrollo de la persona en forma
plena. Responde a la pregunta: ¿el proceso significó un aporte a sentirse
más digno como persona?, ¿en qué sentido?, ¿percibe que su participación
en la experiencia significó un crecimiento grupal o individual?, ¿en qué
aspectos?

284
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

Orientaciones hipotéticas del estudio


El carácter cualitativo que se le quiere dar a la propuesta de investigación
permite definir algunas orientaciones hipotéticas que indicarán el camino
de la indagación.
La percepción de la dimensión organizacional del PP que tengan los
actores se relaciona con la percepción de las dimensiones sociales y con
la percepción de la dimensión psicológica y viceversa. En otras palabras,
la imagen que los sujetos tengan de cómo fue instrumentado el PP y
cuan acompañados (socialmente) se sintieron se asocia a la percepción
del aprovechamiento personal de la experiencia. Asimismo el crecimiento
www.fragua.es

personal y social producto de la experiencia implicará (o no) la percepción


favorable (o no) acerca de su organización.
Los niveles y categorías que se construyen para este trabajo:
a. nivel organizacional: la percepción acerca de la estructura
organizacional o sea la visibilidad del diseño, para ello se incluyeron en las
entrevistas realizadas una serie de preguntas abiertas y semi-estructuradas
que abordaban tal temática. Igualmente se incorpora a esta dimensión el
papel de los técnicos municipales en el proceso analizado. La percepción de
las autoridades en la promoción y orientación del proceso de participación.
b. nivel social: la dimensión relaciones sociales, se observan las
categorías vinculadas a los grupos y redes que acceden a los participantes en
estos procesos de participación. El contexto socio-familiar, el protagonismo
de las mujeres, y las organizaciones de base que participan del proceso.
c. por último, el nivel de la personalidad: las percepciones acerca
de la dignidad que pueden generar o no la inclusión en estos procesos
y sus posibles límites individuales, tiempos, espacios, estrategias de
sustentabilidad.

285
Antonio Lucas y Alejandro Noboa (eds.)

Conocer las relaciones entre los diferentes niveles que se producen a


través de las percepciones de los entrevistados forma parte de los objetivos
de la investigación, donde esta mirada multinivel coopera para comprender
desde una visión compleja la propia realidad compleja que significan estos
fenómenos de participación.
Muestreo teorético previsto
La propuesta esencialmente cualitativa implica una estrategia de
investigación pero también de evaluación, ya que por un lado compromete
objetivos de largo alcance que den luz sobre los procesos de articulación
sociedad civil – Estado y por otro también aportará insumos para corregir
www.fragua.es

errores en la aplicación de las mencionadas políticas en forma más concreta.


En otro sentido recuperar la visión diferente que debe tener un estudio
cualitativo es decir cargar la responsabilidad a la duda y no a la fe que es la
tarea del aplicador de políticas. Asimismo el propósito de toda evaluación
debe estar ligado a la reforma social a la justicia social.
Este enfoque obliga a construir con el otro, negociar con él e implicarlo
en el proceso de descripción respetuoso, reflexivo y de aprendizaje conjunto.
Reconstruir la subjetividad de los implicados en relación a los programas
y sus dispositivos de actuación es lo que se persigue con este proyecto,
recuperando para la mejora de los procesos las opiniones de los involucrados.
Se realizarán 40 entrevistas a ciudadanos participantes (aquellos que
tomaron parte activa en la construcción de la política) de los procesos de
PP en el último año (2009), 20 en el departamento de Salto y 20 en el
departamento de Paysandú

Departamento Cantidad entrevistas


Paysandú 10 Hombres/Mujeres 10 Hombres/Mujeres
Salto 10 Hombres/Mujeres 10 Hombres/Mujeres
Participación 1 vez Más de una vez

286
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

4. Tipos de diseño
Las investigaciones cualitativas comparten un importante número de
supuestos. Sin embargo ellas se inspiran en diferentes enfoques específicos,
los cuales tienen sus propios énfasis, y se originan en distintas tradiciones
de investigación. Ello implica, que hay distintas “visiones del mundo”.
Los diferentes enfoques involucran también, diferentes supuestos sobre
qué tipos de información (o conocimiento) son importantes. Hay, pues,
diferentes tipos de investigación cualitativa.
Se adopta aquí la clasificación de los trabajos de investigación
cualitativa que nos ofrecen Hernández, Fernández y Baptista (2006) y
www.fragua.es

otros, que tipifican las estrategias en: diseños de teoría fundamentada,


diseños etnográficos, diseños narrativos, participativos y otros diseños.
Diseños de teoría fundamentada
La principal característica de este enfoque, propuesto por Barney Glaser
y Anselm Strauss en 1967, es el desarrollo de nueva teoría a partir de la
recolección y análisis de datos relativos a un fenómeno. Es fenomenológica
(trata de entender cómo los participantes dan sentido a sus experiencias,
sin suponer que los relatos de los mismos, se refieran a alguna realidad
verificable), pero va más allá de la fenomenología, ya que las explicaciones
que surgen, se emplean para desarrollar nuevas teorías.
Entre las técnicas de recolección de información más frecuentemente
empleadas desde este enfoque, se encuentran las entrevistas y la observación.
Son también relevantes, la revisión de la literatura y el análisis documental.
Algunas características más destacadas de este enfoque son:
Su preocupación centrada en la “emergencia”: en teoría, la investigación
debería comenzar de una situación en que se desconoce casi totalmente
el tema estudiado, de manera que todos los conceptos “emergen”
verdaderamente de los datos. Sin embargo, en realidad lo más probable es
que una investigación tenga ciertos objetivos específicos, aunque sea poco
probable que se formulen como hipótesis.
Muestreo teórico: el muestreo se basa en constructos teóricamente
relevantes. Normalmente, las condiciones de la investigación imponen
restricciones que modifican los supuestos de inicio.

287
Antonio Lucas y Alejandro Noboa (eds.)

La recolección y el análisis de información se llevan a cabo en forma


paralela: en teoría el análisis debiera ocurrir al mismo tiempo que la
recolección de información, permitiendo a los investigadores, afinar la
pregunta de investigación y los procedimientos de recolección a la luz de
los hallazgos del estudio.
Sensibilidad teórica: alude a la capacidad de reconocer lo que es
importante en la información, de modo que se le pueda asignar significado.
Este enfoque llevado al extremo, requiere no acudir a ninguna literatura
previa, asistiendo al terreno de modo completamente inocente. En la
práctica, no hay razones para no explorar y probar la teoría preexistente,
en la medida que se mantenga la sensibilidad del equipo investigador, a la
www.fragua.es

emergencia de teoría.
Este tipo de diseño -emergente por excelencia-, fue creado, como se ha
dicho, por Barney Glasser y Anselm Strauss, y tiene como objetivo principal la
búsqueda de generar una teoría sustantiva o local a partir de los datos. También
conocido como método comparativo constante, incorpora la rigurosidad
estrecha de la dialéctica datos/conceptos, de forma que las conclusiones que se
obtengan, siempre tengan una referencia en los datos producidos.
El procedimiento que es inductivo, es el que genera la comprensión
del fenómeno estudiado, a través de dos procedimientos de codificación:
abierta (el código nace de los materiales) y axial (el código es jerarquizado,
generando un esbozo de diagrama o modelo del fenómeno en función de una
categoría central). La codificación abierta, se puede hacer mediante códigos
proporcionados por la teoría del fenómeno, o generados por el investigador
a partir de su propia formación o mediante codificación “in vivo”, es decir
recuperar lo que la propia gente dice, seleccionando expresiones representativas
del discurso en análisis. La codificación axial, agrupa las piezas que produce
la codificación abierta en un modelo explicativo, genera conexiones entre
categorías y temas, promoviendo la emergencia de la teoría local o sustantiva.
El método, también conocido como comparativo constante permite,
luego de la codificación, volver a los datos para fundamentarlo, e incluso
hacer nueva entrada a campo o producción de más datos con ese objetivo.
Por último, se produce una narración que vincula las categorías y describe el
proceso del fenómeno, generando el informe.

288
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

Diagrama 1. Elaboración Andrés Nogara

Diseño etnográfico
www.fragua.es

La etnografía tiene sus antecedentes en la antropología. El término


significa “retrato de un pueblo” y es una metodología para el estudio
descriptivo de culturas y pueblos. Hay parámetros que permiten establecer
que el pueblo estudiado tiene algo en común, y que puede ser: el carácter
geográfico (una región o país), lo religioso, lo social/familiar, la experiencia
compartida. Los estudios etnográficos requieren un extensivo trabajo de
campo por parte del equipo investigador. Las técnicas de recolección de
información incluyen entrevistas formales e informales, entrevistando
a menudo a algunas personas varias veces, considerando también, la
observación participante y no-participante. La etnografía requiere una alta
dedicación de tiempo, pues demanda que el investigador destine largos
períodos al trabajo en terreno.
El investigador trata de interpretar los datos desde la perspectiva de
los participantes (enfoque fenomenológico), es decir interpretar los datos
desde la perspectiva de la población bajo estudio. Los resultados se enuncian
como si estuvieran siendo expuestos por los mismos participantes, usando
a menudo su lenguaje y terminología para describir los fenómenos.
La etnografía puede recurrir a un “estudio de caso”, el cual podría
centrarse en una o en varias personas. Una crítica que se plantea al estudio
de caso, es que no hay manera de establecer si ese caso (o esos casos)
representan otros casos, y por lo tanto no son generalizables. En realidad, el
estudio de caso no pretende ser ilustrativo de una generalidad, sino describir
lo más detalladamente posible ese caso considerado. Lo importante, es que
los investigadores que recurran a esta modalidad, den cuenta de todos los
antecedentes que permitan a otros investigadores o personas interesadas,
evaluar en qué medida las circunstancias del caso estudiado, son replicables
o son análogas a las de otros lugares o grupos.

289
Antonio Lucas y Alejandro Noboa (eds.)

La primera característica del diseño etnográfico, es que enfoca su


estudio en una comunidad o grupo, pretende describir y analizar ideas,
creencias, significados, conocimientos y prácticas, en concreto sus culturas.
Etnografía, implica descripción e interpretación profunda de un grupo
o sistema social o cultural, es de las estrategias más tradicionales de la
investigación cualitativa, heredera de la Antropología, ha tenido en los
últimos años influencias en la Sociología. Busca detectar las regularidades
que implica el fenómeno a estudio, como forma de reconstruir las estructuras
que sostienen a la comunidad o al grupo, tiene como objetivo detectar cuál
es el cemento que sostiene las interacciones duraderas que hacen posible al
grupo como entidad. El objetivo principal, es analizar los comportamientos
y patrones culturales (creencias) que permiten describir un estilo de vida a
www.fragua.es

partir de compartir una finalidad común.


La etnografía se vale de todas las herramientas de construcción de
los datos de la investigación cualitativa, observaciones, entrevistas, auto-
observación, etc., a partir de las cuáles se producen descripciones detalladas
del sitio, los miembros del grupo, sus estructuras y procesos.

Diagrama 2. Elaboración Andrés Nogara.

Diseño narrativo
Tiene como objetivo, lograr la construcción de una historia individual
o grupal, y así se suceden las sesiones de observación cuantas veces sean

290
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

necesarias para alcanzar el objetivo. No se agota en una sola sesión sino que
requiere una serie de contactos de observación o entrevista. En todos los
casos requiere una rigurosa triangulación de la información, a efectos de
conocer en profundidad la rigurosidad de las declaraciones del entrevistado.
Pueden referirse a toda la historia del individuo, una parte de ella o un
suceso concreto. En este sentido, siempre y con el objetivo de presentar
mejor la información, conviene incluir una cronología de experiencias y
hechos relatados.
Esta propuesta se centra en las narraciones/historias de las personas,
sobre sí mismas o sobre un conjunto de eventos. El énfasis no está en
la búsqueda de temas emergentes, sino en el desarrollo de una historia.
www.fragua.es

Requiere una alta dedicación de tiempo, y normalmente considera un


pequeño número de casos.

Diagrama 3. Elaboración Andrés Nogara

Diseño de investigación-acción
La investigación-acción emerge inicialmente a mediados de la década
de los 40 del siglo pasado (Kurt Lewin: “Action research and minority
problems”; Journal of Social Issues (1946) 2 (4): 34-46). Se reconocen diversas
modalidades, como la investigación acción propiamente tal, la investigación
para la acción, la investigación en la acción, la investigación participativa, la
investigación militante y la investigación acción participativa.

291
Antonio Lucas y Alejandro Noboa (eds.)

Se trata de un proceso interactivo de investigación, que combina acciones


de resolución de problemas implementadas en un contexto colaborativo con
análisis o investigaciones sobre datos, con el propósito de entender causas
subyacentes que permitan efectuar predicciones sobre el cambio personal
y organizacional. La investigación-acción se sitúa un paso más allá de la
tradicional ciencia reflexiva de expertos externos, constituyéndose como
una forma cíclica de aprendizaje que se nutre de las experiencias diarias de
trabajo, como oportunidades para obtener una comprensión más profunda
de las fuerzas sociales, políticas y físicas que dan forma a las acciones y sus
consecuencias. Es un modo de aprender más de la práctica a través del
cuestionamiento, la escucha, la observación, la acción, el análisis y la reflexión.
Su centro está en los efectos de las acciones prácticas directas del investigador
www.fragua.es

en una comunidad participante, con el propósito de mejorar el desempeño


de esa comunidad o de un área de su preocupación. Involucra la existencia
de un método sistemático y cíclico de planificación, toma de decisiones,
observación, evaluación (incluyendo la auto-evaluación), y reflexión crítica,
previa a pasar al siguiente ciclo.
Este tipo de diseño puede tener dos orientaciones: una que tiene que
ver con la resolución de problemas, donde se plantea un determinado
asunto y se busca participativamente una solución; y otra que tiene que
ver con la realización de un diagnóstico comunitario y la elaboración de
una propuesta de desarrollo local. Se trata especialmente, de los estudios
asociados a organizaciones donde se estudian las prácticas locales. Es una
modalidad que puede involucrar indagación individual o en equipo, y en
la cual se plantea resolver un problema concreto a partir de la elaboración
de una solución expresada en un plan de acción. En cuanto al liderazgo,
eventualmente lo puede ejercer el investigador o conjuntamente con uno o
varios de los miembros de la comunidad.
Cuando se trata de una propuesta de desarrollo local, el diagnóstico
inicial estudia temas sociales que constriñen las vidas de las personas o
grupos. Se enfoca en cambios para mejorar el nivel de vida y desarrollo
humano de los individuos, su proceso emancipa a los participantes y al
investigador. En ambos casos se resalta la colaboración equitativa de todo
el grupo, buscando la implicación de los participantes y la apropiación del
problema y sus soluciones.
El AFI tiene dos componentes: es fenomenológico, en cuanto trata
de entender cómo los participantes dan sentido a sus experiencias (no

292
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

supone que los relatos de los participantes aludan a realidades verificables);


reconoce que la investigación involucra un proceso de interpretación por
parte del investigador.
www.fragua.es

Diagrama 4. Elaboración Andrés Nogara


Otros diseños
Análisis Fenomenológico Interpretativo (AFI)
Busca en los estados subjetivos para tomar la perspectiva de los
sujetos, y es interpretativo, reconociendo la negociación entre investigador
e investigado para producir el relato desde la perspectiva de los sujetos,
de modo que tanto el investigador como el investigado estén “presentes”.
Las informaciones son relatos, que son codificados para producir temas
emergentes, buscar relaciones, y construir temas de orden superior. Busca
describir y entender el fenómeno desde la percepción de cada uno de los
participantes. Se basa fundamentalmente en el análisis de los discursos,
con el objetivo de reconstruir las reglas de la vida cotidiana que guían la
acción de los sujetos. Su técnica principal, es la construcción típica ideal,
basada en la intuición y la imaginación del observador, y también en los
dichos de las personas que forman parte de la situación. Se contextualiza a
partir del espacio y el tiempo, a la gente y las relaciones de la gente en su
vida cotidiana.

Bibliografía
Alonso, L.E. (1998). La mirada cualitativa en sociología. Fundamentos,
Madrid

293
Antonio Lucas y Alejandro Noboa (eds.)

Álvarez Gayou-Jurgensson, J. L. (2006). Como hacer investigación


cualitativa. Fundamentos y metodología. Paidós, México
Blumer, Herbert. (1992) La posición metodológica del interaccionismo
simbólico, en Psicología social. Modelos de interacción. Selección de textos de
María Galtieri, Buenos Aires: Centro editor de América Latina.
Canales Cerón, M. (coord.) (2006). Metodologías de investigación social.
Introducción a los oficios. Santiago de Chile: LOM ediciones.
Coulon, A. (1987) La etnometodología. Madrid: Cátedra,
Denzin, N. y Lincoln, Y. (coord.) (2012) Manual de investigación
www.fragua.es

cualitativa. Barcelona.
Garfinkel, H.(2006) Estudios de etnometodología. Bogotá: Antrophos,
Goetz, J.P. y Le Compte, M.D. (1988). Etnografía y diseño cualitativo
en investigación educativa. Madrid: Morata.
Goffey, Amanda y Atkinson, Paul (2005) Encontrar sentido a los
datos cualitativos. Estrategias complementarias de investigación, Alicante:
Publicaciones Universidad de Alicante.
Goffman, E. (1989) La presentación de la persona en la vida cotidiana.
Buenos Aires: Amorrortu,
Habermas, J. (1990) La lógica de las ciencias sociales. Madrid: Tecnos,
Hernández Sampieri, Roberto, Fernandez-Collado, Carlos y Baptista,
Pilar. (2006). Metodología de la investigación. México: Mc-Graw Hill.
Kornblit, Analía (coord.) (2004). Metodologías cualitativas en ciencias
sociales. Modelos y procedimientos de análisis. Buenos Aires: Editorial Biblos.
Kuhn, T. S. (1995). La estructura de las revoluciones científicas. México:
F.C.E.
Legewie, H. y Schervier-Legewie, B 2004 FQS http://www.qualitative-
research.net/fqs/
Forum Qualitative Sozialforschung / Forum: Qualitative Social
Research (ISSN 1438-5627) Volumen 5, No. 3, Art. 22 – Septiembre 2004

294
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

Merlino, A. (coord.) (2009). Investigación cualitativa en ciencias


sociales. Temas problemas y aplicaciones. Buenos Aires: America Lee.
Morse, J. (edit.) (2005). Asuntos críticos en los métodos de investigación
cualitativa. Alicante: Publicaciones Universidad de Alicante.
Popper, K.(1962). La lógica de la investigación científica. Madrid:
Tecnos.
Rodríguez Villasante, T. (1995). en Gutiérrez y Delgado. Métodos y
técnicas cualitativas de investigación en ciencias sociales. Madrid: Síntesis.
Ruiz de Olabuénaga, J.I. (1999). Metodología de la investigación
www.fragua.es

cualitativa. Bilbao: Universidad Deusto


Salamanca, A. B. y Martín Crespo, C. (2007). El muestreo en la
investigación cualitativa, en Nure investigación, N 27, Marzo-abril 2007.
Taylor, S. J. y Bogdan, R.(1986). Introducción a los métodos cualitativos
de investigación. Buenos Aires: Paidós.
Valles, M. (1997). Técnicas cualitativas de investigación social. Reflexión
metodológica y práctica profesional. Madrid: Síntesis
Wallace, I. (1980). La lógica de las ciencias en sociología. Madrid:
Alianza Editorial.
Weber, M. (1969). Economía y sociedad. México: F.C.E.

295
www.fragua.es
Capítulo 10

ENTREVISTA CUALITATIVA
www.fragua.es

Alejandro Noboa
Natalie Robaina
Universidad de la República, Uruguay

ÍNDICE
1. Comunicación interpersonal
2. El componente rapport
3. Por qué utilizar entrevistas
4. Entrevistas estructuradas, semiestructuradas y abiertas
5. La historia de la utilización de la técnica en la investigación empírica
6. Diseño de una investigación en base a entrevistas cualitativas:
selección de casos, pauta y tipos de preguntas

297
Antonio Lucas y Alejandro Noboa (eds.)

Introducción
La entrevista como técnica de investigación social tiene una tradición
en la Sociología que data de fines del Siglo XIX y principios del Siglo XX, es
de las primeras técnicas empleadas en estudios sociales, desde el nacimiento
de la Sociología empírica, por tanto, hay una larga cultura de reflexión
sobre la utilización de la técnica con fines de investigación. Denzin (1968),
Taylor y Bogdan (1987), Valles (1997), entre otros.
Cuando hablamos de entrevistar nos referimos a la acción de comunicarse
con otro personalmente con el objetivo de producir información relevante
para una investigación determinada. Es decir, poner en común significados
compartidos sobre determinados temas estableciendo una planificación
www.fragua.es

previa de los mismos, sin perjuicio de las emergencias que puedan generarse.
La entrevista “se define como una reunión para intercambiar información
entre una persona (el entrevistador) y otra (el entrevistado) u otras (entrevistados).
(…) a través de las preguntas y respuestas, se logra una comunicación y la
construcción conjunta de significados respecto a un tema” (Hernández Sampieri,
Fernández y Baptista, 2006: 597)
Realizar una entrevista implica un encuentro con otro cara a cara, los
orígenes de la entrevista pueden rastrearse en las denominaciones latinas
“inter” y “videre”, esto es, “entre ver”, de allí la referencia al encuentro
cara a cara con el otro (Marradi y otros, 2007: 215). Pero por sobre todas
las cosas, llevar a cabo una entrevista es promover la manifestación de las
subjetividades de los implicados.
Utilizar la entrevista como herramienta de investigación se vincula con
la necesidad de producir información útil al estudio que se está realizando,
pero además ésta debe ser profunda y veraz desde la perspectiva del sujeto
entrevistado. Esta condición no es fácil de cumplir aunque debe ser uno de
los objetivos centrales de la entrevista, será además una condición sine qua
non a la hora de evaluar la aplicación de la técnica.
Muchas veces ocurre que el entrevistador constreñido por los objetivos
específicos de la investigación solamente se preocupa de pasar la pauta y
no de asegurar la profundidad y riqueza de las expresiones que muestra la
subjetividad del entrevistado. Este es una de los criterios fundamentales
que toda entrevista debe cumplir, su obligación de rescatar lo profundo y
no exclusivamente cumplir con la pauta pre elaborada para la producción
de conocimiento.

298
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

1. Comunicación interpersonal
La aplicación de la técnica de la entrevista configura una comunicación
interpersonal con todas sus características.
“La comunicación interpersonal es el nivel donde se produce la relación
humana directa con mayor intensidad y es el más efectivo en la comunicación
humana. La comunicación interpersonal expone a las personas a contactos
directos entre los entrevistados que se interrelacionan, enriquecen y crean
nuevas relaciones y vínculos a través de su propia personalidad. En el proceso
de la comunicación interpersonal las personas operan de un modo activo,
cada cual reflexiona, valora, expresa, tanto verbal como extra verbalmente sus
www.fragua.es

pensamientos, ideas, estados emocionales, experiencias y vivencias personales.”


(Zayas Agüero; 2010: 60)
En acuerdo con lo que propone el autor, cuando se realiza una
entrevista se pone en juego algo más que el mero interés por entrevistar y
por desarrollar nuestra pauta de entrevista, se pone en juego la interacción
entre dos sistemas personales, que implican formas de presentación, posturas
psicológicas y emociones. Todo ello se expone en la entrevista y del ajuste
entre estos componentes se obtiene una comunicación rica y profunda, o
por el contrario, un roce superficial que no tiene mayores consecuencias
para la investigación tal como lo explica Luis Enrique Alonso, (1998).
El entrevistador tiene que saber que la meta de la entrevista es lograr
esa confianza necesaria que facilita el fluir de los mensajes, posibilita la
comunicación interpersonal que compromete la globalidad de la persona y
redunda luego en información relevante para la investigación.
En otras palabras, estamos hablando de que una instancia de entrevista
por lo menos deben participar dos personas activamente, el entrevistador
y el entrevistado, que pueden ser más cuando estamos ante una entrevista
colectiva. En la comunicación interpersonal no existe mediación
tecnológica excepto la del registro, mediación que el entrevistador tiene
que salvar de forma que no genere interferencias en la comunicación. Lo
normal es que no sea una comunicación mediada, es decir, que resulta de un
intercambio directo cara a cara, aunque hoy es posible realizar entrevistas
a través de sistemas de basados en las nuevas tecnologías de la información
(videoconferencias o vía Skype). En todos los casos, la comunicación es
verbal pero también se tienen en cuenta las expresiones no verbales como
gestos o formas de presentación, entre otras.

299
Antonio Lucas y Alejandro Noboa (eds.)

2. El componente rapport
Rapport es un concepto introducido por Taylor y Bogdan (1984), en
toda comunicación para que se produzca y se logre la mayor profundidad
se dice que es necesario construir una buena relación de confianza con
el entrevistado, un rapport. Esto es clave para que se pongan en juego
los archivos más reservados de la personalidad. Lo que Taylor y Bogdan
definen como el rapport, o sea, la confianza profunda, implica sintonía en
las presentaciones, en las emociones, acuerdo en las utilidades propias de la
entrevista. Tiene que haber un ensamblaje de mensajes y presentaciones de
forma que en ningún caso se inhiba la comunicación.
www.fragua.es

El establecimiento de esta confianza no es algo que se dé por


sentado, sino que el entrevistador debe dar los pasos concretos que lleven
a su construcción. Esto comienza con el primer contacto, la forma de
presentación, la amigabilidad en el trato, la seriedad y respeto con el
otro y sus tiempos. Se trata de todo lo que hace a la construcción de una
relación que en principio no es duradera, sino que se establece a los efectos
de la entrevista aunque puede perdurar más de acuerdo a los fines de la
investigación.
También es cierto que la construcción de confianza variará de acuerdo
a las condicionantes sociológicas del entrevistado, esto es, edad, sexo, clase
social, residencia, cultura, etc. el entrevistador deberá estar prevenido
de estas cuestiones para no fracasar en el intento de generar el rapport.
(Marradi y otros, 2007: 216)
Crear ese clima de confianza implica un esfuerzo importante por parte
del investigador, como se dijo antes, desde el momento en que se establece la
relación entrevistador-entrevistado ese vínculo debe “alimentarse y cuidarse
de modo permanente para lograr que perdure a lo largo de todo el proceso
investigativo” (Sandoval, 1996:134)

3. Por qué utilizar entrevistas


La técnica de entrevista es de las más empleadas en el campo de la
investigación social, tanto por su bajo costo de producción como por sus
reducidas prerrogativas de aplicación. La posibilidad de utilizar la entrevista
en diferentes condiciones sociales, pero además contando solamente con el

300
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

consentimiento de una persona, la entrevistada, hacen de la técnica de las


más versátiles a la hora de diseñar estudios sociales. Esto hace que existan
innumerables ejemplos de diseños de investigación que la emplean, por
tanto hay una amplia difusión de sus normas de producción.
Por otra parte, al depender el encuentro de un sólo sujeto, su realización
es más viable, esto adquiere mayor relevancia en el contexto actual donde
las personas normalmente están con sus horas excesivamente ocupadas
como para lograr hacer coincidir a un grupo. Comparativamente con las
técnicas grupales, esta ventaja de requerir solamente la complicidad de una
persona la hace más viable de aplicación y con mejores expectativas de
éxito.
www.fragua.es

Amplia difusión de sus reglas de aplicación


Bajo coste de producción
Escasos requisitos tecnológicos
Versatilidad en su localización
Como se ha dicho, no requiere grandes exigencias técnicas ni de
recursos económicos, es una técnica de bajo coste, el conocimiento de su
manejo, un grabador digital y en casos puntuales una filmadora, son los
instrumentos mínimos de trabajo para su aplicación. Claramente existen
-como veremos más adelante- requisitos de ambiente imprescindible para
su puesta en escena, que por cierto, puede ser muy versátil no requiriendo
en principio más que un relativo aislamiento que impida interrupciones.

4. Entrevistas estructuradas, semiestructuradas y abiertas


Existen diversas formas de entrevistas, las clasificaciones más conocidas
las dividen en: estructuradas, semiestructuradas y abiertas (Hernández y
otros, 2006 ). Las primeras se componen de una guía de preguntas con un
orden previamente establecido que el investigador seguirá estrictamente,
con el fin de cubrir todos los temas, en el mismo orden, para mantener
el contexto conversacional de cada entrevista, ser riguroso en la distancia
que se mantiene con el entrevistado. La tercera función consiste en, para
delimitar el discurso y mantener su atención en la oratoria del entrevistado
(Sandoval, 1996).

301
Antonio Lucas y Alejandro Noboa (eds.)

Las semiestructuradas, consisten en una guía de asuntos a tratar en


el encuentro, otorgando margen al entrevistador para adicionar otros
aspectos que considere relevantes para obtener un buen producto de
la comunicación. Finalmente, las entrevistas abiertas se presentan como
una guía de asuntos, flexible para que el investigador maneje el orden, el
tiempo y los tópicos. El empleo de las entrevistas abiertas o en profundad
requiere más de un encuentro con la persona entrevistada. Se inicia con una
pregunta generadora, amplia, que procura un primer discurso, que genere
confianza, y que servirá de base para la posterior profundización de los
temas (Sandoval 1996)
Si bien algunos modelos de la técnica no prevén una pauta estructurada,
www.fragua.es

esto no obsta a que la entrevista pueda derivar a otros temas no previstos en


la misma, el entrevistado puede significar temas no previstos pero además la
aplicación de la técnica nunca deja de ser una comunicación interpersonal,
por tanto está sujeta a ciclos de retroalimentación que modifican la pauta
con el objetivo de producir información útil y relevante para ambos.

Como se pudo observar, la principal diferencia entre las entrevistas semi


o estructuradas y las abiertas reside en que en las primeras se trata de contar
con una pauta pre elaborada que guíe la realización de la entrevista (ya sean
preguntas específicas o asuntos) y en el segundo caso la entrevista fluye en
varias sesiones, dejando al entrevistado que derive en sus declaraciones de
acuerdo a la dinámica de su propia subjetividad.
Ambas alternativas son estrictamente cualitativas y sus productos son
pasibles de análisis cualitativo, en un caso con más restricciones y con
orientaciones más definidas y en el otro se deja a la voluntad del entrevistado
la temática desarrollar, previo a un disparador que rompa el hielo de la
entrevista.
Las constricciones de la vida cotidiana (de tiempo, espacio y costes)
actual han dado lugar a un mayor empleo de la entrevista cualitativa
recurriendo a una pauta, que sigue determinados criterios, a la entrevista
en profundidad o abierta, ya que esta última es más exigente en tiempo y
secuencias de aplicación.

302
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

5. La historia de la utilización de la técnica en la investigación


empírica
Como se afirmó anteriormente, la técnica se emplea en la investigación
sociológica desde hace muchos años, ahora bien, la reflexión sobre su
aplicación como instrumento de investigación es más reciente, datando los
primeros apuntes sobre la primera mitad del siglo XX. El profesor Valles
en su publicación sobre Entrevistas cualitativas (2004), recorre la historia
de las reflexiones sobre la técnica a través de la historia.
En 1927 Elton Mayo diseña su Programa de entrevistas a empleadas
en la fábrica de relés electrónicos, la Western Electric Company. Allí planea
www.fragua.es

y aplica el empleo de las entrevistas cualitativas fundamentalmente a


influencia de Malinovsky y sostiene dos criterios centrales que perduraran
hasta nuestros días:
La necesidad de una “escucha de manera paciente, amigable, pero
inteligentemente crítica” según Valles (óp. cit.) es sin duda de las columnas
vertebrales de la técnica, si esta pretende recuperar la subjetividad del
entrevistado. Lo que no puede ocurrir nunca, si bien es cierto la entrevista
es un encuentro y un diálogo, es que el entrevistador no escuche, no sea
paciente y no sea amigable. Ningún sujeto se va a abrir y confiar en quien
monopoliza la palabra y no tiene esa actitud imprescindible de escucha
atenta e inteligente, a efectos de reprogramar rápidamente la pauta a la luz
de la conversación.
El encuentro implica igualdad de posiciones, si bien el equilibrio no
es perfecto, ya que habrá alguien que tenga objetivos de conocimiento
respecto a la entrevista y alguien que no los conoce, lo que implica una
inequidad, igualmente para lograr la comunicación “no se debe exhibir
ninguna clase de autoridad” (Valles, óp. Cit.)
Hacia 1945 Carl Rogers introduce en la entrevista terapéutica, el uso
del magnetofón como instrumento de registro, lo que implica emplear
la tecnología, que hoy está ampliamente extendida, al servicio de la
producción y registro de los datos.
Un estudio paradigmático sobre la entrevista realizan Merton,
Kendall y Fiske (1955), en una investigación sobre la propaganda bélica
en la postguerra, describen la entrevista focalizada ya en clave de reflexión
metodológica.

303
Antonio Lucas y Alejandro Noboa (eds.)

La dinámica aplicada en ese entonces fue la siguiente: se expuso a


los entrevistados una situación concreta, donde previamente se ha hecho
un estudio de lo que se observará. El guion de la entrevista se refiere a la
situación estímulo y se propone rescatar las experiencias subjetivas de los
entrevistados.
Los autores citados definen cuatro criterios para la aplicación de la técnica.
a. amplitud: se trata de un proceso de comunicación igualitaria y que
pretende promover el surgimiento de la subjetividad del individuo, por
tanto cualquier apelación a orientar las respuestas no debe seguirse en esta
técnica. “Los entrevistados deben poder maximizar tanto la amplitud de
www.fragua.es

las referencias evocadoras como de las respuestas” (Merton y otros, 1956


publicado in extenso en Propósitos y criterios de la entrevista focalizada,
Revista Empiria Nº 1,1998: 215-227)
b. especificidad o respuestas concretas: para el caso de la entrevista
focalizada vinculada al estímulo se requiere que las respuestas estén
vinculadas a este y versen sobre el estímulo.
c. profundidad: la entrevista a su vez debe recoger la totalidad de las
posiciones sobre el estímulo de forma inclusiva y no excluyente. La realización
de la técnica debe asegurar la manifestación de todas las opiniones que
puedan surgir sobre el estímulo en su mayor implicación y en sus más diversas
manifestaciones, afectivas, evaluativas, cognitivas, etc.
d. contexto personal: sin ello la técnica no tendría razón de ser las
implicaciones afectivas y las cargas valorativas son inherentes a la existencia
de los seres humanos viviendo en sociedad, por tanto, si una entrevista debe
considerarse exitosa es en la medida de que lo profundo de los sujetos se
hace expreso y evidente.
Estos criterios que actúan en conjunto y operan interrelacionadamente,
pueden luego servir para el análisis de los materiales producidos por la
entrevista.
Criterios de la entrevista según Merton y otros
Amplitud
Especificidad
Profundidad
Contexto personal

304
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

En la misma época, Adorno, Levinson, Nevitt y otros, desarrollan un


estudio que se publica en un libro titulado La personalidad autoritaria (1950),
donde proponen indicaciones de corte metodológico para la realización de
entrevistas cualitativas. Este estudio paradigmático en cuanto a sus aportes
teóricos, también lo es en cuanto a los aspectos metodológicos y técnicos;
describen la entrevista metodológicamente incorporando: * la selección de
entrevistados; * las instrucciones para los entrevistadores y * el guion de las
entrevistas.
También en los años ‘50, Dexter estudia las elites de la sociedad
apelando a la entrevista como técnica de recogida de información. Uno
de sus aportes tiene que ver con que la entrevista se aplica a cualquier
www.fragua.es

entrevistado: no sólo ricos y educados, esto significa una ruptura con


respecto a lo que hasta el momento se presuponía en los estudios. Centra la
idea de entrevista cualitativa en cuanto a: 1. enfatizar sobre la definición de
la situación por el entrevistado; 2. hay que estimular el relato, permitiendo
que el entrevistado introduzca nociones relevantes para sí mismo,
asegurando el equilibrio imprescindible entre entrevistador y entrevistado.
Riesman y Benney (1956) escriben en perspectiva su obra “The sociology
of the interview”, donde analizan como a partir de sus características
sociológicas “el extraño (en el caso el que hace las veces de entrevistador) a
veces encuentra espacios de intimidad y privacidad previamente establecidos
para una persona con sus mismas características” sociológicamente hablando
(Benney, Riesman y Star, 1956: 44). Allí se analiza ampliamente, como
en función de variables básicas que definen posturas sociales como el
sexo, la edad, el nivel socioeconómico, etc. se puede acunar y favorecer la
comunicación interpersonal profunda en la realización de una entrevista.
En la misma década Whyte en su estudio sobre los jóvenes de la calle
Street Corner Society, (Whyte, W.F.; Chicago. 1955) también realizará
reflexiones sobre la técnica. Afirma que el entrevistador escucha más que
habla (vivo y simpático interés) y además emplea tácticas como parafrasear
y devolver lo que se escucha a efectos de estimular el involucramiento
del entrevistado en el diálogo. Asimismo recapitular para comprobar las
declaraciones y su coherencia.
El manual de Taylor y Bogdan publicado en 1984 hace una descripción
detallada de la entrevista en profundidad como técnica de investigación
social recogiendo criterios firmes para su aplicación.

305
Antonio Lucas y Alejandro Noboa (eds.)

Las entrevistas cualitativas han sido descriptas como no directivas, no


estructuradas, no estandarizadas y abiertas. Al referirse a las “...entrevistas en
profundidad entendemos reiterados encuentros cara a cara entre el investigador y
los informantes, encuentros éstos dirigidos hacia la comprensión de perspectivas que
tienen los informantes respecto de sus vidas, experiencias o situaciones, tal como las
expresan con sus propias palabras.” (Taylor y Bogdan, 1986: 101).
Más adelante Weiss en 1990 la reflexiona sobre la técnica en el sentido
de que su aplicación será a la misma vez un método y un arte. Seguir criterios
propuestos y pre elaborados pero también dejar a la deriva del entrevistado
y a la destreza del entrevistador la producción de información a partir de la
técnica. En este proceso no se debe dejar de pensar que el sujeto es activo
www.fragua.es

y reflexivo además de que la entrevista debe ser un disparador para que


emerjan las convicciones más profundas, en ese sentido el sujeto es también
activable. Según este autor citado por Valles (2007) el entrevistador puede
adoptar dos actitudes básicas la de minero (extrae información) o la de
viajero (construye información a partir de lo que ve y oye).
Posteriormente Denzin en 1990 en su obra maestra Hanbook of
qualitative inquiry reflexiona sobre la técnica en oposición a la entrevista
estructurada más propia de las encuestas cuantitativas, que requieren: 1. un
mismo estímulo para todos; 2. un mismo significado; 3. un mismo orden
de las preguntas y 4. que se realice previamente un pre test para chequear el
formulario con los futuros entrevistados. Concluyendo que para el caso de
la entrevista cualitativa ninguno de estos criterios debe sostenerse, sino que
se trata de una técnica más libre y flexible que permite la modificación de la
pauta inicial de acuerdo a las significaciones que incorpora el entrevistado.
En cualquier caso la conformación de la técnica a través de la historia
va dejando una herramienta metodológicamente cada vez más configurada y
prácticamente probada en diferentes contextos de investigación.

6. Diseño de una investigación en base a entrevistas cualitativas:


selección de casos, pauta y tipos de preguntas
El muestreo en los diseños de investigación cualitativa se refiere a
adoptar un conjunto de criterios no probabilísticos para seleccionar casos
y contextos pasibles de ser observados como también definir tiempos de
observación y personas a las que se va a entrevistar.

306
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

Sólo nos limitaremos a enunciar algunos posibles:


1. Muestreo fuera del control del diseño: bola de nieve y por
conveniencia. El primero apunta a construir la muestra progresivamente
y preguntando a cada persona entrevistada por posibles candidatos a ser
seleccionados. Se avanza en el muestreo hasta que se saturan teóricamente
los datos, es decir, cuando al realizar más entrevistas o revisar todos los
casos no surgen datos nuevos o distintos a los ya existentes (Sandoval 1996)
2. Muestreo de naturaleza práctica. Deben de tenerse en cuenta los
siguientes criterios:
www.fragua.es

a. quienes tienen la información relevante?


b. quienes son más accesibles física y socialmente?
c. quienes están más dispuestos a informar?
d. quienes son más capaces de comunicar la información con precisión?
3. Muestreo intencional teórico: es de los más utilizados, consiste en
relacionar en una matriz dos categorías (o más) que sean relevantes para
el estudio. En el eje vertical se ubica la categoría estructural y en el eje
horizontal la categoría temporal, de esa manera se incluye en el muestreo
todas las unidades topológicamente distribuidas. Veamos un ejemplo
práctico realizado en una investigación que tenía como objetivo estudiar la
imagen institucional de una organización.
Se ubican los públicos a entrevistar en una matriz donde se cortan la
relación con la institución y la antigüedad en la institución, dimensiones
consideradas teóricamente relevantes. Además en cada una de las celdas
se distribuyó en función de la clase a la que pertenecían en función a
la institución: Estudiantes, Docentes, Egresados, No docentes y Otros
relacionados. La matriz en su ordenamiento permite ordenar los públicos
entre aquellos que tienen más conocimiento sobre lo cotidiano de la
institución y aquellos que menos la tienen, siempre en el entendido que
todos aportan un punto de vista acerca de la vida institucional. Además, la
propia matriz permite distribuir topológicamente la cantidad de entrevistas
a realizar dando un total por celda (4 y 1) y un total a alcanzar (27).

307
Antonio Lucas y Alejandro Noboa (eds.)

Cuadro 10.1. Muestreo intencional teórico


www.fragua.es

Fuente: Noboa, 2002.

Los tipos de muestreo mencionados para nada se consideran un listado


taxativo, sino que existen en la práctica un sinnúmero de tipos posibles
y cada investigación en virtud de sus coordenadas de tiempo, espacio,
recursos y fenómeno a estudio dará lugar a un muestreo específico.
Una apreciación más sobre el número de personas a entrevistar. Si
optamos por el muestreo teórico y asignamos 5 entrevistas a cada celda el
total sugerido será múltiplo de 5 (25 o 30), seguramente. De todas formas
el criterio fundamental para delimitar la cantidad de entrevistas a realizar
como ya se dijo es el conocido como saturación teórica, es decir, cuando
realizadas unas cuantas entrevistas la información recabada comienza a
reiterarse, la redundancia es el indicador de que ya no es necesario continuar
ampliando la muestra (Sandoval, 1996).
Muestreo sin control del diseño: bola de nieve o por conveniencia
Muestreo de naturaleza práctica
Muestreo intencional teórico

308
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

El proceso de la entrevista
Dada la lógica de la investigación cualitativa, no es posible segmentar
los procesos de
diseño y gestión de la tarea de investigación, como si sucede en la
investigación cuantitativa, en la que un sujeto diseña la investigación; otro
se encarga de recoger los datos, otros los analizan y redactan el informe
final. En la investigación cualitativa, esas etapas no puede separarse,
dado que es un proceso abierto, que se va reconstruyendo continuamente
(Sandoval 1996).
www.fragua.es

Contactación y localización: el pacto de entrevista


En el primer contacto se pone en juego buena parte del éxito en la
aplicación de la técnica. No hay acuerdo en la bibliografía sobre quien
deben hacer la contactación, en este sentido puede hacerlo un tercero o el
propio entrevistador. Si lo hace el entrevistador asegura una coherencia en
el discurso y en el acuerdo que se logre que ayuda a la generación futura del
rapport (aspecto abordado en el punto 2).
Se debe en este caso dar una justificación convincente de los motivos
de la entrevista, se podrá en esta dar más o menos explicaciones según cuál
sea el tópico de la entrevista, independientemente y en cualquier caso, éstas
deberán ser razonables.
Previamente a la realización de la entrevista debemos planificar
los temas a tratar en el desarrollo de la misma. La pauta o guía es un
listado previamente ordenado de los temas que necesariamente deberán
tratarse en la entrevista, aquellos que tienen que ver con los objetivos de
la investigación, como ya se dijo, en el transcurso de la entrevista podrán
surgir temas nuevos si el entrevistado los significa.
Se sugiere un orden de las preguntas de acuerdo a sus características:
1º preguntas generales (rompehielos), 2º preguntas complejas y sensibles
(cuando se ha logrado el rapport), 3º preguntas de cierre.
Orden de preguntas en la entrevista:
1º generales y fáciles 2º complejas y sensibles 3º de cierre
(Hernández y otros, 2006: 601)

309
Antonio Lucas y Alejandro Noboa (eds.)

Todas ellas deben tener una fundamentación: las primeras buscan


romper el hielo y lograr pasos en busca de la confianza imprescindible;
se parte “de una pregunta general muy amplia, que pretende, generar o
desencadenar una conversación fluida y en cierta forma natural o espontánea.
De la respuesta a esa pregunta inicial, que hay que permitir sea lo más libre
y completa posible, se extraerán las preguntas siguientes en la forma de un
encadenamiento lógico” (Sandoval, 1996: 135). Por su parte, las segundas
son las centrales de la entrevista, tienen que ver con el objeto de estudio que
estamos construyendo, y tercero el cierre. En este caso siempre se debe tener
presente que en algún momento se puede volver a entrevistar a la misma
persona, nunca es un corte abrupto sino que es un colofón de forma que la
comunicación en ningún caso se vea afectada.
www.fragua.es

Antes de iniciar la entrevista debemos acordar todos los componentes


del pacto, que comienza con la contactación y la fijación de un lugar para
la realización. Esta etapa es la primera fase de lo que denominaremos pacto
de la entrevista. Es decir el conjunto de acciones tendientes a lograr un
acuerdo con el entrevistado sobre las condiciones de la entrevista.
Forman parte del pacto: el acuerdo de voluntad para la realización de la
entrevista; el compromiso del mantener el anonimato, el uso científico de lo
producido, el lugar y momento de realización de la entrevista, la duración
probable de la misma y las condiciones de registro.
Sobre el lugar de realización de la entrevista, es preferible que se escuche
al entrevistado a efectos de reservar su intimidad y de posibles interferencias
de terceros, si bien es cierto hay que tener una propuesta a efectos de
lograr concretar la misma. El lugar es uno de los factores fundamentales
para la creación del ambiente de entrevista que permita alcanzar un nivel
adecuado de profundidad. Un espacio que de confianza y protección al
entrevistado como también que impida el acceso de posibles interferencias
e interrupciones por elementos ajenos a la realización de la entrevista.
Componentes del pacto de la entrevista:
- acuerdo de voluntad para la realización de la entrevista justificando
la misma
- compromiso de mantener el anonimato del entrevistado
- compromiso del uso científico de la información
- fijación del lugar y la hora de la entrevista
- duración y forma de registro

310
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

Adquiere relevancia aquí el conocimiento previo que se tenga de


la persona a entrevistar de forma que nuestra presentación no debería
colisionar con la idiosincrasia de las persona a entrevistar. Otro aspecto a
tener en cuenta es la puesta a punto de los instrumentos de registración:
prueba de grabación, disponibilidad de energía, etc., esto debe hacerse con
anticipación y no sobre el momento de iniciar la entrevista.
Inicio
El comienzo de la entrevista debe estar precedida de la conformación
total del pacto de la entrevista, si frente al inicio faltare alguno de los com-
ponentes del pacto es el momento para subsanarlo y conformarlo en su
www.fragua.es

totalidad. Particularmente se debe solicitar la autorización para registrar


la entrevista, este es uno de los componentes del pacto mencionado ante-
riormente, también hay que acordar la posibilidad de tomar notas durante
la realización. En casos es conveniente que se entregue consentimiento es-
crito, sucede en condiciones muy especiales que involucran cuestiones que
puedan lesionar la integridad o algún derecho del entrevistado.
En esta época un tema que atañe a entrevistador y entrevistado es la
posesión de celulares, es conveniente hacer la advertencia previa y apagarlos
de forma que no perturben el desarrollo de la entrevista.
Al principio converse sobre un tema de interés y repita el propósito de la
entrevista, así como la confidencialidad de la misma. Si bien el entrevistado
en todo momento puede evacuar sus dudas, este es un momento propicio
para ello ocurra, hay que recordar que esto resulta importante para construir
el ambiente de confianza que debe dominar la entrevista. Nada se logrará
en conflicto con el entrevistado.
El manejo de los motivos de la realización de la entrevista es un
resorte del entrevistador, obviamente que para la concreción del pacto se
deben manejar explicaciones razonables pero no necesariamente todos los
motivos de la investigación, muchas veces no suele ser importante para el
entrevistado este conocimiento. Hay que saber que la lógica de la igualdad
entre entrevistador y entrevistado puede verse alterada, pero si existe un
buen manejo de la situación seguramente pasará desapercibido cualquier
obstáculo al sostenimiento de esta lógica, manteniéndose el respeto mutuo.
En la entrevista en todo caso se encuentran personas iguales con saberes
diferentes que interactúan para la producción de información útil a la
investigación de que se trate.

311
Antonio Lucas y Alejandro Noboa (eds.)

Ahora es el momento de comenzar la tarea de entrevistar, tomando


como excusa la pauta y nuestras propias habilidades comunicacionales a
efectos de generar la información relevante para el estudio.
Desarrollo
Lo que nunca se puede perder de vista cuando estamos entrevistando es
que es justamente una conversación donde las dos personas deben sostener
un mínimo de concentración y atención en lo que el otro dice. Toma aquí
relevancia el hecho de que la esencia de la entrevista es que no deja de ser una
comunicación interpersonal con todo lo que ello conlleva.
www.fragua.es

Escuche activamente, mantenga la conversación y no trasmita tensión.


Se pueden poner en juego algunas tácticas, por omisión o por acción, que
ayudan al fluir de la entrevista:
- Por omisión: sea paciente, respete silencios, no provoque interrupciones
innecesarias, la carga de la palabra la debe tener el entrevistado.
- Por acción: tenga interés genuino, demuestre con gestos ese interés,
estimule con expresiones breves el uso de la palabra. Demuestre aprecio por
cada respuesta, deje que fluya la conversación.
Asegúrese de que la entrevistada o entrevistado terminó de contestar antes
de pasar a la siguiente pregunta. Siga al entrevistado cuando el tema emergente
es significativo para él en función de su actitud o para la investigación aun
cuando no se haya previsto en la pauta.
Durante el desarrollo de la entrevista trate de captar aspectos verbales
y no verbales, todos son relevantes a la hora del análisis y la interpretación.
El cierre y la post - entrevista
Preguntar al entrevistado o entrevistada si tiene algo para agregar o
alguna duda que pueda haber quedado sobre la realización de la misma y
sus justificaciones. En todos los casos, agradezca y de nuevo explique lo que
se va a hacer con los datos recolectados, especialmente su carácter anónimo
y el uso científico de las informaciones.
Apenas terminada la entrevista es recomendable no apagar el grabador,
los minutos subsiguientes suelen acompañar un período de relajamiento
de tensiones donde pueden surgir temas interesantes o datos claves para

312
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

entender todo o parte de lo conversado anteriormente. Esos cinco minutos


finales son muchas veces reveladores del resto del trabajo por tanto es
conveniente continuar registrando y sosteniendo la comunicación con el
entrevistado.
Después de la entrevista
Luego de realizada la entrevista es conveniente hacer un resumen de los
puntos que consideramos más relevantes y que en una primera impresión
pueden resultar interesantes para la interpretación. Es conveniente que este
primer apunte lo revisemos a la luz de las anotaciones generadas durante
la entrevista. Otro factor importante es la descripción del contexto físico y
www.fragua.es

cultural del entrevistado, estos datos también van a influir en el análisis y


la interpretación.

Posteriormente existen tres operaciones que van a ser claves y conviene


hacerlas lo más próximo a la culminación de la entrevista, aunque ya no
estamos en el campo: transcripción de la entrevista; análisis de la misma
en forma individual y la revisión de la pauta o guía de la entrevista. En
este último caso, se incluyen temas significativos, se pulen preguntas
que no colaboran con el fluir de la entrevista o que puedan dar lugar a
interpretaciones confusas en el entrevistado.
Final de la entrevista -------> Transcripción -------> Revisión de la pauta
Aspectos a considerar en el proceso de entrevista
Creemos, como recomendación general, que no se debe perder nunca
de vista que la entrevista es una comunicación interpersonal y que debe
funcionar como tal pero priorizando la subjetividad del entrevistado. No
se puede monopolizar la palabra o caer en el error común de recapitular
lo conversado, si pedir que lo haga el entrevistado. Es el informante el que
significa y jerarquiza los datos no el entrevistador, por lo menos en esta fase
de construcción de los datos.
Se debe asegurar en todos los casos el logro del rapport y el fluir de la
conversación, no saltar de un tema a otro, sino buscar profundizar en los
temas y que sea el entrevistado el que agote los mismos y no nosotros.

313
Antonio Lucas y Alejandro Noboa (eds.)

Las preguntas deben estar pensadas de forma que eviten inducir


respuestas, y en el caso que las provoquen debe contemplarse en el análisis.
Estar atentos a los gestos del entrevistado, estos son ilustrativos de
estados de ánimo y de impresiones que algunos hechos pueden haber
dejado en el entrevistado.
Emplear las tácticas de escucha activa y estímulo al entrevistado con
gestos o comentarios breves, no olvidar las tácticas por omisión y/o acción
pasibles de ser usadas en estos casos.
Hacer una pregunta por vez y con claridad, no confundir al entrevistado
www.fragua.es

Extender la entrevista mientras el entrevistado mantenga el interés y


converse, tener cuidado de no cansarlo y estar prevenido de ello.
Muchas veces el devenir de la entrevista provoca que se liberen
emociones o se emitan actitudes inconvenientes, hay que estar preparados
para manejarlas en beneficio de la construcción de datos significativos para
el entrevistado.
Criterios para la evaluación de la entrevista.
Vinculados al contexto inmediato de la entrevista: ambiente producido,
el aislamiento imprescindible para la realización de la entrevista donde no se
hayan efectuado interrupciones debidas a agentes externos. Una adecuada
iluminación que favorezca la comunicación y el fluir de la entrevista.

Cuadro 10.2. Criterios para la evaluación de la entrevista

Vinculados al contexto inmediato de la entrevista: ambiente.


Vinculados a la pauta: funcionamiento e incorporación de datos no
contemplados
Vinculados al entrevistado: propensión al habla, actitud, profundidad de
las respuestas, reacciones emocionales.
Vinculados al entrevistador: influencias posibles.
Vinculados a ambos: intimidad, rapport, tratamiento de los temas en forma
exhaustiva.
Vinculados al registro: funcionamiento adecuado de la grabación.
Hernández y otros 2006 proponen realizarse las siguientes preguntas:

314
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

Cuadro 10.2. Sugerencia de formato para evaluar la entrevista.


1. ¿El ambiente físico de la entrevista fue el adecuado? (quieto, confortable, sin
molestias).
2. ¿La entrevista fue interrumpida? ¿con qué frecuencia? ¿afectaron las interrupciones
el curso de la entrevista, la profundidad y la cobertura de las preguntas?
3. ¿El ritmo de la entrevista fue adecuado al entrevistado o a la entrevistada?
4. ¿Funcionó la guía de entrevista? ¿se hicieron todas las preguntas? ¿se obtuvieron
los datos necesarios? ¿qué puede mejorarse de la guía?
5. ¿Qué datos no contemplados originalmente emanaron de la entrevista?
6. ¿El entrevistado se mostró honesto y abierto en sus respuestas?
7. ¿El equipo de grabación funcionó adecuadamente? ¿se grabó toda la entrevista?
www.fragua.es

8. ¿Evitó influir en las respuestas del entrevistado? ¿lo logró? ¿se introdujeron sesgos?
9. ¿Las últimas preguntas fueron contestadas con la misma profundidad de las
primeras?
10.¿Su comportamiento con el entrevistado o la entrevistada fue cortés y amable?
11. ¿El entrevistado se molestó, se enojó o tuvo alguna otra reacción emocional
significativa?, ¿cuál?, ¿afectó esto la entrevista?, ¿cómo?
12. ¿Fue un entrevistador activo?
13. ¿Estuvo presente alguien más aparte de usted y el entrevistado?, ¿Esto afectó?,
¿de qué manera?

Fuente: Hernández y otros 2006: 601

Vinculados a la pauta: funcionamiento de la guía, que la pauta fluya


sin cambios bruscos y sosteniendo el ritmo de la conversación evitando
posibles interrupciones vinculadas a los temas o al giro del diálogo.
Igualmente que se hayan podido integrar aquellos datos no contemplados,
marcándolos de forma que se pueda posteriormente modificar la pauta.
Vinculados al entrevistado: actitud del entrevistado, la propensión
al habla de parte del entrevistado, una actitud de compromiso con las
respuestas y la profundidad de las mismas, son elementos relevantes para
una entrevista de calidad. El registro de las reacciones emocionales cuando
estas ocurran y restaurar el clima de entrevista de forma que se pueda
continuar trabajando es clave a la luz de evaluar la entrevista.

315
Antonio Lucas y Alejandro Noboa (eds.)

Vinculados al entrevistador: influencias del entrevistador, siempre hay


que analizar posibles influencias ejercidas sobre el entrevistado. En ningún
caso la influencia del entrevistador es neutra, siempre tiene algunos efectos
que pueden ser o no relevantes para la entrevista. Reflexionar sobre este
comportamiento del entrevistador es importante a la hora de analizar los
productos de la entrevista.
Vinculados a ambos: niveles de intimidad logrados en la entrevista,
el clima logra su nivel más alto cuando la comunicación fluye con la
profundidad acorde con los temas que se están hablando. El rapport
da sus frutos cuando la intimidad se logra de forma que entrevistado y
entrevistador conversan cara a cara sin interrupciones y en pleno desarrollo
www.fragua.es

de la comunicación interpersonal. Cuando no se evitan temas y se abordan


en forma exhaustiva.
Vinculados al registro: funcionamiento de la grabación, si efectuamos
una prueba previa evitamos problemas, si sobreviniera alguna dificultad
puede llegar a ser un obstáculo para una buena realización de la entrevista o
peor aún que no logremos un registro adecuado de lo conversado.
Reflexividad
Nivel epistemológico: los sistemas observadores son los que generan el
producto de la observación, por tanto las condiciones de producción de la
observación determina la propia observación. En otras palabras, la observación
produce la observación, con todas las limitaciones y potencialidades que posee
el dispositivo de observación y nada más.
Nivel metodológico: conciencia de las consecuencias de la acción
(del investigador), siempre se reflejan en la entrevista, son inevitables las
influencias mutuas a lo largo de la entrevista. La forma de presentación, de
vestir y actuar del investigador, las formas de preguntar, los temas en los que
se indaga todo ello son un espejo de cómo puede transcurrir la entrevista,
ya que el entrevistado no permanece pasivo sino que interpreta y adopta
actitudes de acuerdo a ello. La única forma de contemplarlo es justamente
no obviarlo sino incluirlo en el análisis que se haga de la realización de
la entrevista. Si a esto le agregamos que el entrevistado adquiere una
forma conciencia de la investigación de acuerdo a como fue justificada y
de acuerdo a los parámetros mencionados, este se convierte en experto
sociólogo y aventura interpretaciones que son incorporadas en la entrevista
simultáneamente a su realización.

316
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

Hay dos niveles donde se puede ver las consecuencias de la reflexividad:


el nivel individual, donde el entrevistado procurará quedar bien ante el
entrevistador, evitando lugares comunes de rechazo social, evitando los
temas comprometidos a su integridad o de su familia, etc., y el nivel
estructural: el entrevistado buscará en todos los casos beneficiar a los que
de alguna manera representa, su clase social, su grupo etéreo, su familia
u otros grupos a los que accede. Asimismo, siempre tenderá a beneficiar
al conjunto de la sociedad, obedeciendo ese mandato ético que los seres
humanos viviendo en sociedad intentamos alcanzar. Será muy difícil
que ante temas escabrosos, el entrevistado se oponga a lo que piensa la
generalidad de la población fundamentalmente si la posición afectada es la
de ser humano.
www.fragua.es

Como es posible revertir esta situación: lo primero y principal,


logrando una comunicación fluida y comprometida. La interacción es el
mecanismo que puede inmunizar la reflexividad existente en un proceso
de entrevista. No es conveniente ignorarla, ésta siempre ocurre, lo mejor es
analizarla y tenerla en cuenta a efectos de los resultados. De todas formas, la
reflexividad metodológica decae en función de la interacción de los sujetos
que la inhibe, siendo en todos los casos la comunicación interpersonal
fluida la que quita presión a la reflexividad y evita las influencias sobre la
observación con fines de investigación; liberando al entrevistador de culpas
y poniendo en evidencia posibles influencias.

Bibliografía
Alonso, L. E. (1994). “Sujeto y discurso: el lugar de la entrevista abierta
en las prácticas de la sociología cualitativa”, en Delgado, J. M. y Gutiérrez,
J. (coords.) Métodos y técnicas cualitativas de investigación en ciencias
sociales, Madrid, Síntesis pp. 225 – 240.
Banister, P. otros (2004). Métodos cualitativos en Psicología. Una guía
práctica para la investigación. Guadalajara: Universidad de Guadalajara.
Denzin, N. y Lincoln, Y. (comps.) (1994). Handbook of qualitative
reaserch. Londres: Sage.
Flick, U. (2004) Introducción a la investigación cualitativa. Barcelona:
Morata.

317
Antonio Lucas y Alejandro Noboa (eds.)

García Ferrando, M., Ibáñez, J. Y Alvira, F. (1989). El análisis de la


realidad social. Métodos y técnicas de investigación social, Madrid: Alianza.
Glaser, B. y A. Strauss (1967). The discovery of grounded theory: strategies
for qualitative research. New York: Aldine Publishing Company.
Goffman, E. (1959). La presentación de la persona en la vida cotidiana,
Buenos Aires: Amorrortu.
Gordo, A. y Pascual, A. (2008). Estrategias y prácticas cualitativas de
investigación social. Madrid: Pearson.
Hernández, R, Fernández, C y Baptista, P. (2006). Metodología de la
www.fragua.es

investigación. Cuarta edición


Lincoln, Y. S. y Guba, E. G. (1985). Naturalistic Inquiry. Beverly Hills,
California Sage.
Merlino, A. (2009). (coord.) Investigación cualitativa en ciencias sociales,
Buenos Aires: Cencage learning.
Merton, P. y otros. (1998) Propósitos y criterios de la entrevista focalizada,
en Empiria. Revista de metodología en ciencias sociales. Nº1 – 1998. pp.
215 – 227. Madrid.
Mills, C. W. (1959). La imaginación sociológica. México: FCE.
Ruiz Olabuénaga, J. I. e Ispizua, M. A. (1989). La descodificación de
la vida cotidiana. Métodos de investigación cualitativa. Universidad Deusto.
Bilbao.
—(1996) Metodología de la investigación cualitativa. Bilbao: Universidad
Deusto.
Sandoval, C. (1996). Módulo Cuatro Metodología de la Investigación.
ICFES
Strauss, A. (1987). Qualitative analysis for social scientists. Cambridge:
Cambridge university press.
Taylor, S.J. y Bogdan, R. (1986) Introducción a los métodos cualitativos
de investigación. Buenos Aires: Paidós.

318
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

Valles, M. (1997). Técnicas cualitativas de investigación social. Madrid:


Síntesis.
— (2002) Entrevistas cualitativas. Madrid: CIS.
Vasilachis de Gialdino, I. (coord.) (2009). Estrategias de investigación
cualitativa. Barcelona: Editorial Gedisa.
Zayas Agüero, P.M. (2010). La comunicación interpersonal, Edición
electrónica gratuita. Texto completo en www.eumed.net/libros/2010f/879/ 
www.fragua.es

319
www.fragua.es
Capítulo 11

ANÁLISIS DE DATOS CUALITATIVOS


www.fragua.es

Coral Hernández Fernández


Universidad Complutense de Madrid

ÍNDICE
1. La naturaleza y definición de los datos cualitativos
2. La sistematización como base para el análisis de datos cualitativos
3. La formalización del proceso analítico
4. Obtención de resultados y conclusiones del análisis

321
Antonio Lucas y Alejandro Noboa (eds.)

Introducción: complejidad e investigación social de segundo orden


Dentro de la investigación sociológica, el análisis de datos constituye,
sin duda, una de las tareas más atractivas de todo el proceso, ya que es en esta
fase en la que el investigador junta todas las piezas del puzle para, con ellas,
construir el significado y dar respuesta a sus preguntas de investigación.
Sin embargo, también es la tarea más difícil, ya que la realidad social
es un sistema complejo, en el que las estructuras y procesos sociales no
siempre guardan relaciones de causalidad ni siguen criterios de regularidad,
ya que a menudo se ven afectados por elementos y procesos caóticos no
lineales que alteran dicha regularidad. Es decir, a determinados estímulos
www.fragua.es

no siempre corresponden las mismas respuestas y determinadas causas no


siempre resultan en los mismos efectos.
Adoptar el concepto de complejidad implica, a su vez, asumir que la
realidad es multidimensional, configurada por distintos aspectos que se
superponen unos a otros y que se relacionan entre sí de modos diversos
y en distintos niveles. Esta concepción implica entender el análisis de lo
social como un análisis de datos complejos que se caracterizan por ser
multidimensionales y estar interrelacionados, entre ellos y con el entorno
en el que tienen su origen.
En el caso de la investigación cualitativa, esta complejidad de lo social
se ve directamente reflejada en el proceso de investigación, que recoge una
gran diversidad de datos e informaciones que el investigador debe manejar
y analizar: el discurso producido por los informantes, las propias vivencias
del investigador, la información de contexto, los modos de organización
social, la estructura de relaciones, etc. La complejidad del análisis se ve
incrementada por la naturaleza de los datos a tratar, que en su mayor
parte están constituidos por relatos (textos o imágenes), que son discursos
producidos sobre la realidad (por el investigador, por los informantes, por
el grupo social…) y, como tales, contienen información multidimensional
e interrelacionada.
Esta idea de los discursos producidos sobre la realidad introduce a su
vez otro concepto, el de la reflexividad social, que ha sido ampliamente
desarrollado como referente epistemológico de la ciencia social de segundo
orden. Su postulado fundamental es la interrelación indivisible entre sujeto
y objeto de investigación: el objeto de conocimiento es, al mismo tiempo,
sujeto del conocimiento, y el sujeto de conocimiento es, a su vez, parte

322
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

del fenómeno social que estudia. El conocimiento así producido es una


interacción y el objeto de conocimiento se centra más en la situación que
en el propio actor, en un doble proceso de reflexión, en el que el sociólogo
reflexiona sobre la realidad social, para después reflexionar sobre su propia
reflexión. (Lamo de Espinosa, 1990).
En palabras de Jesús Ibáñez, siguiendo a Marcel Mauss, la reflexividad
implica tener en cuenta “la modificación que la observación produce en el
observador y el observado” ya que ambos pertenecen al mismo orden de realidad
social, que no es sino la percepción del sujeto sobre aquello que ha vivido y cuya
investigación “exige que el etnólogo o el sociólogo la revivan y luego la proyecten
fuera de sí, objetivada, y la reconstruyan” (Ibáñez, 2003: 74).
www.fragua.es

Este es el enfoque que se ha seguido en este capítulo, entendiendo


el análisis cualitativo como una intervención técnica que recoge el
discurso sobre lo “real” y, al mismo tiempo, una intervención teórica – la
interpretación – que convierte el “objeto real” en “objeto de conocimiento”.
La interpretación es una lectura: tiende a descifrar lo que la realidad
dice (como si la realidad hablara). El análisis es una escritura: deconstruye
el “discurso” (ideología) de la realidad, reconstruyendo con sus piezas otro
discurso. (Ibáñez, 2003: 126)
En las páginas que siguen trataremos de conceptualizar los procesos
básicos comunes a las principales corrientes de análisis cualitativo,
sistematizando y categorizando las prácticas más habituales en este campo.

1. La naturaleza y definición de los datos cualitativos


Antes de pasar a hablar del análisis propiamente dicho, conviene
introducir algunas definiciones sobre lo que entendemos por “datos
complejos cualitativos”, ya que el “dato” es un concepto genérico en
el que intervienen múltiples aspectos que pueden o no ser tomados en
consideración.
a) Datos… Entendemos como “dato” la unidad básica de información
sobre lo social. Es decir, el dato es un contenido informativo sobre la
realidad interna o externa a los sujetos estudiados, cuyo propósito es la
investigación.

323
Antonio Lucas y Alejandro Noboa (eds.)

b) Complejos… El análisis de lo social es un análisis de datos


complejos. En este sentido, el término “complejo” hace referencia a la
multidimensionalidad de los fenómenos sociales y a las interrelaciones
existentes entre las distintas dimensiones que configuran lo social, de las que
el “dato complejo” habrá de dar cuenta. (Jorge Sierra: 2002: 87)
c) Cualitativos. Por último, el término “cualitativo” hace referencia a la
forma en que dichos datos han sido recogidos. El dato complejo cualitativo
es aquél que procede de una investigación realizada utilizando técnicas
cualitativas de recogida de la información y que incluye no sólo los discursos
de los informantes, sino todo el conjunto de informaciones recogidas
por el investigador a lo largo del proceso de investigación: interacciones,
www.fragua.es

situaciones, fenómenos, sujetos y objetos de la realidad estudiada que


puedan resultar útiles en relación a los objetivos de su investigación.
De ésta última definición se desprende un hecho fundamental, característico
de la investigación cualitativa: los datos complejos cualitativos no son realidades
tomadas directamente por el investigador, sino que están compuestos por
informaciones sometidas a un proceso de mediación en el que es el propio
investigador el que tiene que, en primer lugar, percibirlas; en segundo, considerarlas
útiles o relevantes y, por último, describirlas (ya sea en un texto narrativo o en
imágenes fijas, formato audiovisual, etc.).
Es decir, el investigador cualitativo construye los datos complejos con
los que va a operar, empleando para ello un medio de expresión simbólica
(lenguaje verbal, expresión gráfica) que confieren al dato los rasgos de
perdurable en el tiempo y comunicable. En consecuencia, el dato resulta
ser inseparable del modo en que es registrado y comunicado. (Rodríguez
Gómez et al., 1996: 198)
Los datos cualitativos se distinguen por tanto, por ser elaboraciones
de carácter descriptivo que tratan de representar la compleja
multidimensionalidad de los hechos sociales, dando cuenta de informaciones
diversas, ricas y densas en significados, pero vinculadas a un determinado
contexto, susceptible de ser afectado por procesos caóticos no lineales , por
lo que los datos resultan difícilmente reproducibles de forma idéntica. Y esta
imposibilidad de reproducción es la que da lugar a que, para determinados
autores, sean considerados como “datos blandos”, queriendo indicar con
ello que no admiten el tratamiento matemático-estadístico impuesto por el
tradicional método científico positivista.

324
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

2. La sistematización como base para el análisis de datos cualitativos


En el transcurso de una investigación de corte cualitativo, una gran parte
del tiempo y del esfuerzo está dedicado a la recopilación de la información
que constituirá el corpus de datos para el análisis. Pero, como ya hemos visto,
la investigación se realiza en unas determinadas condiciones de contexto
(económico, social y político, en un ámbito local, regional, nacional o
mundial), que constituyen la condición de posibilidad de la investigación, fuera
del cual no es factible entenderla, pues es parte integrante de su realización.
(Jara Holiday, 2009), por lo que la información recogida deberá incluir dicho
contexto.
www.fragua.es

Los datos cualitativos incluyen, por tanto, no solo los relatos proporcionados
por los informantes sino también los referentes a los enfoques teóricos y
metodológicos de los que partimos, la revisión bibliográfica y documental
relevante al objeto de estudio, así como las normas, visiones, imaginarios,
mitos, percepciones, actitudes, categorías, conceptualizaciones, estilos de vida,
valores, etc. que rodean y contextualizan la investigación.
Como consecuencia de ello, el investigador cualitativo se enfrenta
a un cúmulo de informaciones de muy diversa índole que, antes de
poder ser analizadas e interpretadas, deben ser sometidas a un proceso de
clasificación, catalogación y ordenación, que las transforme en un conjunto
de datos relacionados mediante algún “sistema de orden”. Dicho sistema debe
posibilitar el manejo ágil de los datos, la selección y recuperación de los más
pertinentes en cada momento y en relación a cada uno de los objetivos del
estudio, así como la socialización de la información dentro y fuera del equipo
de investigación.
Por lo tanto, el primer paso en el análisis ha de ser, necesariamente,
una sistematización de la experiencia investigadora y de la información
recopilada a través de dicha experiencia, que tenga en cuenta la dimensión
socio-histórica de la investigación (en relación al contexto), su carácter
dinámico y complejo y la multidimensionalidad de los aspectos objetivos
y subjetivos de la realidad social que se investiga.
La sistematización, en ese sentido, puede considerarse como “una
operación, o un método, que se ubica en el campo de las investigaciones cualitativas
y que apunta a recuperar y a entender el proceso de la acción social, es decir, el
juego de interacción dinámica entre la acción intencionada de un sujeto y las
circunstancias en las que esa acción trata de desplegarse” (Palma, 2003).

325
Antonio Lucas y Alejandro Noboa (eds.)

Cuando hablamos de sistematización en estos términos, estamos


hablando de un análisis de la praxis en el que se recupera la experiencia
vivida, para criticarla y realizar nuevas propuestas sobre ella. “Subyace una
posición epistemológica que entiende que el conocimiento no genera las prácticas,
sino que ‘se constituye como tal a través de la práctica’, es decir, un conocimiento
que no existe independientemente de ésta, y que por lo tanto, califica a toda
práctica como generadora de conocimientos. Por eso decimos que sistematizar
remite a una práctica reflexionada” (Krmpotic, 2003).
La sistematización queda así entendida como una herramienta
metodológica para la organización de la información obtenida, que posibilita
la conceptualización y retroalimentación teórica. Dentro de la investigación
www.fragua.es

y del análisis cualitativo, la sistematización es la fase del proceso de trabajo


en la que se establecen las conexiones racionales de los datos para, a partir
de ellas, reconstruir el sentido y la significación del hecho social: “es un
proceso que, a través de las distintas aproximaciones sucesivas, encuentra
correspondencias y conexiones lógicas que permiten entender y comprender
los fenómenos, para ubicarlos en un contexto de totalidad” (Mendoza
Ragel, 1992).
Por lo tanto, el primer paso de la sistematización será, en todos los casos,
listar la información disponible, a fin de poder organizarla y clasificarla
según un sistema de orden. Para ello, en primer lugar, deberemos definir un
eje de sistematización o, lo que es lo mismo, una idea central que nos sirva
de guía para ordenar lo acontecido.
El objetivo general de la investigación será, sin duda alguna, el eje
principal de sistematización, ya que es la pregunta fundamental a la que,
mediante el análisis, deberemos dar respuesta. Sin embargo, a efectos
prácticos, suele ser mucho más efectivo utilizar primero los objetivos
específicos o áreas de información a explorar en nuestro estudio, realizando
un esquema independiente de sistematización para cada uno de ellos.
Solamente al final del proceso, cuando ya tengamos ordenados y clasificados
todos los datos según los ejes específicos, procederemos a combinarlos y a
buscar relaciones entre ellos y con el objetivo general, completando así la
sistematización global de nuestra investigación.
A la luz de cada uno de los ejes de sistematización seleccionados,
deberemos analizar los siguientes aspectos de nuestra investigación:

326
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

a) La investigación como proceso y la memoria histórica de las situaciones


vividas. Debemos identificar, en primer lugar, la información referente al
proceso que hemos seguido para llevar a cabo la investigación y a la lógica
en la que nos hemos sustentado para realizarlo. A través de notas de campo y
registros de entrevista, revisaremos la historia de cada entrevista, cada grupo
de discusión o cada observación que hayamos hecho, en relación al contexto,
a los participantes y a las circunstancias particulares en que se desarrollaron.
Sistematizar nuestra experiencia de investigación significa también reconstruir
la “historia particular” del proceso de investigación, para poder reflexionar y
aprender sobre ella y sobre el modo en que el proceso o la lógica del mismo ha
influido sobre los resultados obtenidos.
www.fragua.es

b) Los sujetos de la investigación. A continuación, deberemos


identificar la información sobre los participantes: todos ellos, investigadores
e investigados, forman parte del proceso y son, por tanto, sujetos de
investigación. La investigación cualitativa es un proceso de interlocución
entre personas en el que se negocian discursos, teorías y construcciones
culturales. Por ello, para poder realizar un buen análisis e interpretación de
resultados, deberemos ser capaces de identificar el papel que han jugado
dichos sujetos y la forma en que han influido en la investigación.
c) La ordenación de informaciones. En la investigación cualitativa,
la información suele recogerse de modo desordenado, conforme se va
encontrando (fuentes secundarias, memoria oral, etc.) o según la lógica
del discurso de los participantes, que no siempre coincide con la lógica de
los temas de investigación. Una tarea fundamental de la sistematización
será, por tanto, poner orden en la información, incluyendo tanto la
información de contexto como los relatos hablados o escritos, junto a
cualquier otra información que hayamos recogido, como puede ser el
material gráfico o audiovisual elaborado o aportado por los participantes
(fotos, videos, collages, etc.). Para esta ordenación, deberemos establecer
una primera clasificación de la información en subcategorías generales, que
normalmente se derivan de los temas específicos que se han tratado en la
investigación y que posteriormente, son revisadas y reubicadas durante el
proceso de análisis.
d) El análisis como proceso continuo. En toda investigación, pero aún
más en la cualitativa, el análisis es una constante durante todo el proceso de
investigación: al trabajar con guiones abiertos de entrevista, de discusión
o de observación, es necesario realizar un pre-análisis en cada paso y en

327
Antonio Lucas y Alejandro Noboa (eds.)

cada momento, para poder establecer el siguiente. Por eso también es


necesario objetivar lo vivido (por el investigador, por el equipo) y convertir la
propia experiencia en objeto de estudio e interpretación teórica. Identificar
y recopilar las distintas interpretaciones de quienes participaron en dicha
situación o proceso nos permitirá posteriormente contrastarlas, teniendo en
cuenta todos los puntos de vista y enriqueciendo con ello el análisis y la
interpretación de los datos.
e) La investigación como modelo de aprendizaje. Durante el proceso de
investigación, el investigador y el equipo tiene que desarrollar una conciencia
profesional que se genera a partir de la identificación de problemas y de
la búsqueda de soluciones. Al sistematizar la información que se recopila
www.fragua.es

y genera en la investigación estamos también identificando los nuevos


conocimientos adquiridos, no sólo sobre el tema objeto de estudio, sino
también sobre el proceso metodológico que hayamos seguido, sobre los
sesgos que hayamos podido introducir nosotros como investigadores, o
cualquier otro participante, permitiendo la reflexión posterior sobre el
proceso global de producción de conocimiento.
f ) La comunicación y la socialización de conocimientos. Una
investigación tiene que dar como resultado un nuevo conocimiento
que debemos hacer visible al final de nuestro trabajo (como informe de
investigación, como artículo o ponencia científica, como punto de partida
para otra investigación posterior, etc.). La sistematización de nuestro
proyecto de investigación nos facilitará esa tarea, ya que pondrá a nuestra
disposición un conjunto de informaciones transformadas en datos,
clasificadas y organizadas por ejes de conocimiento. A partir de dichos ejes
podremos fácilmente construir nuevos discursos, tanto sobre el proyecto en
general como centrados en los diferentes aspectos que han intervenido en
la investigación.

3. La formalización del proceso analítico


En el proceso de investigación cualitativa la recogida de información y
el análisis de la misma, en muchas ocasiones, ocurren de manera simultánea;
el investigador está constantemente interactuando con la realidad que
investiga, analizando lo que acontece, conceptualizándolo e ideando las
fórmulas para expresarlo y conservarlo. Las notas de campo, los registros
de entrevista, la información sobre las circunstancias particulares o sobre la

328
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

influencia de los elementos culturales son, sin lugar a duda, construcciones


descriptivas e interpretativas hechas por el investigador y por el equipo de
trabajo, lo que implica la existencia de un primer análisis y una primera
reflexión sobre los mismos.
Además, tras cada nuevo grupo de discusión, cada entrevista o cada
observación, el investigador altera su percepción sobre el fenómeno que
estudia, aprendiendo de ellos y reelaborando los dispositivos de captura
para incluir las nuevas informaciones que van surgiendo y que no estaban
contempladas en los protocolos originales de la investigación. A cada paso
surgen nuevas hipótesis y se detectan huecos y áreas de información que
necesitan ser exploradas.
www.fragua.es

De hecho, el propio trabajo de campo constituye ya una primera


reducción del conjunto de informaciones, que es una de las claves del
posterior proceso analítico, ya que el investigador, al preguntar e indagar
sobre aspectos concretos, está de alguna manera seleccionando y clasificando
la información, al asignarle la condición de relevante o irrelevante para su
objeto de estudio. “Cuando el investigador decide recoger determinados datos
y no otros, cuando anota en su diario de campo sólo determinados sucesos que
considera relevantes sin prestar atención a otros que tal vez pasan inadvertidos,
se está dando una reducción consciente o inconsciente de los datos” (Rodríguez
Gómez et al., 1996: 205)
Se suele decir que, debido a esta dificultad de separación entre las fases
y momentos de la investigación cualitativa, se ha escrito muy poco sobre
los procedimientos concretos de análisis -que los investigadores raramente
hacen explícitos- y que la mayoría de los manuales al uso pasan casi “de
puntillas” sobre la fase de análisis. Esto pudo ser así en otros momentos,
en los que el análisis cualitativo se realizaba mayoritariamente de forma
intuitiva, sin embargo, hoy en día estas afirmaciones están muy poco
fundamentadas en la realidad.
Desde la década de 1960, denominada por Denzin y Lincoln como la
“edad dorada del análisis cualitativo riguroso” (Denzin & Lincoln, 1994) se
han venido produciendo múltiples esfuerzos de formalización de las técnicas
de análisis cualitativo, que se han visto revitalizados a partir de la década
de 1990, con la introducción de los programas informáticos para análisis
cualitativo asistido por ordenador. La simple consulta de los manuales de
uso de dichos programas refutaría la idea de que hay poca información
publicada, ya que todos ellos proporcionan descripciones muy detalladas

329
Antonio Lucas y Alejandro Noboa (eds.)

sobre la operativa de análisis y, muchos de ellos además, la acompañan de


amplia información sobre los marcos y presupuestos teóricos de los que
parten.
De las corrientes principales y de las diversas conceptualizaciones
desarrolladas en la época dorada, queremos destacar sobre todo la Grounded
Theory o Teoría Fundamentada de Glaser y Strauss, tanto por el avance que
supuso como método sistemático y riguroso de análisis, como por haber sido
(y seguir siendo) la referencia conceptual clave de varios de los programas
informáticos más relevantes de los que disponemos hoy en día para el análisis
cualitativo. En el capítulo 6 de este manual ya se ha hecho referencia a ella.
www.fragua.es

Según sus autores, la Grounded Theory constituye una tercera vía de


aproximación al análisis cualitativo. Consiste en la aplicación de un método
analítico de comparación constante (MCC) en el que se combinan los
procedimientos de codificación descritos por Berelson para el análisis de
contenido, con el método de inducción analítica planteado por Znaniecki.
La codificación de Berelson permite convertir los datos cualitativos en
información cuantificable, de modo que se puedan testar provisionalmente
las hipótesis teóricas. La inducción analítica de Znaniecki inspecciona la
información en busca de categorías y de propiedades o características
que ayuden a definir dichas categorías, para así crear teoría a partir de la
conceptualización. (Glaser & Strauss, 1967).
La Grounded Theory y el método de comparación constante recogen
los tres principios fundamentales del análisis cualitativo actual: en primer
lugar, porque entiende que el proceso de codificación y clasificación de
los datos es inseparable de la conceptualización e interpretación de los
mismos; en este sentido, el propio Strauss (1987:123) dice que su foco
“no está meramente en la recogida u ordenamiento de una masa de datos, sino
en la organización de las muchas ideas que emergen del análisis de éstos”. En
segundo lugar, porque entiende que el análisis y la recogida de información
son procesos que se alternan y simultanéan en el tiempo. Por último,
porque entiende el análisis como un proceso que, aunque se identifica con
la codificación y con los procedimientos de clasificación de datos, está
sustentado en la comparación analítica y en las preguntas de investigación
(García Ferrando et al., 2005).
Obviamente, la Grounded Theory no es el único método posible
y tiene sus propias limitaciones, entre las que se encuentra una cierta
tendencia al positivismo, al considerar que la cuantificación es la única

330
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

vía posible para testar las hipótesis teóricas surgidas de la investigación.


Sin embargo, la crítica principal a esta corriente teórica tiene un carácter
epistemológico y surge desde el constructivismo, bajo el argumento de que,
su definición como método para “descubrir teorías a partir de los datos”
implica la consideración de que existe una realidad que está ‘ahí’ y que
“los datos hablan por sí solos”, descartando con ello uno de los principales
presupuestos de la investigación social de segundo orden: el investigador
participa en la construcción de la realidad que investiga y observa los datos
desde su propia perspectiva, reflejando sus creencias y representaciones del
objeto a estudiar a lo largo de todo el proceso de investigación.
Para superar esta limitación, Charmaz (Grounded Theory Methods
www.fragua.es

in Social Justice Research, en Denzin & Lincoln, 2012: 359-380) presenta


una versión constructivista de este método, denominada por algunos
autores “Social Constructionist Grounded Theory” en la que introduce
el paradigma de la ciencia social de segundo orden, considerando que
las categorías y teorías son construidas por el investigador. Es decir,
es el investigador el que crea –en lugar de “descubrir”- la organización,
explicación y presentación de los datos y lo que se “descubre” en el proceso
son las ideas que tiene el investigador sobre dichos datos, una vez que
ha interactuado con ellos, o lo que es lo mismo, su re-construcción de la
realidad observada.
El primer paso del análisis.
Transformar la información en datos cualitativos
Para poder sistematizar nuestra información y realizar el análisis, el
primer paso que tendremos que dar será el de transformar las informaciones
que hemos recogido durante el proceso de investigación, en un conjunto
de datos operables.
En el capítulo 10, dedicado al análisis de contenido, ya se ha descrito
una forma de transformar la información (en ese caso, un texto o una
narración audiovisual) en datos cualitativos, primero separando el texto
o narración en expresiones para, a continuación, seleccionar aquellas
que son relevantes a nuestro objeto de estudio y someterlas a un proceso
de clasificación y agrupamiento en un número reducido de categorías
pertinentes para el análisis.

331
Antonio Lucas y Alejandro Noboa (eds.)

El análisis cualitativo se fundamenta, en términos generales, en los


mismos conceptos: se comienza por separar los distintos elementos que
componen la información; a continuación, se procede a clasificarlos y
agruparlos, identificando y describiendo las relaciones entre ellos para,
en última instancia, reconstruir el todo a partir de sus elementos y de las
relaciones existentes entre ellos.
Para llevar a cabo este proceso, una de las primeras decisiones que
deberemos tomar y que forma ya parte del proceso de análisis, es el
formato en el que queremos trabajar con nuestras informaciones, lo que a
su vez tendrá mucho que ver con las técnicas de recogida de información
que hayamos utilizado. Por ejemplo, en cualquier estudio cualitativo es
www.fragua.es

habitual que, mientras una parte de la información esté en un formato


textual (las notas de campo, la información de fuentes secundarias, etc.),
otra parte se encuentre en formatos diferentes: grabaciones de audio o de
video (habituales en las entrevistas en profundidad y grupos de discusión),
fotografías, collages y dibujos, etc.
Nuestra primera decisión será si vamos a homogeneizar los materiales,
por ejemplo convirtiéndolos todos a texto, o si vamos a homogeneizar
una parte pero conservaremos otra en su formato original. La decisión
dependerá, fundamentalmente, de nuestros objetivos de análisis y de lo
que pretendamos lograr con nuestra investigación. Una práctica habitual
es la de transcribir los discursos que se producen en entrevistas y grupos
de discusión, pero conservar en su formato original las fotografías, collages
e imágenes, a las que, simplemente, se irán asignando “etiquetas” para su
identificación.
Convertir a texto los discursos y narraciones nos facilitará enormemente
algunas tareas del análisis, como la codificación y la asignación de categorías.
Aunque hoy en día ya existen programas informáticos de ayuda al análisis
cualitativo que pueden trabajar con imágenes y con vídeo, no todos ofrecen esta
posibilidad, además de que, si nuestra investigación cuenta con un relativamente
elevado número de entrevistas y grupos, el procesamiento de la información se
torna mucho más lento cuando trabajamos con material audiovisual.
Además, si tenemos la precaución de, junto a la transcripción, incluir
una “escaleta” con el minutado de nuestro archivo audiovisual, podremos
volver a ella siempre que queramos, para extraer un fragmento, comprobar
el lenguaje no verbal, etc.

332
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

La segunda decisión que deberemos tomar será si, al transcribir el


discurso de los participantes, vamos a incluir en cada transcripción la
descripción de la situación en que se produce el discurso (por ejemplo,
la información sobre el lenguaje no verbal del informante o sobre
cualquier otra circunstancia que pueda afectar al sentido y significación
del discurso). En este caso, la decisión puede estar muy vinculada al tipo de
procesamiento de la información que vayamos a hacer después: si vamos a
utilizar únicamente archivos de texto puede resultar más cómodo tenerlo
todo en el mismo fichero, pero si vamos a utilizar algún programa de base
de datos o software de ayuda al análisis, suele ser más conveniente tenerlo
en ficheros separados, en cuyo caso, el minutaje se convierte en proceso
esencial, ya que será la forma de poder vincular ambos archivos.
www.fragua.es

Una vez que hemos decidido sobre el formato en que vamos a trabajar
la información, el paso siguiente será el de dividirla en unidades de análisis.
La separación en unidades de análisis.
Los criterios de separación de nuestra información en unidades de
análisis pueden ser muy diversos y su elección dependerá de múltiples
factores, entre los que los objetivos y características particulares de la
investigación ocupan un lugar destacado. Así por ejemplo podrían
resultarnos de utilidad los criterios de tipo físico, utilizando los espacios
geográficos (lo que se dijo en determinado lugar) o temporales (lo que se
dijo en determinado momento) o cualquier combinación de ambos (lo que
se dijo en determinado momento y lugar) como criterios de segmentación.
O las gramaticales o conversacionales, utilizando las oraciones o párrafos
en el primer caso y las declaraciones o turnos de palabra en el segundo,
como criterios para dividir nuestro texto en unidades de análisis. En otros
casos, serán los roles sociales o laborales (lo que dicen los miembros de un
determinado grupo social o de una determinada categoría laboral) los nos
resultarán más útiles para segmentar nuestro texto.
Sin embargo, la segmentación temática es la más comúnmente
utilizada, ya que todas las investigaciones tratan sobre “algo” (un tema
general) que se aborda desde una serie de temas más específicos o áreas de
información a cubrir, lo que nos proporciona un buen punto de partida
para la separación: lo que unos y otros van diciendo sobre cada uno de esos
temas iniciales que teníamos contemplados en nuestro planteamiento.

333
Antonio Lucas y Alejandro Noboa (eds.)

Lo más frecuente es que acabemos utilizando combinaciones más o


menos complejas de varios de estos posibles criterios, superponiéndolos
en orden jerárquico. En muchas de esas combinaciones está presente el
criterio temático, lo que contribuye a que se considere el criterio de análisis
cualitativo por excelencia. Por ejemplo, si nuestra muestra cualitativa
es heterogénea e incluye diversidad de grupos sociales de informantes,
podemos utilizar el criterio de rol social en la jerarquía superior y el criterio
temático en la inferior, separando como unidades de análisis lo que dicen
los miembros de un determinado grupo social sobre un determinado tema
específico de interés para nuestro estudio.
En la Ilustración 1 podemos ver un ejemplo de separación de elementos
www.fragua.es

de texto. Corresponde al análisis de la transcripción textual de una


historia de vida, tomado de mi propia tesis doctoral (Hernández, 2012).
Como se muestra en el cuadro, el análisis comienza por la identificación
del documento: el tipo de fuente de la que se trata, el identificador del
documento y la localización de los archivos originales, tanto de audio como
de la transcripción del texto.
A continuación, se identifican los elementos de texto, también en
ambos archivos (audio y texto), de manera que sea posible en cualquier
momento localizar un elemento concreto dentro de su contexto original.
La localización en el archivo de audio se hace mediante el minuto y la
localización en el texto mediante el número de línea en que se encuentra el
elemento. El número de líneas que comprende cada uno de los elementos
de texto corresponderá a las unidades de enumeración en caso de que
posteriormente queramos realizar una cuantificación de los elementos.
En éste ejemplo, el criterio de segmentación ha sido temático,
siguiendo un modelo de análisis inductivo, en el que no se partía de ninguna
categorización previa, más allá de los objetivos generales y específicos de la
investigación.
Reducción de los datos: asignación y reasignación de categorías
Una vez que hemos separado nuestra información en unidades de
análisis, el paso siguiente será el de reducir dicha información agrupándola
entorno a un número limitado de categorías y subcategorías que clasifiquen
conceptualmente los tópicos relativos al criterio de segmentación utilizado
en la separación de las unidades de análisis. Según el criterio, las categorías
pueden referirse a tiempos, lugares o espacios (criterios físicos); a situaciones,

334
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

actividades y contextos (criterio situacional o contextual); a actividades,


acontecimientos, métodos y procesos (criterio funcional), o a opiniones,
comportamientos, sentimientos, relaciones entre personas, etc. (criterio
temático).
Este proceso asignación de categorías a los elementos de texto recibe
el nombre de “codificación”: asignación de un código. En el enfoque
puramente cualitativo las categorías suelen denominarse mediante
palabras o términos que hagan referencia a su contenido y significado y
su denominación (término o expresión) debe ser lo más clara e inequívoca
posible. Para cada categoría, además, podemos crear subcategorías o
podemos añadir descriptores (propiedades o características) que nos
www.fragua.es

ayuden a concretar más los conceptos de los que se trata en el texto y


que, al final del proceso, nos puedan ayudar a crear nuevas categorías, o a
agrupar las ya existentes.
Una vez que tengamos todas las informaciones en el formato en el que
vayan a ser analizados y que hayamos completado la primera asignación de
categorías, ya habremos completado la primera transformación de nuestras
informaciones en un conjunto de datos analizable.
En el cuadro 1 podemos ver, junto a los elementos de texto, una
forma de asignación de categorías, subcategorías y descriptores. A los
datos ya señalados (identificación del documento y de los elementos
de texto), se asignan los identificadores de la categorización temática,
distinguiendo el tema general (categoría), el específico (subcategoría) y los
descriptores de ésta última. La elección de la denominación con la que se
describen las categorías y subcategorías corresponde a una decisión de tipo
analítico, ya que dichas denominaciones van en estrecha relación con los
objetivos específicos de la investigación (en el ejemplo, analizar la relación
socio-histórica entre la investigación de consumo y la producción de
conocimiento sociológico en España, en un relato diacrónico que abarcaba
desde la década de 1950 al año 2012).
Así, el primer elemento de texto corresponde a la categoría
“Transformaciones sociales de la década de 1960” y a la subcategoría “el
consumo como manifestación del cambio social”. El segundo elemento,
por su parte, corresponde a la misma categoría general “Transformaciones
sociales de la década de 1960” pero a una subcategoría diferente, que hemos
llamado “el consumo como motor de la transformación socio-política”.

335
Antonio Lucas y Alejandro Noboa (eds.)

En ambos casos, la categorización se completa con una serie de


descriptores que nos servirán tanto para revisar posteriormente las categorías
y subcategorías y realizar nuevas agrupaciones y desagregaciones, como para
identificar más claramente a qué nos estamos refiriendo con cada una de ellas.
Tal y como ya se ha explicado en el Capítulo 6, Análisis de Contenido,
tanto las categorías como las subcategorías y los descriptores deberán cumplir
los requisitos de ser homogéneas (respecto al criterio de clasificación),
mutuamente excluyentes (significados claramente diferenciados que
permitan la asignación inequívoca) y exhaustivas (que cubran todas las
posibles variaciones).
www.fragua.es

Cuadro 11.1. Asignación de categorías, subcategorías y descriptores

Datos del archivo:


FUENTE
IDENTIFICA- LOCALIZADOR AUDIO (URL LOCALIZADOR TEXTO
historia de
DOR ET001 del archivo) (URL del archivo)
vida oral
Elementos de texto:
Tema general: Transforma-
Estudiar el consumo en España en ciones sociales década 1960
los años 60 no era ninguna tonte- Tema específico: el consumo
ría, porque el cambio del consumo como manifestación del
Archivo au-
Archivo texto era una de las manifestaciones más cambio social
dio (minuto)
(líneas) 474-477 evidentes de cómo estaba cambian- Descriptores: Representa-
12:10
do el país a nivel de la represen- ciones sociales Estudios de
taciones, de los intereses, de los consumo Cambio de hábitos
valores, de las formas de vida… Cambio social (manifesta-
ción)
El franquismo se creó su tumba Tema general: Transforma-
cuando introdujo la sociedad de ciones sociales década 1960
consumo; tardó tiempo, pero Tema específico: el consumo
ese fue el momento. No fueron como motor de la transfor-
los partidos políticos los que le mación socio-política
echaron patas arriba, aunque, por
Archivo au-
Archivo texto descontado, ayudaron a ello. Pero
dio (minuto)
(líneas) 477-480 si no hubiera habido un cambio Descriptores: Cambio de
12:10
de mentalidad - que es que al final mentalidades Sociedad de
explota en la década de los 70- si consumo Cambio político
no hubiese habido ese cambio de (motor) Cambio social (mo-
mentalidad, finalmente no se yo tor) Franquismo
de qué manera se hubiera podido
adaptar al cambio que se produjo

336
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

El objetivo del proceso de categorización es, por un lado, el de reducir


el amplio volumen de información que hemos recogido a un número
manejable de categorías y, por otro, el permitir la comparación entre
distintos puntos de vista sobre una misma categoría. Este segundo objetivo
es, en muchos casos, el que puede aportar mayor riqueza al análisis, pero
también el que hace más difícil el proceso de categorización, obligándonos
a una constante revisión y reformulación de las categorías y subcategorías.
Cuando tenemos que trabajar con un número relativamente elevado
de fuentes, o cuando dichas fuentes tienen puntos de vista muy diferentes
sobre nuestro objeto de estudio, lo más probable es que nos encontremos
con que el número de categorías, subcategorías y descriptores continúa
www.fragua.es

siendo demasiado alto como para resultar operativo, por lo que deberemos
revisarlas, tratando de agrupar las categorías iniciales en nuevas categorías
más generales, que nos ayuden a reducir el volumen de datos con el que
trabajamos.
Por eso, el ejercicio de categorización es un proceso dinámico, en el
que constantemente debemos estar revisando y modificando las categorías
y subcategorías, al mismo tiempo que requiere un ejercicio importante de
conceptualización para definir y “encontrar” las categorías y subcategorías
capaces de reducir nuestro conjunto de datos, perdiendo el mínimo de
información significante en el camino.
En la mayoría de las ocasiones, el éxito del proceso radica en encontrar
el adecuado equilibrio entre los conceptos generales representados en cada
categoría y el respeto a la particularidad de cada elemento de texto, que
deberán quedar representados en las subcategorías y en los descriptores.
Este proceso dinámico de categorización y reducción de datos,
mediante la asignación y reasignación de categorías, es la esencia del
análisis cualitativo. Es en este proceso en el que se desarrollan los conceptos
clave que después nos ayudarán a interpretar los resultados y a extraer
conclusiones de ellos. El peligro para el investigador, en este proceso,
será la natural tendencia del ser humano a estereotipar los conceptos, lo
que podría llevar a que, en cuanto tengamos una primera categorización
inductiva, o cuando partamos de una categorización previa deductiva,
tratemos de hacer que los datos “encajen” en nuestro modelo, forzando su
significado o a desestimar, como “no relevantes”, aquellos que no encajan en
la categorización, e incluyendo solo los que nos resultan más convenientes.

337
Antonio Lucas y Alejandro Noboa (eds.)

La “continua vigilancia epistemológica” a la que hacía referencia Ibáñez


(Del algoritmo al sujeto. Perspectivas de la investigación social, 1985), será
de importancia crucial para evitar dicho sesgo. Si continuamente estamos
revisando nuestra manera de mirar los datos, preguntándonos por qué
estamos incluyendo unos y desestimando otros, por qué los asignamos a una
determinada categoría o subcategoría y hasta qué punto estamos interviniendo
nosotros y nuestra particular postura ideológica en la categorización, el
resultado final será, además de mucho más riguroso, sin duda mucho más
explicativo. Como poco, nos habrá ayudado a aprender/comprender mucho
más y mucho mejor, tanto nuestra manera de investigar como el fenómeno
que estábamos estudiando.
www.fragua.es

Síntesis y agrupamiento de datos


El proceso de categorización y codificación de la información lleva
implícito el concepto de síntesis, ya que al categorizar los datos, estamos
también sintetizándolos en torno a los conceptos teóricos que rigen nuestra
clasificación. Sin embargo, para poder interpretarlos y darles sentido, para
reconstruir el todo a partir de las partes, aún tenemos que completar el proceso
agrupando las categorías y relacionándolas unas con otras. Para ello, podemos
recurrir a múltiples técnicas, que van desde la construcción de matrices, cuadros
y diagramas, hasta el análisis lógico o relacional aplicado a nuestro conjunto de
códigos y categorías.
Para Miles y Huberman (en Denzin & Lincoln, 1994: 428-444), se trata de
un proceso fundamental del análisis, ya que “las presentaciones de los datos que
están suficientemente enfocadas para permitir ver el grupo completo de datos en
un sitio fijo y que están sistemáticamente ordenadas para contestar la pregunta de
investigación ayudan inmensamente a conseguir un análisis válido.” Su principal
utilidad es mostrar, de forma reducida, el conjunto “completo” de datos y no solo
“agrupaciones” o “hechos claves” selectivamente extraídos.
Las representaciones gráficas suelen ser muy útiles, por ejemplo, para definir
cuál es la categoría o concepto central que puede servir para agrupar a toda otra
serie de categorías y conceptos. Dependiendo del tipo de relación que exista entre
los elementos que vamos a incluir en el gráfico o ilustración podemos construirlas
como árboles, cuando existe una relación jerárquica; como “nubes” de atributos en
torno a una idea o eje central, como matrices de doble entrada o como espacios
multidimensionales en torno a un número reducido de ejes.

338
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

En el cuadro 11.2 podemos ver un ejemplo de representación gráfica en


forma de árbol, expresando la relación jerárquica existente entre las distintas
categorías obtenidas en el análisis de las percepciones espontáneas sobre
un producto natural, el acebo. El ejemplo procede de una investigación
cualitativa dentro del ámbito del desarrollo rural sostenible (Hernández et
al, 2009).
Las categorías parten de una idea común a todos los colectivos
estudiados: se trata de un producto tradicional, conocido “desde siempre”.
A partir de esta idea principal aparecen sus aspectos positivos y negativos
como producto de decoración navideña. Por un lado, es un producto
que se asocia, de manera inequívoca, a la idea de Navidad. Por otro, se
www.fragua.es

considera que es un producto que se ha quedado un tanto anticuado y


cuyo manejo es incómodo. Cada una de estas categorías de segundo nivel
está compuesta, a su vez, por una serie de conceptos que la delimitan y
nos ayudan a fijar su significado. Así, en la asociación directa a la Navidad
aparece la idea de una “iconización” del producto, que se ha convertido en
una representación gráfica de la navidad con identidad propia, separada de
la del producto físico.

Cuadro 11.2. Ejemplo de diagrama jerárquico

339
Antonio Lucas y Alejandro Noboa (eds.)

En cuadro 11.3 podemos ver la misma estructura de conceptos y


categorías pero, esta vez, en forma de nube de atributos. Representa las
percepciones espontáneas de un grupo determinado de participantes (los
consumidores finales), resumiendo las categorías que representaban los
valores (positivos y negativos) del producto como objeto de decoración
navideña para este colectivo.
Las categorías que eran percibidas como elementos positivos se han
incluido en cuadros con fondo gris. Las categorías con un valor negativo,
o que representaban frenos a su uso como objeto decorativo, en cuadros
de fondo blanco. Como vemos, en el centro del diagrama se ha situado la
categoría que constituía el eje o idea central, compartida por todos, de un
www.fragua.es

producto “tradicional”, universalmente conocido y “de toda la vida”.

Cuadro 11.3. Ejemplo de constelación de atributos


entorno a un eje central

Tal y como podemos ver en la ilustración, en esta representación se ha


omitido la categoría “su manejo es incómodo”, representándose directamente
la subcategoría “pincha mucho” ya que en este colectivo no se percibían los
otros problemas de manipulación (ramas demasiado grandes, pérdida de
bolas rojas…) que eran propios de otros colectivos como los floristas o los

340
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

mayoristas. De este modo, la subcategoría única “pincha mucho” remitía por


sí sola al concepto general de incomodidad y la subcategoría era más explícita
que la categoría.
El trabajo conceptual de esta representación, desarrollado en primer
lugar como herramienta de análisis, se utilizó posteriormente como
material de presentación final de resultados, por su valor explicativo de
las percepciones sobre el producto (la ilustración muestra el material
finalizado, tal y como fue usado en el informe final).
Otra forma de trabajar con los conceptos y categorías, relacionándolos
en un conjunto integrado, es la utilización de matrices de doble entrada,
www.fragua.es

en las que, por lo general, se expresan las relaciones entre una determinada
dimensión, que se coloca en columnas, con otra serie de dimensiones o
categorías, que se colocan en las filas, recogiendo en su interior – las celdas
de la matriz- cualquier tipo de descriptores que expresen la relación entre
ambas (fragmentos de texto, citas, figuras simbólicas, etc.).
Las matrices son especialmente útiles para analizar la relación de
las dimensiones transversales con las fenomenológicas y contextuales.
Por ejemplo, siempre que se hacen análisis evolutivos, se suelen utilizar
matrices para analizar la variación de las principales categorías y conjuntos
de categorías (dimensiones fenomenológicas) en los diferentes momentos
del tiempo (dimensión transversal). Del mismo modo se pueden utilizar
matrices para analizar las variaciones fenomenológicas de las categorías
en función de los principales roles desempeñados por los informantes
(dimensión transversal), o de los distintos colectivos objeto de estudio, o
siempre que se deseen analizar relaciones causa-efecto.
Junto a los gráficos, diagramas y matrices, el análisis reticular permite
establecer y visualizar gráficamente las relaciones existentes entre categorías
y subcategorías, facilitando la comprensión de la multidimensionalidad de
los datos. Bliss, Monk y Ogborn en su Análisis Sistémico de Redes (Bliss
et. al., 1983), desarrollaron una metodología de codificación y análisis que
permite su posterior tratamiento estadístico. Su método comienza con
una serie de preguntas de respuesta libre mediante las que se recopilan las
palabras y conceptos clave, para posteriormente ordenarlos y someterlos a
un análisis de redes que muestre las relaciones entre ellos. Los resultados
permiten explicar los factores que más influyen en dichas relaciones,
permitiendo además aplicar análisis estadísticos (de tipo cuantitativo) para
poner a prueba la solidez de los resultados.

341
Antonio Lucas y Alejandro Noboa (eds.)

4. Obtención de resultados y conclusiones del análisis


Tal y como hemos definido al inicio de este capítulo, la obtención
de resultados consiste, en pocas palabras, en la reordenación relacional de
los elementos de análisis para reconstruir con ellos un nuevo discurso que
una dichos elementos en un todo estructurado y significativo respecto a los
objetivos de investigación planteados.
Los resultados de cualquier investigación deben suponer algún tipo de
aportación o avance en la explicación, comprensión o conocimiento del
objeto de estudio y, en el caso concreto de la investigación cualitativa, dichas
aportaciones estarán estrechamente vinculadas con las decisiones sobre el
www.fragua.es

significado de las cosas (es decir, con las interpretaciones) que el investigador
haya ido tomando a lo largo de todo el proceso de investigación.
Por ello, la obtención de resultados y extracción de conclusiones es un
proceso dinámico que está presente en todas las fases de la investigación:
desde la primera aproximación al objeto de estudio y la recogida de
información previa, a la realización del trabajo de campo y su posterior
tratamiento y análisis, el investigador va obteniendo impresiones y va
elaborando reflexiones que constituyen, en sí mismas, conclusiones
provisionales sobre aspectos particulares de la investigación.
Durante el trabajo de campo, la evaluación constante que ha de
hacer el investigador sobre el grado de saturación teórica de la muestra o
las modificaciones que va introduciendo en la guía de discusión a medida
que avanza la recogida de información se sustentan en las conclusiones e
interpretaciones que va obteniendo de su experiencia investigadora.
Durante la fase de codificación, la creación y definición de las categorías,
subcategorías y descriptores es también un proceso de interpretación de los
datos y de obtención de resultados provisionales y el sistema de categorías
puede ser considerado como un resultado de la investigación con entidad
propia, como hemos visto en el ejemplo mostrado en los cuadros 1
y 2 del epígrafe anterior, ya que al examinar los datos estamos también
interpretando su significado y reconstruyendo la relación estructural que
existe entre ellos (Strauss & Corbin, 2002).
Sin embargo, la obtención de resultados, su interpretación y la
extracción de conclusiones dependerá, en gran medida, de la estrategia o
estilo analítico general del investigador, que es “anterior a la utilización

342
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

de técnicas específicas y posterior también, pues conecta el análisis con


el informe de resultados, con la escritura”. Dicho estilo analítico estará
determinada, por un lado, por la orientación teórica del investigador y
los objetivos originales del estudio (que determinarán en gran medida su
enfoque) y, por otro, por la estrategia de escritura que siga, que se verá
plasmada en la confección del índice de capítulos en los que se dividirá el
informe o memoria de resultados de la investigación, ya que dicho índice
“nos acerca al esquema que ha servido al analista de sistema de organización
del volumen de información” producida en su investigación (Vallés, M., La
grounded theory y el análisis cualitativo asistido por ordenador, en García
Ferrando et al., 2005: 581-583).
www.fragua.es

Una vez establecido el estilo analítico, el último paso en la obtención


de resultados y la extracción de conclusiones lo constituye la reducción de
categorías, que es en sí mismo un proceso de teorización y delimitación
de la teoría y la redacción de la teoría explicativa propiamente dicha.
En este último paso, una de las herramientas fundamentales con las que
contará el analista es la comparación, ya que permite destacar similitudes y
diferencias entre los elementos que componen una categoría (subcategorías
y descriptores), haciendo posible la formulación de sus propiedades
fundamentales, a partir de las que es posible definir e ilustrar los conceptos
teóricos que representan.
La comparación puede hacerse entre casos de un mismo estudio o
entre diversos escenarios y situaciones que puedan ser equiparados con
el objeto de estudio. Las matrices y figuras conceptuales son, en muchas
ocasiones, parte fundamental de los resultados, ya que en ellas se plasma
la estructura relacional entre los diferentes tópicos, conceptos y categorías
(Rodríguez Gómez et al., 1996: 215).
La comparación permite, además, aplicar los dos principios básicos del
proceso de teorización tal y como se concibe en la Grounded Theory o Teoría
Fundamentada: el criterio de parsimonia (o economía científica), según el
cual el proceso de teorización debe tratar de lograr la máxima explicación
y comprensión del fenómeno estudiado utilizando los mínimos conceptos
y formulaciones posibles, y el criterio de alcance (scope), que persigue
ampliar al máximo el campo de aplicación de una teoría (incrementando
su nivel de abstracción), sin que ésta llegue a desligarse de su base empírica
de partida.

343
Antonio Lucas y Alejandro Noboa (eds.)

El proceso de análisis se cierra con la redacción del informe o memoria


de investigación que, como ya se ha comentado, constituye la última
herramienta de análisis a disposición del investigador. La estructuración
del informe, la confección del índice y de los capítulos y epígrafes que le
darán forma es, en sí misma un proceso de conceptualización y síntesis de
todo el proceso de investigación realizado, en el que se cristalizan y afinan
los desarrollos conceptuales y teóricos elaborados en las fases anteriores.
La narración inherente a la redacción del informe contribuye a integrar
los resultados en un contexto más amplio, generalizando sus aportaciones
y poniendo de manifiesto la forma en que éstas contribuyen al cuerpo de
conocimientos sobre el tema objeto de nuestra investigación.
www.fragua.es

Bibliografía
Bliss, J., Monk, M., & Ogborn, J. (1983). Qualitative data analysis for
educational research: a guide to uses of systemic networks. London: Croom
Helm.
Delgado, J. M., & Gutiérrez, J. (1994). Métodos y técnicas de investigación
en ciencias sociales. Madrid: Síntesis.
Denzin, N. K., Lincoln, Y., & (eds.). (1994). The SAGE Handbook of
qualitative research. Thousand Oaks, California: SAGE.
Freire, P. (2004). Pedagogía de la Autonomía. Saberes necesarios para la
práctica educativa. Sao Paulo: Paz y Tierra.
García Ferrando, M., Ibáñez, J., Alvira, F., & (compiladores). (2005).
El análisis de la realidad social. Métodos y técnicas de investigación (3ª edición
revisada ed.). Madrid: Alianza Editorial.
Glaser, B. G., & Strauss, A. L. (1967) The Discovery of Grounded Theory:
Strategies for Qualitative Research (Seven paperback printing). Chicago:
Transaction Publishers.
Goetz, J., & LeCompte, M. (1988). Etnografía y diseño cualitativo
en investigación educativa. “Evaluación del diseño etnográfico”. Madrid:
Ediciones Morata.

344
Conocer lo social: estrategias, técnicas de construcción y análisis de datos

Hernandez Fernández, C. (27 de febrero de 2013). La producción de


conocimiento sociológico en España (Tesis doctoral). Recuperado el 16 de
marzo de 2013, de E-prints Complutense: http://eprints.ucm.es/20054/1/
T34323.pdf
Hernandez Fernandez, C., & VV.AA. (2009). Aprovechamiento
sostenible del acebo de Soria: Estudio diagnóstico sobre oportunidades de negocio
en el mercado madrileño. Recuperado el 8 de abril de 2013, de Sociedad
Española de Ciencias Forestales (S.E.C.F.): http://www.secforestales.org/
buscador/pdf/5CFE01-676.pdf
Huberman, A. M., & Miles, M. B. (1994). Data management and
www.fragua.es

analysis methods. En N. K. Denzin, Y. Lincoln, & (eds), The Sage Handbook


of qualitative research (págs. 428- 444). Thousand Oaks (California): Sage.
Ibáñez, J. (1985). Del algoritmo al sujeto. Perspectivas de la investigación
social. Madrid: Siglo XXI.
Ibáñez, J. (2003). Más allá de la sociología. El grupo de discusión: Técnica
y crítica. 5ª Edición (Tercera ed.). Madrid: Siglo XXI.
Jara Holiday, O. (2009). La sistematización de experiencias y las
corrientes innovadoras del pensamiento latinoamericano – Una aproximación
histórica. Diálogo de saberes(Nº 3 -Septiembre - Diciembre), 118 -129.
Kjeldal, S.-E. (2002). Back to Basics: The Sequencing of Inductive
and Deductive. Research Methodologies in Fresh Fruit and Vegetable
Research. Forum Qualitative Sozialforschung / Forum: Qualitative Social
Research(3), Articulo 22.
Krmpotic, C. S. (Abril de 2003). Sistematización de la práctica.
Cuadernos metodológicos Nº 2 - Grupo de Investigación y Acción Social
GIyAS.
Lamo de Espinosa, E. (1990). La sociedad reflexiva (Primera reimpresión
2001 ed.). Madrid: Centro de investigaciones sociológicas.
Mendoza Ragel, M. d. (1992). Una opción metodológica para los
trabajadores sociales. Buenos Aires: Humanitas.

345
Antonio Lucas y Alejandro Noboa (eds.)

Palma, D. (1992). La sistematización como estrategia de conocimiento en


la Educación Popular - El estado de la cuestión en América Latina. Papeles del
CEAAL, N° 3.
Palma, D. (2003). La Sistematización como validación de la Intervención
Social. Encuentro “Experiencias de Intervención en el ámbito Familiar y
Comunitario”. Chile: Departamento de Ciencias Sociales de la Universidad
de los Lagos.
Revuelta Domínguez, F. I., & Sánchez Gómez, M. C. (2003). Programas
de análisis cualitativo para la investigación en espacios virtuales de formación.
[Versión electrónica]. Teoría de la educación: educación y cultura en la
www.fragua.es

sociedad de la información(4).
Rodríguez Gómez, G., Gil Flores, J., & García Jiménez, E. (1996).
Metodología de la investigación cualitativa. Málaga: Aljibe.
Sisto, V. (2008). La investigación como una aventura de producción
dialógica: La relación con el otro y los criterios de validación en la
metodología cualitativa contemporánea. Recuperado el 15 de 6 de 2012, de
Psicoperspectivas, 7, 114-136: http://www.psicoperspectivas.cl
Sotolongo Codina, P. L., & Delgado Díaz, C. J. (2006). Capítulo
III. La epistemología hermenéutica de segundo orden. En La revolución
contemporánea del saber y la complejidad social. Hacia unas ciencias sociales
de nuevo tipo. Red de Bibliotecas Virtuales de Ciencias Sociales de América
Latina y el Caribe de la red CLACSO.
Strauss, A., & Corbin, J. (2002). Bases de la investigación cualitativa.
Técnicas y procedimientos para desarrollar la Teoría Fundamentada. Medellín
(Colombia): Editorial Universidad de Antioquía.
West, R., & Turner, L. H. (2005). Teoría de la Comunicación. Análisis
y aplicación. Madrid: McGraw-Hill.

346
www.fragua.es

También podría gustarte