RESEÑA 1000 FERNANDA

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 10

LINA FERNANDA AVILA CELY

METODOLOGÍA DE LA INVESTIGACIÓN

Robert Hernández Sampieri

Capítulo 10
Análisis de datos cuantitativos

En el capítulo se presentan brevemente los principales programas


computacionales de análisis estadístico que emplea la mayoría de los
investigadores, así como el proceso fundamental para efectuar análisis
cuantitativos. Asimismo, se comentan, analizan y ejemplifican las pruebas
estadísticas más utilizadas. Se muestra la secuencia de análisis más común, con
estadísticas descriptivas, análisis paramétricos, no paramétricos y multivariados.
En la mayoría de estos análisis, el enfoque del capítulo se centra en los usos y la
interpretación de los métodos, más que en los procedimientos de cálculo, debid
a que los análisis se realizan con ayuda de una computadora.
LINA FERNANDA AVILA CELY

¿Qué procedimiento se sigue para analizar cuantitativamente los datos?

Una vez que los datos se han codificado, transferido a una matriz, guardado en
un archivo y “limpiado” los errores, el investigador procede a analizarlos. En la
actualidad, el análisis cuantitativo de los datos se lleva a cabo por computadora
u ordenador. Ya casi nadie lo hace de forma manual ni aplicando fórmulas, en
especial si hay un volumen considerable de datos. Por otra parte, en la mayoría
de las instituciones de educación media y superior, centros de investigación,
empresas y sindicatos se dispone de sistemas de cómputo para archivar y
analizar datos. De esta suposición parte el presente capítulo. Por ello, se centra
en la interpretación de los resultados de los métodos de análisis cuantitativo y
no en los procedimientos de cálculo.

Paso 1: seleccionar un programa de análisis

El análisis de datos en los programas especializados sigue un funcionamiento


común, que se divide en dos partes principales: la definición de las variables y
la creación de la matriz de datos. Las definiciones, elaboradas por el
investigador, explican los datos y permiten entender la matriz, que se estructura
en columnas (variables), filas (casos) y celdas (intersecciones entre una columna
y un renglón). Los datos recolectados se organizan en esta matriz, donde cada
celda contiene un valor correspondiente a un caso y una variable. La matriz
actúa de forma similar a una hoja de cálculo, facilitando la organización y
análisis de los datos.
LINA FERNANDA AVILA CELY

La codificación en los programas de análisis de datos asigna valores numéricos


a las variables, como el género o el color de cabello. Las filas representan casos
individuales, y las columnas, variables. Los datos se organizan en una matriz,
donde cada celda contiene un valor correspondiente a un caso y una variable.
Una vez completada la matriz y revisada para evitar errores, se procede al
análisis estadístico, cuyo proceso es similar en la mayoría de los programas,
aunque con pequeñas variaciones en los comandos.

Statistical Package for the Social Sciences o Paquete Estadístico para las
Ciencias Sociales (IBM® SPSS)

El SPSS (Paquete Estadístico para las Ciencias Sociales), desarrollado en la


Universidad de Chicago y actualmente propiedad de IBM, es uno de los
programas más utilizados para análisis estadísticos. Está disponible en varios
idiomas y sistemas operativos como Windows, Macintosh y UNIX. Aunque
diferentes instituciones en Iberoamérica utilizan versiones variadas de este
software, IBM lanza constantemente actualizaciones que mejoran la facilidad de
uso, integran nuevas técnicas de análisis y optimizan el rendimiento. Además,
IBM proporciona módulos adicionales que se pueden integrar con la versión
base del SPSS para análisis más específicos.

El programa organiza los datos en dos vistas principales: la "vista de variables",


donde se definen las variables, y la "vista de datos", que muestra la matriz de
datos. Las opciones de análisis se encuentran en la parte superior, permitiendo al
usuario operar de forma similar a otros programas estadísticos.

El menú "File" permite crear, abrir y guardar archivos de datos, así como
acceder a archivos recientes. El menú "Edit" facilita la edición de datos y la
manipulación de la matriz. A través del menú "Data", se pueden definir las
propiedades de las variables, ordenar datos, validar casos y realizar otras
funciones avanzadas.

El menú "Analyze" ofrece una amplia variedad de análisis estadísticos, desde


estadísticas descriptivas hasta modelos lineales, correlaciones, regresiones,
análisis de factores y pruebas no paramétricas. Además, el SPSS incluye
funciones para la creación de gráficos y herramientas de marketing directo.
LINA FERNANDA AVILA CELY

Finalmente, el programa cuenta con un extenso soporte de ayuda, guías y


manuales, lo que lo convierte en una herramienta versátil y potente para la
investigación estadística.

Minitab
Minitab es un paquete estadístico popular por su bajo costo, facilidad de uso y
amplio conjunto de herramientas, como pruebas descriptivas, inferenciales,
regresiones, análisis de varianza y diseño de experimentos (DOE). Su interfaz
intuitiva divide la pantalla en dos secciones: la sesión y la matriz de datos, lo
que facilita la presentación clara de los análisis y gráficos realizados, como
histogramas y diagramas de dispersión. Además, Minitab permite realizar
diversas operaciones como recodificar datos, ajustar columnas y calcular
estadísticas, mientras que su tutorial integrado y los recursos disponibles en su
sitio web facilitan el aprendizaje. Al ofrecer una versión de prueba gratuita,
Minitab permite a los usuarios evaluar si satisface sus necesidades antes de
adquirirlo, haciéndolo accesible tanto para principiantes como para expertos que
buscan un software estadístico eficaz sin incurrir en altos costos ni ser
abrumados por características innecesarias.

El SAS (Sistema de Análisis Estadístico) es un programa estadístico muy


completo y ampliamente utilizado, diseñado en la Universidad de Carolina del
Norte. Es conocido por su capacidad para realizar una gran variedad de pruebas
estadísticas, como análisis de varianza, regresión, análisis de datos categóricos y
pruebas no paramétricas. SAS es particularmente poderoso y ha ganado
popularidad debido a su versatilidad y aplicación en diversas disciplinas.
Además, existen otros programas estadísticos como STATS®, disponible en el
sitio de Decision Analyst, que ofrece una versión de prueba gratuita para
realizar análisis bivariados básicos. También se pueden encontrar programas
gratuitos de análisis estadístico en internet, lo que amplía las opciones para los
usuarios. Por lo general, se elige el software disponible en la institución
educativa o de investigación, o el que se pueda obtener en línea, siendo SAS
una opción sólida para quienes buscan un paquete robusto para análisis
complejos.

Paso 2: ejecutar el programa


La mayoría de los programas son fáciles de usar, pues lo único que hay que
hacer es solicitar los análisis requeridos seleccionando las opciones apropiadas.
LINA FERNANDA AVILA CELY

Paso 3: explorar los datos


El análisis de datos en una investigación se facilita si se han seguido
cuidadosamente los pasos previos, como la formulación de preguntas de
investigación, la definición de variables y la recolección de datos. Estos
elementos clarifican el proceso y guían el análisis. Además, es importante
conocer las herramientas estadísticas aplicadas, como las que ofrece el
programa SPSS, aunque su uso puede variar dependiendo del software. Antes de
iniciar el análisis, es crucial entender las variables del estudio y cómo se
organizan en la matriz de datos, así como los factores que pueden influir en
dicho análisis.

Apunte 1

Variables de la matriz de datos Son columnas constituidas por ítems. Variables


de la investigación Son las propiedades medidas y que forman parte de las
hipótesis o que se pretenden describir.

El concepto de variables de la matriz de datos se diferencia de las variables de la


investigación. Las primeras son columnas que representan indicadores o ítems
LINA FERNANDA AVILA CELY

específicos, mientras que las segundas son propiedades que se desean medir o
describir, como género o presión arterial. Algunas variables de investigación
requieren un solo ítem, mientras que otras necesitan varios, ocupando múltiples
columnas en la matriz. Las variables compuestas, como en las escalas Likert,
suman o promedian los ítems que las conforman. En programas como SPSS, las
variables compuestas se crean mediante comandos como “Transformar” y
“Calcular variable”.

En el caso de la variable “moral en el departamento donde se trabaja”,


podríamos asignar las siguientes columnas (en el supuesto de que fueran
continuas) a los cinco ítems, tal como se muestra en la tabla 10.3. Y tener la
siguiente matriz (ejemplo):
LINA FERNANDA AVILA CELY

Apunte 2

Los análisis de los datos dependen de tres factores:2 a) El nivel de medición de


las variables.b) La manera como se hayan formulado las hipótesis. c) El interés
analítico del investigador (que depende del planteamiento del problema).

El análisis de datos depende del tipo de variable, siendo diferente para variables
nominales y por intervalos. Inicialmente, el investigador debe realizar análisis
descriptivos para cada variable de la matriz y del estudio, seguidos de análisis
estadísticos para probar hipótesis. Existen diversos métodos de análisis
cuantitativo, pero deben aplicarse con un propósito claro, evitando análisis
innecesarios. La estadística, más que un fin en sí misma, es una herramienta
clave para interpretar y evaluar los datos recopilados.

Estadística descriptiva para cada variable

La primera tarea es describir los datos, los valores o las puntuaciones obtenidas
para cada variable. Por ejemplo, si aplicamos a 2 112 niños el cuestionario sobre
los usos y las gratificaciones que la televisión tiene para ellos, ¿cómo pueden
describirse estos datos? Esto se logra al describir la distribución de las
puntuaciones o frecuencias de cada variable.
¿Qué es una distribución de frecuencias?
Una distribución de frecuencias es un conjunto de puntuaciones respecto de una
variable ordenadas en sus respectivas categorías y generalmente se presenta
como una tabla (O’Leary, 2014 y Nicol, 2006).
LINA FERNANDA AVILA CELY

A veces, las categorías de las distribuciones de frecuencias son tantas que es


necesario resumirlas. Por ejemplo, examinemos detenidamente la distribución
de la tabla 10.5. Esta distribución podría compendiar como en la tabla 10.6.

¿Qué otros elementos contiene una distribución de frecuencias?

Las distribuciones de frecuencias pueden complementarse con porcentajes de


casos en cada categoría, porcentajes válidos (excluyendo valores perdidos) y
porcentajes acumulados (suma progresiva de porcentajes desde la categoría más
baja hasta la más alta). La tabla 10.7 ejemplifica cómo los porcentajes
acumulados aumentan en cada categoría, basados en los porcentajes válidos. Por
ejemplo, en la categoría "sí se ha obtenido la cooperación", el porcentaje
acumulado es 74.6%, y en la categoría siguiente, "no se ha obtenido la
cooperación", el acumulado es 78.7%. La última categoría siempre alcanza el
100%.

Las distribuciones de frecuencias también se pueden graficar como


polígonos de frecuencias

Los polígonos de frecuencias relacionan las puntuaciones con sus respectivas


frecuencias. Es más bien propio de un nivel de medición por intervalos o razón.

¿Cuáles son las medidas de tendencia central?


LINA FERNANDA AVILA CELY

Las medidas de tendencia central son puntos en una distribución obtenida, los
valores medios o centrales de ésta, y nos ayudan a ubicarla dentro de la escala
de medición de la variable analizada. Las principales medidas de tendencia
central son tres: moda, mediana y media. El nivel de medición de la variable
determina cuál es la medida de tendencia central apropiada para interpretar
(Graham, 2013, Kwok, 2008a y Platt, 2003a).
La moda es la categoría o puntuación que ocurre con mayor frecuencia. En la
tabla 10.7, la moda es “1” (sí se ha obtenido la cooperación). Se utiliza con
cualquier nivel de medición.
La media es tal vez la medida de tendencia central más utilizada (Graham,
2013, Kwok, 2008b y Leech, Onwuegbuzie y Daniel, 2006) y puede definirse
como el promedio aritmético de una distribución. Se simboliza como X , y es la
suma de todos los valores dividida entre el número de casos. Es una medida
solamente aplicable a mediciones por intervalos o de razón.

¿Cuáles son las medidas de la variabilidad?


Las medidas de la variabilidad indican la dispersión de los datos en la escala de
medición de la variable considerada y responden a la pregunta: ¿dónde están
diseminadas las puntuaciones o los valores obtenidos? Las medidas de
tendencia central son valores en una distribución y las medidas de la
variabilidad son intervalos que designan distancias o un número de unidades en
la escala de medición (Kon y Rai, 2013 y O’Brien, 2007). Las medidas de
variabilidad más utilizadas son rango, desviación estándar y varianza.

El rango, también llamado recorrido, es la diferencia entre la puntuación mayor


y la puntuación menor, e indica el número de unidades en la escala de medición
que se necesitan para incluir los valores máximo y mínimo.

La desviación estándar o característica es el promedio de desviación de las


puntuaciones con respecto a la media (Jarman, 2013 y Levin, 2003). Esta
medida se expresa en las unidades originales de medición de la distribución. Se
interpreta en relación con la media.

La varianza
La varianza es la desviación estándar elevada al cuadrado y se simboliza como
s2. Es un concepto estadístico muy importante, ya que la mayoría de las pruebas
cuantitativas se fundamentan en él.
LINA FERNANDA AVILA CELY

¿Cómo se interpretan las medidas de tendencia central y de la


variabilidad?
Cabe destacar que al describir nuestros datos, respecto a cada variable del
estudio, interpretamos las medidas de tendencia central y de la variabilidad en
conjunto, no aisladamente. Consideramos todos los valores. Para interpretarlos,
lo primero que hacemos es tomar en cuenta el rango potencial de la escala.

¿Hay alguna otra estadística descriptiva?

Sí, la asimetría y la curtosis. Los polígonos de frecuencia son curvas, por ello
se representan como tales (figura 10.9), para que puedan analizarse en términos
de probabilidad y visualizar su grado de dispersión. Estos dos elementos
resultan esenciales para analizar estas curvas o polígonos de frecuencias.

La asimetría es una estadística necesaria para conocer cuánto se parece nuestra


Asimetría y Curtosis Estadísticas que se usan para conocer cuánto se parece una
distribución a la distribución teórica llamada curva normal o campana de Gauss
y dónde se concentran las puntuaciones. Distribución a una distribución teórica
llamada curva normal (la cual se representa también en la figura 10.9) y
constituye un indicador del lado de la curva donde se agrupan las frecuencias.

La curtosis es un indicador de lo plana o “picuda” que es una curva. Cuando es


cero (curtosis = 0), significa que puede tratarse de una curva normal. Si es
positiva, quiere decir que la curva, la distribución o el polígono es más “picudo”
o elevado. Si la curtosis es negativa, indica que es más plana la curva (Hume,
2011, Taylor, 2007b, Field, 2006 y Cameron, 2003).

También podría gustarte