Desarrollo de Regresiones Múltiples

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 2

Desarrollo de regresiones múltiples.

 ¿Qué son?
https://www.bioestadistica.uma.es/baron/apuntes/ficheros/cap06.pdf
https://www.cienciadedatos.net/documentos/25_regresion_lineal_multiple

La regresión lineal múltiple permite generar un modelo lineal en el que el valor de la


variable dependiente o respuesta (Y) se determina a partir de un conjunto de variables
independientes llamadas predictores.
Es una extensión de la regresión lineal simple, por lo que es fundamental comprender esta
última. Los modelos de regresión múltiple pueden emplearse para predecir el valor de la
variable dependiente o para evaluar la influencia que tienen los predictores sobre ella
(esto último se debe que analizar con cautela para no malinterpretar causa-efecto).

 Aplicaciones de la regresión múltiple.


Es cierto que se utiliza para la predicción de respuestas a partir de variables explicativas;
Pero no es ésta la aplicación que se le da en una investigación. Los usos que normalmente
suelen darle en las publicaciones son:

 Identificación de variables explicativas: Se crea un modelo donde se seleccionan


variables que puedan influir respuestas, descartando aquellas que no aportan
información.
 Detección de interacciones: Entre variables independientes que afectan a la
variable respuesta.
 Identificación de variables confusoras: El investigador no tiene control de las
variables independientes.

 Requisitos y limitaciones.

 Linealidad: Se supone que la variable respuesta depende linealmente de las


variables explicativas. Si la respuesta no aparenta ser lineal, debemos introducir
en el modelo componentes no lineales.
 Normalidad y equidistribución de los residuos: Para tener un buen modelo de
regresión múltiple no es suficiente con que los residuos sean pequeños. La validez
del modelo requiere que se distribuyan de modo normal y con la misma dispersión
para cada combinación de valores de las variables independientes.
 Número de variables independientes: Una regla que se suele recomendar es la de
incluir al menos 20 observaciones por cada variable independiente que estimemos
a priori interesantes en el modelo. Números inferiores nos llevarán posiblemente
a no poder obtener conclusiones y errores de tipo II.
 Colinealidad: Si dos variables independientes están estrechamente relacionadas y
ambas son incluidas en un modelo, muy posiblemente ninguna de las dos sea
considerada significativa, aunque si hubiésemos incluido sólo una de ellas, sí. Una
técnica muy simple para detectar la colinealidad consiste en examinar los
coeficientes del modelo para ver si se vuelven inestables al introducir la nueva
variable.
 Observaciones anómalas: Debemos poner especial cuidado en identificarlas y
descartarlas si procede, pues tienen gran influencia en el resultado. A veces, son
sólo errores en la entrada de datos, pero de gran consecuencia en el análisis.

 Variables numéricas e indicadoras (dummy).

y=b0 +b1 X 1 +...+b n X n

 Y es la variable dependiente.
 Los términos X, representan las variables independientes o explicativas.
 Los coeficientes del modelo b, son calculados por el programa estadístico, de
modo que se minimicen los residuos.
Esencialmente cuando obtengamos para los coeficientes valores “compatibles”
con cero (no significativos), la variable asociada se elimina del modelo, y en otro
caso se considera a la variable asociada de interés.
Está claro que para ajustar el modelo la variable respuesta debe ser numérica. Sin
embargo, aunque pueda parecer extraño no tienen por qué serlo las variables
explicativas. Aunque requiere un artificio, podemos utilizar predictores
categóricos mediante la introducción de variables indicadoras, también llamadas
mudas o dummy.

 Interpretación de resultados.

 La significación del modelo de regresión: La hipótesis nula es que la variable


respuesta no está influenciada por las variables independientes. Dicho de otro
modo, la variabilidad observada en las respuestas son causadas por el azar, sin
influencia de las variables independientes. La hipótesis alternativa es que hay
algún tipo de influencia. La significación del contraste se calcula haciendo un
análisis de la varianza.
 Los coeficientes: Los programas estadísticos ofrecen una estimación de los
mismos, junto a un error típico de la estimación, un valor de significación, o mejor
aún, un intervalo de confianza.

También podría gustarte