La idea básica subyacente al análisis de regresión múltiple es la misma que
en la regresión simple: determinar la relación entre las variables
independientes y dependiente, o variables de predicción y de criterio. El
análisis de regresión múltiple permite añadir diversas variables, de modo
que la ecuación refleje los valores de un cierto número de variables de
predicción, no una sola. El objetivo de esto es mejorar las predicciones de la
variable de criterio.
NOMENCLATURA MODIFICADA
ECUACIÓN: Y = α + β1 X1 + β3X3 + ∊
Disyuntiva ética
Coeficiente de regresión parcial (o neta)
Supuesto de
multicolinealidad
Condición existente en un análisis de regresión múltiple,
que consiste en que las variables de predicción no son
independientes unas de otras, como se requiere, sino que
están correlacionadas.
Coeficientes de regresión parcial
Coeficientes de correlación múltiple y de determinación múltiple
Coeficiente de determinación múltiple
En el análisis de determinación
múltip ple, la proporción de
variación en la variable de criterio
que se explica con la covariación
de las variables predictivas.
Coeficiente de correlación múltiple
En el análisis de regresión múltiple, la raíz
cuadrada del coeficiente de determinación
múltiple.
Coeficientes de correlación parcial
Existen dos cantidades adicionales que se consideran al
interpretar los resultados de análisis de regresión múltiple y
no se incluye en el de regresión simple: el coeficiente de
correlación parcial y su valor elevado al cuadrado, el
coeficiente de determinación parcial
Coeficiente de determinación
parcial
Cantidad que resulta del análisis de regresión múltiple e indica la proporción de variación de la
variable de criterio que no se explica con una o más variables previas y sí con la inclusión de una
nueva variable a la ecuación de regresión.
Coeficiente de correlación parcial
En el análisis de regresión múltiple,
la raíz cuadrada del coeficiente de
determinación parcial.
VARIABLES
BINARIAS
Y = α + β1X1 + β2 X2 + β3X3+ ε
Una a la que se asigna uno de dos valores, 0 o 1, y se usa para
representar en forma numérica los atributos o características que no
son esencialmente cuantitativos.
TRASFORMACIONES DE VARIABLES
Una transformación de variable es simplemente un cambio en la
escala con que se expresa una variable dada.
ANALISIS DE CORELACIÓN Y REGRESIÓN SIMPLE
son de uso frecuente entre los investigadores de mercados para estudiar la relación entre dos
o más variables.
Análisis de correlación: Técnica estadística usada para medir
la cercanía de la relación lineal entre dos o más variables en
una escala de intervalo.
Análisis de regresión: Técnica estadística usada para
derivar una ecuación que relacciona una variable de
criterio con una o más variables de predicción; cuando se
usa sólo una variable de predicción, es el análisis de
regresión simple, y si se utilizan dos o más, es el análisis
de regresión múltiple.
ERROR ESTÁNDAR DE LA ESTIMACIÓN
Valor absoluto de la variación en la variable de criterio, que se deja sin explicación, o que no cuenta, en la
ecuación de regresión ajustada.
Inferencias acerca del coeficiente de pendiente
Coeficiente de correlación
usado en el análisis de regresión para designar la
fuerza de la relación lineal entre las variables de
criterio y predictivas
Coeficiente de determinación: Usado en el análisis de regresión para
denotar la proporción relativa de la variación total en la variable de
criterio que puede explicarse mediante la ecuación de regresión
ajustada.
REGRESIÓN Y CORRELACIÓN SIMPLE
El análisis de regresión consiste en emplear métodos que permitan determinar la mejor relación
funcional entre dos o más variables concomitantes (o relacionadas), y el análisis de correlación, el
grado de asociación de las mismas. Es decir; no sólo se busca una función matemática que exprese de
que manera se realcionan, sino también con que presición se puede predecir el valor de una de ellas si
se conoce los valores de las variables asociadas
Regresión de tipo I y razón de correlación
RAZÓN DE CORRELACIÓN
VARIANZA DEBIDA A LA REGRESIÓN Y VARIANZA RESIDUAL
Regresión de tipo II y coeficiente de determinación
CONCEPTO DE REGRESIÓN DE TIPO II
COEFICIENTE DE DETERMINACIÓN
REGRESIÓN LINEALl
la relacion entre las variables
Una función y = f(x) se dice que es lineal en X si la variable X aparece
con potencia unitaria (por tanto, se excluyen términos como x2, x3,
1/x, √x, por ejemplo) y no está multiplicada ni dividida por otra
variable. Por ejemplo, yj = a + bxi + cxi2 no es una función lineal en
las variables puesto que la variable X aparece elevada al cuadrado.
ESTIMACIÓN DE LOS PARÁMETROS DE LA REGRESIÓN LINEAL
COEFICIENTE DE DETERMINACIÓN LINEAL
VARIANZA DEBIDA A LA REGRESIÓN LINEAL Y VARIANZA RESIDUAL