Medida de la relación entre dos o más
variables. Pueden extenderse a partir del
-1.00 a 1.00.
Borrado Casewise vs. Pairwise
para los datos perdidos
Es la manera de conseguir una
matriz de correlación "verdadera",
donde todas las correlaciones se
obtienen de la misma observación.
Outliers.
Observaciones poco frecuentes. Uno
solo es capaz de cambiar la pendiente
considerablemente.
Paramétricas.
r Pearson.
Asume que las dos variables están medidas en por lo
menos escala intervalar y establece el grado en el cual
los valores de las dos variables observadas son
"proporcionales".
No parmanétricas.
Gamma.
Es también una probabilidad; específicamente, es calculada como la
diferencia entre la probabilidad de coincidencias entre los rangos
ordenados de las dos variables menos la probabilidad de no
coincidencias, dividido entre 1 menos la probabilidad de empates.
Kendall Tau.
Es la probabilidad de encontrar una correlación
dado un orden, contra la probabilidad de
encontrarlo con otro orden de datos.
Taub
Tauc
R de Spearman.
Asume que las variables involucradas en la
correlación fueron medidas con una escala
ordinal.
Regresión lineal múltiple.
Fin general.
Conocer más sobre la relación entre variables
independientes o predictoras y una variable
independiente o de criterio.
Valores predichos y
residuales.
La linea de regresión expresa la predicción
de la variable dependiente (y), dada las
variables independientes (x). La
desviación de un punto de la linea de
regresión (valor predicho) se llama valor
residual.
Supuestos.
De linealidad.
De la Normalidad.
Limitaciones.
La principal limitación es que se puede
probar solamente relaciones
estadísticas.
Métodos de análisis
de regresión.
De paso hacia atrás.
Las V. Independientes serán
quitadas una a la vez mientras es
obtenido el modelo.
De paso hacia adelante.
Las V. Independientes son
agregadas y quitadas
individualmente del modelo.