Medidas Estadísticas Bivariantes de Regresión

Descripción

Medidas Estadísticas Bivariantes de Regresión
Fernando Henao Castaño
Mapa Mental por Fernando Henao Castaño, actualizado hace más de 1 año
Fernando Henao Castaño
Creado por Fernando Henao Castaño hace más de 5 años
2993
1

Resumen del Recurso

Medidas Estadísticas Bivariantes de Regresión
  1. La regresión lineal simple examina la relación lineal entre dos variables continuas: una respuesta (Y) y un predictor (X). Cuando las dos variables están relacionadas, es posible predecir un valor de respuesta a partir de un valor predictor con una exactitud mayor que la asociada únicamente a las probabilidades.
    1. Regresión lineal
      1. Antes de comenzar con este apartado resulta esencial entender qué se entiende por lineal, ya que hay dos posibles interpretaciones: linealidad en las variables y linealidad en los parámetros.
        1. Una función y = f(x) se dice que es lineal en X si la variable X aparece con potencia unitaria (por tanto, se excluyen términos como x2, x3, 1/x, √x, por ejemplo) y no está multiplicada ni dividida por otra variable. Por ejemplo, yj = a + bxi + cxi2 no es una función lineal en las variables puesto que la variable X aparece elevada al cuadrado
          1. Se dice que una función es lineal en los parámetros si éstos aparecen con frecuencia unitaria y no están multiplicados ni divididos por cualquier otro parámetro. A modo de ejemplo, yj = a + √bxi no es una función lineal en los parámetros. Sin embargo, yj = a + bxi + cxi2 sí lo es.
            1. De las dos interpretaciones de linealidad, la linealidad en los parámetros es la más relevante en el contexto de la teoría de la regresión y de la correlación. Sin embargo, en lo que sigue, se exigirá tanto la linealidad en los parámetros como en las variables para que la regresión sea calificada de linea
              1. ESTIMACIÓN DE LOS PARÁMETROS DE LA REGRESIÓN LINEAL
                1. En el caso en que se presuma que la relación de dependencia de Y sobre X es de carácter lineal, yj = a + bxi + eij, donde eij representa el error que se comete como consecuencia de que pudiera haber otras variables que influyesen en el comportamiento de la variable Y, la cuestión es: ¿Cómo estimar los parámetros a y b de la misma?
                    1. COEFICIENTE DE DETERMINACIÓN LINEAL
                      1. Una vez elegida la función rectilínea para representar la relación de dependencia de Y sobre X y estimados sus parámetros a y b, a continuación se procede al cómputo del coeficiente de determinación lineal con objeto de medir el grado de dependencia de Y sobre X bajo la función de regresión lineal estimada
    2. Regresión múltiple: cuando se emplea más de una variable independiente para evaluar una variable dependiente
      1. Nomenclatura modificada
        1. Un marco de notación modificado y más formal es valioso para comentar el análisis de regresión múltiple. Considere el modelo de regresión general con tres variables de predicción. La ecuación modificada:
          1. Y = α + β1 X1 + β3X3 + ∊
            1. a cual es una estado simplificado de la más elaborada y precisa ecuación.
                  1. Supuesto de multicolinealidad
                    1. Condición existente en un análisis de regresión múltiple, que consiste en que las variables de predicción no son independientes unas de otras, como se requiere, sino que están correlacionadas.
                      1. Coeficientes de regresión parcial
                        1. Coeficientes de regresión parcial es cuando existe multicolinealidad, Simplemente no resulta válida la interpretación “normal” de esos coeficientes, como “el cambio promedio de la variable de criterio relacionado con el cambio unitario de la variable de predicción apropiada cuando se mantienen constantes las demás variables de predicción“. La ecuación todavía sería útil para fines de predicción, en el supuesto de que las condiciones sean estables. Empero, no deben usarse los coeficientes de regresión parcial como base para la toma de decisiones mercadológicas estratégicas cuando es significativa la multicolinealidad
                          1. Coeficientes de correlación múltiple y de determinación múltiple
                            1. En el análisis de determinación múltip ple, la proporción de variación en la variable de criterio que se explica con la covariación de las variables predictivas.
                              1. Coeficientes de correlación parcial
                                1. Cantidad que resulta del análisis de regresión múltiple e indica la proporción de variación de la variable de criterio que no se explica con una o más variables previas y sí con la inclusión de una nueva variable a la ecuación de regresión.
                                  1. Variables binarias
                                    1. Una a la que se asigna uno de dos valores, 0 o 1, y se usa para representar en forma numérica los atributos o características que no son esencialmente cuantitativos.
                                      1. Trasformaciones de variables
                                        1. Una transformación de variable es simplemente un cambio en la escala con que se expresa una variable dada.
        Mostrar resumen completo Ocultar resumen completo

        Similar

        MAPA MENTAL ESTADISTICA
        fidel451
        Ecuaciones Estadísticas
        Diego Santos
        Cuestionarios de Probabilidad y Estadistica
        Saddy Jair Aragon Pimentel
        GRAFICOS EN ESTADISTICAS
        Adriana Cortes Barbosa
        Las ventajas y desventajas de la investigación cualitativa
        Olga sofia Gonzalez
        PROBLEMÁTICA AMBIENTAL
        Edison Andres Pinto Forero
        METODOS PROBABILISTICOS
        duvan heavy
        MUESTREO Y DISTRIBUCIONES MUESTRALES
        Yumary Lima Ruiz
        Inferencia, Estimación y Contraste de Hipotesis
        bruceepz
        La estadistica, mapa conceptual
        Edwin Ramirez
        FORMULACIÓN DE UNA HIPÓTESIS DE INVESTIGACIÓN
        roberth2193