Concepto de correlaciónKerlinger (1985) afirma que la esencia de la ciencia son las relaciones entre variables, que pueden ponerse de manifiesto entre grupos, clases o conjuntos de objetos, pero que no cabe hablar de relaciones entre variables midiendo solamente a un individuo.Cuando conocemos la relación entre variables, pueden llegar a formularse predicciones de los valores de una a partir de la otra.Las situaciones que pueden analizarse son varias: Estudiar la relación entre dos o más variables dentro de un mismo grupo de sujetos. Con dos o más grupos comprobar la relación entre ellos en una sola variable. Estudiar una misma variable medida en dos momentos diferentes en una misma muestra. Una relación simple entre dos series de datos se denomina correlación entre dos variables. Nos indica la tendencia entre dos o más conjuntos de datos a variar de forma conjunta. Tenemos varias posibilidades:Relación perfecta positiva. Cuando al aumentar los valores de una de las variables, los valores de la otra lo hacen en la misma proporción. Ver fig. 7.1 pág. 131. La correlación se expresa como +1.Relación imperfecta positiva. Se la conoce como relación directa de variables. A valores elevados de una variable le corresponden valores también altos de la otra; y a la inversa, los que puntúan bajo coinciden en las dos variables. Ver fig. 7.2 pág. 131. La correlación se sitúa entre los valores 0 y +1.Relación perfecta negativa. Se da una relación inversa entre las variables, de tal forma que al aumentar los valores de una de ellas, los de la otra disminuyen y lo hacen en la misma proporción. Ver fig. 7.3 pág. 132. La correlación se expresa como -1.Relación imperfecta negativa. Llamada relación inversa entre variables, lo que supone que las puntuaciones altas en una variable se corresponden con las bajas en la otra. Ver fig. 7.4 pági. 132. La correlación se sitúa entre los valores 0 y -1.Relación nula o ausencia de relación. Se da cuando dos variables son independientes una de la otra. Puede afirmarse que las puntuaciones de las dos variables se deben a factores aleatorios. La correlación se expresa por 0.
El coeficiente de correlación simple y su interpretación.El valor del coeficiente nos marca el valor de la covariación o variación conjunta de dos series de datos. Puede indicar una relación directa entre variables (valores positivos) o inversa (valores negativos), por lo que su expresión se encuentra entre -1 y +1.¿Cómo se interpreta el coeficiente de correlación? Teniendo en cuenta tres aspectos: El tipo de variables que se relaciona: entre variables del mismo tipo, mayor correlación. La variabilidad del grupo: a mayor variabilidad entre los grupos y dentro de ellos, mayor será la correlación. Ante un coeficiente de 0.70, el obtenido en el grupo más homogéneo (menor variabilidad) se identifica con una mayor intensidad de la correlación. La finalidad a la que se destina el coeficiente: si valoramos la fiabilidad de un instrumento de medida, las correlaciones deben superar el 0.85; mientras que un coeficiente de 0.60 es suficiente si valoramos la validez del intrumento. Se aceptan las interpretaciones de la tabla 7.1 pág. 134.También podemos interpretarlo mediante el coeficiente de determinación (d), que se interpreta como el porcentaje de varianza de una variable explicada por otra:Si rxy = 0.70 --> d = (0.7)^2 x 100= 49 --> 49 % de varianza explicada.La elección de los diferentes coeficientes de correlación depende de dos aspectos: el nivel de medida de las variables y la categoría de las mismas. Así, tenemos:
El coeficiente de correlación de Pearson (rxy)Se utiliza cuando las dos variables que se relacionan son cuantitativas, medidas a nivel de intervalo, se distribuyen normalmente y están linealmente relacionadas.Ver ejemplo en tabla 7.2 pág. 136.
El coeficiente de correlación de Spearman (rs)En muchas de variables que utilizamos frecuentemente en el campo educativo no es posible alcanzar unos niveles de medida muy precisos. Es entonces cuando hemos de recurrir a emplear los puestos que ocupan las puntuaciones en una serie ordenada.En medidas ordinales hemos de recurrir a los rangos.Para hacer la transformación de las puntuaciones directas en rangos se siguen estos pasos:Se asigna el rango 1 a la posición más alta, rango 2 a la siguiente en descenso, 3 a la siguiente... así hasta N.Cuando tengamos más de una puntuación similar, el rango se calcula mediante la media de las posiciones que corresponderían a esos sujetos.El criterio de asignación de rangos empleado en una de las variables, debe ser el mismo que en la otra, pues se trata de pares de puntuaciones que van asociadas y no son independientes.
El coeficiente de contingencia (C)En el caso de variables de atributo o nominales, es preferible utilizar la expresión grado de asociación en vez de grados de correlación. Se utiliza en aquellos casos en que se recogen datos de variables clasificadas en categorías, como ocurre con las tablas de contingencia, en las que se asignan sujetos a grupos y categorías en cada una de las variables.
Debemos comenzar por calcular el valor de fe en cada una de las celdillas de la tabla de contingencia. Ver fig. 7.5 y 7.6 pág. 141 y 142.Seguidamente procedemos a calcular x2, que representa el grado de discrepancia que se manifiesta entre las frecuencias observadas o empíricas (fo) y las frecuencias esperadas o aleatorias (fe).Para finalizar, se calcula el valor de C. Ver ejemplo en págs. 141 y 142.El coeficiente nunca alcanzará el valor de 1, y para su interpretación se recurre al valor de Cmáx., que solo es válido su cálculo cuando las tablas de contingencia sean cuadradas, es decir, el mismo número de filas que de columnas.Como comprobación, la ∑fo y la ∑fe dentro de la misma fila o columna, deben ser iguales.
El coeficiente de correlación biserial puntual (rbp)Cuando buscamos el grado de relación entre una variable cuantitativa y otra auténticamente dicotómica, debemos recurrir al rbp. En realidad, es una extensión del coeficiente de correlación de Pearson.El numerador de ambas fórmulas se toma en valores absolutos con el fin de evitar con el fin de evitar los valores negativos para la correlación. Generalmente, los datos de la variable continua suelen agruparse en intervalos de clase, tal y como aparece en la tabla 7.7 pág. 144.Hemos de realizar unos cálculos previos: Media de cada uno de los grupos y media total de sujetos. St del conjunto de puntuaciones. Proporción de cada uno de los grupos en relación al total. Finalmente, completar la siguiente tabla: La rpb se utiliza en el análisis de los elementos de pruebas objetivas, especialmente en aquellos casos en que la respuesta no admite nada más que los valores de acierto o error. En estos casos, el rbp es un índice de la homogeneidad de tal elemento o ítem con la puntuación global de la prueba.
El coeficiente phi (Φ).Se emplea cuando buscamos la existencia de relaciones entre dos variables dicotómicas, aunque de forma excepcional puede utilizarse en variables dicotomizadas.Una variable es dicotomizada cuando transformamos la variable continua a una escala de dos categorías, siendo muy frecuentemente el punto de dicotomización, la Md. Ver tabla 7.9 pág. 145.Es la aplicación a variables dicotómicas del coeficciente rxy de Pearson.Su valor será 1 (correlación perfecta) cuando las frecuencias de las casillas de las diagonales positiva o negativa sean nulas. En los demás casos se estudia su valor comparándolo con el valor del Φmáx., muy importante como punto de referencia y de interpretación:
Coeficiente de correlación tetracórico (rt)Se emplea en aquellos casos en que las dos variables son de tipo cuantitativo y continuo, pero nos interesa dicotomizarlas, dividiendo las puntuaciones de cada variable en dos categorías y tomando como criterio de categorización generalmente la Md.En el numerador siempre el producto de la diagonal de igual signo, y en el denominador siempre el producto de la diagonal de signos distintos.En aquellos casos que BCbuscaremos en las tablas el valor de (AD/BC) y al coeficiente resultante le pondremos un signo menos.También hay un procedimiento numérico para hallar el valor de este coeficiente. Viene dad por la fórmula.Ver ejemplo resuelto en págs. 146 y 147.
Cuando a gran parte de las puntuaciones más altas obtenidas por un grupo de sujetos en una variable le corresponden las puntuaciones más bajas en la otra variable, decimos que la relación es:a. Imperfecta positiva.b. Imperfecta negativa.c. Perfecta negativa.
Si al aumentar los valores de una variable en un grupo de sujetos, los valores de la otra aumentan y, además, lo hacen en la misma proporción, nos encontramos ante:a. Una relación imperfecta positiva.b. Una relación perfecta negativa.c. Una relación perfecta positiva.
Si en un muestra de 200 sujetos, 100 mujeres y 100 varones, pretendemos establecer la correlación entre la variable sexo (variable X), y los sujetos de cada persona, medidos en euros (variable Y), debemos utilizar:a. El rxy de Pearson.b. El coeficiente de Spearman.c. El coeficiente biserial puntual (rbp).
REPASO.¿Cómo se llama el coeficiente que mide el valor de la variación conjunta de dos series de datos? a. Correlación.b. Fiabilidad.c. Varianza.Cuando se trata de una variable cuantitativa, continua o discreta y otra auténticamente dicotómica, la correlación que se calcula ha de ser:a. El coeficiente PHi (Φ).b. El coeficiente de contingencia (C ).c. El coeficiente de correlación biserial-puntual (rbp)La correlación nos indica la tendencia de dos conjuntos de datos a variar de forma...a. igual.b. conjunta.c. diversa.En el contexto de la regresión lineal simple, la línea que dibujan los puntos que representan en el plano los datos de una correlación se denomina:a. Regresión lineal.b. Línea de regresión.c. Linealidad en la regresión.El coeficiente de correlación phi (Φ) busca la existencia de relaciones entre dos variables:a. Continuas.b. Una dicotómica y otra continua.c. Dicotómicas.
página 1
Página 2
página 3
Möchten Sie kostenlos Ihre eigenen Notizen mit GoConqr erstellen? Mehr erfahren.