Creado por Lizbeth Guadalupe Leal Aguirre
hace casi 5 años
|
||
Pregunta | Respuesta |
SIGLO XIX | El racionalismo iluminaba la actividad científica, la revolución iniciada por Isaac Newton se encontraba en plena consolidación, particularmente por los avances científicos y tecnológicos alcanzados en la época. |
SIGLO XX | El enfoque cuantitativo se consolida a lo largo del siglo XX y tiene momentos claves. |
1801 | William Playfair, un ingeniero y economista, desarrolla las gráficas estadísticas como un mejor medio para representar los resultados (anteriormente se utilizaban tablas). |
1816 | Carl Friedrich Gauss propone la desviación media, y alrededor de esa época genera el análisis de la distribución normal y plantea la técnica de mínimos cuadrados que posteriormente derivarían en el análisis de varianza (Scott y Rice, 2005). |
1817 | El francés Marc Antoine Jullien realiza una encuesta sobre diversos sistemas educativos en el mundo. |
1880-1884 | Se genera el análisis de correlación en Inglaterra y Karl Pearson, profesor desde 1884 en The University College (Londres), presenta en la última década del siglo XIX: la moda (medida de tendencia central), una fórmula producto del momento de correlación, un procedimiento para calcular el tamaño de muestra adecuado para representar a una población, la regresión lineal y múltiple (con la identificación de la capacidad para predecir puntuaciones mediante la información sobre la correlación entre las variables), así como el coeficiente de contingencia y la chi‐cuadrada (χ2) (Creswell, 2005, Aldrich, 2005 y Aliaga, 2000). Otro investigador que trabajó sobre la correlación múltiple fue George U. Yule (1897). |
1890- 1900 | Se desarrollan las primeras pruebas mentales con los esfuerzos de investigadores como Francis Galton, James McKeen Cattell y Alfred Binet (Lachapelle, 2008). |
1901 | Pearson junto con Frank Raphael Weldon y Francis Galton fundan Biometrika, una revista que se dedicó al desarrollo de análisis estadísticos en el campo de la Biología. |
1910 | La armada estadounidense, comienza a usar pruebas psicológicas estandarizadas, particularmente durante la Primera Guerra Mundial (Creswell, 2005). De igual forma surgen por tal año, los diseños experimentales como los latinos cuadrados de Thorndike. Además, las encuestas (surveys) incrementan su popularidad en las primeras décadas del siglo XX. |
1916-1917 | En 1916, William Anderson McCall concibe la asignación al azar en experimentos y en 1917, F. Stuart Chapin publica sobre la experimentación en ciencias sociales (Downey, 2006) |
1920 | Se continúa el desarrollo de pruebas psicométricas y de logro, así como la estadística inferencial (conclusiones de la muestra a la población) se comienza a utilizar y diversos procedimientos se fortalecen. |
1924-1932 | Elton Mayo realiza sus experimentos en la planta Hawthorne de la compañía Western Electric, lo que da inicio a este tipo de estudios en las organizaciones. |
1935 | Sir Ronald Fisher consolida en su libro El diseño de experimentos el análisis de varianza y las pruebas de significancia en general, además de los experimentos modernos. |
1938 | Sir Ronald Fisher publica junto con Frank Yates, las tablas estadísticas para la investigación en la Agricultura, la Biología y la Medicina. Asimismo, la Asociación de Educación Progresiva de Estados Unidos comienza a realizar estudios longitudinales. |
1950 | La investigación cuantitativa se encuentra en su apogeo, surgen diversas encuestas, experimentos, revistas científicas, diseños, etcétera. También comienzan a desarrollarse las máquinas para calificar pruebas y la computadora. |
1960 | Donald T. Campbell y Julian Stanley generan una tipología sobre los estudios experimentales que priva hasta nuestros días (incluso en la presente obra) y un análisis de las fuentes que pueden atentar contra la claridad de sus resultados. De igual forma, el querido profesor Fred Kerlinger identifica tipos de diseños cuantitativos y fortalece el enfoque respectivo. |
1970-1980 | Se identifican diversos modelos causales multivariados (por ejemplo, el modelamiento de ecuaciones estructurales), se desarrolla el metaanálisis (técnica para analizar datos provenientes de distintos estudios con mediciones similares) y autores como Thomas Dixon Cook y Donald T. |
1980 | Se reta a las aproximaciones clásicas con las pruebas estadísticas, esto es, mediante el examen de la magnitud de la relación entre variables, a través de la estimación del tamaño del efecto (Creswell, 2005). Se introduce el concepto de sensibilidad experimental. |
ULTIMA DÉCADA DEL SIGLO XX | Surgen mediciones y análisis multivariados más complejos, además se consolida la idea de “poder de medición” mediante la utilización de diferentes instrumentos para medir las variables de la investigación. Los programas de análisis se sofistican y comercializan. |
1900-2000 | En el mundo anglosajón, comenzó la institucionalización del enfoque mixto (Teddlie y Tashakkori, 2009). |
2003 | La prestigiada publicación British Educational Research Journal editó un número especial para celebrar e incluir “algunos de los mejores estudios recientes” en el campo de la investigación educativa, ocho en total, de los cuales seis eran mixtos (Scott, 2007).9 |
2007 | Se comenzó a publicar la revista Journal of Mixed Methods Research. |
2008-2010 | El incremento en los textos de metodología mixta ha sido considerable, los nombres de los pioneros en esta materia, como John Creswell, Abbas Tashakkori, Alan Bryman, Donna Mertens, Janice Morse, Michael |
¿Quieres crear tus propias Fichas gratiscon GoConqr? Más información.