es:manual:analisis:test:validez
Diferencias
Muestra las diferencias entre dos versiones de la página.
Ambos lados, revisión anteriorRevisión previaPróxima revisión | Revisión previa | ||
es:manual:analisis:test:validez [2022/05/19 19:42] – [Fiabilidad] root | es:manual:analisis:test:validez [2022/05/21 08:43] (actual) – [Fiabilidad] root | ||
---|---|---|---|
Línea 1: | Línea 1: | ||
- | ===== Conceptos de validez y fiabilidad ===== | ||
- | En el campo de la evaluación se distingue entre dos conceptos fundamentales: | + | ===== Validez ===== |
- | + | ==== Validez del constructo | |
- | {{ es: | + | |
- | + | ||
- | + | ||
- | ==== Validez ==== | + | |
- | + | ||
- | === Validez del constructo === | + | |
En el campo de la psicometría a su vez se hacen diferencias entre distintos tipos de validez. El concepto de validez mas común es el que se conoce como " | En el campo de la psicometría a su vez se hacen diferencias entre distintos tipos de validez. El concepto de validez mas común es el que se conoce como " | ||
- | === Validez de contenido === | + | ==== Validez de contenido |
El modelo de conocimiento clásico se basa en estimar el nivel de conocimiento global sobre una materia. Por consiguiente, | El modelo de conocimiento clásico se basa en estimar el nivel de conocimiento global sobre una materia. Por consiguiente, | ||
Línea 19: | Línea 12: | ||
Como consecuencia directa de este concepto de validez, si los alumnos saben de antemano que solo se preguntarán ciertos temas, o que solo se hará un cierto tipo de ejercicios, la evaluación puede dejar de ser válida. | Como consecuencia directa de este concepto de validez, si los alumnos saben de antemano que solo se preguntarán ciertos temas, o que solo se hará un cierto tipo de ejercicios, la evaluación puede dejar de ser válida. | ||
- | === Validez convergente === | + | ==== Validez convergente |
Se habla de validez convergente cuando las mediciones del conocimiento de una materia realizadas con distintos métodos correlacionan entre sí. Es decir, si se mide mediante un test de preguntas de opción múltiple o mediante preguntas abiertas, o mediante ejercicios de problemas el conocimiento de una materia los niveles de conocimiento inferidos para un mismo alumno deberían ser iguales por los distintos métodos para que hubiera validez convergente. | Se habla de validez convergente cuando las mediciones del conocimiento de una materia realizadas con distintos métodos correlacionan entre sí. Es decir, si se mide mediante un test de preguntas de opción múltiple o mediante preguntas abiertas, o mediante ejercicios de problemas el conocimiento de una materia los niveles de conocimiento inferidos para un mismo alumno deberían ser iguales por los distintos métodos para que hubiera validez convergente. | ||
Línea 26: | Línea 19: | ||
En el campo de la evaluación educativa normalmente se dice que una buena evaluación es una evaluación variada tanto en los contenidos (validez de contenidos) como en los métodos de evaluación. | En el campo de la evaluación educativa normalmente se dice que una buena evaluación es una evaluación variada tanto en los contenidos (validez de contenidos) como en los métodos de evaluación. | ||
- | |||
- | ==== Fiabilidad ==== | ||
- | |||
- | El concepto de fiabilidad informalmente equivale al concepto de precisión de la medida. Un test será mas fiable cuando el error de la madida sea menor, es decir, cuando la medida que da sea lo mas cercana posible a la medida real. Sin embargo, a diferencia de la validez que es dificil de medir y cuantificar dentro de la teória clasica de los test (TCT) se han desarrollado definiciones matemáticas precisas de este concepto. Así pues, cuando se habla de // | ||
- | |||
- | La TCT se basa en el supuesto de que el nivel real de conocimiento de un alumno VV puede medirse mediante un número real (vease la introducción sobre modelos del conocimiento), | ||
- | El modelo asume que los errores EE son aleatorios, que el valor medio de la suma de los errores tiende a ser 0, y que no se correlaciona ni con el valor real de conocimiento, | ||
- | |||
- | El coeficiente de fiabilidad ρρ se define como el cuadrado del coeficiente de correlación entre la puntuación verdadera y la observada. Aplicando la definición de correlación, | ||
- | |||
- | ρ2XV=σ2XVσ2Xσ2V=(σ2V)2σ2Xσ2V=σ2Vσ2X=σ2X−σ2Eσ2X=1−σ2Eσ2Xρ2XV=σ2XVσ2Xσ2V=(σ2V)2σ2Xσ2V=σ2Vσ2X=σ2X−σ2Eσ2X=1−σ2Eσ2X | ||
- | |||
- | Sin embargo, como las puntuaciones verdaderas no se conocen, ni los errores tampoco, este coeficiente de correlación no puede hallarse directamente por lo que se recurre a estimaciones basadas en distintos supuestos. | ||
- | |||
- | === Test paralelos === | ||
- | Consiste en hacer dos test con preguntas equivalentes, | ||
- | |||
- | X=V+EX=V+E | ||
- | X′=V+E′ | ||
- | |||
- | Suponiendo ademas que estos errores no están correlacionados entre si y que tienen igual varianza: σ2E=σ2E′ puede deducirse que | ||
- | E(VE′)=E(EV)=E(EE′)=0 | ||
- | |||
- | En este caso, la correlación entre la nota observada en el primer test y en el segundo test resulta ser exactamente el coeficiente de fiabilidad: | ||
- | |||
- | ρXX′=E(XX′)σXσX′=E(V+E)+E(V+E′σXσX′=E(V2)E(VE′)+E(EV)+E(EE′)σXσX′=σ2Vσ2X=ρ2XV | ||
- | |||
- | Evidentemente, | ||
- | |||
- | Sin embargo, se puede intentar una aproximación a este caso ideal, planteando lo que se denominan test paralelos, es decir, dos test distintos pero que tienen preguntas parecidas que en el fondo son casi las mismas pero cuya redacción es diferente para evitar el problema anterior. Esta técnica se denomina "test paralelos", | ||
- | |||
- | |||
- | === λ4 de Gutman === | ||
- | |||
- | En el caso en que se planteen dos test diferentes a un mismo alumno, en el caso hipotético de que los dos test fueran perfectamente paralelos, el coeficiente de correlación entre ambos sería exactamente la fiabilidad, ya que las discrepancias solo serían debidas a los errores aleatorios. | ||
- | |||
- | Si ambos test no son del todo paralelos, el valor que se obtiene de la correlación entre las puntuaciones en ambos test ρXX′ estaría siempre por debajo del valor de la fiabilidad. Por tanto hallar este valor nos da en cualquier caso una cota inferior de la fiabilidad del test. | ||
- | |||
- | Cualquier test compuesto por N preguntas puede dividirse en dos mitades, considerando cada una de ellas como un test diferente. Hallando la correlación entre ambas mitades obtendremos un valor que indica la consistencia interna del test y que es una cota inferior de la fiabilidad. Repitiendo el experimento varias veces, y tomando el mayor valor de todas las pruebas tendremos una cota inferior de la fiabilidad. | ||
- | |||
- | Hay varias formas de dividir un test en dos mitades que se han usado tradicionalmente en el análisis de los test: | ||
- | * Dividir el test en preguntas pares-impares, | ||
- | * Ordenar la preguntas por dificultad y dividir por pares-impares. | ||
- | * Mitades aleatorias. | ||
- | |||
- | Los dos primeros casos son mas convenientes cuando el cálculo se hace manualmente, | ||
- | |||
- | |||
- | === Fórmula de Spearman-Brown === | ||
- | |||
- | En general, la fiabilidad de un test aumenta al aumentar el número de preguntas que lo componen. Suponiendo que los test sean realmente paralelos, combinando dos test la fiabilidad aumenta según la conocida como fórmula de Spearman-Brown: | ||
- | en donde ρ12 representa la correlación entre anterior (o entre ambas mitades), y ρXX′ la nueva correlación. Esta fórmula puede generalizarse en el caso de combinar N test paralelos: ρ∗XX′=NρXX′1+(N−1)ρXX′ | ||
- | |||
- | En la práctica aumentar el número de preguntas aumenta la fiabilidad, pero hasta un cierto punto, pero en el mejor de los casos el aumento no es ni mucho menos lineal. | ||
- | |||
- | === Fórmula de Kuder-Richardson (KR-20) === | ||
- | |||
- | Un valor propuesto para medir la fiabilidad de un test se calcula mediante la fórmula: | ||
- | $$r=\frac{K}{K-1}\begin{bmatrix} | ||
- | 1-\frac{\sum_{i=1}^{K}p_iq_i}{\sigma_X^2} | ||
- | \end{bmatrix}$$ | ||
- | |||
- | en donde, K es el número de ítems; pi es la proporción de aciertos del ítem i-esimo, y qi la proporción de fallos (pi+qi=1) y σ2X es la varianza de las puntuaciones del test. | ||
- | |||
- | === Alfa de Cronbach === | ||
- | |||
- | Es otro indicador de la coherencia interna de un test. Suponiendo que la puntuación X de un test depende de las puntuaciones obtenidas en K items X=Y1+Y2+...+YK, se define el valor estadístico αraw como: | ||
- | $$\alpha_{raw} = \frac{K}{K-1}\begin{bmatrix} | ||
- | 1-\frac{\sum_{i=1}^{K}\sigma_{Y_i}^2}{\sigma_X^2} | ||
- | \end{bmatrix}$$ | ||
- | |||
- | en donde σ2X es la varianza de las puntuaciones del test y σ2Yi la varianza de los resultados del ítem i-esimo. | ||
- | |||
- | En el caso de variables dicotómicas (verdadero/ | ||
- | αraw=Kˉcˉν+(K−1)ˉc en donde ˉν es la media de la varianza de cada item y ˉc es la media de la covarianza entre cada dos ítems. | ||
- | |||
- | Alternativamente se define el α de Cronbach estandar en función de la media de los K(K−1)/2 coeficientes de correlación ˉr, entre las respuestas a cada dos ítems. | ||
- | αstandard=Kˉr1+(K−1)ˉr, | ||
- | |||
- | |||
- | |||
- | |||
- | |||
- | |||
- | |||
- | |||
- | |||
es/manual/analisis/test/validez.1652989332.txt.gz · Última modificación: 2022/05/19 19:42 por root