Herramientas de usuario

Herramientas del sitio


es:manual:test:adaptativo

Adaptativo

El criterio adaptativo se basa en plantear al alumno una pregunta que supuestamente sea este en su Zona de desarrollo próximo 1), es decir, seleccionar un apregunta ni muy dificil, ni muy facil, de manera que plantee al alumno un reto adsequible.

En la practica este método no se desarrollo hasta mediandos de los años 80 del pasado siglo XX, basados en la Teoría de Respuesta al ïtem (TRI), 2), y se les denominó Test Adaptativos Informatizados (TAI) 3)

Siette incluye el modelo de evaluación basado en la TRI por lo que puede aplicar diversas técnicas de adaptación basada en esta teoría. No onstante también es posible realizar una adaptación de las preguntas sin utilizar la TRI, lo que puede resultar interesante si no se han podido calibrar las preguntas.

Adaptación basada en la frecuencia media de aciertos

La idea en la que se basa esta adaptación es simplemente calcular el porcentaje de aciertos de cada una de las preguntas y el porcentaje de aciertos que en cada instante lleve el alumno. La pregunta seleccionada será la que tenga una distancia mínima. En este caso, al igual que en el método de selección ordenado basado en la frecuencia de aciertos, los porcentajes de acierto se fijan al guardar el test, por lo que las nuevas sesiones no influyen en el computo del orden de las preguntas. Para actualizar estos porcentajes es necesario editar nuvamente el test o simplemente pulsar el botón Guardar cambios al editar el test.

Adaptaciones basadas en la Teoría de Respuesta al Ítem discreta

Para que pueda aplicarse alguno de estos métdoso es necesario que como criterio de evaluación se haya seleccionado alguno de los métodos basados en la Teoría de Respuesta al Ítem.

En todos los casos lo que se plantea es una función que establezca la distancia entre la estimación actual del conocimiemnto del alumno, que normalmente viene dada por un escalar (valor máximo verosimil) o una distribución con forma de campana $p(\theta)$; la curva característica de la pregunta. $p_i(u_i=1/\theta)$ para cada pregunta $P_i$. Una vez establecida esta distancia se elige la pregunta cuya distancia es menor.

En todos los casos, a igualdad de distancia se elige al azar una de las preguntas con menor distancia.

Basado en la dificultad

Consiste simplemente en usar el parámetro de dificultad y estima la distancia entre el conocimiento del alumno y la pregunta como la diferencia entre su nivel máximo versosimil de conocimiento y la dificultad de la pregunta. Es muy parecido al método de Adaptación basada en la frecuencia media de aciertos.

Bayesiano

En este caso la función que indica el conocimiento del alumno es una distribución discreta $$p(\theta,t) = \{ p_0, p_1, p_2, p_3 .... p_K \}$$ en un instante $t$ siendo $K$ el número de niveles de conocimiento. Cada una de las curvas características son a su vez de la forma, para cada una de las opciones $a$, $b$, $c$, … $J$ de respuestas, correctas e incorrectas.

$$pa_i(u=1/\theta) = \{ pa_{i0}, pa_{i1}, pa_{i2}, pa_{i3} .... pa_{iK} \}$$ $$pb_i(u=1/\theta) = \{ pb_{i0}, pb_{i1}, pb_{i2}, pb_{i3} .... pb_{iK} \}$$ $$pc_i(u=1/\theta) = \{ pc_{i0}, pc_{i1}, pc_{i2}, pc_{i3} .... pc_{iK} \}$$ ……

En cada caso se obtiene una probabilidad de que el alumno elija una de estas opciones realizando los productos escalares:

$$ p_a = p(\theta,t) \times pa_i(u=1/\theta) $$ $$ p_b = p(\theta,t) \times pb_i(u=1/\theta) $$ $$ p_c = p(\theta,t) \times pc_i(u=1/\theta) $$ ……

y finalmente se calcula las posibles consecuencias en la estimación del nivel de conocimiento del alumno a posteiori si elige cada una de esta opciones, es decir $p_j(\theta, t+1)$ y se calcula la dispersión de cada curva calculando su varianza, con lo que se obtiene un valor de la varianza esperable a posteriori (en el instante t+1):

$$E(Var(t+1)) = p_a \times Var(p_a(\theta, t+1)) + p_b \times Var(p_b(\theta, t+1)) + p_c \times Var(p_c(\theta, t+1)) + ... $$

es decir: $$EAP_i = EAP(P_i) = E_i(Var(t+1)) = \sum_{j=a}^{J} p_j \times Var(p_j(\theta, t+1))$$

El objetivo es escoger entre la $N$ preguntas aquella cuya esperanza de la varianza de la distribución del conocimieno del alumno a posteriori sea menor, es decir elegir la pregunta $P_i$ tal que $$P_i / EAP (P_i) = \min_{k=1}^{N} (EAP(P_k))$$

Ejemplo

Supongamos un test adaptativo con 6 niveles de conocimiento. Inicialmente se estima la distribución de conocimiento del alumno con una distri bución uniforme, es decir, cualquier nivel es igualmente probable:

$\theta$ $p(\theta,0)$
0 0,1666
1 0,1666
2 0,1666
3 0,1666
4 0,1666
5 0,1666

en donde la media de la distribución es $\overline{p(\theta)} = 2.5$ y la varianza $Var(p(\theta)) = 2,916$

Supongamos que hay 5 preguntas candidatas $P_1 .. P_5$, cuyas curvas características vienen daddas por los siguientes valores para cada nivel de conocimiento $\theta$$

$\theta$ $P_1(\theta)$ $P_2(\theta)$ $P_3(\theta)$ $P_4(\theta)$ $P_5(\theta)$
0 0,115 0,4395 0,2625 0,0503 0,222
1 0,2036 0,6 0,2964 0,0521 0,3482
2 0,55 0,7605 0,4032 0,0658 0,575
3 0,8964 0,8764 0,625 0,1593 0,8017
4 0,985 0,9421 0,9468 0,525 0,928
5 0,998 0,9742 0,9535 0,8907 0,9767

Suponiendo que el alumno respondiera correctamente a cada una de estas preguntas, la nueva estimación en $t+1$ de su nivel de conocimiento sería:

$P_1$ $P_2$ $P_3$ $P_4$ $P_5$
$\theta$ $p(\theta,1)$ $p(\theta,1)$ $p(\theta,1)$ $p(\theta,1)$ $p(\theta,1)$
0 0,019159 0,0732207 0,0437325 0,0083800 0,0369852
1 0,033919 0,0999600 0,0493802 0,0086799 0,0580101
2 0,091630 0,1266993 0,0671731 0,0109623 0,0957950
3 0,149340 0,1460082 0,1041250 0,0265394 0,1335632
4 0,164101 0,1569538 0,1577369 0,0874650 0,1546048
5 0,166266 0,1623017 0,1588531 0,1483906 0,1627182

que una vez normalizada (la suma de cada columna, es decir la probabilidad total debe ser 1), se obtiene:

$P_1$ $P_2$ $P_3$ $P_4$ $P_5$
$\theta$ $p(\theta,1)$ $p(\theta,1)$ $p(\theta,1)$ $p(\theta,1)$ $p(\theta,1)$
0 0,03068303 0,09569534 0,075270976 0,028854979 0,057638384
1 0,05432230 0,13064211 0,084991684 0,029887563 0,090403988
2 0,14674493 0,16558886 0,115616218 0,037746673 0,149288607
3 0,23916755 0,19082456 0,179216608 0,091383662 0,208147263
4 0,26280683 0,20512988 0,271491656 0,301170262 0,240938831
5 0,26627534 0,21211923 0,273412858 0,510956861 0,253582927

Para cada caso, se obtiene la varianza a posteriori, que resulta ser:

$P_1$ $P_2$ $P_3$ $P_4$ $P_5$
$\theta$ $p(\theta,1)$ $p(\theta,1)$ $p(\theta,1)$ $p(\theta,1)$ $p(\theta,1)$
Media 3,44791889 2,91540924 3,30690486 4,138997246 3,245092948
Var 1,76745832 2,59586659 2,40397423 1,464674717 2,224849999

y en caso de que respondiera incorrectamente, suponiendo que las preguntas son dicotómicas (J=2) 4), su nuevo nivel de conocimiento sería:

$P_1$ $P_2$ $P_3$ $P_4$ $P_5$
$\theta$ $p(\theta,1)$ $p(\theta,1)$ $p(\theta,1)$ $p(\theta,1)$ $p(\theta,1)$
0 0,147441 0,0933793 0,1228675 0,1582200 0,1296148
1 0,132680 0,0666400 0,1172198 0,1579201 0,1085899
2 0,074970 0,0399007 0,0994269 0,1556377 0,0708050
3 0,017260 0,0205918 0,0624750 0,1400606 0,0330368
4 0,002499 0,0096461 0,0088631 0,0791350 0,0119952
5 0,000333 0,0042983 0,0077469 0,0182094 0,0038818

que al normalizar se transforman en:

$P_1$ $P_2$ $P_3$ $P_4$ $P_5$
$\theta$ $p(\theta,1)$ $p(\theta,1)$ $p(\theta,1)$ $p(\theta,1)$ $p(\theta,1)$
0 0,392984014 0,398280395 0,293520656 0,223101861 0,362129957
1 0,353641208 0,284232218 0,280028656 0,222679008 0,303388568
2 0,199822380 0,170184040 0,237522885 0,219460628 0,197821635
3 0,046003552 0,087827755 0,149247791 0,197495771 0,092301247
4 0,006660746 0,041142614 0,021173287 0,111586168 0,033513312
5 0,000888099 0,018332978 0,018506726 0,025676565 0,010845280

de las que obtenemos el valor medio y la varianza:

$P_1$ $P_2$ $P_3$ $P_4$ $P_5$
$\theta$ $p(\theta,1)$ $p(\theta,1)$ $p(\theta,1)$ $p(\theta,1)$ $p(\theta,1)$
Media 0,922380107 1,144318909 1,380044575 1,828815072 1,16421523
Var 0,844952062 1,562558680 1,470268023 1,960711695 1,377334233

Ahora calculamos la probabilidad que tiene el alumno de elegir cada una de las opciones de respuesta, puesto que se conocen las curvas características y el nivel de conocimieno del alumno, estos valores se obtienen mediante el producto escalar:

$P_1$ $P_2$ $P_3$ $P_4$ $P_5$
$p(Correcta)$ 0,6244168 0,76514382 0,58100084 0,29041712 0,64167656
$p(Incorrecta)$ 0,3751832 0,23445618 0,41859916 0,70918288 0,35792344

Con lo que ya se puede calcular la esperanza de la varianza a posteriori (EAP):

$P_1$ $P_2$ $P_3$ $P_4$ $P_5$
$E(Var(p(\theta,1))$ 1,420642484 2,352562818 2,012164007 1,81586978 1,920614301

El menor de estos valores corresponde a la pregunta $P_1$, por lo que ésta será la pregunta elegida para plantearla en primer lugar.

Cuando el alumno conteste se obtendrá una nueva distribución para $p(\theta,1)$ distinta dependiendo de que su respuesta sea correcta o no. Con esta nueva distribución se volverá a aplicar el mismo proceso calculando ahora las posibles distribuciones en caso de acierto y fallo para $p(\theta,2)$, para las preguntas restantes, es decir $P_2 ..P_5$, obteniendo sus varianzas en cada caso, estimando la probabilidad de cada respuesta, obteniendo la esperanza de la varianza a posteriori y escogiendo la que proporcione un menor valor.

Basado en la entropía

El métdo de estimación basado en la entropía es similar al anterior, salvo que para estimar la dispersión de la distribución a posteriori en vez de usar la varianza se usa la entropía. Para una distibución $$p(\theta,t+1) = \{ p_0, p_1, p_2, p_3 .... p_K \}$$ la entropía se calcula como: $$H(P_i) = \sum_{k=0}^{K} ( -p_{k} \times \ln{p_{k}})$$. Si hay J opciones de respuesta la entropía conjunta sería: $$H(P_i) = \sum_{j=0}^{J}\sum_{k=0}^{K} ( -p_{jk} \times \ln{p_{jk}})$$

Calculando todos los casos posibles para cada una de las posibles $N$ preguntas y ponderando con la probabilidad de cada suceso se obtienen estimaciones de cual sería la entropía a posteriori. Finalmente, al igual que en el método anterior, se elige la pregunta que de un menor valor esperado para la entropía, es decir es decir elegir la pregunta $P_i$ tal que $$P_i / E(H (P_i)) = \min_{k=1}^{N} (E(H(P_k)))$$.

Basado en la función de información

El método basado en la función de información es tambien equivalente a los anteriores, ya que la función de información viene a ser la inversa de la varianza. La única diferencia en este caso es que en vez de buscar el menor valor, se busca la pregunta que tenga un mayor valor de la función de información para el nivel de conocimientos actual del alumno, es decir:

Supongamos que el alumno tiene actualmente una distribución de su nivel de conocimiento $$p(\theta,t) = \{ p_0, p_1, p_2, p_3 .... p_K \}$$ El nivel estimado $\hat{\theta}$ de conocimiento vendrá dado por el valor de máxima verosimilitud, la media o la moda de la distribución, según el criterio que se haya fijado.

Para cada pregunta y cada una de las opciones de respuesta la función de información viene dada por la fórmula $$I_i(\theta) = \frac{1}{\sigma_i^2(\hat\theta|\theta)}$$

Una vez obtenida la función de información de los $N$ ítems solo es necesario escoger el ítem $P_i$ que de un valor máximo para la función de información para el nivel de conocimiento estimado $\hat{\theta}$, es decir $$P_i / I_i(\hat{\theta}) = \max_{k=1}^{N} (I(\theta))$$

Adaptaciones basadas en la Teoría de Respuesta al Ítem contínua

En el caso en el que el método de evaluación sea la TRI paramétrica contínua, es decir, se utilicen los modelos clásicos de 1P, 2P o 3P, se pueden usar los criterios adaptativos paramétricos que resultan similares a los de la TRI discreta.

Bayesiano

Es practicamente el mismo que en el caso de la distribución discreta ya que el método contínuo discretiza las funciones paramétricas en 100 niveles de conocimiento y calcula las curvas de forma discreta.

Basado en la función de información

En este caso, el cálculo de la función de información se hace en función de los parámetros de las curvas características, por lo que resulta algo mas rápido, (aunque en la práctica es inapreciable). La función de información de la pregunta i-esima en el caso del moddelo de 3PL es: $$I_i(\theta) = Da_1^2 \frac{(p_i(\theta)-c_i)^2}{(1-c_i)^2}\frac{(1-p_i(\theta)}{p_i(\theta)}$$

en donde $D$ es una constante cuyo calor es 1.702 que hace que la función logística se aproxime mejor a la distribución normal; $a_i$ es el parámetro de discrimición y $c_i$ el de adivinanza.

1)
Este concepto fue introducido po el psicologo Vygotski en el año 1931
2)
sus siglas en inglés son IRT: Ítem Response Theory
3)
sus siglas en ingles son CAT: Computerized Adaptive Testing
4)
en el caso del modelo politómico este calculo habría que hacerlo para cada una de las opciones de respuesta, ya que cada una de ellas tiene asociada su propia curva característica
es/manual/test/adaptativo.txt · Última modificación: 2022/05/29 17:10 por root

Donate Powered by PHP Valid HTML5 Valid CSS Driven by DokuWiki