Herramientas de usuario

Herramientas del sitio


es:manual:test:adaptativo

Diferencias

Muestra las diferencias entre dos versiones de la página.

Enlace a la vista de comparación

Ambos lados, revisión anteriorRevisión previa
Próxima revisión
Revisión previa
es:manual:test:adaptativo [2021/07/07 11:01] – [Adaptaciones basadas en la Teoría de Respuesta al Ítem contínua] rootes:manual:test:adaptativo [2022/05/29 17:10] (actual) – [Adaptaciones basadas en la Teoría de Respuesta al Ítem discreta] root
Línea 2: Línea 2:
 El criterio adaptativo se basa en plantear al alumno una pregunta que supuestamente sea este en su [[wpes>Zona de desarrollo próximo]] ((Este concepto fue introducido po el psicologo [[wpes>Lev_Vygotski|Vygotski]] en el año 1931)), es decir, seleccionar un apregunta ni muy dificil, ni muy facil, de manera que plantee al alumno un reto adsequible. El criterio adaptativo se basa en plantear al alumno una pregunta que supuestamente sea este en su [[wpes>Zona de desarrollo próximo]] ((Este concepto fue introducido po el psicologo [[wpes>Lev_Vygotski|Vygotski]] en el año 1931)), es decir, seleccionar un apregunta ni muy dificil, ni muy facil, de manera que plantee al alumno un reto adsequible.
  
-En la practica este método no se desarrollo hasta mediandos de los años 80 del pasado siglo XX, basados en la [[wpes>Teoría de Respuesta al ïtem]] (TRI), ((sus siglas en inglés son IRT: [[wp>Ítem Response Theory]])), y se les denominó [[https://www.uam.es/ss/Satellite/Psicologia/en/1242653082156/contenidoFinal/Tests_Adaptativos_Informatizados_y_Teoria_de_la_Respuesta_al_Item.htm|Test Adaptativos Informatizados]] (TAI) ((sus siglas en ingles son CAT: [[wp>Computerized adaptive testing]]))+En la practica este método no se desarrollo hasta mediandos de los años 80 del pasado siglo XX, basados en la [[wpes>Teoría de Respuesta al ïtem]] (TRI), ((sus siglas en inglés son IRT: [[wp>Ítem Response Theory]])), y se les denominó [[https://www.uam.es/ss/Satellite/Psicologia/en/1242653082156/contenidoFinal/Tests_Adaptativos_Informatizados_y_Teoria_de_la_Respuesta_al_Item.htm|Test Adaptativos Informatizados]] (TAI) ((sus siglas en ingles son CAT: [[wp>Computerized Adaptive Testing]]))
  
 Siette incluye el modelo de evaluación basado en la TRI por lo que puede aplicar diversas técnicas de adaptación basada en esta teoría. No onstante también es posible realizar una adaptación de las preguntas sin utilizar la TRI, lo que puede resultar interesante si no se han podido calibrar las preguntas. Siette incluye el modelo de evaluación basado en la TRI por lo que puede aplicar diversas técnicas de adaptación basada en esta teoría. No onstante también es posible realizar una adaptación de las preguntas sin utilizar la TRI, lo que puede resultar interesante si no se han podido calibrar las preguntas.
Línea 10: Línea 10:
  
 ==== Adaptaciones basadas en la Teoría de Respuesta al Ítem discreta ==== ==== Adaptaciones basadas en la Teoría de Respuesta al Ítem discreta ====
-Para que pueda aplicarse alguno de estos métdoso es necesario que como [[criterio de evaluación]] se haya seleccionado alguno de los métodos basados en la Teoría de Respuesta al Ítem.+Para que pueda aplicarse alguno de estos métdoso es necesario que como [[es:manual:test:criterios_evaluacion|criterio de evaluación]] se haya seleccionado alguno de los métodos basados en la Teoría de Respuesta al Ítem.
  
-En todos los casos lo que se plantea es una función que establezca la distancia entre la estimación actual del conocimiemnto del alumno, que normalmente viene dada por un escalar (valor máximo verosimil) o una distribución con forma de campana $p(\Theta)$; la curva característica de la pregunta. $p_i(u_i=1/\Theta)$ para cada pregunta $i$. Una vez establecida esta distancia se elige la pregunta cuya distancia es menor.+En todos los casos lo que se plantea es una función que establezca la distancia entre la estimación actual del conocimiemnto del alumno, que normalmente viene dada por un escalar (valor máximo verosimil) o una distribución con forma de campana $p(\theta)$; la curva característica de la pregunta. $p_i(u_i=1/\theta)$ para cada pregunta $P_i$. Una vez establecida esta distancia se elige la pregunta cuya distancia es menor.
  
 En todos los casos, a igualdad de distancia se elige al azar una de las preguntas con menor distancia. En todos los casos, a igualdad de distancia se elige al azar una de las preguntas con menor distancia.
Línea 21: Línea 21:
 === Bayesiano === === Bayesiano ===
 En este caso la función que indica el conocimiento del alumno es una distribución discreta  En este caso la función que indica el conocimiento del alumno es una distribución discreta 
-$$p(\Theta,t) = \{ p_0, p_1, p_2, p_3 .... p_K \}$$ en un instante $t$ siendo $K$ el número de niveles de conocimiento. Cada una de las curvas características son a su vez de la forma, para cada una de las opciones $a$, $b$, $c$, ... $J$ de respuestas, correctas e incorrectas.+$$p(\theta,t) = \{ p_0, p_1, p_2, p_3 .... p_K \}$$ en un instante $t$ siendo $K$ el número de niveles de conocimiento. Cada una de las curvas características son a su vez de la forma, para cada una de las opciones $a$, $b$, $c$, ... $J$ de respuestas, correctas e incorrectas.
  
-$$pa_i(u=1/\Theta) = \{ pa_{i0}, pa_{i1}, pa_{i2}, pa_{i3} .... pa_{iK} \}$$ +$$pa_i(u=1/\theta) = \{ pa_{i0}, pa_{i1}, pa_{i2}, pa_{i3} .... pa_{iK} \}$$ 
-$$pb_i(u=1/\Theta) = \{ pb_{i0}, pb_{i1}, pb_{i2}, pb_{i3} .... pb_{iK} \}$$ +$$pb_i(u=1/\theta) = \{ pb_{i0}, pb_{i1}, pb_{i2}, pb_{i3} .... pb_{iK} \}$$ 
-$$pc_i(u=1/\Theta) = \{ pc_{i0}, pc_{i1}, pc_{i2}, pc_{i3} .... pc_{iK} \}$$+$$pc_i(u=1/\theta) = \{ pc_{i0}, pc_{i1}, pc_{i2}, pc_{i3} .... pc_{iK} \}$$
 ...... ......
  
 En cada caso se obtiene una probabilidad de que el alumno elija una de estas opciones realizando los productos escalares: En cada caso se obtiene una probabilidad de que el alumno elija una de estas opciones realizando los productos escalares:
  
-$$ p_a = p(\Theta,t) \times pa_i(u=1/\Theta) $$ +$$ p_a = p(\theta,t) \times pa_i(u=1/\theta) $$ 
-$$ p_b = p(\Theta,t) \times pb_i(u=1/\Theta) $$ +$$ p_b = p(\theta,t) \times pb_i(u=1/\theta) $$ 
-$$ p_c = p(\Theta,t) \times pc_i(u=1/\Theta) $$+$$ p_c = p(\theta,t) \times pc_i(u=1/\theta) $$
 ...... ......
  
-y finalmente se calcula las posibles consecuencias en la estimación del nivel de conocimiento del alumno a posteiori si elige cada una de esta opciones, es decir $p_j(\Theta, t+1)$ y se calcula la dispersión de cada curva calculando su varianza, con lo que se obtiene un valor de la varianza esperable a posteriori (en el instante t+1):+y finalmente se calcula las posibles consecuencias en la estimación del nivel de conocimiento del alumno a posteiori si elige cada una de esta opciones, es decir $p_j(\theta, t+1)$ y se calcula la dispersión de cada curva calculando su varianza, con lo que se obtiene un valor de la varianza esperable a posteriori (en el instante t+1):
  
-$$E(Var(t+1)) = p_a \times Var(p_a(\Theta, t+1)) + p_b \times Var(p_b(\Theta, t+1)) + p_c \times Var(p_c(\Theta, t+1))  + ... $$+$$E(Var(t+1)) = p_a \times Var(p_a(\theta, t+1)) + p_b \times Var(p_b(\theta, t+1)) + p_c \times Var(p_c(\theta, t+1))  + ... $$
  
-es decir: $$EAP_i = EAP(P_i) = E_i(Var(t+1)) = \sum_{j=a}^{J} p_j \times Var(p_j(\Theta, t+1))$$ +es decir: $$EAP_i = EAP(P_i) = E_i(Var(t+1)) = \sum_{j=a}^{J} p_j \times Var(p_j(\theta, t+1))$$ 
  
 El objetivo es escoger entre la $N$ preguntas aquella cuya esperanza de la varianza de la distribución del conocimieno del alumno a posteriori sea menor, es decir elegir la pregunta $P_i$ tal que $$P_i / EAP El objetivo es escoger entre la $N$ preguntas aquella cuya esperanza de la varianza de la distribución del conocimieno del alumno a posteriori sea menor, es decir elegir la pregunta $P_i$ tal que $$P_i / EAP
Línea 58: Línea 58:
 en donde la media de la distribución es $\overline{p(\theta)} = 2.5$ y la varianza $Var(p(\theta)) = 2,916$ en donde la media de la distribución es $\overline{p(\theta)} = 2.5$ y la varianza $Var(p(\theta)) = 2,916$
  
-Supongamos que hay 5 preguntas candidatas $P_1 .. P_5$, cuyas curvas características vienen daddas por los siguientes valores para cada nivel de conocimiento  $\Theta$$+Supongamos que hay 5 preguntas candidatas $P_1 .. P_5$, cuyas curvas características vienen daddas por los siguientes valores para cada nivel de conocimiento  $\theta$$
  
 ^$\theta$ ^$P_1(\theta)$ ^$P_2(\theta)$ ^$P_3(\theta)$ ^$P_4(\theta)$ ^$P_5(\theta)$ ^ ^$\theta$ ^$P_1(\theta)$ ^$P_2(\theta)$ ^$P_3(\theta)$ ^$P_4(\theta)$ ^$P_5(\theta)$ ^
Línea 145: Línea 145:
 === Basado en la entropía === === Basado en la entropía ===
  
-El métdo de estimación basado en la entropía es similar al anterior, salvo que para estimar la dispersión de la distribución a posteriori en vez de usar la varianza se usa la entropía. Para una distibución $$p(\Theta,t+1) = \{ p_0, p_1, p_2, p_3 .... p_K \}$$ la entropía se calcula como: $$H(P_i) = \sum_{k=0}^{K} ( -p_{k} \times \ln{p_{k}})$$. Si hay J opciones de respuesta la entropía conjunta sería: $$H(P_i) = \sum_{j=0}^{J}\sum_{k=0}^{K} ( -p_{jk} \times \ln{p_{jk}})$$+El métdo de estimación basado en la entropía es similar al anterior, salvo que para estimar la dispersión de la distribución a posteriori en vez de usar la varianza se usa la entropía. Para una distibución $$p(\theta,t+1) = \{ p_0, p_1, p_2, p_3 .... p_K \}$$ la entropía se calcula como: $$H(P_i) = \sum_{k=0}^{K} ( -p_{k} \times \ln{p_{k}})$$. Si hay J opciones de respuesta la entropía conjunta sería: $$H(P_i) = \sum_{j=0}^{J}\sum_{k=0}^{K} ( -p_{jk} \times \ln{p_{jk}})$$
  
 Calculando todos los casos posibles para cada una de las posibles $N$ preguntas y ponderando con la probabilidad de cada suceso se obtienen estimaciones de cual sería la entropía a posteriori. Finalmente, al igual que en el método anterior, se elige la pregunta que de un menor valor esperado para la entropía, es decir es decir elegir la pregunta $P_i$ tal que $$P_i / E(H Calculando todos los casos posibles para cada una de las posibles $N$ preguntas y ponderando con la probabilidad de cada suceso se obtienen estimaciones de cual sería la entropía a posteriori. Finalmente, al igual que en el método anterior, se elige la pregunta que de un menor valor esperado para la entropía, es decir es decir elegir la pregunta $P_i$ tal que $$P_i / E(H
Línea 154: Línea 154:
 El método basado en la función de información es tambien equivalente a los anteriores, ya que la función de información viene a ser la inversa de la varianza. La única diferencia en este caso es que en vez de buscar el menor valor, se busca la pregunta que tenga un mayor valor de la función de información para el nivel de conocimientos actual del alumno, es decir: El método basado en la función de información es tambien equivalente a los anteriores, ya que la función de información viene a ser la inversa de la varianza. La única diferencia en este caso es que en vez de buscar el menor valor, se busca la pregunta que tenga un mayor valor de la función de información para el nivel de conocimientos actual del alumno, es decir:
  
-Supongamos que el alumno tiene actualmente una distribución de su nivel de conocimiento $$p(\Theta,t) = \{ p_0, p_1, p_2, p_3 .... p_K \}$$El nivel estimado $\hat{\Theta}$ de conocimiento vendrá dado por el valor de máxima verosimilitud, la media o la moda de la distribución, segun el criterio que se haya fijado.+Supongamos que el alumno tiene actualmente una distribución de su nivel de conocimiento $$p(\theta,t) = \{ p_0, p_1, p_2, p_3 .... p_K \}$$ El nivel estimado $\hat{\theta}$ de conocimiento vendrá dado por el valor de máxima verosimilitud, la media o la moda de la distribución, según el criterio que se haya fijado.
  
-Para cada pregunta y cada una de las opciones de respuesta la función de información viene dada por la fórmula $$I_i(\Theta) = \frac{(\frac{\partial(p(\Theta))}{\partial \Theta})^2}{p(\Theta)(1-p(\Theta))}$$+Para cada pregunta y cada una de las opciones de respuesta la función de información viene dada por la fórmula $$I_i(\theta) = \frac{1}{\sigma_i^2(\hat\theta|\theta)}$$
  
-Una vez obtenida la función de información de los $N$ ítems solo es necesario escoger el ítem $P_i$ que de un valor máximo para la función de información para el nivel de conocimiento estimado $\hat{\Theta}$, es decir $$P_i / I_i(\hat{\Theta}) = \max_{k=1}^{N} (I(\hat{\Theta}))$$ +Una vez obtenida la función de información de los $N$ ítems solo es necesario escoger el ítem $P_i$ que de un valor máximo para la función de información para el nivel de conocimiento estimado $\hat{\theta}$, es decir $$P_i / I_i(\hat{\theta}) = \max_{k=1}^{N} (I(\theta))$$ 
  
  
Línea 170: Línea 170:
  
 === Basado en la función de información === === Basado en la función de información ===
-En este caso, el cálculo de la función de información se hace en función de los parámetros de las curvas características, por lo que resulta algo mas rápido, (aunque en la práctica es inapreciable). La función de información de la pregunt $P_i$ en el caso del moddelo de 3PL es: $$I_i(\theta) = a_1^2 \frac{(p_i(\theta)-c_i)^2}{(1-c_i)^2}\frac{(1-p_i(\theta)}{p_i(\theta)}$$+En este caso, el cálculo de la función de información se hace en función de los parámetros de las curvas características, por lo que resulta algo mas rápido, (aunque en la práctica es inapreciable). La función de información de la pregunta //i-esima// en el caso del moddelo de 3PL es: $$I_i(\theta) = Da_1^2 \frac{(p_i(\theta)-c_i)^2}{(1-c_i)^2}\frac{(1-p_i(\theta)}{p_i(\theta)}$$
  
-en donde $a_i$ es el parámetro de discrimición y $c_i$ el de adivinanza.+en donde $D$ es una constante cuyo calor es 1.702 que hace que la función logística se aproxime mejor a la distribución normal; $a_i$ es el parámetro de discrimición y $c_i$ el de adivinanza.
es/manual/test/adaptativo.1625655668.txt.gz · Última modificación: 2021/07/07 11:01 por root

Donate Powered by PHP Valid HTML5 Valid CSS Driven by DokuWiki