es:manual:test:adaptativo
Diferencias
Muestra las diferencias entre dos versiones de la página.
Ambos lados, revisión anteriorRevisión previaPróxima revisión | Revisión previa | ||
es:manual:test:adaptativo [2021/07/07 10:52] – root | es:manual:test:adaptativo [2022/05/29 17:10] (actual) – [Adaptaciones basadas en la Teoría de Respuesta al Ítem discreta] root | ||
---|---|---|---|
Línea 2: | Línea 2: | ||
El criterio adaptativo se basa en plantear al alumno una pregunta que supuestamente sea este en su [[wpes> | El criterio adaptativo se basa en plantear al alumno una pregunta que supuestamente sea este en su [[wpes> | ||
- | En la practica este método no se desarrollo hasta mediandos de los años 80 del pasado siglo XX, basados en la [[wpes> | + | En la practica este método no se desarrollo hasta mediandos de los años 80 del pasado siglo XX, basados en la [[wpes> |
Siette incluye el modelo de evaluación basado en la TRI por lo que puede aplicar diversas técnicas de adaptación basada en esta teoría. No onstante también es posible realizar una adaptación de las preguntas sin utilizar la TRI, lo que puede resultar interesante si no se han podido calibrar las preguntas. | Siette incluye el modelo de evaluación basado en la TRI por lo que puede aplicar diversas técnicas de adaptación basada en esta teoría. No onstante también es posible realizar una adaptación de las preguntas sin utilizar la TRI, lo que puede resultar interesante si no se han podido calibrar las preguntas. | ||
Línea 10: | Línea 10: | ||
==== Adaptaciones basadas en la Teoría de Respuesta al Ítem discreta ==== | ==== Adaptaciones basadas en la Teoría de Respuesta al Ítem discreta ==== | ||
- | Para que pueda aplicarse alguno de estos métdoso es necesario que como [[criterio de evaluación]] se haya seleccionado alguno de los métodos basados en la Teoría de Respuesta al Ítem. | + | Para que pueda aplicarse alguno de estos métdoso es necesario que como [[es: |
- | En todos los casos lo que se plantea es una función que establezca la distancia entre la estimación actual del conocimiemnto del alumno, que normalmente viene dada por un escalar (valor máximo verosimil) o una distribución con forma de campana $p(\Theta)$; la curva característica de la pregunta. $p_i(u_i=1/ | + | En todos los casos lo que se plantea es una función que establezca la distancia entre la estimación actual del conocimiemnto del alumno, que normalmente viene dada por un escalar (valor máximo verosimil) o una distribución con forma de campana $p(\theta)$; la curva característica de la pregunta. $p_i(u_i=1/ |
En todos los casos, a igualdad de distancia se elige al azar una de las preguntas con menor distancia. | En todos los casos, a igualdad de distancia se elige al azar una de las preguntas con menor distancia. | ||
Línea 21: | Línea 21: | ||
=== Bayesiano === | === Bayesiano === | ||
En este caso la función que indica el conocimiento del alumno es una distribución discreta | En este caso la función que indica el conocimiento del alumno es una distribución discreta | ||
- | $$p(\Theta,t) = \{ p_0, p_1, p_2, p_3 .... p_K \}$$ en un instante $t$ siendo $K$ el número de niveles de conocimiento. Cada una de las curvas características son a su vez de la forma, para cada una de las opciones $a$, $b$, $c$, ... $J$ de respuestas, correctas e incorrectas. | + | $$p(\theta,t) = \{ p_0, p_1, p_2, p_3 .... p_K \}$$ en un instante $t$ siendo $K$ el número de niveles de conocimiento. Cada una de las curvas características son a su vez de la forma, para cada una de las opciones $a$, $b$, $c$, ... $J$ de respuestas, correctas e incorrectas. |
- | $$pa_i(u=1/ | + | $$pa_i(u=1/ |
- | $$pb_i(u=1/ | + | $$pb_i(u=1/ |
- | $$pc_i(u=1/ | + | $$pc_i(u=1/ |
...... | ...... | ||
En cada caso se obtiene una probabilidad de que el alumno elija una de estas opciones realizando los productos escalares: | En cada caso se obtiene una probabilidad de que el alumno elija una de estas opciones realizando los productos escalares: | ||
- | $$ p_a = p(\Theta,t) \times pa_i(u=1/\Theta) $$ | + | $$ p_a = p(\theta,t) \times pa_i(u=1/\theta) $$ |
- | $$ p_b = p(\Theta,t) \times pb_i(u=1/\Theta) $$ | + | $$ p_b = p(\theta,t) \times pb_i(u=1/\theta) $$ |
- | $$ p_c = p(\Theta,t) \times pc_i(u=1/\Theta) $$ | + | $$ p_c = p(\theta,t) \times pc_i(u=1/\theta) $$ |
...... | ...... | ||
- | y finalmente se calcula las posibles consecuencias en la estimación del nivel de conocimiento del alumno a posteiori si elige cada una de esta opciones, es decir $p_j(\Theta, t+1)$ y se calcula la dispersión de cada curva calculando su varianza, con lo que se obtiene un valor de la varianza esperable a posteriori (en el instante t+1): | + | y finalmente se calcula las posibles consecuencias en la estimación del nivel de conocimiento del alumno a posteiori si elige cada una de esta opciones, es decir $p_j(\theta, t+1)$ y se calcula la dispersión de cada curva calculando su varianza, con lo que se obtiene un valor de la varianza esperable a posteriori (en el instante t+1): |
- | $$E(Var(t+1)) = p_a \times Var(p_a(\Theta, t+1)) + p_b \times Var(p_b(\Theta, t+1)) + p_c \times Var(p_c(\Theta, t+1)) + ... $$ | + | $$E(Var(t+1)) = p_a \times Var(p_a(\theta, t+1)) + p_b \times Var(p_b(\theta, t+1)) + p_c \times Var(p_c(\theta, t+1)) + ... $$ |
- | es decir: $$EAP_i = EAP(P_i) = E_i(Var(t+1)) = \sum_{j=a}^{J} p_j \times Var(p_j(\Theta, t+1))$$ | + | es decir: $$EAP_i = EAP(P_i) = E_i(Var(t+1)) = \sum_{j=a}^{J} p_j \times Var(p_j(\theta, t+1))$$ |
El objetivo es escoger entre la $N$ preguntas aquella cuya esperanza de la varianza de la distribución del conocimieno del alumno a posteriori sea menor, es decir elegir la pregunta $P_i$ tal que $$P_i / EAP | El objetivo es escoger entre la $N$ preguntas aquella cuya esperanza de la varianza de la distribución del conocimieno del alumno a posteriori sea menor, es decir elegir la pregunta $P_i$ tal que $$P_i / EAP | ||
Línea 58: | Línea 58: | ||
en donde la media de la distribución es $\overline{p(\theta)} = 2.5$ y la varianza $Var(p(\theta)) = 2,916$ | en donde la media de la distribución es $\overline{p(\theta)} = 2.5$ y la varianza $Var(p(\theta)) = 2,916$ | ||
- | Supongamos que hay 5 preguntas candidatas $P_1 .. P_5$, cuyas curvas características vienen daddas por los siguientes valores para cada nivel de conocimiento | + | Supongamos que hay 5 preguntas candidatas $P_1 .. P_5$, cuyas curvas características vienen daddas por los siguientes valores para cada nivel de conocimiento |
^$\theta$ ^$P_1(\theta)$ ^$P_2(\theta)$ ^$P_3(\theta)$ ^$P_4(\theta)$ ^$P_5(\theta)$ ^ | ^$\theta$ ^$P_1(\theta)$ ^$P_2(\theta)$ ^$P_3(\theta)$ ^$P_4(\theta)$ ^$P_5(\theta)$ ^ | ||
Línea 145: | Línea 145: | ||
=== Basado en la entropía === | === Basado en la entropía === | ||
- | El métdo de estimación basado en la entropía es similar al anterior, salvo que para estimar la dispersión de la distribución a posteriori en vez de usar la varianza se usa la entropía. Para una distibución $$p(\Theta,t+1) = \{ p_0, p_1, p_2, p_3 .... p_K \}$$ la entropía se calcula como: $$H(P_i) = \sum_{k=0}^{K} ( -p_{k} \times \ln{p_{k}})$$. Si hay J opciones de respuesta la entropía conjunta sería: $$H(P_i) = \sum_{j=0}^{J}\sum_{k=0}^{K} ( -p_{jk} \times \ln{p_{jk}})$$ | + | El métdo de estimación basado en la entropía es similar al anterior, salvo que para estimar la dispersión de la distribución a posteriori en vez de usar la varianza se usa la entropía. Para una distibución $$p(\theta,t+1) = \{ p_0, p_1, p_2, p_3 .... p_K \}$$ la entropía se calcula como: $$H(P_i) = \sum_{k=0}^{K} ( -p_{k} \times \ln{p_{k}})$$. Si hay J opciones de respuesta la entropía conjunta sería: $$H(P_i) = \sum_{j=0}^{J}\sum_{k=0}^{K} ( -p_{jk} \times \ln{p_{jk}})$$ |
Calculando todos los casos posibles para cada una de las posibles $N$ preguntas y ponderando con la probabilidad de cada suceso se obtienen estimaciones de cual sería la entropía a posteriori. Finalmente, al igual que en el método anterior, se elige la pregunta que de un menor valor esperado para la entropía, es decir es decir elegir la pregunta $P_i$ tal que $$P_i / E(H | Calculando todos los casos posibles para cada una de las posibles $N$ preguntas y ponderando con la probabilidad de cada suceso se obtienen estimaciones de cual sería la entropía a posteriori. Finalmente, al igual que en el método anterior, se elige la pregunta que de un menor valor esperado para la entropía, es decir es decir elegir la pregunta $P_i$ tal que $$P_i / E(H | ||
Línea 154: | Línea 154: | ||
El método basado en la función de información es tambien equivalente a los anteriores, ya que la función de información viene a ser la inversa de la varianza. La única diferencia en este caso es que en vez de buscar el menor valor, se busca la pregunta que tenga un mayor valor de la función de información para el nivel de conocimientos actual del alumno, es decir: | El método basado en la función de información es tambien equivalente a los anteriores, ya que la función de información viene a ser la inversa de la varianza. La única diferencia en este caso es que en vez de buscar el menor valor, se busca la pregunta que tenga un mayor valor de la función de información para el nivel de conocimientos actual del alumno, es decir: | ||
- | Supongamos que el alumno tiene actualmente una distribución de su nivel de conocimiento $$p(\Theta,t) = \{ p_0, p_1, p_2, p_3 .... p_K \}$$. El nivel estimado $\hat{\Theta}$ de conocimiento vendrá dado por el valor de máxima verosimilitud, | + | Supongamos que el alumno tiene actualmente una distribución de su nivel de conocimiento $$p(\theta,t) = \{ p_0, p_1, p_2, p_3 .... p_K \}$$ El nivel estimado $\hat{\theta}$ de conocimiento vendrá dado por el valor de máxima verosimilitud, |
- | Para cada pregunta y cada una de las opciones de respuesta la función de información viene dada por la fórmula $$I_i(\Theta) = \frac{(\frac{\partial(p(\Theta))}{\partial \Theta})^2}{p(\Theta)(1-p(\Theta))}$$ | + | Para cada pregunta y cada una de las opciones de respuesta la función de información viene dada por la fórmula $$I_i(\theta) = \frac{1}{\sigma_i^2(\hat\theta|\theta)}$$ |
- | Una vez obtenida la función de información de los $N$ ítems solo es necesario escoger el ítem $P_i$ que de un valor máximo para la función de información para el nivel de conocimiento estimado $\hat{\Theta}$, es decir $$P_i / I_i(\hat{\Theta}) = \max_{k=1}^{N} (I(\hat{\Theta}))$$ | + | Una vez obtenida la función de información de los $N$ ítems solo es necesario escoger el ítem $P_i$ que de un valor máximo para la función de información para el nivel de conocimiento estimado $\hat{\theta}$, es decir $$P_i / I_i(\hat{\theta}) = \max_{k=1}^{N} (I(\theta))$$ |
Línea 167: | Línea 167: | ||
=== Bayesiano === | === Bayesiano === | ||
+ | Es practicamente el mismo que en el caso de la distribución discreta ya que el método contínuo discretiza las funciones paramétricas en 100 niveles de conocimiento y calcula las curvas de forma discreta. | ||
=== Basado en la función de información === | === Basado en la función de información === | ||
+ | En este caso, el cálculo de la función de información se hace en función de los parámetros de las curvas características, | ||
+ | |||
+ | en donde $D$ es una constante cuyo calor es 1.702 que hace que la función logística se aproxime mejor a la distribución normal; $a_i$ es el parámetro de discrimición y $c_i$ el de adivinanza. |
es/manual/test/adaptativo.1625655151.txt.gz · Última modificación: 2021/07/07 10:52 por root