es:manual:analisis:irt
Diferencias
Muestra las diferencias entre dos versiones de la página.
Ambos lados, revisión anteriorRevisión previaPróxima revisión | Revisión previa | ||
es:manual:analisis:irt [2022/05/29 16:29] – root | es:manual:analisis:irt [2022/05/30 12:43] (actual) – root | ||
---|---|---|---|
Línea 11: | Línea 11: | ||
La implementación que Siette hace sobre la TRI se basa en la aplicación de un modelo bayesiano. Dentro del campo de la Inteligencia Artificial, el modelo TRI puede considerarse como una red bayesiana de una sola capa en donde se aplica la fórmula de "Naive Bayes", | La implementación que Siette hace sobre la TRI se basa en la aplicación de un modelo bayesiano. Dentro del campo de la Inteligencia Artificial, el modelo TRI puede considerarse como una red bayesiana de una sola capa en donde se aplica la fórmula de "Naive Bayes", | ||
- | La implementación que hace Siette de la TRI puede considerarse como un clasificador bayesiano. Las clases corresponden a una discretización del intervalo $[-\infty, | + | La implementación que hace Siette de la TRI puede considerarse como un clasificador bayesiano. Las clases corresponden a una discretización del intervalo $[-\infty, |
+ | |||
+ | Supongamos que hay C clases de niveles de conocimiento a los que denominamos $\theta_1, \theta_2, .. \theta_C$. Supongamos que el test se compone de $N$ preguntas, $u_1, u_2, .. u_N$, cada una de ellas con $J$ opciones de respuesta $u_{1_i}, u_{2_i} .. u_{J_i}$ entre las que el alumno debe elegir una en concreto. Es decir, se representa por $u_i=u_{k_i}$ el suceso que corresponde a que el alumno en la pregunta i-esima haya escogido la opción $k_i$ de respuesta y no cualquier otra de las posibles opciones. Aplicando N veces la regla de Bayes se obtiene: | ||
+ | |||
+ | $$p(\theta=\theta_c|u_1=u_{k_1}; | ||
+ | |||
+ | en donde $\theta_c$ es una cualquiera de las C clases; $p(u_i=u_{k_i}|\theta_c)$ es la probabilidad condicionada de que un alumno de la clase $\theta_c$ elija precisamente la opción $u_{k_i}$ para la pregunta i-esima; y $p(\theta_c)$ es la probabilidad a priori de esta clase. ((Normalmente se asume que la probabilidad a priori es la misma para cualquiera de las clases, o bien se estima en función de la población. La influencia de este término en el resultado se va reduciendo conforme aumenta el número de preguntas. Esto implica tambien que se requiera un mínimo de preguntas)). El término $p(u_i=u_{k_i})$ del denominador no es necesario computarlo ya que se sabe que $$\sum_{c=1}^{C}{p(\theta=\theta_c|u_1=u_{k_1}; | ||
+ | |||
+ | Siette implementa tambien los modelos clásicos de la TRI basados en variables y funciones continuas considerando para ello una discretización mucho mas fina (100 clases o mas), que es al fin y al cabo el mismo procedimiento que emplean los modelos de cálculo numérico de la TRI en otros sistemas. En concreto Siette puede implementar un modelo de 4 parámetros ((añade un cuarto parámetro llamado factor de distracción al modelo 3PL)), que puede adaptarse fácilmente a los modelos tradicionales en la TRI como son los modelos 3PL, 2PL o 1PL tambien llamado modelo de Rasch. | ||
+ | |||
+ | En estos casos la fórmula anterior se transforma en: | ||
+ | |||
+ | en deonde $u_i$ toma valores 0 o 1 dependiendo de que la respuesta a la pregunta i-esima haya sido correcta o incorrecta. El exponente de los términos del producto indica que en cada caso, dependiendo de la respuesta correcta o incorrecta, se utilizará para el producto la función característica o su inversa. | ||
es/manual/analisis/irt.txt · Última modificación: 2022/05/30 12:43 por root