Herramientas de usuario

Herramientas del sitio


es:manual:items:patron:llm

¡Esta es una revisión vieja del documento!


Patrón LLM

Desde la aparición de los sistemas de Inteligencia Artificial Generativa que incluyen modelos de lenguaje extensos LLM, es posible realizar (con algunas restricciones), consultas en lenguaje natural para determinar si la respuesta en lenguaje natural que ha dado el alumno a una determinada cuestión es o no correcta.

Como múltiples autores han venido demostrando, el sistema dista de ser perfecto para un sistema de propósito general, pero se puede utilizar y mejorar su eficacia en muchos casos, alcanzando en ocasiones precisiones optimas en casos concretos. El sistema LLM se comporta mejor cuando se trata de conocimiento general ampliamente aceptado y difundido, y pero en los casos de un conocimiento muy especifico o mas avanzado.

En Siette se han integrado estos sistemas mediante lo que se denomina un “Patrón LLM”. Al igual que otros patrones de Siette (por ejemplo el patrón de Correspondencia o el patrón Siette), el patrón LLM lo que intenta es determinar si la respuesta que ha dado un alumno encaja con alguna de las opciones de respuesta que ha planteado el profesor. Para ello el patrón LLM construye una consulta al sistema LLM preguntándole cual de las opciones de respuesta encaja mejor con la respuesta dada por el alumno.

El profesor debe incluir en este tipo de preguntas el enunciado, las opciones de respuesta o patrones entre los que el sistema LLM debe escoger y por supuesto la respuesta del alumno que es objeto de clasificación. Opcionalmente se incluye también un ejemplo de respuesta correcta.

Ejemplo

Por ejemplo, para la pregunta: ¿Que son las rocas igneas? se proponen tres posible patrones de respuesta a elegir: (1) La respuesta es correcta y completa; (2) La respuesta es incompleta. Faltan datos importantes; (3) La respuesta es incorrecta. Dada una respuesta del alumno, el sistema LLM debe determinar cual de estas tres opciones encaja mejor con la respuesta dada.

Uso de patrones LLM

El uso del patrón LLM esta indicado en aquellos casos en los que la respuesta del alumno sea un texto mas o menos extenso y tenga bastante variabilidad. Es en este caso cuando el patrón LLM cubre una funcionalidad que no puede darse con otro tipo de patrones. Sin embargo, si la respuesta es corta y precisa es mejor utilizar cualquier otro tipo de patrón de Siette,

Una vez realizada esta tarea, el funcionamiento de Siette es el mismo que en el caso de cualquier otra pregunta con patrones. 1). A cada uno de los patrones de respuesta puede asignarse una puntuación distinta, o un refuerzo específico, etc, aunque en el caso de los patrones LLM, lo mas normal es usar también los refuerzos mediante IA, tal como se muestra en el ejemplo anterior.

Consulta al sistema LLM

Consulta principal

La consulta al modelo LLM se compone en lenguaje natural, pensando en que es el alumno que realiza el test el que de forma inconsciente realiza esta consulta al sistema. En este caso la consulta por defecto se compone del siguiente texto:

 Sea la pregunta:
 <<enunciado>>.
 La respuesta que he dado es:
 <<respuesta>>
 Una posible respuesta correcta es:
 <<solucion>>
 Indica cuál de las siguientes opciones encaja mejor con la respuesta dada:
 <<opciones>>

Este es el texto en lenguaje natural que se le pasará al sistema LLM. En él se incluyen variables de sesión como «ENUNCIADO» que se instanciarán en tiempo real con el contenido del enunciado de la pregunta.

En el caso de esta consulta, los elementos esenciales son el enunciado, las opciones y la respuesta del alumno. La solución (que se toma del ejemplo de respuesta correcta), no es imprescindible, ya que el sistema LLM puede determinar por si mismo si la respuesta es o no correcta,

Ademas del texto de consulta principal en la consulta al sistema se pueden configurar los siguientes atributos:

Instrucciones

Es un texto que indica al modelo LLM como debe comportarse al emitir la respuesta, es decir son instrucciones que se le dan al modelo de GenIA para que se comporte de cierta manera al dar la respuesta, por ejemplo:

   Formatea la contestación en HTML, pero no utilices títulos.
   Si tu contestación incluye formulas incrústalas mediante Mathjax

Las instrucciones también pueden contener variables de sesión y/o variables de perfil que se instancian antes de enviar la consulta al modelo LLM.

Por ejemplo, en las instrucciones puede añadirse esta indicación:

  Respondele directamente a <<nombre>>, incluyendo su nombre en la respuesta.
  Adapta tu respuesta para un niño de <<edad>> años.
2025/02/20 08:34 · root

Modelo

Es el modelo de GenIA que se va a utilizar, en el caso de ChatGPT hay distintos modelos que se van desarrollando y mejorando con el tiempo, unos son mas complejos y requieren un mayor coste computacional para un mejor razonamiento y otros mas simples, pero menos costosos en tiempo y recursos.

Siette define un modelo por defecto, pero cada pregunta puede utilizar un modelo diferente.

2025/02/20 08:34 · root

Temperatura

El parámetro de temperatura se puede proporcionar a cualquiera de la familia de modelos GPT. La temperatura es un número entre 0 y 2, con un valor predeterminado de 1 o 0,7 según el modelo que se elija. La temperatura se utiliza para controlar la aleatoriedad de la salida. Cuando lo configuras más alto, mayor aleatoriedad hay en los resultados, mientras más bajo, los valores son más deterministas. En el contexto de los refuerzo se deben usar valores bajos, en torno a 0,2

2025/02/20 08:34 · root

Top P

El parámetro Top P controla la diversidad de las respuestas de un modelo de GenIA. Varia entre 0 y 1. Define un umbral de probabilidad acumulada y filtra las opciones menos probables. Valores altos (0.9 - 1.0) de este parámetro implica respuestas más variadas y creativas, mientras que valores bajos (0.1 - 0.3) respuestas más predecibles y conservadoras.Se usa para equilibrar creatividad y coherencia en la generación de texto.

2025/02/20 08:34 · root

Max Tokens

Es un parámetro que sirve para controlar el tamaño máximo de la contestación del sistema LLM. En general las respuestas del sistema LLM son cortas de por si, por lo que si se deja el valor por defecto (2024) no afectará a la respuesta del sistema. Si se quiere una respuesta muy corta, se puede disminuir drásticamente este parámetro.

2025/02/20 08:34 · root
1)
En el caso de usar patrones LLM en el previsualizador se muestra la respuesta que ha dado el sistema LLM, para poder depurar la consulta en caso necesario
es/manual/items/patron/llm.1741105484.txt.gz · Última modificación: 2025/03/04 16:24 por root

Donate Powered by PHP Valid HTML5 Valid CSS Driven by DokuWiki