Directrices para prevenir la introducción de alucinaciones en documentos jurídicos elaborados con grandes modelos de lenguaje
En este artículo se formulan una serie de recomendaciones prácticas para prevenir la generación de alucinaciones por parte de Grandes Modelos de Lenguaje (LLM) en la elaboración de documentos jurídicos. Para su desarrollo se toma como referencia a la documentación publicada por OpenAI como guía de...
Guardado en:
| Autor principal: | |
|---|---|
| Formato: | Jornada |
| Lenguaje: | Español |
| Publicado: |
Universidad Nacional del Nordeste. Facultad de Derecho y Ciencias Sociales y Políticas
2025
|
| Materias: | |
| Acceso en línea: | http://repositorio.unne.edu.ar/handle/123456789/57693 |
| Aporte de: |
| Sumario: | En este artículo se formulan una serie de recomendaciones prácticas para prevenir la generación de alucinaciones por parte de Grandes Modelos de Lenguaje (LLM) en la elaboración de documentos jurídicos. Para su desarrollo se toma como referencia a la
documentación publicada por OpenAI como guía de uso de ChatGPT, por su grado de desarrollo y por resultar extensibles al uso de otros LLM. Estas recomendaciones se enmarcan dentro del paradigma de supervisión humana para prevenir alucinaciones en la elaboración de documentos jurídicos. |
|---|