Directrices para prevenir la introducción de alucinaciones en documentos jurídicos elaborados con grandes modelos de lenguaje

En este artículo se formulan una serie de recomendaciones prácticas para prevenir la generación de alucinaciones por parte de Grandes Modelos de Lenguaje (LLM) en la elaboración de documentos jurídicos. Para su desarrollo se toma como referencia a la documentación publicada por OpenAI como guía de...

Descripción completa

Guardado en:
Detalles Bibliográficos
Autor principal: Navarro, Darío Saúl
Formato: Jornada
Lenguaje:Español
Publicado: Universidad Nacional del Nordeste. Facultad de Derecho y Ciencias Sociales y Políticas 2025
Materias:
Acceso en línea:http://repositorio.unne.edu.ar/handle/123456789/57693
Aporte de:
Descripción
Sumario:En este artículo se formulan una serie de recomendaciones prácticas para prevenir la generación de alucinaciones por parte de Grandes Modelos de Lenguaje (LLM) en la elaboración de documentos jurídicos. Para su desarrollo se toma como referencia a la documentación publicada por OpenAI como guía de uso de ChatGPT, por su grado de desarrollo y por resultar extensibles al uso de otros LLM. Estas recomendaciones se enmarcan dentro del paradigma de supervisión humana para prevenir alucinaciones en la elaboración de documentos jurídicos.