Inteligencia artificial explicable: análisis de metodologías y aplicaciones

La falta de transparencia y explicabilidad en los modelos de machine learning, conocidos como "caja negra", representa un desafío que afecta la confianza y la toma de decisiones en aplicaciones críticas, como la medicina, las finanzas y la seguridad. Este estudio explora la necesidad de me...

Descripción completa

Guardado en:
Detalles Bibliográficos
Autor principal: Pezzini, María Cecilia
Otros Autores: Pons, Claudia Fabiana
Formato: Tesis Trabajo de especializacion
Lenguaje:Español
Publicado: 2024
Materias:
Acceso en línea:http://sedici.unlp.edu.ar/handle/10915/174328
Aporte de:
Descripción
Sumario:La falta de transparencia y explicabilidad en los modelos de machine learning, conocidos como "caja negra", representa un desafío que afecta la confianza y la toma de decisiones en aplicaciones críticas, como la medicina, las finanzas y la seguridad. Este estudio explora la necesidad de mejorar la explicabilidad en estos sistemas, evaluando avances recientes en técnicas y comparándolos con enfoques anteriores, tanto en términos teóricos como prácticos. A través de una revisión de la literatura, se identificaron y analizaron metodologías actuales, clasificando y evaluando su efectividad y aplicaciones. Los hallazgos destacan la relevancia de técnicas como LIME (Local Interpretable Model-agnostic Explanations), SHAP (SHapley Additive exPlanations) y enfoques innovadores como SAMCNet y métodos basados en entropía por su capacidad para ofrecer explicaciones más comprensibles. Persisten desafíos importantes, como el desarrollo de técnicas de xAI (Inteligencia Artificial Explicable) agnósticas al modelo y generalizables a diversos contextos, lo cual subraya la importancia de continuar investigando para mejorar la transparencia y la confianza en la IA.