Inteligencia artificial explicable: análisis de metodologías y aplicaciones
La falta de transparencia y explicabilidad en los modelos de machine learning, conocidos como "caja negra", representa un desafío que afecta la confianza y la toma de decisiones en aplicaciones críticas, como la medicina, las finanzas y la seguridad. Este estudio explora la necesidad de me...
Guardado en:
| Autor principal: | |
|---|---|
| Otros Autores: | |
| Formato: | Tesis Trabajo de especializacion |
| Lenguaje: | Español |
| Publicado: |
2024
|
| Materias: | |
| Acceso en línea: | http://sedici.unlp.edu.ar/handle/10915/174328 |
| Aporte de: |
| id |
I19-R120-10915-174328 |
|---|---|
| record_format |
dspace |
| spelling |
I19-R120-10915-1743282024-12-06T04:18:22Z http://sedici.unlp.edu.ar/handle/10915/174328 Inteligencia artificial explicable: análisis de metodologías y aplicaciones Pezzini, María Cecilia 2024-09-06 2024 2024-12-02T13:56:11Z Pons, Claudia Fabiana es Informática Inteligencia artificial explicabilidad machine learning aprendizaje automático La falta de transparencia y explicabilidad en los modelos de machine learning, conocidos como "caja negra", representa un desafío que afecta la confianza y la toma de decisiones en aplicaciones críticas, como la medicina, las finanzas y la seguridad. Este estudio explora la necesidad de mejorar la explicabilidad en estos sistemas, evaluando avances recientes en técnicas y comparándolos con enfoques anteriores, tanto en términos teóricos como prácticos. A través de una revisión de la literatura, se identificaron y analizaron metodologías actuales, clasificando y evaluando su efectividad y aplicaciones. Los hallazgos destacan la relevancia de técnicas como LIME (Local Interpretable Model-agnostic Explanations), SHAP (SHapley Additive exPlanations) y enfoques innovadores como SAMCNet y métodos basados en entropía por su capacidad para ofrecer explicaciones más comprensibles. Persisten desafíos importantes, como el desarrollo de técnicas de xAI (Inteligencia Artificial Explicable) agnósticas al modelo y generalizables a diversos contextos, lo cual subraya la importancia de continuar investigando para mejorar la transparencia y la confianza en la IA. Especialista en Ingeniería de Software Universidad Nacional de La Plata Facultad de Informática Tesis Trabajo de especializacion http://creativecommons.org/licenses/by-nc-sa/4.0/ Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International (CC BY-NC-SA 4.0) application/pdf |
| institution |
Universidad Nacional de La Plata |
| institution_str |
I-19 |
| repository_str |
R-120 |
| collection |
SEDICI (UNLP) |
| language |
Español |
| topic |
Informática Inteligencia artificial explicabilidad machine learning aprendizaje automático |
| spellingShingle |
Informática Inteligencia artificial explicabilidad machine learning aprendizaje automático Pezzini, María Cecilia Inteligencia artificial explicable: análisis de metodologías y aplicaciones |
| topic_facet |
Informática Inteligencia artificial explicabilidad machine learning aprendizaje automático |
| description |
La falta de transparencia y explicabilidad en los modelos de machine learning, conocidos como "caja negra", representa un desafío que afecta la confianza y la toma de decisiones en aplicaciones críticas, como la medicina, las finanzas y la seguridad. Este estudio explora la necesidad de mejorar la explicabilidad en estos sistemas, evaluando avances recientes en técnicas y comparándolos con enfoques anteriores, tanto en términos teóricos como prácticos. A través de una revisión de la literatura, se identificaron y analizaron metodologías actuales, clasificando y evaluando su efectividad y aplicaciones. Los hallazgos destacan la relevancia de técnicas como LIME (Local Interpretable Model-agnostic Explanations), SHAP (SHapley Additive exPlanations) y enfoques innovadores como SAMCNet y métodos basados en entropía por su capacidad para ofrecer explicaciones más comprensibles. Persisten desafíos importantes, como el desarrollo de técnicas de xAI (Inteligencia Artificial Explicable) agnósticas al modelo y generalizables a diversos contextos, lo cual subraya la importancia de continuar investigando para mejorar la transparencia y la confianza en la IA. |
| author2 |
Pons, Claudia Fabiana |
| author_facet |
Pons, Claudia Fabiana Pezzini, María Cecilia |
| format |
Tesis Trabajo de especializacion |
| author |
Pezzini, María Cecilia |
| author_sort |
Pezzini, María Cecilia |
| title |
Inteligencia artificial explicable: análisis de metodologías y aplicaciones |
| title_short |
Inteligencia artificial explicable: análisis de metodologías y aplicaciones |
| title_full |
Inteligencia artificial explicable: análisis de metodologías y aplicaciones |
| title_fullStr |
Inteligencia artificial explicable: análisis de metodologías y aplicaciones |
| title_full_unstemmed |
Inteligencia artificial explicable: análisis de metodologías y aplicaciones |
| title_sort |
inteligencia artificial explicable: análisis de metodologías y aplicaciones |
| publishDate |
2024 |
| url |
http://sedici.unlp.edu.ar/handle/10915/174328 |
| work_keys_str_mv |
AT pezzinimariacecilia inteligenciaartificialexplicableanalisisdemetodologiasyaplicaciones |
| _version_ |
1841492884464861184 |