Robustez en sistemas de Deep Learning para detección de imágenes médicas

En esta tesis abordamos el problema de la clasificación automática de imágenes mediante el uso de redes neuronales profundas o también llamado deep learning. Estas técnicas han demostrado ser altamente efectivas y logran resultados comparables con el sistema visual humano. Sin embargo, presentan una...

Descripción completa

Guardado en:
Detalles Bibliográficos
Autor principal: Kloster, Matías A.
Formato: Tesis NonPeerReviewed
Lenguaje:Español
Publicado: 2023
Materias:
Acceso en línea:http://ricabib.cab.cnea.gov.ar/1197/1/1Kloster.pdf
Aporte de:
Descripción
Sumario:En esta tesis abordamos el problema de la clasificación automática de imágenes mediante el uso de redes neuronales profundas o también llamado deep learning. Estas técnicas han demostrado ser altamente efectivas y logran resultados comparables con el sistema visual humano. Sin embargo, presentan una limitación importante: su vulnerabilidad frente a ejemplos adversos cuidadosamente construidos. Estos ejemplos adversos son imágenes que se generan a partir de imágenes naturales y son capaces de engañar a la red neuronal, siendo clasificados erróneamente con una alta confianza en la predicción. Lo sorprendente es que estos ejemplos adversos son visualmente indistinguibles de las imágenes naturales, lo que vuelve su detección un problema desafiante. Tras realizar un estudio exhaustivo sobre esta problemática, se procede a generar ejemplos adversos utilizando tres métodos distintos en cuatro bases de datos. Dos de las bases de datos son ampliamente reconocidas, mientras que las otras dos se centran en la detección de retinopatía diabética, diferenciándose únicamente en el tamaño de las imágenes. En este trabajo, presentamos un método de detección de ejemplos adversos basado en la activación estocástica implementada en ciertas capas de la red neuronal. Nuestro enfoque principal se centra en determinar la manera ´optima de introducir este término de ruido, así como evaluar la generalización de estos resultados en diferentes arquitecturas y problemas de clasificación. Tras realizar diversas pruebas, se observó que la probabilidad de detectar exitosamente la naturaleza de una imagen (ya sea natural o adversa) depende en gran medida del tipo de ataque utilizado, la base de datos utilizada y la magnitud de la perturbación permitida durante la generación del ejemplo adverso. Los resultados obtenidos muestran una amplia variación en la probabilidad de una detección correcta, que va desde un alto porcentaje del 99% en el caso del ataque DeepFool aplicado a imágenes de la base de datos MNIST, hasta porcentajes intermedios como el 74% para el ataque CW2 en imágenes de Retinopatía Diabética de tamaño grande, y valores bajos y ligeramente superiores a la aleatoriedad, como el 51%, para el ataque FGSM en imágenes de Retinopatía Diabética de tamaño pequeño. El código está disponible a través del siguiente enlace: github.com/klostermati/Robustnesstoadversarial-examples.