Robustez en sistemas de Deep Learning para detección de imágenes médicas

En esta tesis abordamos el problema de la clasificación automática de imágenes mediante el uso de redes neuronales profundas o también llamado deep learning. Estas técnicas han demostrado ser altamente efectivas y logran resultados comparables con el sistema visual humano. Sin embargo, presentan una...

Descripción completa

Guardado en:
Detalles Bibliográficos
Autor principal: Kloster, Matías A.
Formato: Tesis NonPeerReviewed
Lenguaje:Español
Publicado: 2023
Materias:
Acceso en línea:http://ricabib.cab.cnea.gov.ar/1197/1/1Kloster.pdf
Aporte de:
id I25-R131-1197
record_format dspace
institution Instituto Balseiro
institution_str I-25
repository_str R-131
collection Repositorio Institucional Centro Atómico Bariloche e Instituto Balseiro (RICABIB)
language Español
orig_language_str_mv es
topic Medicina
Machine learning
Aprendizaje automático
[Robustness
Robustez
Machine learning deep
Aprendizaje automático profundo
Medical images
Imágenes médicas
Adversarial example
Ejemplo adverso]
spellingShingle Medicina
Machine learning
Aprendizaje automático
[Robustness
Robustez
Machine learning deep
Aprendizaje automático profundo
Medical images
Imágenes médicas
Adversarial example
Ejemplo adverso]
Kloster, Matías A.
Robustez en sistemas de Deep Learning para detección de imágenes médicas
topic_facet Medicina
Machine learning
Aprendizaje automático
[Robustness
Robustez
Machine learning deep
Aprendizaje automático profundo
Medical images
Imágenes médicas
Adversarial example
Ejemplo adverso]
description En esta tesis abordamos el problema de la clasificación automática de imágenes mediante el uso de redes neuronales profundas o también llamado deep learning. Estas técnicas han demostrado ser altamente efectivas y logran resultados comparables con el sistema visual humano. Sin embargo, presentan una limitación importante: su vulnerabilidad frente a ejemplos adversos cuidadosamente construidos. Estos ejemplos adversos son imágenes que se generan a partir de imágenes naturales y son capaces de engañar a la red neuronal, siendo clasificados erróneamente con una alta confianza en la predicción. Lo sorprendente es que estos ejemplos adversos son visualmente indistinguibles de las imágenes naturales, lo que vuelve su detección un problema desafiante. Tras realizar un estudio exhaustivo sobre esta problemática, se procede a generar ejemplos adversos utilizando tres métodos distintos en cuatro bases de datos. Dos de las bases de datos son ampliamente reconocidas, mientras que las otras dos se centran en la detección de retinopatía diabética, diferenciándose únicamente en el tamaño de las imágenes. En este trabajo, presentamos un método de detección de ejemplos adversos basado en la activación estocástica implementada en ciertas capas de la red neuronal. Nuestro enfoque principal se centra en determinar la manera ´optima de introducir este término de ruido, así como evaluar la generalización de estos resultados en diferentes arquitecturas y problemas de clasificación. Tras realizar diversas pruebas, se observó que la probabilidad de detectar exitosamente la naturaleza de una imagen (ya sea natural o adversa) depende en gran medida del tipo de ataque utilizado, la base de datos utilizada y la magnitud de la perturbación permitida durante la generación del ejemplo adverso. Los resultados obtenidos muestran una amplia variación en la probabilidad de una detección correcta, que va desde un alto porcentaje del 99% en el caso del ataque DeepFool aplicado a imágenes de la base de datos MNIST, hasta porcentajes intermedios como el 74% para el ataque CW2 en imágenes de Retinopatía Diabética de tamaño grande, y valores bajos y ligeramente superiores a la aleatoriedad, como el 51%, para el ataque FGSM en imágenes de Retinopatía Diabética de tamaño pequeño. El código está disponible a través del siguiente enlace: github.com/klostermati/Robustnesstoadversarial-examples.
format Tesis
NonPeerReviewed
author Kloster, Matías A.
author_facet Kloster, Matías A.
author_sort Kloster, Matías A.
title Robustez en sistemas de Deep Learning para detección de imágenes médicas
title_short Robustez en sistemas de Deep Learning para detección de imágenes médicas
title_full Robustez en sistemas de Deep Learning para detección de imágenes médicas
title_fullStr Robustez en sistemas de Deep Learning para detección de imágenes médicas
title_full_unstemmed Robustez en sistemas de Deep Learning para detección de imágenes médicas
title_sort robustez en sistemas de deep learning para detección de imágenes médicas
publishDate 2023
url http://ricabib.cab.cnea.gov.ar/1197/1/1Kloster.pdf
work_keys_str_mv AT klostermatiasa robustezensistemasdedeeplearningparadetecciondeimagenesmedicas
_version_ 1794277909622423552
spelling I25-R131-11972023-08-11T18:54:40Z Robustez en sistemas de Deep Learning para detección de imágenes médicas Robustness in Deep Learning systems for medical images detection Kloster, Matías A. Medicina Machine learning Aprendizaje automático [Robustness Robustez Machine learning deep Aprendizaje automático profundo Medical images Imágenes médicas Adversarial example Ejemplo adverso] En esta tesis abordamos el problema de la clasificación automática de imágenes mediante el uso de redes neuronales profundas o también llamado deep learning. Estas técnicas han demostrado ser altamente efectivas y logran resultados comparables con el sistema visual humano. Sin embargo, presentan una limitación importante: su vulnerabilidad frente a ejemplos adversos cuidadosamente construidos. Estos ejemplos adversos son imágenes que se generan a partir de imágenes naturales y son capaces de engañar a la red neuronal, siendo clasificados erróneamente con una alta confianza en la predicción. Lo sorprendente es que estos ejemplos adversos son visualmente indistinguibles de las imágenes naturales, lo que vuelve su detección un problema desafiante. Tras realizar un estudio exhaustivo sobre esta problemática, se procede a generar ejemplos adversos utilizando tres métodos distintos en cuatro bases de datos. Dos de las bases de datos son ampliamente reconocidas, mientras que las otras dos se centran en la detección de retinopatía diabética, diferenciándose únicamente en el tamaño de las imágenes. En este trabajo, presentamos un método de detección de ejemplos adversos basado en la activación estocástica implementada en ciertas capas de la red neuronal. Nuestro enfoque principal se centra en determinar la manera ´optima de introducir este término de ruido, así como evaluar la generalización de estos resultados en diferentes arquitecturas y problemas de clasificación. Tras realizar diversas pruebas, se observó que la probabilidad de detectar exitosamente la naturaleza de una imagen (ya sea natural o adversa) depende en gran medida del tipo de ataque utilizado, la base de datos utilizada y la magnitud de la perturbación permitida durante la generación del ejemplo adverso. Los resultados obtenidos muestran una amplia variación en la probabilidad de una detección correcta, que va desde un alto porcentaje del 99% en el caso del ataque DeepFool aplicado a imágenes de la base de datos MNIST, hasta porcentajes intermedios como el 74% para el ataque CW2 en imágenes de Retinopatía Diabética de tamaño grande, y valores bajos y ligeramente superiores a la aleatoriedad, como el 51%, para el ataque FGSM en imágenes de Retinopatía Diabética de tamaño pequeño. El código está disponible a través del siguiente enlace: github.com/klostermati/Robustnesstoadversarial-examples. In this thesis, we approach the problem of automatic image classification using deep neural networks, also known as deep learning. These techniques have proven to be highly effective and achieve results comparable to the human visual system. However, they have an important limitation: their vulnerability to carefully constructed adversarial examples. These adversarial examples are images that are generated from natural images and are able to fool the neural network, being misclassified with high prediction confidence. Remarkably, these adversarial examples are visually indistinguishable from natural images, which makes their detection a challenging problem. After conducting a comprehensive study on this problem, we proceed to generate adversarial examples using three different methods on four databases. Two of the databases are widely recognized, while the other two focus on the detection of diabetic retinopathy, differing only in the size of the images. In this paper, we present an adversarial example detection method based on stochastic activation implemented at certain neural network layers. Our main focus is on determining the optimal way to introduce this noisy term, as well as evaluating the generalization of these results to different architectures and classification problems. After performing several tests, it was observed that the probability of successfully detecting the nature of an image (either natural or adversarial) is highly dependent on the type of attack used, the database used, and the magnitude of perturbation allowed during the generation of the adversarial example. The results obtained show a wide variation in the probability of a correct detection, ranging from a high percentage of 99% for the DeepFool attack applied to images from the MNIST database, to intermediate percentages such as 74% for the CW2 attack on large-sized Diabetic Retinopathy images, and low and slightly above random values, such as 51%, for the FGSM attack on small-sized Diabetic Retinopathy images. The code is available through the following link: github.com/klostermati/Robustness-to-adversarial-examples. 2023-06-30 Tesis NonPeerReviewed application/pdf http://ricabib.cab.cnea.gov.ar/1197/1/1Kloster.pdf es Kloster, Matías A. (2023) Robustez en sistemas de Deep Learning para detección de imágenes médicas / Robustness in Deep Learning systems for medical images detection. Maestría en Ingeniería, Universidad Nacional de Cuyo, Instituto Balseiro. http://ricabib.cab.cnea.gov.ar/1197/