Odometría visual monocular basada en redes adversarias generativas

Uno de los principales desafíos a resolver en el campo de la robótica móvil es el de lograr que un robot autónomo pueda estimar su posición y orientación en el entorno que se encuentra navegando. Al problema de estimar el desplazamiento de un robot incrementalmente a partir de una secuencia de imáge...

Descripción completa

Guardado en:
Detalles Bibliográficos
Autor principal: Cremona, Javier Alejandro
Otros Autores: Taihú, Pire
Formato: bachelorThesis Tésis de Grado acceptedVersion
Lenguaje:Español
Publicado: 2020
Materias:
Acceso en línea:http://hdl.handle.net/2133/19078
http://hdl.handle.net/2133/19078
Aporte de:
Descripción
Sumario:Uno de los principales desafíos a resolver en el campo de la robótica móvil es el de lograr que un robot autónomo pueda estimar su posición y orientación en el entorno que se encuentra navegando. Al problema de estimar el desplazamiento de un robot incrementalmente a partir de una secuencia de imágenes entrante se lo denomina Visual Odometry (VO). En los últimos años las redes neuronales convolucionales (CNN) han sido aplicadas a diversos problemas de Computer Vision, y VO no fue la excepción. En este trabajo se propone el uso de una CNN para resolver el problema de VO. Para esto, se emplea un tipo particular de CNN conocido como Generative Adversarial Network (GAN) que permite realizar su entrenamiento mediante una técnica semi-supervisada, la cual incluye imágenes reales e imágenes generadas artificialmente por la propia red. Se evaluó la performance y la precisión de dicho sistema en datasets de dominio público. Concretamente, la propuesta se centra en vehículos autónomos pero la solución podría extrapolarse a otros tipos de robots. Los resultados obtenidos muestran que el sistema es capaz de trabajar en tiempo real y su precisión es comparable con sistemas similares del estado del arte. El método propuesto recibe el nombre de WGANVO y su código se libera junto con todo el software desarrollado como software libre para facilitar su uso por la comunidad de Robótica Móvil y de Aprendizaje Profundo.