On computational intelligence tools for vision based navigation of mobile robots
- Villaverde De la Nava, Iván
- Manuel Graña Romay Director
Universidad de defensa: Universidad del País Vasco - Euskal Herriko Unibertsitatea
Fecha de defensa: 09 de diciembre de 2009
- Darío Maravall Gómez-Allende Presidente/a
- Bogdan Raducanu Secretario/a
- Vassilis Kaburlasos Vocal
- Javier de Lope Asiaín Vocal
- Gerhard Ritter Vocal
Tipo: Tesis
Resumen
En el trabajo de esta tesis se han tratado dos tipos de sensores básicos para el desarrollo de sistemas de navegación: cámaras ópticas y cámaras 3D de detección de rango, Con ambas los problemas tratados son el de autolocalización, detección de movimiento propio del robot y construcción de mapas. Se han obtenido buenos resultados utilizando técnicas de computación reticular, técnicas evolutivas y de redes neuronales. La computación reticular se ha aplicado a la autolocalización en mapas cualitativos y a la detección de balizas visuales con cámaras ópticas. Para la realización de procesos de localización métrica con cámaras 3D de detección de rango, se han aplicado redes neuronales competitivas y algoritmos evolutivos para la estimación de las transformaciones entre vistas 3D que nos proporcionan la estimación del movimiento del robot. Finalmente, se ha realizado una prueba de concepto experimental sobre una plataforma robótica real de un Sistema Robótico Multi-Componente Enlazado con retroalimentación visual. Abstract: This PhD Thesis has dealt with two types of sensors, studying their usefulness for the development of navigation systems: optical cameras and 3D range finder cameras. Both were used to attack the problems of selflocalization, egomotion and topological and metric map building. Good results have been obtained using Lattice Computing, Evolution Strategies and Artificial Neural Network techniques. Lattice Computing has been applied to self-localization in qualitative maps and to visual landmark detection using optical cameras. For metric localization tasks with 3D range finder cameras, Competitive Neural Networks and Evolution Strategies have been used to estimate the transformations between 3D views, which will provide the estimation of the robot's movement. Finally, we have performed a proof-of-concept physical experiment on the control of Linked Multi-Component Robotic Systems with visual feedback.