Desarrollo de algoritmos para la localización de vehículos autónomos mediante visual odometry
View/ Open
Date
2021-08-05Author
Unzueta Martín, Unai
Metadata
Show full item recordAbstract
En este documento se investigan diferentes métodos utilizados en el campo de la visión con el objetivo de mejorar y aportar nueva información en el desarrollo de un sistema de percepción robusto basado en la fusión de distintos sensores mediante el análisis de la información obtenida de las imágenes a través de las cámaras posicionadas en el vehículo autónomo. Para ello, se realizará un estudio de fotogramas consecutivos, que permitirá comprender el desplazamiento relativo del vehículo entre dos imágenes consecutivas. Es decir, se debe obtener suficiente información para que el algoritmo pueda proporcionar el ángulo de giro y el desplazamiento relativo (longitudinal y lateral) del automóvil autónomo entre dos fotogramas consecutivos. Dokumentu honetan ikusmenaren eremuan erabilitako hainbat metodo ikertzen dira, pertzepzio-sistema sendo baten garapenean informazio berria emateko eta hobetzeko. Sistema hori sentsore desberdinen fusioan oinarritzen da, non ibilgailu autonomoan kokatutako kameren irudietatik lortutako informazioa aztertuko da. Horretarako, ondoz ondoko fotogramen azterketa egingo da, ibilgailua ondoz ondoko bi irudiren artean nola mugitzen den ulertzeko. Hau da, informazio nahikoa lortu behar da algoritmoak auto autonomoaren biraketa-angelua eta desplazamendu erlatiboa (luzetarakoa eta albokoa) eman ahal izateko elkarren segidako bi fotogramen artean. This paper investigates different methods used in the field of vision with the aim of improving and providing new information in the development of a robust perception system based on the fusion of different sensors by analysing the information obtained from the images through the cameras positioned in the autonomous vehicle. For this purpose, a study of consecutive frames will be carried out, which will allow understanding the relative displacement of the vehicle between two consecutive images. In other words, enough information must be obtained for the algorithm to be able to provide the yaw angle and the relative displacement (longitudinal and lateral) of the autonomous car between two consecutive frames.