Show simple item record

dc.contributor.advisorDíez Sánchez, Mikel
dc.contributor.authorUnzueta Martín, Unai
dc.contributor.otherMáster Universitario en Ingeniería de Control, Automatización y Robótica
dc.contributor.otherKontrol Ingeniaritza, Automatizazioa eta Robotika Unibertsitate Masterra
dc.date.accessioned2021-08-05T08:42:16Z
dc.date.available2021-08-05T08:42:16Z
dc.date.issued2021-08-05
dc.identifier.urihttp://hdl.handle.net/10810/52706
dc.description.abstractEn este documento se investigan diferentes métodos utilizados en el campo de la visión con el objetivo de mejorar y aportar nueva información en el desarrollo de un sistema de percepción robusto basado en la fusión de distintos sensores mediante el análisis de la información obtenida de las imágenes a través de las cámaras posicionadas en el vehículo autónomo. Para ello, se realizará un estudio de fotogramas consecutivos, que permitirá comprender el desplazamiento relativo del vehículo entre dos imágenes consecutivas. Es decir, se debe obtener suficiente información para que el algoritmo pueda proporcionar el ángulo de giro y el desplazamiento relativo (longitudinal y lateral) del automóvil autónomo entre dos fotogramas consecutivos.es_ES
dc.description.abstractDokumentu honetan ikusmenaren eremuan erabilitako hainbat metodo ikertzen dira, pertzepzio-sistema sendo baten garapenean informazio berria emateko eta hobetzeko. Sistema hori sentsore desberdinen fusioan oinarritzen da, non ibilgailu autonomoan kokatutako kameren irudietatik lortutako informazioa aztertuko da. Horretarako, ondoz ondoko fotogramen azterketa egingo da, ibilgailua ondoz ondoko bi irudiren artean nola mugitzen den ulertzeko. Hau da, informazio nahikoa lortu behar da algoritmoak auto autonomoaren biraketa-angelua eta desplazamendu erlatiboa (luzetarakoa eta albokoa) eman ahal izateko elkarren segidako bi fotogramen artean.es_ES
dc.description.abstractThis paper investigates different methods used in the field of vision with the aim of improving and providing new information in the development of a robust perception system based on the fusion of different sensors by analysing the information obtained from the images through the cameras positioned in the autonomous vehicle. For this purpose, a study of consecutive frames will be carried out, which will allow understanding the relative displacement of the vehicle between two consecutive images. In other words, enough information must be obtained for the algorithm to be able to provide the yaw angle and the relative displacement (longitudinal and lateral) of the autonomous car between two consecutive frames.es_ES
dc.language.isospaes_ES
dc.rightsinfo:eu-repo/semantics/openAccess
dc.rights.urihttp://creativecommons.org/licenses/by-nc-sa/3.0/es/
dc.subjectvisual odometryes_ES
dc.subjectCARLAes_ES
dc.subjectSURFes_ES
dc.subjectRANSACes_ES
dc.subjectodometría visual
dc.titleDesarrollo de algoritmos para la localización de vehículos autónomos mediante visual odometryes_ES
dc.typeinfo:eu-repo/semantics/bachelorThesis
dc.date.updated2021-06-22T06:55:35Z
dc.language.rfc3066es
dc.rights.holderAtribución-NoComercial-CompartirIgual (cc by-nc-sa)
dc.identifier.gaurregister115511-772480-08es_ES
dc.identifier.gaurassign121699-772480es_ES


Files in this item

Thumbnail

This item appears in the following Collection(s)

Show simple item record

Atribución-NoComercial-CompartirIgual (cc by-nc-sa)
Except where otherwise noted, this item's license is described as Atribución-NoComercial-CompartirIgual (cc by-nc-sa)