dc.contributor.advisor | Santana Hermida, Roberto | |
dc.contributor.advisor | Lozano Alonso, José Antonio | |
dc.contributor.author | Vadillo Jueguen, Jon | |
dc.date.accessioned | 2023-02-02T07:12:13Z | |
dc.date.available | 2023-02-02T07:12:13Z | |
dc.date.issued | 2023-01-13 | |
dc.date.submitted | 2023-01-13 | |
dc.identifier.uri | http://hdl.handle.net/10810/59607 | |
dc.description | 152 p. | es_ES |
dc.description.abstract | Los modelos de Aprendizaje Automático como las Redes Neuronales Profundas son actualmente el núcleo de una amplia gama de tecnologías aplicadas en tareas críticas, como el reconocimiento facial o la conducción autónoma, en las que tanto la capacidad predictiva como la fiabilidad son requisitos fundamentales. Sin embargo, estos modelos pueden ser fácilmente engañados por inputs manipulados deforma imperceptible para el ser humano, denominados ejemplos adversos (adversarial examples), lo que implica una brecha de seguridad que puede ser explotada por un atacante con fines ilícitos. Dado que estas vulnerabilidades afectan directamente a la integridad y fiabilidad de múltiples sistemas que,progresivamente, están siendo desplegados en aplicaciones del mundo real, es crucial determinar el alcance de dichas vulnerabilidades para poder garantizar así un uso más responsable, informado y seguro de esos sistemas. Por estos motivos, esta tesis doctoral tiene como objetivo principal investigar nuevas nociones de ataques adversos y vulnerabilidades en las Redes Neuronales Profundas. Como resultado de esta investigación, a lo largo de esta tesis se exponen nuevos paradigmas de ataque que exceden o amplían las capacidades de los métodos actualmente disponibles en la literatura, ya que son capaces de alcanzar objetivos más generales, complejos o ambiciosos. Al mismo tiempo, se exponen nuevas brechas de seguridad en casos de uso y escenarios en los que las consecuencias de los ataques adversos no habían sido investigadas con anterioridad. Nuestro trabajo también arroja luz sobre diferentes propiedades de estos modelos que los hacen más vulnerables a los ataques adversos, contribuyendo a una mejor comprensión de estos fenómenos. | es_ES |
dc.language.iso | eng | es_ES |
dc.rights | info:eu-repo/semantics/openAccess | es_ES |
dc.subject | artificial intelligence | es_ES |
dc.subject | inteligencia artificial | es_ES |
dc.title | Broadening the Horizon of Adversarial Attacks in Deep Learning | es_ES |
dc.type | info:eu-repo/semantics/doctoralThesis | es_ES |
dc.rights.holder | (c)2023 JON VADILLO JUEGUEN | |
dc.identifier.studentID | 766738 | es_ES |
dc.identifier.projectID | 22848 | es_ES |
dc.departamentoes | Ciencia de la computación e inteligencia artificial | es_ES |
dc.departamentoeu | Konputazio zientziak eta adimen artifiziala | es_ES |