Show simple item record

dc.contributor.authorRosado Rodrigo, Pilar
dc.contributor.authorFigueras Ferrer, Eva
dc.contributor.authorReverter Comes, Ferran
dc.date.accessioned2020-07-10T10:27:42Z
dc.date.available2020-07-10T10:27:42Z
dc.date.issued2016
dc.identifier.citationAusArt 4(1) : 19-28 (2016)
dc.identifier.issn2340-8510
dc.identifier.urihttp://hdl.handle.net/10810/45397
dc.description.abstractThe objective of our research is to develop a series of computer vision programs to search for analogies in large datasets-in this case, collections of images of abstract paintings-based solely on their visual content without textual annotation. We have programmed an algorithm based on a specific model of image description used in computer vision. This approach involves placing a regular grid over the image and selecting a pixel region around each node. Dense features computed over this regular grid with overlapping patches are used to represent the images. Analysing the distances between the whole set of image descriptors we are able to group them according to their similarity and each resulting group will determines what we call "visual words". This model is called Bag-of-Words representation Given the frequency with which each visual word occurs in each image, we apply the method pLSA (Probabilistic Latent Semantic Analysis), a statistical model that classifies fully automatically, without any textual annotation, images according to their formal patterns. In this way, the researchers hope to develop a tool both for producing and analysing works of art.; Esta investigación aborda el problema de la detección aspectos latentes en grandes colecciones de imágenes de obras de artista abstractas, atendiendo sólo a su contenido visual. Se ha programado un algoritmo de descripción de imágenes utilizado en visión artificial cuyo enfoque consiste en colocar una malla regular de puntos de interés en la imagen y seleccionar alrededor de cada uno de sus nodos una región de píxeles para la que se calcula un descriptor que tiene en cuenta los gradientes de grises encontrados. Los descriptores de toda la colección de imágenes se pueden agrupar en función de su similitud y cada grupo resultante pasará a determinar lo que llamamos "palabras visuales". El método se denomina Bag-of-Words (bolsa de palabras). Teniendo en cuenta la frecuencia con que cada "palabra visual" ocurre en cada imagen, aplicamos el modelo estadístico pLSA (Probabilistic Latent Semantic Analysis), que clasificará de forma totalmente automática las imágenes según su categoría formal. Esta herramienta resulta de utilidad tanto en el análisis de obras de arte como en la producción artística.
dc.language.isospa
dc.publisherServicio Editorial de la Universidad del País Vasco/Euskal Herriko Unibertsitatearen Argitalpen Zerbitzua
dc.rightsinfo:eu-repo/semantics/openAccess
dc.titleDel píxel a las resonancias visuales: La imagen con voz propia
dc.typeinfo:eu-repo/semantics/article
dc.rights.holder© 2016, Servicio Editorial de la Universidad del País Vasco Euskal Herriko Unibertsitateko Argitalpen Zerbitzua
dc.identifier.doi10.1387/ausart.16670


Files in this item

Thumbnail

This item appears in the following Collection(s)

Show simple item record