Documento de conferencia
Acceso Abierto

Adversarial image generation using geneticalgorithms with black-box technique

Resumen

Convolutional neural networks are a technique that has demon-strated great success in computer vision tasks, such as image classifica-tion and object detection. Like any machine learning model, they havelimitations and vulnerabilities that must be carefully considered for safeand effective use. One of the main limitations lies in their complexityand the difficulty of interpreting their internal workings, which can beexploited for malicious purposes. The goal of these attacks is to makedeliberate changes to the input data in order to deceive the model andcause it to make incorrect decisions. These attacks are known as adver-sarial attacks. This work focuses on the generation of adversarial im-ages using genetic algorithms for a convolutional neural network trainedon the MNIST dataset. Several strategies are employed, including tar-geted and untargeted attacks, as well as the presentation of interpretableand non-interpretable images that are unrecognizable to humans but aremisidentified and confidently classified by the network. The experimentdemonstrates the ability to generate adversarial images in a relativelyshort time, highlighting the vulnerability of neural networks and the easewith which they can be deceived. These results underscore the impor-tance of developing more secure and reliable artificial intelligence systemscapable of resisting such attacks

Las redes neuronales convolucionales conforman una técnica que ha demostrado un gran éxito en tareas de visión artificial, como la clasificación de imágenes y detección de objetos. Como cualquier modelo de aprendizaje automático, tiene limitaciones y vulnerabilidades que deben ser consideradas cuidadosamente para utilizarlas de manera segura y efectiva. Una de las limitaciones principales se encuentra en su complejidad y la dificultad de interpretar su funcionamiento interno, lo que puede ser explotado con fines maliciosos. El objetivo de estos ataques consiste en hacer cambios deliberados en la entrada de datos, de forma tal de engañar al modelo y hacer que tome decisiones incorrectas. Estos ataques son conocidos como ataques adversarios. Este trabajo se centra en la generación de imágenes adversarias utilizando algoritmos genéticos para una red neuronal convolucional entrenada con el dataset MNIST. Se utilizan varias estrategias incluyendo ataques dirigidos y no dirigidos, así como también se presentan imágenes interpretables y no interpretables, no reconocibles para los humanos, pero que la red identifica y clasifica erróneamente con alta confianza. El experimento muestra la posibilidad de generar imágenes adversarias en un tiempo relativamente corto, lo que pone en evidencia la vulnerabilidad de las redes neuronales y la facilidad con la que pueden ser engañadas. Estos resultados resaltan la importancia de desarrollar sistemas de inteligencia artificial más seguros y confiables, capaces de resistir estos ataques.

Palabras clave
Convolutional Neural Networks
Adversarial Images
Genetic Algorithms
Redes Neuronales convolucionales
Imágenes adversarias
Algoritmos genéticos
http://creativecommons.org/licenses/by-nc-sa/4.0/

Esta obra se publica con la licencia Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International (BY-NC-SA 4.0)

item.page.license
Cargando...
Miniatura