Red generativa adversativa

Las máquinas kernel se utilizan para calcular funciones separables no lineales en una función separable linealmente de mayor dimensión

Las redes generativas adversativas (RGAs), también conocidas como GANs en inglés, son una clase de algoritmos de inteligencia artificial que se utilizan en el aprendizaje no supervisado, implementadas por un sistema de dos redes neuronales que compiten mutuamente en una especie de juego de suma cero. Fueron presentadas por Ian Goodfellow et al. en 2014.

Esta técnica puede generar fotografías que parecen auténticas a observadores humanos. Por ejemplo, una fotografía sintética de un gato que consiga engañar al discriminador (una de las partes funcionales del algoritmo), es probable que lleve a una persona cualquiera a aceptarlo como una fotografía real.[1]

Método

[editar]

Una red genera los candidatos y otra los evalúa.[2]​ Típicamente, la red generativa aprende a asignar elementos de un espacio latente a una distribución de datos determinada, mientras la red discriminativa diferencia entre elementos de la distribución de datos originales y los candidatos producidos por el generador. El objetivo del aprendizaje de la red generativa es aumentar el índice de error de la red discriminativa (o sea, "engañar" a la red discriminativa produciendo nuevos elementos sintéticos que parecen provenir de la distribución de datos auténticos).[3]

En la práctica, un conjunto de datos conocido sirve como el saber de partida para el discriminador. Entrenar al discriminador implica presentarle muestras del conjunto de datos, hasta que logra algún nivel de exactitud. Habitualmente, el generador está "sembrado" con una entrada aleatorizada que se escoge de un espacio latente predefinido (p. ej. una distribución normal multivariante). Después, las muestras sintetizadas por el generador son evaluadas por el discriminador. En ambas redes se aplica la retropropagación, de modo que el generador produce imágenes progresivamente mejores, mientras el discriminador se refina cada vez más a la hora de distinguir esas imágenes sintéticas.[4]​ Los generadores son normalmente redes neuronales deconvolucionales, y los discriminadores son redes neuronales convolucionales.

La idea de inferir modelos en un sistema competitivo (modelo versus discriminador) fue propuesta por Li, Gauci y Bruto en 2013.[5]​ Su método se usa para inferencia conductista. Se denomina Aprendizaje de Turing, puesto que el esquema recuerda mucho al de un Test de Turing.[6]

Aplicaciones

[editar]

Las RGAs se han utilizado para producir muestras de imágenes fotorrealistas de diseño industrial, de interiores, de ropa y complementos, o elementos para escenas de juegos de ordenador. Han aparecido informaciones de que Facebook[7]​ ha llegado a utilizar este tipo de redes. Recientemente, algunas RGAs han generado patrones de movimiento en vídeo.[8]​ También se han utilizado para reconstruir modelos 3D a partir de imágenes 2D y para mejorar imágenes astronómicas.[9][10]​ Otro uso muy popular ha sido el de visión nocturna, es decir mejorar notablemente las imágenes con muy poca luz, tal como si fuese luz día https://ieeexplore.ieee.org/stamp/stamp.jsp?arnumber=9027878. También se ha utilizado para realidad aumentada pasando imágenes 2D a 3D https://arxiv.org/pdf/1902.03442.pdf. Simplificando el concepto, esta red neuronal es extremadamente eficiente al momento de "rellenar" la información faltante. Por lo que podría tener una infinidad de aplicaciones fuera de la video analítica.

Referencias

[editar]
  1. Salimans, Tim; Goodfellow, Ian; Zaremba, Wojciech; Cheung, Vicki; Radford, Alec; Chen, Xi (2016). «Improved Techniques for Training GANs». arXiv:1606.03498  [cs.LG]. 
  2. Goodfellow, Ian J.; Pouget-Abadie, Jean; Mirza, Mehdi; Xu, Bing; Warde-Farley, David; Ozair, Sherjil; Courville, Aaron; Bengio, Yoshua (2014). «Generative Adversarial Networks». arXiv:1406.2661  [stat.ML]. 
  3. «Semantic Segmentation using Adversarial Networks». NIPS Workshop on Adversarial Training, Dec , Barcelona, Spain 2016. 25 de noviembre de 2016. 
  4. Andrej Karpathy, Pieter Abbeel, Greg Brockman, Peter Chen, Vicki Cheung, Rocky Duan, Ian Goodfellow, Durk Kingma, Jonathan Ho, Rein Houthooft, Tim Salimans, John Schulman, Ilya Sutskever, And Wojciech Zaremba, Generative Models, OpenAI, consultado el 7 de abril de 2016 .
  5. A coevolutionary approach to learn animal behavior through controlled interaction. 
  6. Li, Wei; Gauci, Melvin; Groß, Roderich (30 de agosto de 2016). «Turing learning: a metric-free approach to inferring behavior and its application to swarms». Swarm Intelligence 10 (3): 211-243. doi:10.1007/s11721-016-0126-1. 
  7. Greenemeier, Larry (20 de junio de 2016). «When Will Computers Have Common Sense? Ask Facebook». Scientific American. Consultado el 31 de julio de 2016. 
  8. «Generating Videos with Scene Dynamics». web.mit.edu. Archivado desde el original el 20 de marzo de 2017. Consultado el 11 de agosto de 2017. 
  9. «3D Generative Adversarial Network». 3dgan.csail.mit.edu. 
  10. Schawinski, Kevin; Zhang, Ce; Zhang, Hantian; Fowler, Lucas; Santhanam, Gokula Krishnan (1 de febrero de 2017). «Generative Adversarial Networks recover features in astrophysical images of galaxies beyond the deconvolution limit». arXiv:1702.00403  [astro-ph.IM]. 

Enlaces externos

[editar]