Deep Dream 

Google acaba de crear un algoritmo llamado Deep Dream, que tiene vuelto loco a todo el mundo (o al menos a todo internet). Se trata de una Red Neuronal Convulsional (también conocidas como ANNs – Arificial Neural Networks), una forma de inteligencia artificial de ultima generación, que funciona de manera bastante similar a un cerebro biológico, por el uso de  campos receptivos que emulan las funciones de las neuronas en la corteza visual primaria. Esto es una forma muy sofisticada de decir que el algoritmo aprende “viendo” y reconociendo patrones (lo que humanamente es un fenómeno conocido como Pareidolia).

¿Qué es lo que ve? Vamos es Google, valdría más decir “qué no ve”. Toda la información visual que está en internet (imágenes, videos, mapas, dibujos, diagramas, fotografías, webcams) es su fuente de alimentación, lo que hace que este programita, después de ver algunos millones de caras -por ejemplo- puede identificar perfectamente un rostro humano en cualquier lugar.
¿Cómo se llama a lo que ve? la gente de Google les llama “incepcionismos” (derivado del término “incepción”)

Pero escogí un ejemplo demasiado trillado (caras). Los programas de reconocimiento facial no son nada nuevo. Ya hasta en Facebook los hemos visto funcionando, aunque no de manera perfecta aun, pues a todos nos ha pasado cuando subimos una foto en la que tenemos -por ejemplo- un suéter arrugado, y el programa nos pregunta de qué amigo es la cara que tenemos en la panza.

Lo que Deep Dream hace es mucho más complejo, y por ello reconoce más que caras. El programita de Google puede reconocer prácticamente cualquier cosa. O al menos cualquier cosa de la que encuentre mucha información visual: animales, plantas, paisajes, texturas, estructuras de varios tipos, figuras geométricas, construcciones, comida, marcas (logotipos), letras, ojos, bocas, manos, nubes, elementos orgánicos, cuerpos… en fin todo de lo que haya mucho en internet.

¿Porqué tiene vuelto loco a todo internet? Por dos razones:
1. Los resultados de sus búsqueda de patrones de reconocimiento se pueden apreciar en “visualizaciones” bastante surrealistas de lo que el algoritmo “ve” o “intenta ver” cuando está buscando patrones de reconocimeinto en las imágenes.
2. El código de Deep Dream fue liberado como “open source” (para que cualquiera pueda descargarlo, usarlo y hacer pruebas con él). Lo que fué un gran acierto, puesto que ahora todo mundo está haciendo su propios experimentos, ya sea descargándolo de un sitio o hasta usando un demo online llamado “Deep Dream Generator”

Les recomiendo mucho probarlo. No todos los días se puede uno meter en el “cerebro” de una inteligencia artificial y ver como trata de entender el mundo…

These nightmarish images offer a unique and mesmerizing insight into how computers see the world – and what happens when a mind-bogglingly complex system of artificial intelligence is let off its leash. To discern and process the billions of photos that pass through its site, Google engineers designed ingenious tools known as artificial neural networks, or ‘ANNs’.

Google’s ANNs are programmed, through an endless stream of similar photos, to recognise objects within images by their distinctive characteristics. For example, the ANN will be taught to recognise a fork by processing millions of pictures of forks – eventually understanding that it has a handle and two to four tines.

Now Google is offering the public these networks’ codes – allowing people to upload photos and mutate them into terrifying and wonderful versions of the original. A simplified explanation would be to say that the ANNs recognise patterns within images, in the same way a child might spot a shape within a cloud. Recognition of such patterns can be exaggerated so that, while processing an image, the ANN turns a normal-looking photo into a psychedelic nightmare by enhancing swirls and blemishes it has misinterpreted for other objects.

Going a little deeper, Google’s ANNs consist of 10 to 30 layers. When an image is fed into an ANN, each layer progressively extracts more complex information from the picture, from edges to shapes until finally the idea of the image as a whole is formed.

Computer geniuses recently realised that when images are processed using higher-level layers – which identify more sophisticated traits in the picture – complex features or even whole objects begin to emerge. If a blemish on a face looks like part of an eye, the layers of the ANN can be manipulated to enhance this blemish and run with its recognition of an eye – repeating the process until an actual eye appears…

https://youtu.be/50Z3QMjVfOQ