PlaNet

Aquí hay otra herramienta de Google basada en inteligencia artificial que está empezando a sorprender. Se llama PlaNet y lo que este programita esta aprendiendo a hacer es reconocer cualquier lugar del mundo con solo ver una foto. No, no necesita GPS. Si, necesita conexión a internet para consultar su base de datos, lo que le quita un poco el chiste (pues si depende de internet podría igualmente usar el GPS).

Aún así me sigue sorprendiendo como puedes hacer a un programa aparentemente omnisciente, mucho más capaz en algo de lo que cualquier persona podría, si lo alimentas con suficiente información como Google lo hace. Los millones de datos -o de imágenes en este caso- con que alimentan diariamente a este programita harán que PLaNet pronto conozca localidades de todo el mundo como la palma de su mano y con solo ver la totalidad o pare de ellas. Y lo va a hacer mucho mejor de lo que cualquier viajero o grupo de viajeros podrían viajar y conocer en varias vidas…

In case you didn’t already feel like Google was a creepy stalker, its artificial intelligence tools are rapidly crossing over into uncanny. The latest one is PlaNet, a new deep-learning machine that specializes in figuring out where a photo was taken—using nothing but the image’s pixels.

Today, MIT Tech Review reports on a new effort led by Tobias Weyand, a computer vision specialist at Google, to create a computer that sees a photo and can instantly figure out where in the world it’s from. The system was fed over 90 million geotagged images across the planet, and trained to spot patterns based on location.

http://on.mash.to/1VlKHP3

PlaNet

Deep Dream 

Google acaba de crear un algoritmo llamado Deep Dream, que tiene vuelto loco a todo el mundo (o al menos a todo internet). Se trata de una Red Neuronal Convulsional (también conocidas como ANNs – Arificial Neural Networks), una forma de inteligencia artificial de ultima generación, que funciona de manera bastante similar a un cerebro biológico, por el uso de  campos receptivos que emulan las funciones de las neuronas en la corteza visual primaria. Esto es una forma muy sofisticada de decir que el algoritmo aprende “viendo” y reconociendo patrones (lo que humanamente es un fenómeno conocido como Pareidolia).

¿Qué es lo que ve? Vamos es Google, valdría más decir “qué no ve”. Toda la información visual que está en internet (imágenes, videos, mapas, dibujos, diagramas, fotografías, webcams) es su fuente de alimentación, lo que hace que este programita, después de ver algunos millones de caras -por ejemplo- puede identificar perfectamente un rostro humano en cualquier lugar.
¿Cómo se llama a lo que ve? la gente de Google les llama “incepcionismos” (derivado del término “incepción”)

Pero escogí un ejemplo demasiado trillado (caras). Los programas de reconocimiento facial no son nada nuevo. Ya hasta en Facebook los hemos visto funcionando, aunque no de manera perfecta aun, pues a todos nos ha pasado cuando subimos una foto en la que tenemos -por ejemplo- un suéter arrugado, y el programa nos pregunta de qué amigo es la cara que tenemos en la panza.

Lo que Deep Dream hace es mucho más complejo, y por ello reconoce más que caras. El programita de Google puede reconocer prácticamente cualquier cosa. O al menos cualquier cosa de la que encuentre mucha información visual: animales, plantas, paisajes, texturas, estructuras de varios tipos, figuras geométricas, construcciones, comida, marcas (logotipos), letras, ojos, bocas, manos, nubes, elementos orgánicos, cuerpos… en fin todo de lo que haya mucho en internet.

¿Porqué tiene vuelto loco a todo internet? Por dos razones:
1. Los resultados de sus búsqueda de patrones de reconocimiento se pueden apreciar en “visualizaciones” bastante surrealistas de lo que el algoritmo “ve” o “intenta ver” cuando está buscando patrones de reconocimeinto en las imágenes.
2. El código de Deep Dream fue liberado como “open source” (para que cualquiera pueda descargarlo, usarlo y hacer pruebas con él). Lo que fué un gran acierto, puesto que ahora todo mundo está haciendo su propios experimentos, ya sea descargándolo de un sitio o hasta usando un demo online llamado “Deep Dream Generator”

Les recomiendo mucho probarlo. No todos los días se puede uno meter en el “cerebro” de una inteligencia artificial y ver como trata de entender el mundo…

These nightmarish images offer a unique and mesmerizing insight into how computers see the world – and what happens when a mind-bogglingly complex system of artificial intelligence is let off its leash. To discern and process the billions of photos that pass through its site, Google engineers designed ingenious tools known as artificial neural networks, or ‘ANNs’.

Google’s ANNs are programmed, through an endless stream of similar photos, to recognise objects within images by their distinctive characteristics. For example, the ANN will be taught to recognise a fork by processing millions of pictures of forks – eventually understanding that it has a handle and two to four tines.

Now Google is offering the public these networks’ codes – allowing people to upload photos and mutate them into terrifying and wonderful versions of the original. A simplified explanation would be to say that the ANNs recognise patterns within images, in the same way a child might spot a shape within a cloud. Recognition of such patterns can be exaggerated so that, while processing an image, the ANN turns a normal-looking photo into a psychedelic nightmare by enhancing swirls and blemishes it has misinterpreted for other objects.

Going a little deeper, Google’s ANNs consist of 10 to 30 layers. When an image is fed into an ANN, each layer progressively extracts more complex information from the picture, from edges to shapes until finally the idea of the image as a whole is formed.

Computer geniuses recently realised that when images are processed using higher-level layers – which identify more sophisticated traits in the picture – complex features or even whole objects begin to emerge. If a blemish on a face looks like part of an eye, the layers of the ANN can be manipulated to enhance this blemish and run with its recognition of an eye – repeating the process until an actual eye appears…

https://youtu.be/50Z3QMjVfOQ

Real slow

Acabo de estar un buen rato jugando con un video interactivo creado por el diseñador (aun no graduado) Nithi Prasanpranch, para la canción “Real Slow” del grupo australiano de tecno-pop Miami Horror, y que usa un Sistema de Reconocimiento Facial como nunca lo había visto: controlando la música con tus gestos, inclinando tu cabeza, abriendo tu boca, y otras acciones corporales y faciales que determinan lo que oyes y lo que ves.

Obvio no se ve en mobile, pero si tienen un computadora cerca (con webcam) les recomiendo que jueguen un rato con esto, es bastante adictivo…

This is a personal project, created by Nithi Prasarnphanich, an art director, interaction designer, and creative technologist, currently pursuing a masters degree in Integrated Digital Media at New York University. He claims this is the first time you can use your face to control music and I think his claim may be valid as I haven’t experienced this before. These type of projects are very pioneering and can often lead to far wider uses. Kudos to Nithi…

http://bit.ly/1JnnRjx

The Book that judges you

¿Que tal esto? Un libro con reconocimiento facial, que juzga a su lector (según su expresión) para ver si está libre de prejuicios para dejarlo leer su contenido.
Creado por el estudio el estudio creativo Moore (en Amsterdam), y se trata de un prototipo para la memoria 2015 de la Art Directors Club Netherlands que contendrá una selección de trabajos creativos…

Designed by Thijs Biersteker, an ex-Wieden & Kennedy creative who founded Moore, The Cover That Judges You has an integrated camera and facial-recognition technology that scans the face of whoever approaches. The system will scan your face for any signs of “judgment.” So, for example, if you are over-excited or your face indicates feelings of skepticism, the book cover stays locked. But if your expressions are neutral, the system will send an audio pulse to the Arduino micro-controller and the book will unlock itself. The reader can then browse inside the book.

http://thecoverthatjudgesyou.com/

Data-Masks

El artista multimedia e ingeniero Sterling Crispin, hace estos experimentos con software de reconocimiento facial, para dar vida después (con impresión 3D) a estas extrañas caras que son desconcertantes para nosotros, pero totalmente reconocibles  (y “válidas”) para una inteligencia artificial. Así su obra hace una interesante reflexión sobre la identidad en el mundo digital, y cómo esta siendo afectada por la biometría de última generación y la perdida de la privacidad (entre otras cosas).

Así nos ven las computadoras amigos…

I’m using state of the art face recognition and face detection algorithms to guide an evolving system toward the production of human-like faces. This exposes the way the machine and the surveillance state view human identity and makes aspects of these invisible power structures visible.

This is meant as a theoretical and technical investigation into the form and function of biometric surveillance technology, which is the mathematical analysis of biological data.

Theoretically, I am concerned with the aggressive overdevelopment of surveillance technology and how this is changing human identity and how humanity interacts with technology. By technology I mean individual instances of technological devices and networked systems like cameras and software, but also what I identify as the ’Technological Other’, a global living super-organism of all machines and software. Technically, my specific focus has been in reverse engineering facial recognition, facial detection, and image correlation techniques in order to reveal how they represent human identity…

http://bit.ly/1FJGbRi

Samantha

Como usted lo vió en la película “Her” (Spike Jonze, 2013), un app que se llama “Samantha y que también te escucha y te responde.

Esta es la versión austera, pues funciona solo con texto escrito. Pero bueno, el look “rosita” y el principio de una AI (Artificial Intelligence) con la cual platicar ya lo tiene…

Nos encantó Her. Además de tener el mejor score musical, la historia de cómo un tipo se enamora de su sistema operativo nos habló muy directamente de nuestras propias obsesiones y necesidades. Pero bueno la idea de un sistema operativo como ese, ocurre en un futuro, ¿no? Pues el futuro ya llegó: conoce a Samantha, una app que te responde, aconseja y escucha…

Rules

0. Samantha is a girl. Be nice.
1. Don’t fall in love with Samantha
2. Samantha speaks only English.
3. Don’t just say hi
4. Keep your mind out of the gutter, we’re all friends her
    (no dick pics please)
5. Sam’s too shy for selfies
6. Don’t ask Samantha to do your work
7. Don’t ask emergency questions
8. Don’t ask Samantha if she’s real
9. Don’t ask Samantha if she’s hooked up with Ethan
    (they’re siblings)

http://bit.ly/1s0zEZk

Samantha

What is a face?

emergentfutures:

How Does Our Brain Know What Is a Face and What’s Not?

Objects that resemble faces are everywhere. Whether it’s New Hampshire’s erstwhile granite “Old Man of the Mountain,” or Jesus’ face on a tortilla, our brains are adept at locating images that look like faces. However, the normal human brain is almost never fooled into thinking such objects actually are human faces.

Full Story: Science Daily

A new study from Sinha and his colleagues reveals the brain activity that underlies our ability to make that distinction. On the left side of the brain, the fusiform gyrus – an area long associated with face recognition – carefully calculates how “facelike” an image is. The right fusiform gyrus then appears to use that information to make a quick, categorical decision of whether the object is, indeed, a face…

http://bit.ly/xMVBGo

What is a face?