Secret ASCII art

Otro gran ejemplo de cómo ven las máquinas a los humanos. Aquí hay un gran easter egg de Facebook. Resulta que muchas de las imágenes publicadas en esta red social y en Instagram (que también es de Zuckerberg) tienen una “versión en código”, lo que visualmente equivale a ver tu foto como te verías dentro de La Matrix. Así que están haciendo arte ASCII contigo.

Aún es un misterio la razón por la que Facebook tiene estas versiones en html de nuestras imágenes, aunque supongo que es alguna forma de análisis y/o organización de los millones de fotos que se suben diariamente a estas redes.

En la nota que comparto vienen las instrucciones de cómo buscar tus fotos en código ASCII. Aunque les advierto, son solo algunas de las fotos las que tienen esto (intenté varias veces sin éxito). Como sea, la gente de Facebook tampoco están inventando el hilo negro, así que si no lo logran -y no quieren quedar frustrados- aquí hay una de muchas otras páginas donde se pude generar el mismo efecto (www.ascii-me.com)

Después de todo, recuerden no hay nada que viva en digital que no sea simplemente código binario. Unos y ceros, no hay más.

Facebook has been creating ASCII art — that is, recreating your images out of text characters —out of your photos and anyone can find it. The feature was first spotted by Twitter user Mathias Bynens and has been confirmed by Mashable and others.

The photo above, taken from Mark Zuckerberg’s Instagram account, shows the original version of the image he posted with Instagram cofounder Kevin Systrom and the hidden ASCII version. As Bynens points out, you can find the alternative images by adding “.html” or “.txt” to the end of an image’s URL. The former creates a color image while the latter creates a black-and-white one. Actually grabbing the image, however, is not quite as straightforward as simply pulling up a photo on Instagram or Facebook’s website…

http://on.mash.to/1PQD2bg

Deep Dream 

Google acaba de crear un algoritmo llamado Deep Dream, que tiene vuelto loco a todo el mundo (o al menos a todo internet). Se trata de una Red Neuronal Convulsional (también conocidas como ANNs – Arificial Neural Networks), una forma de inteligencia artificial de ultima generación, que funciona de manera bastante similar a un cerebro biológico, por el uso de  campos receptivos que emulan las funciones de las neuronas en la corteza visual primaria. Esto es una forma muy sofisticada de decir que el algoritmo aprende “viendo” y reconociendo patrones (lo que humanamente es un fenómeno conocido como Pareidolia).

¿Qué es lo que ve? Vamos es Google, valdría más decir “qué no ve”. Toda la información visual que está en internet (imágenes, videos, mapas, dibujos, diagramas, fotografías, webcams) es su fuente de alimentación, lo que hace que este programita, después de ver algunos millones de caras -por ejemplo- puede identificar perfectamente un rostro humano en cualquier lugar.
¿Cómo se llama a lo que ve? la gente de Google les llama “incepcionismos” (derivado del término “incepción”)

Pero escogí un ejemplo demasiado trillado (caras). Los programas de reconocimiento facial no son nada nuevo. Ya hasta en Facebook los hemos visto funcionando, aunque no de manera perfecta aun, pues a todos nos ha pasado cuando subimos una foto en la que tenemos -por ejemplo- un suéter arrugado, y el programa nos pregunta de qué amigo es la cara que tenemos en la panza.

Lo que Deep Dream hace es mucho más complejo, y por ello reconoce más que caras. El programita de Google puede reconocer prácticamente cualquier cosa. O al menos cualquier cosa de la que encuentre mucha información visual: animales, plantas, paisajes, texturas, estructuras de varios tipos, figuras geométricas, construcciones, comida, marcas (logotipos), letras, ojos, bocas, manos, nubes, elementos orgánicos, cuerpos… en fin todo de lo que haya mucho en internet.

¿Porqué tiene vuelto loco a todo internet? Por dos razones:
1. Los resultados de sus búsqueda de patrones de reconocimiento se pueden apreciar en “visualizaciones” bastante surrealistas de lo que el algoritmo “ve” o “intenta ver” cuando está buscando patrones de reconocimeinto en las imágenes.
2. El código de Deep Dream fue liberado como “open source” (para que cualquiera pueda descargarlo, usarlo y hacer pruebas con él). Lo que fué un gran acierto, puesto que ahora todo mundo está haciendo su propios experimentos, ya sea descargándolo de un sitio o hasta usando un demo online llamado “Deep Dream Generator”

Les recomiendo mucho probarlo. No todos los días se puede uno meter en el “cerebro” de una inteligencia artificial y ver como trata de entender el mundo…

These nightmarish images offer a unique and mesmerizing insight into how computers see the world – and what happens when a mind-bogglingly complex system of artificial intelligence is let off its leash. To discern and process the billions of photos that pass through its site, Google engineers designed ingenious tools known as artificial neural networks, or ‘ANNs’.

Google’s ANNs are programmed, through an endless stream of similar photos, to recognise objects within images by their distinctive characteristics. For example, the ANN will be taught to recognise a fork by processing millions of pictures of forks – eventually understanding that it has a handle and two to four tines.

Now Google is offering the public these networks’ codes – allowing people to upload photos and mutate them into terrifying and wonderful versions of the original. A simplified explanation would be to say that the ANNs recognise patterns within images, in the same way a child might spot a shape within a cloud. Recognition of such patterns can be exaggerated so that, while processing an image, the ANN turns a normal-looking photo into a psychedelic nightmare by enhancing swirls and blemishes it has misinterpreted for other objects.

Going a little deeper, Google’s ANNs consist of 10 to 30 layers. When an image is fed into an ANN, each layer progressively extracts more complex information from the picture, from edges to shapes until finally the idea of the image as a whole is formed.

Computer geniuses recently realised that when images are processed using higher-level layers – which identify more sophisticated traits in the picture – complex features or even whole objects begin to emerge. If a blemish on a face looks like part of an eye, the layers of the ANN can be manipulated to enhance this blemish and run with its recognition of an eye – repeating the process until an actual eye appears…

https://youtu.be/50Z3QMjVfOQ

Photogrammetry

Estoy cayendo en cuenta de una nueva sub-cultura. Una de naturaleza visual y que afecta la manera en que percibimos nuestro entorno y nos “apropiamos” de él, como cuando surgieron la fotografía y el video. De hecho esta sub-cultura ya existe, pero como las dos anteriores, le ha tomado cierto tiempo ser accesible para todos.

Podríamos llamarla -sin más- “la cultura visual de lo extrasomático, o delos objetos tridimensionales”.

Si, ya sé, usamos objetos desde siempre. Quizás incluso desde antes que las imágenes. Y en lo que respecta al 3D “optico” -el que solo da la ilusión de serlo-, generado por efectos ópticos), podemos decir que desde los 80s existen productos (libros, software, hasta películas en 3D). Pero antes solo los consumíamos. Esa es la primer revolución en esto: pronto todos podremos producirlos.
Y aquí tambien es interesante rescatar este punto: no nos intersa el 3D per-sé, lo que nos tiene realmente fascinados es la “representación” del 3D (por eso insisto en usar el término “visual”, en un sentido de representación).

Otro punto clave es cuando vimos salir esto de las computadoras al mundo real. De unos 4 años para aca (2010 aprox) existieron las primeras impresoras 3D comerciales, entre muchas otras exploraciones con diversos materiales.
Solo faltaba una parte. La parte donde uno dice “¿Qué se puede imprimir?” ó “¿Cómo conseguir un modelo de lo que quiero imprimir?”.
¿Qué necesito si me quiero hacer un retrato, o imprimir a mi perro, o mi casa? Eso se responde en este post.

Creo que las cosas se van a empezar a ir mucho más rápido en esto. La razón por la que creo esto es porque desde hace poco tiempo han empezado a proliferar muchos de estos programitas basados en  lo que se llama “Fotogrametría” (proceso mas correctamente llamado SFM – Structure From Motion), que es básicamente el poder generar un modelo 3D a través de fotografías y sin tener que “moldearlo" usando trigonometría (como se hacían antes la mayoría de los objetos tridimensionales).

Estas aplicaciones SFM Comenzaron siendo programas muy complejos, especializados, disponibles para desktop solamente. Ahora los hay para mobile, de paga, y hasta gratuitos. Y su uso cada vez es más simple. Lo que quiere decir que pronto habrá mucha -realmente mucha- gente creando modelos en 3D.
Y aunque el uso y las aplicaciones que se le de/pueda dar a esto aun no son claras, presiento que va a cambiar muchos aspectos de nuestra cultura visual (y objetual).
Aquí me encontré un artículo con algunas recomendaciones de programas de este tipo (SFM) por si quieren empezar a experimentar con alguno…

Autodesk’s 123D Catch is great for making 3D scans from digital photos — miraculous, really — but it’s a cloud-based freebie that comes with constraints. You can upload only a limited number of photos, and your 3D mesh will come back at a maximum resolution that may not be all you desire. Here are three ways to create your own 3D models with photogrammetry, aka “structure from motion (SFM)”, using free open source software…

http://bit.ly/1iuy3fUphoto

Photogrammetry

Solar Eclipse 2012

Shortly after dawn on November 14, 2012, a stretch of coastline in Far North Queensland will be the best spot in the world to view this year’s total solar eclipse. Here’s the best social media reaction…

http://huff.to/Uni7ty
 

thescienceofreality:

Australia’s Total Solar Eclipse 2012 in photos. 

This will be the first eclipse in Australia since 2002, last until 2028. All of eastern Australia will experience partial eclipse.

  1. Andy Parkins via Milky way scientists
  2. via @Augustachoo
  3. via Tamsin Sawle Storify
  4. via Huffington Post
  5. via Huffington Post
  6. via News.com.au live stream

See more photos here and here. Watch the total solar eclipse streaming live online here.

Mandar cosas al espacio

Después del experimento que hizo este joven de U.K. con un globo, una cámara, y un paracaídas -entre otros chuchulucos-, y las fotografías que obtuvo, me queda claro que en estos días cualquiera de nosotros puede mandar cosas al espacio…

Who needs rockets and multi-million dollar satellites when you can get the same results by spending only $600? This was the thinking of Adam Cudworth, a 19 year-old student from the U.K., who recently sent his Canon A570 camera to the edge of space, in hopes of capturing some cool images of Earth from space. And that he did.

Be sure to check out Cudworth’s Flickr photostream to see more pics…

 http://bit.ly/Q9S37k

Mandar cosas al espacio

British Facebook users are intoxicated in 76% of their photos

Generalmente no me interesa lo que los extranjeros piensen de los mexicanos. Pero si eres de aquellos que se ofendieron con lo que pasó el año pasado en TopGear, guárdate este “as bajo la manga”…

The average British person is under the influence of alcohol in three-quarters of of his or her tagged Facebook photos, according to a new study.

Researchers asked British people to reveal how many Facebook pictures showed themselves drinking alcohol or were taken after consuming alcohol. They estimate 76% of their photographs had some connection with alcohol.

“We’re all guilty of going out and having a good time, but nowadays the photos inevitably catch up with us online, so we wanted to look at how much these photos dominate our presence on social media sites,” says Rebecca Huggler, co-founder of MyMemory, which conducted the study…

Paris 26 gigapixels

Paris 26 Gigapixels is the name of the biggest assembled panoramic image of the world. It shows Paris in a very high definition. A gigapixel is 1 billion pixels! The image is a stitching of more than 2000 individual photos. Paris 26 Gigapixels has been shot on September 8th, 2009 and is now available for eveyone…

Kolor, a young innovative company based in the French Alps, is the world reference in the image-stitching solutions. Its software Kolor Autopano was used to automatically assemble the 2346 photos composing the Paris 26 Gigapixels image…

http://t.co/AETq7KK

Paris 26 gigapixels

in mercury’s orbit

Early this morning, at 5:20 am EDT, MESSENGER captured this historic image of Mercury. This image is the first ever obtained from a spacecraft in orbit about the Solar System’s innermost planet. Over the subsequent six hours, MESSENGER acquired an additional 363 images before downlinking some of the data to Earth. The MESSENGER team is currently looking over the newly returned data, which are still continuing to come down. Tomorrow, March 30, at 2 pm EDT, attend the NASA media telecon to view more images from MESSENGER’s first look at Mercury from orbit…

http://bit.ly/ffTTuD

in mercury’s orbit

12:31 project

A personal art project that recomposes images of the body of executed Texas murderer Joseph Paul Jernigan.

After his execution in 1993, Jernigan’s corpse was donated to science and became a subject of The Visible Human Project, which yielded a detailed set of cross-sectional photographs of a male and female human body. Jernigan’s body was frozen and then cut into 1,871 1 millimeter slices, each of which was photographed to yield more than 65 gigs of data.

Art director Croix Gagnon and photographer Frank Schott used those photographs in an animation that was then “played fullscreen on a computer, which was moved around by an assistant while being photographed in a dark environment,” they explain on the project site. “The resulting images are long-exposure ‘light paintings’ of the entire cadaver…

http://www.project1231.com/