Un robot con visión artificial encuentra a Wally (en segundos)
Construido por la agencia creativa Redpepper, Aquí está Wally" (o Waldo, según el país) es un robot cuya misión consiste en pasar páginas de los libros de ¿Dónde está Wally?, tomar una foto de la misma y localizar a Wally.
El robot inicia y encuentra a Waldo con una precisión similar a la de un francotirador. El brazo robótico de metal es un uArm Swift Pro controlado por Raspberry Pi que está equipado con un kit de cámara de visión que permite el reconocimiento facial. La cámara toma una foto de la página, que luego usa OpenCV para encontrar las posibles caras de Waldo en la foto. Las caras se envían para ser analizadas por el servicio AutoML Vision de Google, que ha sido entrenado en fotos de Waldo. Si el robot determina una coincidencia con una confianza del 95% o superior, apuntará a todos los Waldos que pueda encontrar en la página.
Si en algún momento tuviste problema en una página de ¿Dónde está Wally?, ahora hay un robot llamado There's Waldo que lo encontrará por ti, con una mano de silicona que incluso lo señala.
Google Cloud AutoML ha estado disponible desde enero para permitir a los usuarios entrenar sus propias herramientas de inteligencia artificial sin ningún conocimiento previo de codificación. La herramienta de arrastrar y soltar (drag-and-drop) permite a cualquier persona crear una herramienta de reconocimiento de imágenes, que tiene una gran variedad de usos, como categorizar fotos de ramen en las tiendas de donde provienen. Puede echar un vistazo a este proceso en el video anterior, en el que se introducen diferentes fotos de Wallys en el software.
Matt Reed, el tecnólogo creativo de Redpepper que dirigió el proyecto, explicó por correo electrónico: "Obtuve todas las imágenes de entrenamiento de Wally del Google Image Search; 62 cabezas de Waldo distintas y 45 cabezas de Waldo más su cuerpo. Pensé que no serían suficientes datos para construir un modelo sólido, pero ofrece predicciones sorprendentemente buenas sobre Wallys que no estaban en el conjunto de entrenamiento original ". Reed se inspiró en la capacidad de Amazon Rekognition de reconocer a las celebridades, y quería experimentar con un sistema similar que admite caricaturas. No tenía experiencia previa con AutoML, y le llevó alrededor de una semana codificar el robot en Python.