Medialab Prado

Compartir

Taller de interactividad con kinect

22.09.2017, 29.09.2017, 06.10.2017 17:00h - 20:00h

Lugar: Antesala Fablab

Este taller se trata de mostrar algunas posibilidades para trabajar con el sensor Kinect para crear propuestas interactivas. Se abordara desde la perspectiva de la visión computacional, su contexto artístico, las variedades de sensores de luz compuesta existentes para hacer este tipo de trabajo y las formas en que se puede trabajar.

Las prácticas se realizarán con el sensor Kinect, Processing 2 y Processing 3 por las diferentes bibliotecas que se pueden usar con cada versión.

Para preguntas e inscripciones escribir a: interactividad.medialab@gmail.com 

 

INTRODUCCIÓN
El sensor Kinect después de haber sido audazmente hackeado y puesto a disposición de la comunidad científica y artística, suscitó una pequeña revolución en ambas áreas, porque volvió accesible y de buena calidad un proceso que era caro y complicado.
Después de esta la efervescencia e interés de que fue motivo el sensor Kinect parece que ha cayó nuevamente en el olvido, posiblemente porque algunas bibliotecas muy populares como OpenNI fueron compradas, comunidades como Processing dejaron sin actualizar bibliotecas muy practicas como SimpleOpenNI en su actualización a Processing3+  y probablemente a que el deslumbramiento que el Kinect provocó a su paso termino. Este proceso regreso el uso de las cámaras de luz compuesta a los círculos de la ciencia y la ingeniería.
El objetivo principal de este taller es ayudar a hacer accesible una vez más el uso, de esta fabulosa herramienta teniendo en cuenta su tremendo potencial artístico y abordándola desde una perspectiva crítica.  

DESCRIPCIÓN DEL CURSO
Este taller se trata de mostrar algunas posibilidades para trabajar con el sensor Kinect para crear propuestas interactivas. Se abordara desde la perspectiva de la visión computacional, su contexto artístico, las variedades de sensores de luz compuesta existentes para hacer este tipo de trabajo y las formas en que se puede trabajar.
Las prácticas se realizarán con el sensor Kinect, Processing 2 y Processing 3 por las diferentes bibliotecas que se pueden usar con cada versión.

OBJETIVO
El asistente al taller lograra entender el concepto de interactividad y su importancia como materia de trabajo en el New Media Art.
Se conocerá el sensor Kinect a cabalidad, comprendiendo su hardware, las bibliotecas, software e interfaces disponibles para trabajar con el.
Se abordara introductoriamente el sensor Kinect desde la visión computacional y se mostraran otros tipos de cámaras de luz compuesta.
Se comprenderá el uso de la nube de puntos y el esqueleto en SimpleOpenNI con Processing 2.2.1 y como se estructura un programa básico con esta biblioteca.
Se entenderá como encontrar información en la documentación de SimpleOpenNI para crear su propia aplicación.

MATERIALES NECESARIOS
Kinect (preferentemente el modelo 1414) con adaptador a USB y laptop.
Temario
1. Arte interactivo y visión computacional
a. Interactividad
b. Visión computacional en el New Media Art
c. Cámaras para obtención de imagen 3d
2. Sensor Kinect y cámaras de luz compuesta
a. Historia del Kinect
b. Las cámaras de luz compuesta
c. Estructura interna del Kinect
d. Bibliotecas, lenguajes y software con los que se puede usar el Kinect
3. Programando con el Kinect y Processing
a. Puesta en marcha del Kinect
b. La nube de puntos
c. El esqueleto y los gestos


METODOLOGÍA
La estructura de cada sesión estará dividida en cuatro partes: revisión de obra artística, sección teórica, sección práctica y experimentación.
La última sesión del taller los asistentes adaptarán, a partir de los ejemplos revisados, un código donde pongan en práctica todo lo aprendido.

REFERENCIAS DE CONSULTA
Bolter, J. D., & Gromala, D. (2006). Trasparency and Reflectivity: Digital Art and the Aesthetics of Interface Design [Transparencia y Reflectividad: Estética del Diseño de Interfases]. En P. A. Fishwick, Aesthetic Computing [Estética Computacional] (pág. 369). Massachusetts: MIT Press.
Borestein, G. (2012). Making Things See. Canada: O'Reilly.
Bradski, G., & Kaehler, A. (2008). Learning OpenCV. Computer Vision with the OpenCV Library. Estados Unidos de América: O'Reilly.
Christian, P. (2008). Digital Art. Singapur: Thames and Hudson.
Fiebrink, R. (12 de 07 de 2017). Wekinator. Recuperado el 12 de 07 de 2017, de http://www.wekinator.org/
Fishwick, P. A. (2006). An Introduccion to Aesthetic Computing. En P. A. Fishwick, Aesthetic Computing [Estética Computacional] (pág. 3). Massachusetts: MIT Press.
Fry, B., & Reas, C. (s.f.). Processing. Recuperado el 20 de Septiembre de 2013, de http://processing.org/
FuzzyGab.4, Research Group. (16 de 05 de 2016). LÍQUIDA V.2.1K. Recuperado el 02 de 07 de 2017, de http://joaquindiazduran-carpeta.blogspot.pt/2016/05/liquida-v21k.html
Molina, V. (03 de Marzo de 2014). Lozano-Hemmer: “El 90 % del arte electrónico está en una condición primitiva". Recuperado el 23 de Marzo de 2014, de http://www.efefuturo.com/entrevista/lozano-hemmer-el-90-del-arte-electronico-esta-en-una-condicion-primitiva/

 

Esta actividad está organizada por el grupo de trabajo de investigación con la interactividad y será impartido por Joaquín Díaz Durán.

 

 
Condiciones de uso