*인터렉티브 레드닷 핑거 [ Computational Design Lab ] kRC

빨강콩이 움직임을 조정한다.
손끝에 맞춰진 센서의 움직임을 따라
RC헬리콥터는 춤을 춘다.
손끝에서 손으로 다시 팔로
점점 교감의 영역을 넓혀 나간다.

교감의 영역이 넓어 갈수록
더 깊고 디테일한 영역까지
반응하게 된다.

인터렉티브 영역은 점점 넓어지고
그 활용분야 또한 다변화되고 있다.
지금과 같이 마우스나 키보드 또는 컨트롤러를
통하여 객체와 소통 또는 입력, 조정하는
입력출력 디바이스의 영역이 있는가 하면
외부 환경의 자극을 받아 스스로 빛,또는 소리로
리액션을 보이는 기계 또는 설치물을 만들기도 한다.

우리가 많이 사용하는 각종 앱들도 이와 같은
인터렉티브 이론을 바탕으로 이루어진다.
이 모든것들의 바탕에는 인간중심의 소통에서
시작되는 아날로지의 사회소통을 디지털적인
방식의 변환으로 볼 수 있다.
매트릭스 또는 트론과 같이 현실과 가상의 세계가
공존하는 시대가 올지도 모를일이다.

reviewed by SJ

Sensing
The Kinect sensor’s IR depth camera and rgb camera was accessed through processing. The closest point to the sensor produces an x,y coordinate set that controls signals being sent to the remote control. A red dot is placed on the screen to let the user know what is the closest point. This is often the hand or extended arm as demonstrated.

Hardware
An Arduino micro-controller was used with an Adafruit Motorshield to control 2 servos that physically turn the potentiometers your thumbs usually move on the helicopter’s controller. The previous hand held interface is replaced with motors that receive signals to move based on your gestures.

Code
Both Arduino and Processing were used. The processing library for Kinect is thanks to Daniel Shiffman’s and can be found here.

Find the source code here for the project.






from  code.arc.cmu.edu

Designed by CMSFactory.NET