프로토타입

    [작업기] Hand cursor - 웹캠으로 제스처 인터랙션 인식하기

    머신러닝이 인터랙션에 어떻게 결합될 수 있을까? 제스처 인터랙션은 새로울 것 하나 없는 인터랙션이다. 개념 자체는 SF영화에서 자주 나오기도 하고 오래 전부터 있었고, 실제로 사람의 동작이나 제스처를 인식하는 디바이스로 게임이나 공간 인터랙션에 활용이 되어왔다. Microsoft의 Kinect나 Leapmotion이 그 예시인데, 적외선 센서를 통해서 인물과의 거리, 인물의 신체의 형태를 잡아낸다. 그런데 최근에 머신 러닝으로 영상을 분석하고 물체를 인식하는 기술이 발전하면서, 노트북의 웹캠 하나로도 이런게 가능해졌다. 사실 머신러닝을 데이터를 분류하거나 예측하는 쪽의 사례만 생각을 하다가 영상을 분석해서 그 안의 제스처나 상황을 인식할 수 있게 만든다고 생각하면 게임, 인터랙션 쪽으로도 활용 사례가 무..

    [작업기] 프로토타이핑 툴 Framer - 개인 프로젝트 Odd interactions

    [2020년 Framer Korea Meetup Webinar의 발표 내용과 유사합니다] 선행 UX 쪽 프로젝트에 재미를 느끼고 계속 참여하면서, 영상이나 3d를 통한 시각화도 중요하지만 내가 직접 프로토타입을 만들거나 내가 디자인하려는 경험을 구현하고 싶어졌다. 아무래도 구현하려는 대상이 UI나 마이크로인터랙션보다는 센서 등을 활용한 물리적인 인터랙션인 경우도 많아서 아두이노 코딩이나 파이썬 이런걸 배워야 하나 고민을 했었다. 하지만 예전에 써본 적이 있던 Framer가 Framer X라는 툴로 변화하면서 React JS 기반의 프로토타이핑 툴이 되었다는 소식을 들었고, 어짜피 잘 못하던 coffeescript, 차라리 잘됐다! 하고 배우기 시작했다. 그래도 아주 미약한 javascript 지식과.....