◎연대 김재희 교수팀 ‘응시위치추적시스템’ 개발/얼굴·눈동자 움직임으로 컴퓨터 작동 자유자재이젠 컴퓨터를 사용하기 위해 마우스나 키보드를 조작하지 않아도 된다. 얼굴이나 눈동자의 움직임만으로 컴퓨터를 작동하는 핵심기술이 국내서 개발됐기 때문이다.
연세대 김재희(전자공학) 교수팀은 15일 기존 컴퓨터 입력장치인 마우스 대신 비디오카메라로 얼굴과 눈의 움직임을 감지, 컴퓨터를 조작하는 「응시위치 추적시스템」의 시제품을 개발했다고 밝혔다.
과학기술처 감성공학기술 개발사업의 하나로 선보인 이 시스템은 비디오카메라와 영상보드, 인공지능 소프트웨어를 이용, 얼굴 및 눈동자의 위치를 파악해 모니터 화면의 「커서」를 움직인다. 컴퓨터 상단에 설치된 비디오카메라가 촬영한 얼굴·눈동자의 영상을 소프트웨어로 분석, 사용자가 모니터의 어느 부분을 보는지 알아내 컴퓨터를 작동하는 것이다.
이 시스템은 응시위치의 오차가 4.7㎝(19인치 모니터 기준)에 불과하고 얼굴의 움직임도 0.2초마다 빠르게 감지, 인터넷은 물론 워드프로세서 등 각종 프로그램 실행에 활용할 수 있다.
김교수는 『외국 제품은 적외선센서 등 특수장비를 사용해 대당 제작비가 200만원이 넘지만 이번 시스템은 구조가 단순해 50만원대에 불과하다』고 말했다.
미국 독일 등은 80년대 말부터 응시위치 추적시스템 개발에 나서 현재 3∼4개 제품을 내놓았으나 가격이 비싸 상용화에 애를 먹고있다.
특히 외국 제품들은 유해한 적외선을 눈동자 등에 투사, 응시위치를 찾아냄으로써 안전성 논란의 대상이 되고있다.
연구팀은 응시위치 추적시스템을 지체장애인용 컴퓨터는 물론, TV 오디오 비디오 등 가전제품의 각종 제어장치에 활용할 방침이다. 또 운전자 졸음방지장치나 공장자동화(FA)시스템을 비롯, 수입에 의존하는 가상현실(VR)용 「입체안경(HMD)」이나 「터치스크린」의 대체기기로도 응용할 계획이다.
김교수는 『앞으로 눈꺼풀이나 입술 움직임으로 프로그램을 실행하는 「클릭기능」 등을 보강, 2000년대 초반에 상용화할 계획』이라고 밝혔다. 이를 위해 0.2초당 한 번꼴로 얼굴 움직임을 파악하는 현재의 처리속도를 0.12초로 높이고 인식 오차도 2.54㎝까지 줄일 계획이다.<홍덕기 기자>홍덕기>
기사 URL이 복사되었습니다.
댓글0