미국 매사추세츠주 케임브리지시 매사추세츠공대(MIT) 미디어 랩의 뎁 로이 교수는 아이에게 말을 가르치듯 로봇과 대화를 나눈다. 두 팔과 얼굴을 가진 로봇의 이름은 트리스크(Trisk)다. 로이 교수는 다리가 3개 달린 고대의 상징인 트리스케일리온(Triskalion)에서 이 이름을 따 왔다.
트리스크는 로이 교수의 말을 듣고 빨간 공을 집거나 노란 컵을 들어올린다. 트리스크는 책상 위에 고정된 상태에서 얼굴에 달린 카메라로 물체를 보고, 마이크로폰으로 소리를 들으면서 언어를 배우고 있다.
로봇 영화를 많이 본 사람이라면 “웬만한 질문에는 척척 답을 내는 수준이 아니었냐?”고 반문할지 모른다. 그러나 현재 기술로 대화하는 로봇이란 그렇지 않다. 사람이 입력해 놓은 수많은 문장 속에서 적절한 답변을 골라내는 프로그램을 내장한 수준에 불과하다.
반면 트리스크는 아주 기초적인 문법(단어에는 모음이 포함된다, 들리는 말 속에 사물의 이름이 포함된다, 새로운 단어를 가르칠 때는 반복해야 한다 등)만 입력시켜 놓은 상태에서 언어를 배우고 기억한다.
로이 교수는 “50년 전 앨런 튜링(컴퓨터의 창시자로 알려진 수학자)이 대화하는 기계를 고안한 이후부터 말을 할 줄 아는 로봇이란 결국 사전적 의미를 외부에서 입력한 결과물”이라며 “하지만 사람은 그렇게 말을 배우지 않는다”고 강조했다.
예를 들어 ‘밀다’를 로봇에 입력한다 치자. ‘힘을 주어 앞으로 나아가게 하다’라고 가르치면 ‘힘’은 또 무엇인가? 로이 교수는 “사람은 눈으로 보고 손으로 만지고 근육으로 느끼면서 의미를 알아차리고 기억한다. 로봇에도 똑 같은 경험을 통해 언어를 학습시키려는 시도”라고 말했다.
로이 교수의 첫번째 시도는 1998년 만든 토코(Toco)다. 카메라를 부착한 새의 얼굴 모양인 토코는 트리스크와 비슷한 문법체계를 갖고 언어를 배웠다. 로이 교수는 엄마한테 말을 배우는 갓난아이들과 함께 토코에게 말을 가르치면서 언어를 배우는 양상이 비슷하다는 것을 밝혀냈다. 물론 아가들이 훨씬 말을 잘 했지만 토코도 12~15개 정도의 사물의 이름을 배웠다고 한다.
또 다른 로봇 리플리(Ripley)에게 컵이 책 뒤에 가려져 있어도 여전히 존재한다는 인식을 가르치고 있다. 사람과 달리 로봇은 보이지 않는 것은 없는 것으로 여기고(갓난아기들도 그렇다) 영상으로 비친 대상이 무엇인지 잘 구분하지 못한다.
그는 사람이 말을 어떻게 배우는지에 대한 연구도 병행하고 있다. 자기 집에 수많은 카메라와 녹음기를 설치해 엄청나게 방대한 분량을 자동분석함으로써 11개월 된 자기 아들이 말을 배우는 방식을 알아내고자 하는 것이다.
한국과학기술원(KAIST) 기계공학과 권동수 교수는 감정을 표현하는 로봇을 개발중이다. 기다란 목에 모니터를 달고 바퀴로 움직이는 로봇 스코피(Scopy)는 사람과 OX 퀴즈를 겨뤄 자신이 이기면 빙글빙글 돌면서 신나는 음악을 틀어댄다. 모니터 화면에는 기쁜 표정이 아바타의 얼굴로 표현된다.
사실 스코피는 OX퀴즈에 대한 답을 알지 못할 뿐 아니라 자신이 답을 맞췄는지 틀렸는지 조차 모른다. 다만 퀴즈대결 상대인 사람과 주변 로봇이 표현하는 감정을 인식하고 이를 종합적으로 판단해 자기의 감정을 드러낸다. 스코피가 구분할 수 있는 감정은 기초 감정인 기쁨과 슬픔, 분노, 중립의 4가지 뿐이다.
권 교수는 “심리학자가 사람의 감정이 어떻게 생성되는지를 연구하는 것과 마찬가지로 로봇이 감정을 생성하는 ‘감정 모델’을 프로그램화하는 게 우리의 당면 목표”라고 설명했다.
권 교수팀도 먼저 사람의 감정을 연구, OCC모델을 토대로 감정 생성을 모델화하고 있다. 오토니, 클레어, 콜린스 등 미국의 인지과학자 3명이 만든 OCC모델은 사람의 감정을 22가지로 분류, 어떤 상황에서 어떤 감정을 느끼는지를 구조화한 것이다.
즉 인식의 대상이 되는 일이 고무적인가 아닌가, 그 일이 나와 관련 있나 남과 관련 있나, 남의 일이라면 그와 나와의 관계는 친밀한가 적대적인가 등에 따라 결과적으로 생성되는 감정이 정해진다.
물론 사람의 복잡다단한 감정을 로봇이 모두 알아차리거나 표현하는 것은 아직 멀고도 먼 이야기다. 연구팀의 박경숙 연구원이 OCC모델을 몇몇 사람에게 적용, 분석한 결과 전혀 엉뚱한 감정이 나오기도 했다. 그 복잡한 사람 속을 모델화하는 게 가능하기는 할까.
권 교수는 “설사 감정 이해와 표현이 사람에 못 미쳐도 없는 것보다는 낫다”고 말한다. 권 교수는 앞으로 3년 내에 자기 캐릭터를 가진 로봇을 개발하는 것을 목표로 삼고 있다.
로봇의 사회화는 우리에게 철학적 질문을 남긴다. 로봇이 언어와 감정을 이해하고 표현한다면 로봇에도 마음이, 자의식이 있는 것일까? 로이 교수는 이렇게 대답한다. “사람의 욕구와 자유의지는 과연 어디로부터 온 걸까? 사회나 부모로부터 영향받지 않고, 입력되지 않는 순수 자유 결정이 있을까? 누구도 대답하기 어려운 질문이다.”
케임브리지(미국)·대전=김희원기자 hee@hk.co.kr
기사 URL이 복사되었습니다.
댓글0