| ![](http://www.irobotnews.com/news/photo/201406/2819_6802_1147.jpg) | | ▲ 페퍼의 등장으로 로봇의 감정 인식 기술이 주목받고 있다. 사진은 이탈리아 기술원에서 약 160억원을 들여 개발한 휴머노이드 로봇 아이컵(iCub). 키 1m에 무게 23kg인 이 로봇은 3살짜리 어린아이를 모델로 만들어졌다. 걷는 것은 물론 인간처럼 눈과 머리를 움직일 수 있고, 물체를 인식하고 손으로 잡을 수 있다. 특히 아이컵은 어린아이처럼 학습을 통해 인지능력과 신체기능이 발전하고 있다. |
감정 인식 기술과 로봇 응용 분야에 대한 사람들의 관심이 커지면서 감정 관련 로봇 기술과 응용 분야의 성장이 전망되고 있다. 최근 일본 소프트뱅크는 프랑스 알데바란과 공동으로 개발한 로봇 ‘페퍼(Pepper)’를 발표했다. 이에 따라 개인 로봇의 대중화에 대한 기대가 커지고 있다. 손정의 소프트뱅크 회장은 로봇 대중화와 함께 로봇 페퍼의 중요한 특징으로 “감정을 인식하고 표현할 수 있는 기능”이라고 강조했다. 로봇이 사람과 공존해 동반자로서의 역할이 가능하게 된다면, 로봇이 사람의 감정을 이해하고 사람에게 정서 맞춤형 서비스를 제공하는 것이 중요한 부분으로 자리 잡게 될 것이다. 이는 손정의 회장만의 생각은 아니다. 최근 발표된 여러 로봇 기술들을 보면 사람의 감정을 인식하고 로봇의 표현에 대한 연구와 이를 응용한 분야들에 대한 다양한 시도들이 진행되고 있다. 감정 인식 기술과 응용 사람의 감정을 인식하기 위해서는 사람의 얼굴을 관찰하는 것이 일반적이다. 최근 미국 얼굴인식기술 전문업체 이모션트는 구글 글래스를 통해 사람의 감정을 읽어내는 소프트웨어를 개발하고 있다. 이 기술은 얼굴 표정을 통해 사람이 어떤 감정 종류를 가졌는지, 감정의 강도가 어느 정도인지, 그리고 미세표정까지도 읽을 수 있다. 로봇 페퍼도 사람의 얼굴을 관찰해 감정을 인식하고 이런 데이터를 오랜 시간 학습하면서 점점 발전할 수 있다.로봇 페퍼가 발표되던 자리에는 일본 배우들이 로봇 앞에서 오디션을 보는 상황이 연출되기도 했다. 이 오디션은 로봇이 사람들의 얼굴 표정을 인식해 어떻게 활용할 수 있는지도 보여준 사례다. 감정을 이해하기 위해서는 얼굴 표정뿐 아니라 음성과 대화 내용도 활용될 수 있다. 보스톤에 위치한 소프트웨어 개발사 코기토(Cogito)는 사람의 음성으로 감정을 실시간 읽어내는 프로그램을 개발, 최근 발표했다. 이 기술은 음성의 어색한 멈춤, 강도, 음색, 한쪽으로 치우친 대화 등을 통해 사람의 감정을 읽어내는 것이다. 코기토는 이 기술을 콜센터에서 활용하고 있다. 전화 상담원이 고객과 통화를 할 때 고객의 목소리가 분석돼, 고객이 흥분했는지 화가 났는지 등을 함께 모니터링하면서 서비스를 할 수 있다. 코기토는 이 기술을 임상 상담 중에도 활용해 환자의 건강상태나 우울증 정도를 판단하는데도 도움이 될 것으로 내다봤다. 또 회의나 공연장, 비행 보조자의 집중도 등을 파악하는 등 응용분야가 다양할 것으로 전망된다.이와 함께 코기토는 음성 인식 기술을 컴패니언(Companion)이라는 핸드폰 앱으로 개발해 곧 발표할 예정이다. 감정 인식 기술은 텍스트 기반 환경에서도 활용될 수 있다. 호주연방과학원(CSIRO)과 시드니에 위치한 블랙독연구소의 연구진은 트위터에 올라오는 다양한 글의 단어를 분석해 지역별 감정 상태를 파악하는 기술을 발표했다. 이 기술은 지역별 사람들의 감정 상태와 범죄율의 연관성을 확인해보는 데 활용될 수도 있고, 정서폭풍(emotional storm)과 같은 사회적 분위기의 변화를 예보할 수도 있을 것으로 기대되고 있다. 실제 보스턴 마라톤 폭발사고 등과 같은 사건이 터졌을 때의 상황이 한 예다. 이밖에 MIT 미디어 랩의 연구진들은 소설책의 텍스트를 분석해 주인공의 감정을 인식 또는 추출하고 그 감정에 맞는 불빛, 진동, 온도, 심박·떨림 등의 시뮬레이션을 사람에게 전달하는 기술 및 응용 분야를 소개했다. 연구진들은 이러한 기술을 감각소설(Sensory Fiction)이라고 불렀다. 인간형 로봇의 감정 표현 이처럼 감정 인식 결과가 다양한 형태로 로봇 시스템에 응용되고 있지만, 사람과 로봇의 직접적인 정서 교류를 구현하기 위해서는 인간형 휴머노이드 로봇 개발이 필요하다. 사람들이 사용해 온 감정 표현들을 로봇이 그대로 사용한다면 보다 이해하기 쉽고 직관적인 정서 교류들이 가능하기 때문이다. 이러한 이유로 로봇 페퍼도 사람의 상체 모습을 그대로 가져와 디자인 되었고, 알데바란 회사의 유아형 로봇 나오(NAO), 이탈리아 공대에서 개발된 로봇 아이컵(iCub), 조지아 공대의 로봇 사이몬(Simon), KIST의 실벗3 등 사람의 특징을 닮은 다양한 로봇들이 개발돼 사람과 로봇의 사회적 정서적 교류에 대한 연구에 활용되고 있다. 최근 홍콩에서 열린 국제 로봇 및 자동화 학술대회 ‘ICRA2014’에서는 일본 와세다대학교에서 개발한 휴머노이드 로봇 코비안(Kobian)이 발표됐다. 이 로봇은 전신을 이용해 코미디언처럼 행동하는 표현을 한다. 로봇은 놀라기도 하고 우스꽝스러운 제스처와 목소리로 로봇의 행동을 표현한다. 로봇 페퍼도 발표회 현장에서 손정의 회장과 교감하며 신비로운 음악과 함께 사람들의 이목을 사로잡는 제스처를 보였다. 최근 TED 강연에서는 리씽크로보틱스의 로봇 ‘백스터’(Baxter)와 마술사 마르코 템페스트(Marco Tempest)가 함께 마술쇼를 보이며 다양한 표현으로 교감을 하는 시연을 보여줬다. 그리고 로봇의 얼굴 표현이나 소리, 제스처 등의 표현 이외에, 소름이 돋거나 땀을 흘리는 식의 표현 방법이 일본 칸사이대학교의 토모코 요네자와(Tomoko Yonezawa) 박사 팀에 의해 개발돼 HRI 2014 국제학회에 발표되기도 했다. 다양한 로봇들이 개발되고 로봇의 표현들이 공개되고 있지만, 이러한 로봇의 표현들은 사실 사전에 미리 정의된 패턴들의 ‘녹화된 표현’이라는 한계가 있다. 이처럼 로봇이 정말 지능과 감정을 가지고 표현을 하는 것은 아니라는 목소리도 있기 때문에 여전히 연구되어야 할 분야가 많이 남아있다. 최근 메이누스아일랜드국립대학 필 맥과이어 교수가 미국 위스콘신 대학 연구팀의 수학프레임워크 시뮬레이션 결과를 제시하며 로봇이 인간감정을 가질 수 없다고 주장하기도 했지만, 그 불가능성이 '증명'된 것은 아니라 로봇의 감정 연구에 대한 관심의 연장선으로 볼 수도 있다. 감정 교류 로봇의 미래는 감정 교류 로봇이 정말로 우리 실생활에 의미를 가져올까? 과학기술전문사이트 IEEE 스펙트럼 수석 편집장 에리코 구이조(Erico Guizzo)는 로봇이 청소기를 넘어 동반자 역할을 하며 우리 일상에 다가오게 될 것을 최근 시사하기도 했다. 로봇이 스마트폰처럼 규격화되고 사용자가 직접 앱을 개발하고 나아가 로봇이 스스로 배워가며 그 정보를 인터넷에 올려 다른 로봇과 공유할 수 있게 될 것. 이렇게 된다면 감정 교류를 하는 동반자 역할의 로봇 시대가 곧 다가올 것이라는 의미다. 그는 기성세대가 이런 로봇을 불편하게 생각하겠지만 이런 로봇과 어려서부터 함께 자라는 아이들은 동반자 로봇의 필요성을 자연스럽게 인지하며 살게 될 것으로 전망했다. 반면 뉴사이언티스트의 고문 마이클 본드는 사람들이 로봇과 좋은 동료가 될 것으로 기대하지만 막상 인생의 마지막에서 로봇을 떠올릴 만큼 중요한 존재로 생각하진 않을 것이라는 말을 남겼다. 결국 감정 교류 로봇의 미래는 로봇 개발자들과 이를 실제로 접하게 될 우리에게 달려 있다. ▒ 이원형 KAIST 로보트 연구실 |