비언어로 감정 파악하는 감성 컴퓨팅
지난 달 마이크로소프트(MS)에서 제공하는 AI(인공지능) 플랫폼을 시연용으로 사용한 적이 있다. 바로 ‘감정인식’ 서비스인데, 말 그대로 MS의 자체 AI를 이용해 사람의 감정을 분석해준다.
이용하는 방법은 매우 간단하다. 우선 MS의 웹 또는 API를 이용해 인물이 있는 이미지 형태의 사이트 주소를 첨부만 하면 된다. MS의 AI는 이미지 속의 인물을 식별해 분노, 슬픔, 놀라움, 공포 등 여러 감정 요인을 확률적으로 표현해서 보여준다.
감정인식에 여러 이미지를 넣어서 분석하게 해보았는데, 감정 인식률은 다소 정확했던 것 같았다. 사실 모호한 표정은 필자도 알 수 없었기 때문에, MS가 감정을 제대로 인식했는지를 파악하기는 어려웠다.
MS의 감정인식을 처음 접한 필자는 마냥 신기함을 느꼈다. 사람도 알기 어려운 표정을 AI가 분석해줬기 때문이다.
감성 컴퓨팅이라는 용어를 최초로 사용한 로잘린드 피카드 ⓒ Flickr
비언어를 통해 기분 파악하는 ‘감성 컴퓨팅’
사실 MS의 감정인식은 예전부터 여러 곳에서 연구되어온 기술로, 감성 컴퓨팅(Affective Computing)이라고 부른다. 매사추세츠공과대학교(MIT) 미디어랩의 ‘로잘린드 피카드 (Rosalind Picard)’ 교수가 1995년 MIT 테크니컬 리포트에서 이 용어를 최초로 언급했다.
감성 컴퓨팅은 사람의 소통에서 비언어가 차지하는 비중이 높은 점에 착안해 등장한 것으로 보인다.
캘리포니아대 로스앤젤레스 캠퍼스(UCLA) 심리학과의 ‘앨버트 메라비언(Albert Mehrabian)’ 교수는 1971년에 ‘조용한 메시지(Silent Messages)’라는 도서를 출간했다.
해당 저서에서 엘버트 교수는 대화에서 비언어가 97%를 차지한다고 밝혔는데, 몸짓, 음성, 표정 등이 이에 해당한다. 따라서 말보다 비언어가 사람의 기분을 정확히 파악할 수 있다.
특히 비언어는 음성 언어(Verbal communication)가 주는 전달 내용보다 더 사실적이고 정확할 수 있다. ‘FBI의 행동 심리학’에서는 말보다 행동으로 사람의 기분 및 심리를 더 잘 파악할 수 있을 보여준다.
비언어는 음성 언어가 주는 전달 내용보다 더 사실적이고 정확할 수 있다. ⓒ Pixabay
감성 컴퓨팅의 수준을 향상하는 AI
감성 컴퓨팅과 관련한 연구는 이미 20년 넘게 진행되고 있지만, 진척 속도는 더디다.
2016년 시장조사 전문기관 가트너(Gartner)는 기술 수준을 분석하는 하이프 사이클(Hype Cycle)에서 감성 컴퓨팅의 수준을 분석한 적이 있다. 이에 따르면, 감성 컴퓨팅은 이제 막 등장한 기술로, 상용화 하는데 5년에서 10년이 걸린다.
사람의 행동으로 기분을 파악하는 기술은 생각보다 쉽지 않기 때문에 연구 개발 속도가 더딘 것은 당연한 현상이었다.
그러나 최근 AI의 부상은 감성 컴퓨팅 기술 수준을 빠르게 높이고 있다.
지난 8일 미국에 열린 ‘국제전자 박람회(CES 2019)’에서 이런 면모를 잘 파악할 수 있었다. 기아자동차는 CES 2019에서 ‘감성 주행’을 핵심어로 내세워 ‘R.E.A.D 시스템 (Real-time Emotion Adaptive Driving System)’을 선보였다.
R.E.A.D는 자동차 운전자의 감정을 인식해 주행 환경 등을 조성하는 기술이다. 해당 시스템은 네 단계를 거쳐 운전자 기분을 최적화한다.
최근 AI의 부상은 감성 컴퓨팅 기술 수준을 빠르게 높이고 있다. ⓒ Pixabay
우선 운전자가 핸들을 잡으면 R.E.A.D는 자동으로 활성화되고, 이 후 표정과 생체정보(표정, 심장박동 등)를 읽는다. 그리고 AI가 이를 분석해 운전자의 기분을 파악한다.
마지막으로 R.E.A.D는 운전자의 감정을 최적화하기 위해 조명, 음향, 조향, 온도 등 실내 공간을 조성한다.
스타트업 ‘네우로데이터 랩(Neurodata Lab)’은 로봇 제조회사 ‘프로모 봇(Promobot)’과 제휴해 사람 기분을 파악하는 로봇을 시연했다.
네우로데이터 랩에 따르면, 해당 로봇은 음성 언어, 행동, 표정, 눈 움직임, 심장박동, 호흡 등을 분석해 사람 기분을 파악한다.
이외에도 여러 감성인식 기술이 CES 2019에 전시됐었다. 현대모비스는 탑승객의 감정에 따라 조명, 음악 등을 틀어주는 기술을 선보였다.
다양한 방법으로 사람 감정을 인식하는 컴퓨팅 기술
그렇다면 감성 컴퓨팅은 어떤 방식으로 사람의 감정을 파악하는 것일까? 크게 네 가지로 분류할 수 있다.
우선 사람의 표정을 인식해 분석하는 방법이 있다.
앞서 언급한 MS가 이런 방식이다. 애플의 자회사 ‘이모션트’도 사진, 영상 속의 인물 이미지를 분석해 감정을 파악하는 시스템을 개발했다.
음성으로 감정을 분석하는 방법도 있다. 음성의 높낮이, 억양, 어휘 등을 종합적으로 분석해 감정을 파악하는 방법이다. 이스라엘 스타트업 ‘비욘드 버벌(Beyond Verbal)’은 사람의 음성을 분석해 감정을 파악하는 기술을 개발했다.
사람의 행위를 포착할 수 있는 리얼센스 ⓒ Flickr
세 번째 방법은 사람의 행동으로 감정을 파악하는 것이다. 인텔의 리얼센스(Real Sens)라는 기술인데, 사람의 움직임을 인식할 수 있는 적외선 카메라를 탑재하고, 이를 인식해 감정을 파악할 수 있다.
벨기엘의 스타트업 ‘소프트키네틱(Softkinetic)’ 회사 또한 3차원 카메라를 이용해 사람의 몸짓을 분석한 후 감정을 파악하는 기술을 개발했다.
마지막 방법은 생체 신호로 기분을 파악할 수 있다. 뇌파, 호흡, 심장박동 등이 이에 해당한다. 이슬람 아자드 대학교(Islamic Azad University)의 ‘세이드 아베드 호세이니(Seyyed Abed Hosseini)’ 교수는 뇌파를 통해 더욱 사람의 감정을 더 잘 파악할 수 있는 기술을 개발한 바 있다.
MIT의 미디어랩 또한 다양한 방법으로 생체신호를 통한 감성 컴퓨팅 기술을 개발하고 있다. 바이오에센스(BioEssense)는 목에 거는 웨어러블 기기로 심장박동수를 분석해 기분을 파악한다. 그리고 스트레스가 인지되면 향수를 뿌려 이를 낮춰준다.
이외에도 다양한 방법으로 사람의 감성을 파악할 수 있는 기술이 개발 중이다. IBM은 ‘톤 애널라이저(Ton Analyzer)’라는 기술을 개발했다. 사용자의 글 내용을 분석해 감정을 파악해주는 기술이다.
시장 조사 전문 기관 ‘마켓스 앤드 마켓스(Markets and Markets)’는 2016년 감성 컴퓨팅 시장 규모가 122억 달러로 분석했고, 2021년에 539.8억 달러로 성장할 것으로 전망했다.
감성 컴퓨팅이 산업에서 어떤 방식으로 활용될 수 있을지 기대된다.
유성민 IT칼럼니스트
기사원문: