brunch

매거진 28th BITors

You can make anything
by writing

C.S.Lewis

감정을 읽는 AI, Affectiva

연세대 경영혁신학회 27기 정다슬

영화 'HER'의 주인공은 스스로 생각하고 느끼는 인공지능 운영체제 '사만다'로 인해 상처를 회복하고, 결국 그녀에게 사랑의 감정을 느끼게 된다. 어쩌면 이것은 더 이상 영화 속 이야기가 아닐지도 모른다. 미국 매사추세츠공과대학(MIT)의 벤처기업 Affectiva는 사람의 감정을 읽는 AI를 개발했다.




AI, 인간의 감정을 배우기 시작하다


지난 2010년 MIT LAB에서 처음 개발한 표정 인식 솔루션의 초기 모습 (출처: MIT)


Affectiva는 다양한 인종, 나이, 성별의 표정 데이터를 수집하고, 75개국 2900만 개의 얼굴 영상에서 120억 개의 감정 정보 점을 수집했다. 이를 바탕으로 AI는 표정, 목소리 등 방대한 데이터에서 감정을 추출하며 억지웃음인지 진짜 웃음인지 등 인간의 표정 특징을 포착하여 딥러닝 기술로 스스로 배워나간다.


Affectiva의 CEO 겸 공동창업자 라나 엘-칼리우피 박사에 따르면 인간은 의사소통의 10% 정도만 ‘말’에 의존하고 있다고 한다. 그녀는 ATC 2020에서 “인간 의사소통의 90%는 발성 억양, 몸짓 언어, 얼굴 표정을 포함한다. 음성 인식만 사용하는 AI는 이 모든 것을 놓친다”라고 지적했다.


즉, 오늘날 AI는 음성 소통에서 단어 인식과 분석의 탁월한 역할을 하는 반면, 단어에만 의존한다는 점으로 인해 본질적 한계를 드러낸다는 것이다. 그렇기에 고객들의 감정 상태를 유추하고 그에 따른 반응 능력을 가진 AI 시스템을 제공하는 것이 AI 분야에서 급부상하는 트렌드이다.




사람의 감정을 이해하는 AI는 무엇을 할 수 있을까?


Affectiva가 주력하는 분야는 자동차 운전이다. 운전자의 상태를 신속하게 감지하여 교통안전에 도움이 되는 AI를 개발하고 있다. 자동차 운전자의 얼굴과 목소리를 통해 실시간으로 복잡하고 미묘한 감정과 인지 상태를 판별하는 것이다. 이들이 개발한 AI를 활용하면 자동차 회사나 부품 회사 등이 운전자 감시 시스템을 구축할 수 있다.


운전자의 표정을 분석하여 감정을 파악한다. (출처 : Affectiva)


차내에 설치된 정밀한 카메라와 마이크를 사용하는 Affectiva의 AI 기술은 인간의 기쁨이나 분노, 놀라움 등의 표정은 물론 목소리톤, 빠르기, 크기 등을 분석하여 운전자가 어떤 상태인지 판별한다. 예를 들어 운전자가 졸린 상태인지 아닌지를 판단할 때는 눈을 감고 있는지, 하품하는지, 눈을 깜박이는 빈도가 변하는지 등을 민감하게 감지한다. 이러한 데이터는 클라우드에 전송해 분석할 뿐 아니라, 바로 그 자리에서도 처리할 수 있어 신속한 정보 분석이 가능하다. 운전자가 졸음을 참지 못해 졸음운전을 하기 직전이라거나 화를 참지 못해 난폭 운전을 하고 있다면 인공지능 자동차는 사람의 잠을 깨우거나 감정을 달래줄 수 있는 것이다.


이외에도 Affectiva는 ‘Affdex’라는 영상이나 광고, TV 프로그램에 대한 소비자의 감정 반응을 측정하는 AI도 개발하고 있다.  동영상 광고 등의 디지털 콘텐츠와 시청자의 감정을 분석하면, 더욱 효과적인 광고를 만들어 소비자의 구매 행동으로 연결할 수 있다고 한다.


Affdix의 분석 과정 (출처 : Affectiva)


대표 사례로 미국의 CBS가 Affectiva의 AI를 활용한다. 그들은 웹 카메라로 200명이 넘는 시청자의 표정 변화를 모아 60분간 이어지는 TV 드라마를 보며 변하는 감정 반응을 분석한다. 그중에서 반응이 격렬한 장면을 찾아 TV 프로모션 등에 사용한다. 이러한 기술은 시청자의 감정에 호소하여 재미있다고 느낄만한 콘텐츠 만들기에도 큰 도움이 된다.

감정적인 광고는 그렇지 않은 광고보다 다른 사람과 공유할 가능성이 4배나 높다고 한다. 또한, 인간을 웃게 만드는 동영상 광고는 그렇지 않은 광고보다 유튜브에서 1000만 번 이상 재생될 가능성이 5배나 높은 것으로 밝혀졌다. 인간의 감정을 읽는 AI는 자율주행 기술뿐 아니라 기업의 마케팅 전략에도 유효한 것이다.




감정 인식 AI와 로봇, 인간의 친구까지 가능할까?


미래에는 사람과 로봇이 한 집에서 같이 살아가는 건 선택이 아닌 필수가 될 것이다. 이러한 상황에서 감정 인식 기술은 로봇이 사람을 이해하고 자신의 행동 규범을 정립하는데 큰 도움이 될 것이다. 예를 들어 자신이 이런 행동을 하면 사람이 이렇게 반응한다는 것을 배우고, 행동 방식을 수정하고 새롭게 정립해 나가는 것이다. 갓 태어난 아기가 부모의 표정, 목소리를 보며 감정을 배워가듯, 감정을 인식할 수 있는 로봇 또한 사람의 얼굴 표정, 목소리 톤의 변화를 통해 자신의 행동 규범을 마련하는 것이다.


인간은 복잡한 생명체이다. 예측도 힘들고 때로는 이성적이지도 않다. 감정은 이성 못지않게 우리의 행동에 많은 영향을 미친다. 그렇기에 로봇은 여전히 인간을 온전히 대체하지 못하였으며 사람은 로봇과의 온전한 감정적 교류를 바라지도 않았다. 하지만 기술의 발달 덕분에 이제 AI도 감정을 인지하기 시작했고, 이를 탑재한 로봇의 개발도 활발하게 진행 중이다. 즉, 영화 'HER'의 상황이 더 이상 영화 속 이야기가 아니라는 것이다. 미래에는 AI이던, 이를 탑재한 로봇의 형태건, 인간이 아닌 친구가 우리에게 생긴다는 것이다.


로봇으로 태어나 인간으로 죽는 감정 로봇을 다룬 영화 '바이센테니얼 맨'


사람은 단순히 유용한 존재보다 교감할 수 있는 존재에 가치를 부여한다. 미래에는 우리 모두 각자의 '사만다'를 가지게 되지 않을까 예측해본다.




연세대 식품영양 정다슬

ektmf8062@naver.com



매거진의 이전글 인간 고유의 영역을 넘보다, AI 예술가
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari