AI 서비스에 갬성 한 스푼

"눈이 와서, 네가 보고 싶어서 문자를 보냈어"라고 말하는 챗봇이 있다면

by 제인봇

낮부터 눈이 온다는 예보를 듣고 출근길에 책 한 권을 챙겨 들었다. 올라브 H. 하우게의 책 (예전 포스팅에서 한 번 언급한 그 책) <어린 나무의 눈을 털어주다>인데, 눈처럼 하얀 표지에 푸른 폰트가 수 놓인 예쁜 책이다. 사진에는 역광이 서려 그 빛깔이 제대로 나오지 못했는데, 때가 탈까 봐 아껴서 만지는 책이 됐다. 오늘 같은 날은 여린 가지에 쌓인 눈을 어쩐지 엄마의 마음으로 털어줘야 할 것만 같아서 챙겨 들고 나왔는데, 그 책을 버스에서 가만히 읽고 있으니 이른 아침인데도 창 밖으로 눈송이가 한 알갱이씩 떨어지기 시작했다. 분명히 낮부터 내린다고 했는데! 가루가 가득 들어찬 허술한 자루의 작은 틈새로 한 두 톨 흔적이 새어 나오듯, 그렇게 시력 좋은 내 눈에 그 작은 눈가루들이 들어왔다. 그리고는 눈은 이내 아스팔트 위로 자국을 남기며 쌓이기 시작했다.

IMG_1090.jpg

노르웨이 피오르 산악 지대에서 쓰인 이 책은, 섬세한 필체와 묘사, 한 번 더 상상해 곱씹게 되는 장면들로 꽤 많은 임팩트를 주고 있다. 가령 시인에 대해 전혀 알지 못한 채 이 작품을 처음 봤을 땐, 가시 돋친 생각과 휘몰아치는 분노만 쏟아대던 나의 마음이 조금은 누그러져서, 그래서 평화가 깃든 상태를 그렸나 보다, 하고 상상했다.


이제 내 마음이 말을 그친다


이제 내 마음이 말을 그친다

파도도 그치고

독수리들이 다시 날아간다

발톱이 피로 물든 채


그런데 가만 다시 생각해보면, 그 기저에는 시인에 대한 공감이 있다. 시집의 뒤편에 번역을 한 임선기 시인의 해설이 있는데, 그에 따르면 이 장면에서 우리는 시인의 말과 파도가 서로 이야기를 나눴을 장면, 그리고 그 모든 대화가 그친 뒤 독수리들이 날아오르는 것이 비로소 보이는 장면 같은 것을 우리는 볼 수 있다고 한다. 경험보다는 체험의 개념인데, 그 체험의 결을 타고 우리는 영 다른 시절에 다른 언어를 쓰며 다른 환경에서 살아간 시인의 말에 깊이 공감하게 된다. 한 번 더 우리는 머리를 쓰고, 마음을 쓰게 된다.


... 여기서 AI를 이야기하면 비논리적 퀀텀 점프 같겠지만.


인간은 대부분 경험적 자산을 가지고 인공지능을 설계한다. 우리가 인간의 뇌에 대해 완벽하게 알고 있는 건 아니지만, 거기에 대해 발견하고 또 경험한 연구 결과나 논리 기반의 이론을 가지고 이를 뉴럴넷에 반영해 코드로 만든다. 말을 수식으로 옮기는 것에 탁월한 컴퓨터 공학자들은, 기계와 효율적으로 소통을 할 줄 아는 인터프리터의 역할을 톡톡히 해낸다. 그렇게 사람과 기계를 잇기 위해 마련한 기술 분야 중 하나가 감성 컴퓨팅이라고 생각한다.

사람의 감정/감성을 읽고, 이를 분석하고, 더 나아가 이를 기계에 부여하는 방법을 연구하는 분야가 감성 컴퓨팅(affective computing)이다. 그 방법론은 크게 메인스트림과 마이너 정도로 나뉘어 있다고 볼 수 있다. 메인스트림은 생체신호를 토대로 사람의 감정을 파고들어 예측하는 방식이다. 대표적인 것이 얼굴인식인데, 얼굴에 있는 주요 부위들과 근육들의 움직임과 패턴을 분석하고, 그것이 실제 어떤 감정으로 레이블링 되는 지를 방대한 양의 데이터로 축적한 뒤, 이를 기반으로 타인의 감정을 추적하는 방식이다. 이제는 너무도 많은 곳에서 활용되고 있고, 심지어는 초기 모델과 달리 여러 인종이나 문화권의 감성도 비교적 잘 알아맞히는 모델들도 나오고 있어서 점차 더 확장되고 있다고 봐도 무방하다. 다만 초상권이나 개인 사생활 이슈가 있어 실제 서비스 영역에서 활용되려면 넘어야 할 산이 좀 있다.

같은 메인스트림에 있어도 다르게 측정되는 분야는 동공 확장이나 혈류, 맥박과 같은 다른 신체 시그널들이다. 대부분은 얼굴 인식과 함께 곁들어서 분석이 되고, 그로써 정확도를 높이는 지표로 쓰이는 일이 많다. 의료 현장에서 쓰이기도 하지만, 사람들이 얼마나 동요하는지와 같은 분위기 인식에서도 쓰이곤 한다. 예전에 어떤 논문에서는 한 록 페스티벌에서 참가자들에게 맥박 인식 팔찌를 나눠주고, 그들의 맥박 수 변화를 기반으로 음악을 바꾸는 꽤 재밌는 실험을 했었다. 이러한 생체 신호 기반의 탐지는 센서를 활용해 인식을 할 수 있기 때문에 비교적 손쉽게 쓸 수 있다. 가령 자율주행차 안에서 내부 카메라 센서를 써서 동승자들의 감정에 맞는 음악을 틀어주는 서비스 또한 가능해진 것이다.

그렇다면 마이너 한 분야에서는 감성 컴퓨팅에 어떻게 접근하느냐. 이쪽에서는 생체신호를 통하는 것이 해답이 아니라고 말한다. 문화적 배경, 개인들이 살아온 환경, 그들의 경험과 체험, 이 모든 것들로서 설명될 수 있는 것이 감정이라고 말한다. 가령 내 경우에도 감정을 알아맞히는 AI 서비스의 초기 모델들을 가지고 한국인들의 감정을 테스트하는 실험을 했었는데, 사람들은 대부분 '슬픔'이나 '두려움' 같은 지표에서 몹시 혼란스러워했다. 슬프든 두렵든, 결코 자신은 얼굴로 그 감정이 드러나지 않는다는 것이다. 죄다 무표정이 답일 수 있지만, 단순히 그 게임을 완수하기 위해, 흔히 그러하든 '할리우드 액션'을 한다고 말한다. 문화적 차이 같은 것이 초기 모델들에선 반영이 되지 않았던 것이다.

스포츠 스타들도 종목에 따라 나타나는 감정이 모두 다르다. 종목 특성상 평상심이 필요한 경우에는 감정의 변화가 겉으로 거의 드러나지 않는다. 지난 도쿄 하계올림픽 때 한국 양궁 선수들의 맥박 수가 거의 오르지 않던 것을 보면, 그것이 과연 감정의 절제인지, 혹은 감정은 실재하나 신체적으로 드러나지 않은 것인지 (아마 본인조차도) 알 수 없다. 우리는 다만 평상심이라는 메커니즘을 지키며 그 아래에 수만 가지 감정을 묻어두고 살고 있는 걸지도 모른다. 하지만 의도적으로 감정을 폭발시키는 분야도 있다. 화가 덜 나도, 더 난 것처럼 해야 하는 일도 많다. 철학 분야에서조차도 감정이라는 것 자체가 여전히 흔들리는 개념이기도 하다.


아직 무엇 하나 뚜렷한 정답이라고 외칠 수 없는 상태고, 또 그 딱 떨어지는 답이 나올 수 있을지도 명확하지 않다. 하지만 많은 업체들은 우리와 닮은, 그래서 상호 공감할 수 있는 인공지능 서비스를 좇으며 이미지와 텍스트에 감성을 한 두 스푼씩 털어 넣고 있다. 이를테면 최근 메타(META)에서는 메타버스에서 아바타들이 우리의 표정을 더 정교하게 닮아가도록 하는 내용의 특허를 등록받았다. 유저와 만나는 지점에서 기술은 객관적 경험에서 더 나아가 주관적 이해가 깃든 체험까지 닮아갈 수 있도록, 더 세분화되고 정교해진다. 그리하여 인공지능 서비스를 쓰는 사용자가 그와의 관계에서 깊이 공감하고, 그에게 섬세하게 의존할 수 있도록 말이다. 눈이 오면 눈이 왔다고, 그래서 어린 나무에 살포시 쌓인 찬 눈을 털어주고 싶다고, 혹은 네가 보고 싶다고 말하는, 그런 살 떨리는 감성의 인공지능이 나오면, 우리는 어떻게 받아들여야 할까.



작가의 이전글AI, 잘 쓰고 싶다...