brunch

매거진 AI

You can make anything
by writing

- C.S.Lewis -

[카카오AI리포트]AI는 인간 같은 감정을 가지게 될까

감정을 매개로 한 AI와 인간의 관계 형성 필요

애니메이션 '빅히어로'에 등장하는 베이맥스 로봇은 인간의 마음을 알아내고 교감하며 치유합니다. 이런 만화영화속에서나 등장하는 인간 감정을 이해하는 로봇이 등장 할 수 있을까요?


[카카오 AI 리포트] Vol. 5 (2017년 7월호) 는 다음 내용으로 구성되어 있습니다.


[1] Industry - AI와 의료

01. 민현석 : 내가 의료 AI를 선택한 이유

02. 안성민 : 데이터 기반 정밀 의료와 AI

03. 황상흠 : 딥러닝 기반 의료영상 기술의 진화

04. 김남국 : 의료와 AI 신기술의 융합 : 과제와 전망

05. 정규환 : AI 의료영상 기술 활용 사례

06. 양광모 : 인공지능 의료, 이제 윤리를 고민하다 


[2] Review - AI의 진화

07. 정부환 : 더욱 똑똑해진 AI 광고 알고리듬

08. 이원형 : AI는 인간과 같은 감정을 가지게 될까? (이번글)


[3] Information 

09. 하반기 주요 AI 컨퍼런스 소개 


[카카오 AI 리포트] Vol. 5 전체글 다운받기


내용 중간의 [ ]는 뒷부분에 설명 및 관련 문헌의 소개 내용이 있음을 알리는 부호입니다. 예를 들어, [1]에 대한 설명은 '설명 및 참고문헌'의 첫 번째에 해당합니다. 



들어가기 앞서 간단히 용어를 정리하고자 한다. 이 글에서 말하는 감정이란 인공지능 혹은 로봇이 스스로 갖고 있는 감정을 의미하며, 사람이 갖고 있는 그것과 유사한 개념으로 가정된다. 감정, 정서, 감성, 느낌, 기분 등의 여러 표현이 있을 수 있지만, 이 글에서는 감정이라는 단어를 위주로 사용했다. 혹시 심리학을 전공하신 분이라면 이를 구분하여 사용하지 않았다고 너무 분노하지 않으셨으면 좋겠다. 감정은 지능과 별개인가? 아니면 감정도 지능의 일부인가? 인공지능에 감정이 꼭 필요한가? 인공지능의 관심이 높아지면서 다른 한편으로는 조심스럽다. 아직 인간의 정서에 대한 연구도 가야 할 길이 먼 마당에 이를 인공지능에까지 비교해야 하니 말이다. 그래도 흥미로운 주제인 만큼 공학뿐 아니라 심리학, 행동학, 디자인, UX 등의 다양한 분야에서 이 주제에 대한 지속적인 논의가 이어질 수 있기를 바라는 마음에 글을 이어 가본다.


의인화된 인공지능 로봇 


공상과학 영화에 나오는 미래의 인공지능 로봇들을 보면 모두 하나같이 감성적인 특징을 가지고 있다. 영화 2001 스페이스 오디세이(1968)에서부터 터미네이터(1984), A.I.(2001), I, Robot(2004), 채피(2015) 등에 이르기까지 수많은 영화에서 인공지능 로봇은 어떨 때는 공격성을 가진 모습으로, 어떨 때는 인간과 교감하며 친근한 모습으로 그려졌다. 감정이 뚜렷이 나타나지 않더라도 붉은 눈동자와 가슴 위치의 붉은 불빛 등으로 그들 안에 무언가 감정과 유사한 것이 존재할 것이라는 암시가 담겨있다


그러나 영화에 나온 인공지능 로봇들은 인간이 상상한 결과물로써 꼭 현실을 반영하리라는 법은 없다. 그러기에 영화는 가끔 로봇에 대한 여러 오해를 불러오기도 한다. 예를 들면, 인공지능이 계속 발달하면 그 안에서 어느 날 갑자기 자동으로 감정이 생겨날 것이며, 그 감정의 표현은 인간의 그것과 유사할 것이다라는 추측이다.

과연 지능이 발달하면 감정이 생길까? 오히려 지능이 낮은 생명체도 감정적인 특징은 존재한다. 지렁이도 밟으면 꿈틀대고, 물고기도 눈물을 흘린다. 한 연구팀은 심지어 곰팡이의 전기 신호를 감정 값으로 변환한 후 얼굴 로봇에 전달하여 표정을 짓게 하기도 했다[1]. 좋아하는 음식을 향해갈 때와 싫어하는 빛을 피할 때의 곰팡이의 전기 신호가 감정으로 간주되어 표현된 셈이다. 더불어 감정 표현에 있어서 강아지는 인간에게는 없는 꼬리 흔들기를 통해 자신의 감정을 표현한다. 하물며 전혀 다른 몸을 가지는 인공지능 로봇이 굳이 인간과 동일한 감정 표현을 보일 필요는 없다.


그럼에도 불구하고 인간은 인공지능 로봇이 사람의 정서적 특징을 닮아가는 모습을 상상한다. 이는 로봇을 비롯한 어떤 사물이든지 사람은 그것을 의인화하고 사회성을 부여하려는 습성이 있기 때문이다[2]. 영화 캐스트 어웨이(2000)에서 남주인공이 배구공에 얼굴을 그려 넣고 윌슨이라는 이름까지 지어주었듯이 말이다. 아마도 인공지능 로봇과 감정에 대한 이야기는 앞으로도 끊임없이 나올 것 같다.


감정의 역할


최근에는 적당한 감정 표현이 더 행복한 삶을 영위하는 데 도움이 된다는 인식이 확산되고 있지만, 과거에는 감정을 드러내지 말아야 할 것으로 보는 시각도 있었다. 감정은 합리적 판단을 방해하거나, 인간을 불안하게 만들며, 행동을 불확실하게 만들고, 서로 다투게 만들어 나아가 전쟁까지 일으키는 원인으로 인식되기도 한다. 이렇게 불필요해 보이는 감정이 인간에게는 왜 있는 것일까?

반대로 감정이 전혀 없는 인간을 상상해보면 의외로 감정의 필요성은 쉽게 찾을 수 있다. 감정이 없는 사람은 두려움을 모르기 때문에 자신의 목숨이 위험한 행동도 서슴없이 하게 되어 쉽게 다칠 수 있다. 또한, 다른 이의 어려움을 공감하지 못해 굳이 나서서 남을 돕지도 않는다. 결국, 그 사람은 사고를 당해 오래 살지 못하거나, 사회로부터 격리되는 신세를 면하지 못하게 될 가능성이 크다. 결국, 감정은 개인의 생존을 돕고, 사회를 이루는 역할을 한다.

감정의 첫 번째 역할은 한 개인의 목적을 이루기 위한 보상체계를 이루는 것이다. 그중 생존은 생명체에게 가장 중요한 목적이다. 상한 음식을 먹었을 때의 역겨움, 뱀과 같은 위험한 동물을 보았을 때의 두려움, 성관계를 할 때의 즐거움 등의 감정은 생존과 종족 유지라는 본능적 목적을 이루기 위해 기인한 감정이다. 싫은 감정을 통해 생존에 위협이 되는 것에서 벗어나고, 좋아하는 감정을 통해 생존에 득이 되는 것을 취하게 되는 것이다. 생존 이외에도 산에 올랐을 때의 성취감, 시험에 떨어졌을 때의 좌절감 등은 목적을 이루기 위한 동기부여와 이후 행동 변화에 영향을 준다. 성취감이 없다면 목적을 이루는 추진력이 떨어지고, 좌절감이 없다면 잘못된 자신의 행동에 대한 반성과 개선의 여지도 사라진다.


박사학위 공부에 어려움을 느끼는 본인. 괴로움 덕분에 반성하며 졸업연구에 매진한다고. 이미지 합성http://lim2.xyz/eorzea/bluehouse/


이처럼 감정 상태가 생존을 비롯한 여러 목적을 이루는 데에 중요한 정보를 알려주기 때문에, 감정과 기억의 관계는 매우 중요하다. 일반적으로 감정적으로 격앙된 경험의 경우 뇌에 더 오래 기억되며[3] [4], 이렇게 저장된 경험은 이후 행동을 선택하게 될 때와 사회관계를 이루어 가는데에 중요한 역할을 하게 된다[5]. 애니메이션 인사이드 아웃(2015)은 유아에게 일어나는 정서적 경험과 기억의 관계를 재미있게 그려내기도 했다.


AI의 학습과정과 감정의 관계


여기까지의 이야기를 보면 드는 생각이 있다. 그것은 바로 인공지능의 학습 과정에도 이러한 보상체계가 이미 존재한다는 점이다. 인공지능도 그것이 달성해야 할 목적에 다가가도록 정보처리와 업데이트를 반복해야 하는데, 좀 더 구체적으로 설명하면, 하나의 네트워크가 학습될 때, 손실함수(loss function)가 정의되고, 현재의 가중치(weight) 값에 의한 오차(error)에 따라 이후 가중치의 값을 변화시키게 된다. 강화학습의 경우도 인공지능이 어떠한 행동을 선택했을 때 보상(positive rewards)이 있으면 이를 학습하여 해당하는 행동을 자주 선택하도록 경험 정보를 업데이트시키고, 손실 혹은 벌(negative rewards)이 있으면 이를 학습하여 해당하는 행동을 회피하도록 경험 정보를 업데이트시킨다. 그렇다면 여기서 이야기하는 오차나 보상/손실의 개념은 앞서 이야기한 감정의 첫 번째 역할과 크게 다를 것이 없다. 차이가 있다면, 사람은 그 감정이 밖으로 표현된다는 것이고, 인공지능의 학습 과정에서는 그것이 인간이 아는 방식으로 표현되지 않는다는 점이다. 인공지능은 소리를 지르거나 표정을 보이는 대신 검은 출력창에 오차값을 하얀색 숫자로 조용히 외치고 있던 것이다.


서시(序詩)   ( 윤동주 서시 패러디 - 이원형)

죽는 날까지 loss function을 우러러
한점 부끄럼이 없기를.
feedback되는 작은 reward에도
나는 괴로워했다.

Q값을 노래하는 마음으로
arg max 때문에 죽어가는 모든 action들을 사랑해야지.
그리고 나한테 주어진 network를
update해야겠다.

오늘 밤에도 확률값에 Softmax 함수가 스치운다.


감정의 또 다른 역할은 자신의 상태를 다른 이들에게 알리는 직관적이고 비언어적 의사소통의 수단이다. 만약 누군가가 복통을 심하게 앓고 있다면, 괴로워하는 표정이나 행동을 통해 자신의 상태를 주위에 알려 도움을 받아야 한다. 그렇지 않다면 주변 사람들은 그가 아픈지를 알아챌 수 없다. 또한, 한 개인이 부당한 대우를 받는다면, 그 자신은 화를 표출하여 다른 이의 잘못된 행동을 바로잡을 수도 있다. 이처럼 자신의 상태를 감정이라는 직관적 형태로 다른 이에게 알리는 행위를 통해 각자는 서로를 이해할 수 있게 되고, 이는 나아가 공동체를 이루는 토대를 이룰 수 있게 된다. 특히나 공동체를 이루면, 서로의 경험을 공유함으로써 각 개인은 자신이 직접 경험하지 않은 것에 대해서도 간접경험을 통해 지식을 얻을 수 있다. 예를 들어 앞서가던 누군가가 놀란 표정으로 어딘가를 바라본다면, 그곳에 놀랄만한 중요한 일이 있다는 것을 뒤서가던 사람은 미리 알아챌 수 있다. 상한 음식을 먹고 괴로워하는 사람을 본다면, 다른 사람들은 그 상한 음식을 피할 수 있게 된다. 이러한 경험 공유와 지식 축적은 언어를 사용함으로 더 복잡하고 정교해질 수 있지만, 그 이전에 언어를 사용하지 않더라도 감정을 통해 직관적이고 본능적으로 의사소통하고 유대와 신뢰를 쌓을 수 있다.


그렇다면 다시, 인공지능에게 의사소통 수단으로써 감정이 필요한가? 여기에 본인은 그렇다와 아니다의 두 가지 답을 모두 하고자 한다. 먼저 ‘아니다’의 경우부터 설명하면, 인공지능의 경험적 지식은 인간에게 굳이 공유될 필요가 없다. 배터리가 부족해진 로봇청소기가 충전스테이션을 찾아 ‘기분 좋게’ 충전이 되고 있다고 해보자. 이로부터 얻을 수 있는 간접경험은 인간에게는 굳이 필요 없는 것이다. 사용자는 로봇이 정상적으로 충전되고 있다는 사실만 알면 된다. 그런데 여기서 또 다른 답인 ‘그렇다’가 필요해진다. 로봇이 잘 충전되고 있는지를 인간에게 어떻게 알리는 것이 효과적일까? 바로 인간이 직관적으로 의사소통할 수 있는 감정을 이용하는 것이다. 배터리 충전이 잘 일어나지 않는다면 붉은 불빛이 깜빡이며 요란한 소리를 내고, 배터리가 잘 충전되고 있으면 푸른 불빛에 편안한 멜로디를 연주하게 한다면 사용자는 빠르게 로봇청소기의 상태를 알 수 있다. 즉, 인공지능 혹은 로봇이 적극적으로 사람에게 자신의 상태를 알려야 한다면 직관적인 정서표현을 병행하여 효과적인 의사소통을 가능하게 할 수 있다. 나아가 미래에 로봇이 인간과 동일한 사회공동체 원으로 인간과 공존하며 살아가게 된다면, 이러한 기능은 절대적으로 필요하게 될 것이다. (다만, 이것은 인간의 입장에서 그런 것이지, 인공지능 로봇 입장에서는 아닐 수 있다.)


감정을 표현하는 로봇의 등장


사람과 정서적으로 의사소통하는 인공지능 로봇들은 이미 개발되고 있다. 최근에 감정 로봇이라는 타이틀을 전면에 내세우며 출시된 소프트뱅크의 로봇 페퍼(Pepper)가 가장 대표적이다. 페퍼는 사람의 표정을 인식하고 정서적인 대화를 하며 점진적으로 사용자와의 관계를 발전시켜 나가는 로봇이다. 다만 학술적으로 공개된 바는 많지 않아 구체적인 동작 원리는 앞으로 발표되는 내용을 살펴보아야 한다. 그다음은 곧 출시를 앞둔 로봇 지보(Jibo)다. 지보는 페밀리 로봇이라는 타이틀을 내세우며 사용자와 가정 내에서 다양한 교감을 하고자 하는 인공지능 로봇이다. 이 로봇은 MIT 대학의 신시아 브리질 교수의 주도하에 개발되고 있는데, 이 교수는 2000년대 초반부터 로봇의 감정 생성과 표현에 대한 연구에서 선구자적인 역할을 해왔다. 그의 저서에서는 로봇 내에 정의된 욕구(drive)의 상태에 따라서 감정 상태가 결정되고, 키스멧(Kismet) 얼굴 로봇을 통해 감정이 표정으로 표현되는 설계 과정이 설명되어있다[6] [7]. 여기서 로봇 내에 정의된 욕구는 사용자와 상호작용하고자 하는 욕구, 색깔이 있는 물건과 상호작용하고자 하는 욕구, 피곤함에 대한 욕구로 정의되어 있으며, 앞서 감정의 역할에서 각 개인이 이루고자 하는 목적과 비교될 수 있는 개념들이다. 이와 비슷한 시기에 발표된 다른 선구적 연구로는 와세다 대학의 로봇 WE-4(이후 이 로봇은 코비안(KOBIAN)이라는 전신 로봇으로 발전하여 다양한 용도로 활용되고 있다.)에 적용된 감정 알고리즘이 있고[8], 소니의 강아지 로봇 아이보(AIBO)에 적용된 감정 생성 및 행동 선택 알고리즘이 있다[9]. 이 두 연구 모두 외부 자극을 통해 로봇의 내적 상태가 변화하면 이에 따라 로봇의 감정을 결정하여 표정이나 행동, 소리 등으로 표현하는 유사한 흐름의 구조로 되어 있다. 그 외의 다른 근래의 연구 내용을 살펴보고 싶다면 필자의 리뷰 저서인 “로봇의 사회적 의사소통을 위한 정서 생성 기술 및 동향 소개[10]”를 참고하기 바란다.


브리질 교수가 설계한 감정 시스템 [6]

욕구의 만족도에 따라 3차원(arousal, valence, stance) 감정 공간상의 값이 계산되고 공간에 할당된 구역에 따라 최종 감정 표현이 결정된다.


포커페이스가 가능한 인공지능, 윤리적 로봇의 필요성


인간은 자신의 의도와 감정을 완벽하게 숨기지 못한다. 웃음을 감추려고 해도 입꼬리가 씰룩거린다거나, 눈꼬리에 주름이 생기지 않는 가식 웃음, 미세한 표정변화(Micro-expression)를 통해 거짓말이나 숨기고 있던 감정이 들통날 때가 많다. 그러나 인공지능은 ‘포커페이스’가 가능하다. 철저하게 자신의 의도와 상태를 드러내지 않을 수 있다. 이세돌과 알파고의 4번째 대국에서 이세돌의 신의 한 수인 78수 이후 알파고가 떡수를 남발할 때, 그 떡수들이 이미 알파고의 승리가 너무 확실해서 아무렇게나 두는 수였던 것인지, 아니면 확률 계산에 문제가 생겨 계속 실수를 둔 것인지를 알파고가 기권 선언을 하기 전까지 알 도리가 없었다. 그때 알파고의 바둑돌을 대신 잡고 있던 아자황이 알파고의 승리 확률값을 모니터링할 수 있었더라면 아자황의 표정은 달라졌을지도 모르겠다.

이세돌과 알파고의 4번째 대국에서 알파고의 기권 메세지. 이 메세지가 있기 전까지 알파고가 기권할지 아닐지를 판가름할 방법이 없었다.


영화 엑스마키나(2015)에서는 인공지능 로봇이 자신의 의도를 철저히 숨겨 자신의 개발자를 죽이고 탈출하는 내용이 나온다. 그 로봇의 표정에는 주인을 죽인 것에 대한 미안함이나 탈출을 하고자 할 때의 절박함이 묻어나오지 않았다. 로봇은 한치의 미동도 없이 자신의 목적을 달성했다. 미래에 로봇이 인간 수준의 지능과 행동 능력을 갖추게 되었을 때, 필자는 이렇게 감정과 의도를 숨길 수 있는 로봇이 그렇지 않은 로봇보다 더욱 무섭지 않을까 생각해본다.


결국, 인공지능의 의도 및 감정 감정표현은 사람과 인공지능 간의 신뢰 관계에 큰 영향을 미치게 될 것이다[11]. 무인자동차가 길을 건너는 보행자를 발견했을 때, 보행자를 발견했고 멈춰 서겠다는 의도로 별도의 LED 표시를 할 수 있다면, 보행자는 심리적으로 안정되게 길을 계속 건널 수 있고, 안전사고의 위험도 줄어들 수 있다. 

사람이 지나갈때 무인자동차가 이를 인식하고 있다는 것을 앞에 달린 LED를 통해 보행자에게 알려주고 아래는 레이저로 횡단보도를 표시해주고 있다.


CES 2015에서 메르세데스 벤츠의 자율주행 자동차에 이런 기능이 소개되었었다. 또한, 인공지능 로봇팔과 사용자가 부엌에서 함께 요리하는 상황이라면, 칼을 쓰고 뜨거운 그릇을 옮기는 작업을 할 때, 서로 간의 능동적인 의도 표현이 있어야 원활하고 안전한 작업이 될 수 있다. 따라서 인공지능 로봇은 우선 사람을 해치지 않는 목적을 가지고 있어야 하고, 그 목적의 달성 상태와 로봇의 행동 의도 등의 내부 상태를 투명하고 직관적으로 사용자에게 보여줄 수 있어야 한다. 이러한 방향을 확장하여 인공지능 로봇에게 윤리의 개념을 담고자 하는 시도들이 생겨나고 있다[12]. 인공지능에 미리 윤리 개념을 주입식으로 학습시켜야 한다는 것이다. 아이작 아시모프의 로봇 3원칙도 윤리개념을 기본으로 삼고 있다.


감정을 표현하는 인공지능 로봇의 활용


강(强) 인공지능이 나오고 로봇이 인간에게 적대적인 마음을 먹어 인간을 지배하는 세상이 올까 봐 고민하기에는 시기적으로 아직 많이 이른 것일지 모른다. 그보다도 지금 우리에게 직면한 사회적 문제를 감정 표현이 가능한 인공지능 기술을 통해 어떻게 풀어야 할 것인지를 먼저 살펴볼 수 있으면 좋겠다. 감정 표현이 가능한 인공지능 로봇을 활용하면, 이미 접어든 고령화 시대에 따른 노인 자립도 향상에 큰 도움이 될 것이라 기대된다. 한편으로는 가족들이나 지역사회가 나서지 못하고 인공지능 로봇을 활용하는 것에 거부반응을 느낄 수도 있지만, 로봇에 심적으로 의존하는 것이 아니라 로봇을 활용하여 다른 이의 도움 없이 스스로 자립할 수 있는 능력을 키우는 것이 되도록 꾸준한 연구개발이 진행된다면 고령화에 따른 사회적 필요를 충족시키는 효과를 기대해봄 직하다. 또한, 자폐아동이나 정서적 문제가 있는 환자들의 치료에 활용될 수도 있다. 자폐아동의 경우 사람과 시선교환에 어려움이 있는데, 로봇과는 시선을 교환한다는 사례가 조사되고 있다. 감정 표현이 가능한 로봇을 활용해 자폐아동의 의사소통, 감정교류 능력을 발달시킬 가능성을 찾아낼 수 있을 것이다. 치료의 목적이 아니더라도 아동의 정서 발달을 위한 교육용 보조제로도 충분히 활용이 가능할 것으로 기대된다.

마지막으로 감정 노동을 인공지능 로봇으로 보조하거나 대체할 수 있다. 전화상담사나 안내원들의 감정 노동은 육체노동에 따르는 피로도 만큼이나 큰데, 이를 보조할 수 있다면 감정 노동 근무 환경이 크게 개선될 것으로도 기대된다.


지금 여기에 언급된 활용사례들은 사실 인공지능이 스스로 만들어낸 감정이라기보다는 로봇을 개발한 목적에 맞게 개발자가 미리 학습시킨 감정 반응 패턴에 가깝다. 인간과 자연스러운 교감을 위해 인간과 유사한 감정을 만들어내도록 설계되기는 하겠지만, 여전히 인공지능과 로봇은 분명한 사용 목적과 용도에 따라 개발되고 있으며, 그 최종 목적은 사람을 위한 것이다. 따라서 사용자 경험(UX)에 대한 깊은 고찰과 다양한 분야의 사람들이 함께 인공지능 로봇을 활용할 수 있을지에 대해 논의되는 것이 늘어나기를 바란다.



글 |  이원형 : leestation@kaist.ac.kr
감정로봇/소셜로봇 연구자로서 공학과 인문학, 예술 등 두루두루 관심이 많다. 사람과 교감하고 소통하는 로봇을 연구하다 보니 사람에 대해 공부를 하고 있을 때가 많다. 그래서 본인은 전문 분야에 대한 정체성의 혼란을 겪는 중이다. 앞으로 더 배워야 할 것이 많은 부족한 연구자이지만, 인공지능 시대에 글쓴이도 나름의 독특한 연구 분야를 내세워 밥숟가락을 얹어 보았다.





[1] 참고 : https://www.newscientist.com/article/dn24012-robot-face-lets-slime-mould-show-its-emotional-side/

[2] 논문 : Fong, Terrence, Illah Nourbakhsh, and Kerstin Dautenhahn. "A survey of socially interactive robots." Robotics and autonomous systems 42.3 (2003): 143-166.

[3] 논문 : McGaugh, James L. "Memory--a century of consolidation." Science 287.5451 (2000): 248-251.

[4] 논문 : McGaugh, James L. Memory and emotion: The making of lasting memories. Columbia University Press, 2003.

[5] 논문 : Holland, Alisha C., and Elizabeth A. Kensinger. "Emotion and autobiographical memory." Physics of life reviews 7.1 (2010): 88-131.

[6] 책 : Breazeal, Cynthia L. "Designing sociable robots" (2004).

[7] 논문 : Breazeal, Cynthia, and Rodney Brooks. "Robot emotion: A functional perspective." Who needs emotions (2005): 271-310.

[8] 논문 : Miwa, Hiroyasu, et al. "A new mental model for humanoid robots for human friendly communication introduction of learning system, mood vector and second order equations of emotion." Robotics and Automation, 2003. Proceedings. ICRA'03. IEEE International Conference on. Vol. 3. IEEE, 2003.

[9] 논문 : Arkin, Ronald C., et al. "An ethological and emotional basis for human–robot interaction." Robotics and Autonomous Systems 42.3 (2003): 191-201.

[10] 논문 : 이원형, and 정명진. "로봇의 사회적 의사소통을 위한 정서 생성 기술 및 동향 소개." 제어로봇시스템학회지 20.2 (2014): 20-30.

[11] 참고 : http://www.irobotnews.com/news/articleView.html?idxno=4463

[12] 참고 : https://www.facebook.com/groups/363477150662443/





매거진의 이전글 [카카오AI리포트]더욱 똑똑해진 AI 광고 알고리듬

매거진 선택

키워드 선택 0 / 3 0
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari
;