brunch

You can make anything
by writing

C.S.Lewis

by Pen 잡은 루이스 Nov 03. 2019

인류는 정말 <그녀>를 만날 수 있을까?

#2. 알파고의 무한한 지능과 지성 그리고 인간의 감성까지 넘보는 AI

최근 들어 LP 바를 찾아다니거나 아예 LP(Long-Playing record)와 바이닐(Vinyl)을 구매해 집에서 음악을 감상하는 지인들이 생겼다. LP판에서 흘러나오는 음악 사이로 미세한 노이즈가 들리면 이를 잡음이 아니라 LP 특유의 엔틱하고 클래식함이라는 생각이 들 정도다. 어떠한 장르의 음악이든 LP 특유의 노이즈가 조화롭게 이루어져 하나의 명품 바이닐로 완성되는 것 같다.

우리는 지금 어떠한 방식으로 음악을 듣고 있을까? 턴테이블에서 라디오로, 다시 라디오에서 워크맨(Walk Man)과 같은 카세트테이프 그리고 CD 플레이어로 이어져왔지만 모바일 시대를 맞이하게 되면서 대다수 사람들이 스마트폰과 같은 디바이스를 통해 음악을 감상한다.

이와 더불어 말하는 스피커가 생겼다. 바로 인공지능을 탑재한 스피커. 삼성전자의 갤럭시나 애플의 아이폰 모두 인공지능 비서를 탑재해 사용자의 편의를 돕는다. 이러한 음성인식 기술과 인공지능이 접목하여 AI 스피커라는 형태가 되었다. 데이터를 담는 서버 즉 클라우드 역시 AI 스피커를 완성하는 필수요소가 되었다.

Apple AI Speaker, Homepod.   출처 : theverge.com

인공지능이 공부하는 방법

다른 부분으로 접근해보자.

스마트폰이 대중화가 되기 이전에는 공중전화가 있었고 통신 기술이 발달하면서 2.5세대 이동통신의 개념인 PCS폰(Personal Communication Services)이 생겨났다. 본격적인 스마트폰 도입 이전에 우린 버튼식 다이얼로 메시지를 주고받기도 했다. 급기야 온몸을 뒤덮은 디스플레이가 안착이 되어 지금의 형태에 이르렀고 접히는 디스플레이도 생겨났다.

디스플레이를 터치하는 습관은 이제 곧 생활이 되었다. 물론 굉장히 편리했다. 필요한 경우에만 등장했다가 사라지니 얼마나 편리한가. 사용자 조작 화면 즉 디스플레이에 노출되는 UI(User Interface)는 트렌드에 맞게 변화하고 사용자 모두가 편리하게 쓸 수 있는 플랫폼이 탄생하게 된다.

음성 인식 기술 역시 마찬가지. 스마트폰을 동작하기 위해 터치로 입력하는 행위 자체도 편리하지만 이를 음성으로 커뮤니케이션할 수 있다면 사용자의 두 손은 그만큼 자유를 맞이하게 된다. 거실에 있는 AI 스피커를 향해 오늘의 날씨를 묻고 교통 정보나 뉴스를 들으며 요리도 할 수 있고 청소도 가능해졌다. 말 그대로 사용자가 인공지능과 대화하는 시대가 열린 것이다. 최근에는 디스플레이가 탑재된 AI 스피커도 등장했지만 대다수 원통형 또는 작고 귀여운 미니 형태를 띠기도 한다. 그러니까 스피커의 본질을 어느 정도 지키지만 외형 자체를 예쁘게 만들어 구매욕을 느낄 수 있게 해 준다는 것이다.

'저를 데려가세요!' NAVER AI Speaker 'Friends'    출처 : bloter.net

기능 측면으로 보면 역시 비슷한 편이다. 대다수 쿼리는 단연 음악, 그 외 뉴스나 날씨, 교통정보, 라디오 등의 명령이 뒤를 잇는다. AI 스피커는 모두 소리를 뿜어내는 스피커 영역과 사람의 음성을 들을 수 있는 마이크가 숨겨져 있다. 사용자가 음성으로 명령하게 되면 인공지능은 마이크를 통해 이를 인지하고 클라우드나 서버에서 사용자가 원하는 답을 찾기 시작한다. 물론 어느 정도의 로딩 시간이라는 것이 존재하지만 수초 이내 답을 한다. 사용자가 요구하는 질문(또는 명령)은 남녀노소 모두 다르기 때문에 AI 스피커는 반드시 학습을 해야 한다. 그래야 원하는 답을 정교하게 제시할 수 있기 때문이다.


인공지능이 정확하고 신속하게 답을 제시하려면 두 가지의 학습이 필요하다. 하나는 머신러닝(Machine Learning)이고 다른 하나는 딥러닝(Deep Learning)이다. 유사하게 보이지만 서로 다른 두 가지의 요건이 제대로 충족되어 탑재가 된다면 우리가 꿈꾸는 완벽한 인공지능에 다가갈 수 있게 된다. 머신러닝은 인공지능을 구축하기 위한 방법 중 하나인데 서버나 클라우드에 존재하는 수많은 데이터를 분석하고 다양한 분야에 존재하는 값의 패턴을 인식하게 된다. 패턴 인식 이후에는 일정 규칙을 기반으로 어떠한 판단의 예측까지 나아갈 수 있으며 스스로 오류를 잡아내고 수정을 하면서 정확도를 높여갈 수 있다.

한 가지 사례를 들어보자. 아이들의 경우 38도 이상이 되면 온 몸에 열이 오른다. 수족구나 구내염, 감기 등 여러 질병이 있긴 하지만 감기가 걸린 아이를 구분하는 방법을 고려할 때, 38도는 감기이고 36도는 정상체온이라는 값으로 컴퓨터에게 학습을 시킨다. 이후 특정 체온을 제시하면 아이가 감기에 걸린 것인지 판단할 수 있도록 구현하는 것이 머신러닝의 기초적인 학습 방법이다. 숫자에 대한 판단 근거를 입력해주고 이를 예측하지만 추가적인 값을 입력해 또 다른 질병과 환자의 판단을 할 수 있도록 알고리즘을 수정 및 보완하기도 한다. 이러한 작업들은 인공지능의 완성도를 높일 수 있는 바탕이기 때문에 머신러닝에 있어 데이터의 값은 매우 중요하다. 데이터는 오롯이 머신러닝의 학습도구가 된다. 다만 지도가 필요한 값, 즉 데이터의 입력이 필요한 학습방법이라고 보면 좋을 것 같다. 반면 딥러닝은 '비지도 학습'이라는 개념으로 접근할 수 있을 것 같다.  

 

Deep Learning.   출처 : hackernoon.com

인공지능의 완성도를 위해 딥러닝은 머신러닝만큼 중요하다. 딥러닝은 머신러닝이 포괄하는 하나의 분야다. 인간의 힘을 빌리지 않고도 스스로 학습 능력을 갖춘 똑똑한 인공지능이기 때문에 딥러닝이 머신러닝보다 우수하다고 언급해도 과언은 아닐 것 같다. 인간의 두뇌와 같이 다양하면서 수많은 데이터 속에서 일정한 패턴을 발견한다. 인간이 어떠한 사물을 바라봤을 때 이를 구분할 줄 아는 정보처리 방식을 모방하여 만든 학습 방식이다. 사물이나 데이터 등을 클러스터링(Clustering, 군집화)하거나 분류하는 데 사용한다. 이 문장에서도 알 수 있듯 딥러닝의 핵심은 클러스터링과 분류를 통한 예측이다. 감기에 걸린 아이와 체온에 대한 상관관계 그리고 이를 위해 입력한 사전 데이터가 학습의 도구가 된다면 딥러닝에서는 데이터 속에서 스스로 답을 찾을 뿐 별다른 지도를 필요로 하지 않는다. 결국 딥러닝은 스스로 공부하는 인공지능이라는 말이 된다.

사람의 얼굴을 찾아 알아서 태깅해주는 페이스북의 AI    출처 : wired.com

전 세계를 대표하는 글로벌 SNS 페이스북(Facebook)을 해봤다면 지인들 얼굴에 그들의 이름을 태그(tag) 형태로 삽입하는 경우들을 목격했을 것이다. 그동안 쌓여있던 이미지 정보를 컴퓨터가 학습을 하고 특정 이미지에 태깅하는 경우가 딥러닝의 결과물이라고 볼 수 있다.

이처럼 인공지능이라는 거대한 틀 안에는 머신러닝이 존재하고 다시 그 안에 딥러닝이 자리하고 있다. 딥러닝의 기술을 활용하고자 하는 국내외 기업들 역시 꾸준히 늘어나고 있는 추세다. 구글의 경우에도 알파고와 같은 인공지능 시스템에 고도화된 딥러닝 기술을 녹인 '인공 신경망 체계'를 만들기 위해 지속적으로 연구하고 있고 언급한 것처럼 페이스북 역시 얼굴의 형태를 인식할 수 있는 기술을 구현하기도 했다. 인공지능을 구현하는 머신러닝과 딥러닝 이외에도 강화학습이라는 것이 존재하기도 한다.

출처 : pixabay

서양장기라고 일컫는 체스(Chess)에서 상대방과 접전을 벌인다고 가정해보자. 옴짝달싹 할 수 없는 '체크메이트' 상황을 맞이하게 되면 위기감에 빠진 상대방은 그 어느 때보다 집중할 수밖에 없다. 위기에서 벗어나야 하니 말이다. 그러나 쉽게 말을 움직이지 못한다. 때론 극적으로 상황을 바꿀 수 있는 기적 같은 기회가 되기도 하지만 자칫 되돌릴 수 없는 패배로 이어질 수 있기 때문이다. 그런 상황에서 어떠한 액션을 취했을 때 가장 효과적일 수 있는지 학습하는 방법이 바로 강화학습(Reinforcement learning)이다. 강화형 기계 학습이라고도 한다. 그런데 늘 문제는 있다. 접전 당시 상황을 고려해서 말을 움직이지만 이러한 행동 자체가 반드시 게임 전체를 승리하는데 기여하진 않는다. 쉽게 말해, “나무를 보지 말고 숲을 보라”는 말은 넓게 보라는 의미이지만 인공지능은 나무도, 숲도 눈여겨봐야 하며 게임 전체를 볼 수 있는 학습이 필요하다는 것이다.

세기의 거장 스탠리 큐브릭(Stanley Kubrick) 감독이 1968년에 제작한 <2001 스페이스 오디세이>에서 인공지능과 인간의 체스 대결이 잠시 등장한다. 당시 인공지능과 우주에 대한 이야기를 매우 사실적으로 그려 역사에 길이 남을 SF 영화가 되었다. 스탠리 큐브릭 감독이 연출한 인공지능 ‘할’을 지속적으로 연구했다면 알파고와 같은 인공지능이 나올 수 있었을까? 강화학습과 위에서 언급한 체스 대결에 대한 이야기라면 구글의 알파고는 절대 빼놓을 수 없다.

<2001 : A Space Odyssey>   출처 : zacuto.com

구글은 2016년 알파고라는 첨단 인공지능을 널리 알릴 수 있는 기회를 맞게 된다. 구글 딥마인드(Deepmind)가 오랜 시간 연구한 끝에 완성한 바둑 프로그램 알파고(Alpha Go)가 대한민국의 이세돌 9단과 대결을 펼치게 된 것이다. 말 그대로 인공지능과 인간이 격돌하게 된 것이다. 당연히 피할 곳은 없었다. 알파고와 이세돌 9단의 대결은 2016년 미국의 사이언스(Science)지에서 선정한 올해의 10대 혁신성과(Breakthrough of the Year)에 포함되기도 했다. 사이언스는 미국과학진흥협회(American Association for the Advancement of Science, AAAS)에서 발간하는 과학 학술지다. 최종적으로 4대 1이라는 결과가 나왔고 승리는 알파고의 것이었다. 바둑 프로 명예단증까지 수여받게 된 알파고는 이후 중국의 커제(Ke Jie) 9단과 한번 더 승부를 펼쳤지만 커제 역시 역부족이었다. 개인적으로는 사람의 변화무쌍한 전술과 전략, 갑자기 뒤집을 수 있는 생각들 그러니까 인간이기에 가능한 것을 알파고의 알고리즘이 간파할 수 있을까라는 생각을 잠시나마 해봤지만 바둑 세계에 있어서 인공지능에게 승기를 거머쥘 순 없을 것 같았다.

기존의 알파고를 압도하는 실력을 탑재한 알파고 제로(AlphaGo Zero)는 독학을 통해 학습한다고 한다. 알파고 제로는 구글 딥마인드가 공개한 새로운 버전의 인공지능이다. 오로지 바둑의 규칙만 인지하고 있다. 이를 바탕으로 스스로 학습을 하고 수차례 자신과 싸움을 벌이며 승리 확률을 높이기 위한 데이터를 쌓는다고 한다. 인간이 수차례의 실패와 오답을 바탕으로 공부를 하고 복습을 하듯 알파고 제로가 그 능력을 수행한다는 것이다. 구글 딥마인드는 인공지능 알파고를 바둑이 아니라 다양한 산업 분야에 적용하고 응용할 수 있도록 집중할 것이라고 했다. 인간의 지성과 인공지능은 유사하지만 조금씩 다르다. 그럼에도 불구하고 인공지능의 지성은 이미 인간을 뛰어넘었다. 그렇다면 인간의 감성과 감정을 인공지능이 이해할 수 있을까?

출처 : mirrorreview.com

인공지능의 지성, 인간의 감성을 넘보다?

터미네이터의 구형 모델인 T-800(아놀드 슈왈제네거)은 어린 존 코너(에드워드 펄롱)의 눈물을 보고 “왜 눈에서 물이 나오느냐”라고 물으며 의아해했다. T-800의 인공지능은 첫 번째 눈물을 보며 이해하지 못하지만 뒤이어 존 코너의 심리상태, 상황을 판단해 왜 눈물을 흘리는 것인지 이해한다고 했다. 그러나 이러한 감성은 인공지능이 결코 느낄 수 없는 것. 기계 안에 인공눈물을 주입한다고 한들 무슨 소용일까? 그럼 다른 영화 하나를 이야기해보자.

출처 : rachaelsinclair.myportfolio.com

스파이크 존즈(Spike Jonze) 감독이 2013년 메가폰을 잡은 영화 <그녀, Her>는 굉장히 독특하면서 사랑스러운 영화다. 개인적으로도 그랬다. 분명히 로맨스 영화인데 남자만 등장하고 여자는 목소리만 나온다. 여성의 목소리를 지닌 인공지능 사만다(스칼렛 요한슨 목소리)와 대필작가 테오도르(호아킨 피닉스)가 목소리를 통해 마음의 감정을 주고받는다는 이야기로 그려졌다. 사실 사만다는 인공지능 운영체제다. 쉽게 말하면 애플의 시리(Siri)나 네이버 클로바(Clova)와 유사하다고 보면 좋을 것 같다.

테오도르는 다른 사람의 감정과 마음을 글로 표현해준다. 진심이 담겨있는 듯한 편지를 써서 건네준 후 편지의 주인공인 두 사람이 이어지면 테오도르의 존재는 먼지처럼 사라진다. 하지만 정작 테오도르의 마음을 이해해주는 사람은 없다. 외로움이 가득했던 그 순간 사만다가 찾아온다. 인공지능이라고 하기에 매우 농염한 그녀의 목소리가 귓가를 울린다. 사실 그녀의 아름다운 목소리보다 테오도르의 내면에 긁힌 상처를 치유해주고 별거 중인 아내의 빈자리 즉 공허함을 가득 메워주는 사만다의 존재 자체가 더욱 테오도르의 심금을 울리게 된다.

사만다로 인해 마음의 안정을 찾는 테오도르. 영화 <그녀> 중.  출처 : Daum 영화

형체가 없는 무형의 인공지능임에도 언제나 곁에 있어주는 사만다. 진심 어린 대화를 하고 환하게 웃으며 마음의 안정을 겨우 찾은 그에게 어느 순간 변화가 찾아온다. 앞서 언급했듯 사만다는 인공지능 운영체제이니 누군가에 의해 개발되었을 터. 또한 디바이스에 탑재된 인공지능으로, 마치 애플의 시리와 같다고 보면 사만다는 테오도르가 단독으로 소유할 수 없는 존재다(만일 테오도르가 토니 스타크처럼 자비스를 개발했다면 모를까?)

누구에게나 같은 모습으로 나타나는 사만다의 실체에 대해 관객들은 이미 알고 있지만 그 둘의 러브 스토리를 의아하게 생각하는 사람은 없을 것 같다. 스칼렛 요한슨은 목소리 연기를 통해 얼굴을 보여주지 않았음에도 SF와 판타지 등의 작품을 대상으로 하는 제40회 새턴어워즈(Saturn Awards)에서 최우수 여우조연상을 거머쥐었고 이 작품을 연출한 스파이크 존즈는 86회 아카데미 시상식에서 각본상을 수상했다. <조커>로 놀라운 연기를 펼친 호아킨 피닉스의 또 다른 모습을 감상할 수 있다.

https://www.imdb.com/title/tt1798709/

자, 테오도르와 사만다의 러브스토리를 통해 우리가 눈여겨볼 것은 바로 인공지능의 감수성이다. 테오로드의 내면을 이해하고 그 깊이를 인지하여 우러나오는 진심으로 이야기한다는 것은 인공지능이 인간의 지성을 뛰어넘어 감정을 가진다는 것이지만 과연 가능한 일일까? 인공지능은 기존 컴퓨터에 존재하던 연산 능력과 추론 능력은 물론 학습능력과 지각 능력 등을 갖추고 있다. 그러나 감성과 공감에 대해서는 인간을 따라잡을 수 없는 영역이라 느꼈다. 이러한 능력을 갖추는 것 자체가 인공지능의 궁극적인 목표일 수도 있겠다.

그렇다면 이를 어떻게 구현할 수 있을까? 현존하는 인공지능의 모델들은 대다수 음성 인식 기술을 기반으로 하는데 사람의 행위, 표정 등을 읽고 그에 맞는 대응을 하긴 어렵다. 얼굴을 볼 수 있는 카메라가 있다고 하더라도 이를 인식하고 기쁨과 슬픔 등 수많은 감정을 판별한 후 효과적인 피드백을 주기에는 상당한 고도화가 필요할 것 같다.

아크릴의 인공지능.    출처 : iacryl.com

국내에는 아크릴(Acryl)이라는 스타트업이 있다. 이 회사는 조나단(Jonathan)이라는 인공지능을 품고 있다. 기본적으로 대화의 주요 키워드를 수집하고 판별하여 대화 내용에 적합한 답을 즉각적으로 제시한다. 이와 더불어 시스템이 사람의 표정과 언어, 억양 등을 통해 감성을 이해하는 공감 능력이 탑재되었다고 했다. 텍스트를 분석하는 지능과 이른바 감성 지능이라 불리는 능력이 조나단이라는 인공지능이 가진 알고리즘으로 아크릴이 개발한 엔진이다. 사실 사람이 가진 감정은 모든 사람에게 그리고 환경과 시기에 따라 각기 다르지만 지극히 세분화하지 않더라도 굵직하게 분류해볼 수 있다. 가령 사랑, 행복, 감탄, 황홀, 희망 등이라는 긍정적인 표현부터 분노, 슬픔, 미움, 두려움, 공포심, 짜증에 이르기까지 부정적인 분류가 있을 수 있는데 아크릴의 조나단은 이러한 키워드에 맞는 감정들을 학습해 인식할 수 있다고 했다. 더구나 사람의 억양이나 표정에 따른 접근방법으로 인공지능의 능력을 키운 것으로 보인다. 자연어 처리 기술을 통해 인간의 대화 의도를 파악한다면 일상에서 흔히 활용하는 챗봇(Chat Bot)이나 과거 심심이와 같은 기계적인 느낌을 넘어서는 깊이 있는 대화가 가능할지도 모르겠다.

출처 : cio.com

미국 MIT(Massachusetts Institute of Technology)에서는 인공지능과 인간 사이의 긍정적이고 효과적인 상호 작용을 꾀하고 우울증, 대인기피증 등 정신건강, 자살예방, 심리학적인 측면을 프로그래밍하고 학습한 코코(Koko)라는 플랫폼을 구축한 바 있다. 코코는 MIT의 임상실험으로 출발했지만 벤처기업으로 성장했고 투자도 받은 것으로 알려졌다. 생각해보면 우리가 접하고 있는 스마트폰, AI 스피커의 인공지능을 통해 정신적인 문제들을 언급하거나 성폭력, 가정폭력에 대해 깊게 이야기를 나누는 경우는 극히 드물 것이다. 비즈니스 및 디지털 분야의 온라인 커뮤니티, 탤런트 컬처(Talent culture)에서도 애플의 시리나 마이크로소프트의 코타나(Cortana) 등의 인공지능에서 우울증, 신체질환, 성폭력에 관한 쿼리는 매우 저조했다고 전했다. 실제로 이러한 사례가 있었다 해도 매우 단순한 피드백만 있었다고 한다. 영화 <그녀>에 등장했던 사만다라면 어떠한 답을 제시할 수 있었을까? 보통 사람들은 어떠한 외부 작용으로 인해 우울감이나 분노 등 매우 예민해질 수 있다. 사만다가 눈을 통해 보지 않아도 사람의 감정 섞인 목소리로 그를 이해하곤 한다. MIT의 코코 역시 사만다 수준의 인공지능이 되어 사람의 내면과 감정을 이해하고자 한다.

더불어 이러한 공감 능력이 담긴 코코의 API(Application Programming Interface)를 애플이나 MS 등의 인공지능과 연결하여 수많은 사람들에게 도움이 될 수 있도록 협업을 진행 중이라고도 했다. 어떻게 보면 특정 분야에 맞춤형으로 개발된 인공지능일 수도 있겠지만 근본적으로 인간의 우울한 기분에 맞춰 대응할 수 있다는 측면으로 보면 인공지능이 범접할 수 없었던 감성 지능에 더욱 가깝게 다가간듯한 느낌이다. 인간의 감성을 인공지능은 결코 따라올 수 없을 것이라는 지극히 개인적인 생각들이 점차 변화하고 있다. 그만큼 감성지능을 지향하는 인공지능이 조금씩 늘어가고 있는 셈이니 이러한 인공지능이 지성과 감성을 겸비하여 로봇과 같은 기계에 탑재하게 되면 또 다른 세상을 맞이할 수도 있을 것 같다.

사실 감성지능 그리고 감성 컴퓨팅에 대한 이야기는 몇 년 전 등장했던 핵심 기술이기도 했다. 인공지능의 감성, 공감 능력과 더불어 감성 컴퓨팅(Affective Computing)이라는 키워드는 인간의 감성을 연구하고 분석하며 해석할 수 있는 시스템을 의미한다. 이미 ICT 기술은 상당한 수준으로 발전한 상태이고 여기에 인지과학 테크놀로지(Cognitive Science Technology)를 융합하여 감성 컴퓨팅에 응용하게 되면 이 분야의 시장 역시 급성장할 수 있겠다. 참고로 2017년 약 69억 달러에 이르는 시장은 2022년 425억 달러 규모로 상승할 수 있다는 전망도 있었다. 앞서 아크릴의 인공지능 조나단도 챗봇 등 여러 분야에 사용할 수 있을 것이라는 언급을 했지만 감성 컴퓨팅도 동일선상에 존재한다.

https://peppypals.com/

아이들의 감성을 자극하고 정서적인 안정을 자리 잡을 수 있도록 하는 페피 팔(Peppy Pals)과 같은 프로그램도 감성 컴퓨팅을 기반으로 한다. 페피 팔은 스웨덴의 교육 프로그램 스타트업으로 실제 2명의 아이를 가진 여성 CEO 로지 린더(Rosie Linder)가 2013년 설립한 회사다. 머신러닝과 감성 컴퓨팅을 바탕으로 사용자의 감정을 인식하는 시스템을 갖췄다. 밴처캐피탈인 레고 벤처스(Lego Ventures)로부터 지원을 받기도 했다. 소프트뱅크(Softbank)가 설계한 페퍼(Pepper)라는 이름의 로봇은 감성 컴퓨팅과 조금 달리 보일 수 있지만 감정을 인식한다는 개념으로 보면 역시 같은 분야라 할 수 있다. 더불어 인공지능을 로봇으로 보이는 몸체에 탑재하여 비즈니즈에 널리 활용될 수 있도록 했다. 사람들과 대화를 나누면서 데이터를 수집한다. 사람들의 취향이나 개개인이 모두 다른 특성과 선호도는 물론 습관까지 학습하고 이에 대한 피드백을 제공하는데 이를 인간 그러니까 비즈니스에 적용되는 고객들에게 맞춤형으로 정보를 제공한다고 한다. 페퍼와 같은 소프트뱅크의 로보틱스 기술은 은행업은 물론 교육이나 고객 응대와 같은 서비스, 헬스 케어 분야에 이르기까지 다양하게 접목시킬 수 있다. 사용자의 감정에 반응하는 감성 지능으로 구현되어 꽤 발전된 모습을 보이고 있지만 로봇이라는 분야로 보면 아직은 어색한 외형일 수 있다. 그럼에도 불구하고 사람들이 사용하는 단어나 신체 언어를 통해 전달되는 메시지를 인지하여 실시간으로 많은 정보를 제공할 수 있도록 구축된 비즈니스형 인공지능 로봇이다. 이 밖에 구글의 브레인 프로젝트(Google Brain Project)도 이미지 검색을 통해 감정을 인지할 수 있는 모델 중 하나다. 구글의 브레인 프로젝트는 구글이 인공지능에 우선순위를 두고 꽤 많은 투자를 한 곳이다. 구글 딥마인드도 여기에 포함된다. 사실 이러한 감성 지능이 꾸준히 개발되고 구현될 수 있다면 토니 스타크의 자비스나 프라이데이, 영화 <스파이더맨>에 등장했던 이디스(EDITH) 등 인간의 마음을 이해하는 인공지능이 탄생하는 것도 멀지 않은 이야기 같다.


<계속>


※ 사실과 다르거나 수정이 필요한 내용이 있다면 언제든지 알려주세요! 댓글창은 늘 열려있습니다!

※같이 보는 글 : https://brunch.co.kr/@louis1st/224

<참고>

- What is Machine Learning?, expertsystem.com/machine-learning-definition

- <Facebook Can Now Find Your Face, Even When It's Not Tagged>(2017.12.19), wired.com

- <From AI to protein folding: Our Breakthrough runners-up>(2016.12.22), sciencemag.org

- <Jonathan 서비스>, iacryl.com/acryl/sub/jonathan.php

- <Koko raises $2.5 million to put human empathy inside every virtual assistant>(2016.8.8), venturebeat.com

- <미래 능동형 컴퓨팅과 감성 AI R&D전략>(2019.7.1), R&D정보센터(지식산업정보원)

이전 02화 유토피아를 꿈꾸는 인공지능, <터미네이터>의 디스토피아
brunch book
$magazine.title

현재 글은 이 브런치북에
소속되어 있습니다.

작품 선택
키워드 선택 0 / 3 0
댓글여부
afliean
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari