brunch

You can make anything
by writing

C.S.Lewis

한국말 "그거 있잖아"도 알아듣는 AI 나온다  

한국말 "그거 있잖아"도 알아듣는 AI 나온다 

[한국 문서·영화 등 입력하면 아기가 말 배우듯 스스로 학습]

- IBM·구글·네이버 등  치열한 경쟁
수백분 분량의 뉴스·드라마 매일 AI에 입력해 학습시키고 검색어 빅데이터 활용하기도

- 어느 정도까지 말  통할까
男女 목소리·사투리는 구분
전문가 "애매한 표현·뉘앙스도 이해하는 인공지능 나올 것"

미국 뉴욕주 IBM 왓슨 본부에선 요즘 인공지능(AI·artificial intelligence) 엔진 왓슨에  한국어를 '가르치는' 작업이 한창이다. IBM과 전략적으로 제휴한 SK㈜ C&C 기술진이 작년 5월 현지로 건너가 한국어 대화의 유형과  맥락을 학습시키고 있다. IBM 관계자는 "한국 TV 프로그램과 영화, 뉴스 등 한국어 음성이 들어간 오디오 파일 수백 시간 분량을 매일 올리고  있다"고 말했다. 한 달에 100만판씩 바둑을 두며 패턴 이해 능력을 기른 구글의 인공지능 '알파고'처럼 막대한 양의 일상 언어(자연어) 데이터를 11개월째 AI에 입력하고 있는 것이다. 한국전자통신연구원 이윤근 음성지능연구그룹장은 "일일이 정답을 제시하는 대신 데이터만 던져주고  스스로 학습하게 하는 비(非)지도 학습을 하는 것"이라고 말했다.

인공지능이 한국어 공부에 몰두하고 있다. 한국 서비스를 본격적으로  시작한 IBM 왓슨과 구글은 물론 삼성전자·KT·SK텔레콤·네이버 등 국내 기업들도 AI의 한국어 구사 능력을 높이기 위해 치열한 경쟁을 벌이고  있다. 스마트폰과 PC, 가전(家電)제품, 자율주행차까지 음성으로 제어하는 시대를 앞두고 AI가 얼마나 사람 말을 잘 이해하고 반응하는지가 모든  기기의 핵심 요소로 부상하고 있기 때문이다.

AI는 한국어 '열공' 중

AI의 한국어 학습법은 음성을  인식하는 기본 단계에서 빅데이터를 통한 학습, AI가 스스로 공부하는 기계학습(machine learning) 단계로  나뉜다.

예컨대 카카오의 경우 기본 단계에서는 남녀 2000명을 모집, 약 1000시간 분량 음성을 녹음한 뒤 수많은 발음에서  평균적 특징을 추출하고 인터넷에서 문서를 수집해 언어 학습을 시켰다. 그다음엔 실제 서비스에서 음성 검색 이용자들이 남긴 막대한 빅데이터를  활용해 AI 성능을 업그레이드했다. 이 단계가 지나면 AI는 스스로 학습해 문장에서 미묘한 뉘앙스 차이까지 인식하는 법을 배운다. 카카오 김훈  음성처리파트장은 "현재 수만 시간가량의 음성 빅데이터가 쌓여 있고, 이를 AI가 학습하고 있다"며 "문장에서 '배' 앞뒤로 '강'(江)이 있는  경우와 '아프다'가 있을 때 의미 차이도 구분할 수 있게 된다"고 말했다.

네이버는 하루 3억5000만건씩 입력되는 검색 키워드와  네이버 지식인에 쌓인 빅데이터를 AI의 언어 지능을 고도화하는 데 활용하고 있다. 강인호 네이버 이사는 "갓난아기가 엄마 아빠 말만 듣고 자라다  스스로 한글을 깨치는 것과 똑같은 원리"라고 말했다. 궁극적으로 '그거 있잖아' 같은 애매한 말도 문맥 속에서 이해하게 만든다는  것.

KT 음성 인식 기술은 남녀 목소리, 지역별 사투리, 화난 목소리 등을 구별하는 것이 특징이다. KT 융합기술원 류창선 팀장은 "콜센터를 운영하면서 전화 건 사람이 남자면 여자 목소리 AI로 응대하고, 화가 난 상태면 AI 대신 사람이 응대케 하는 서비스 모델을  구상했다"고 말했다.

음성으로 기기 제어하는 시대 열린다

글로벌 기업들이 음성 인식 AI에 목숨을 거는  것은 PC의 마우스나 스마트폰의 터치를 넘어 앞으로는 음성으로 모든 것을 제어하는 시대가 오기 때문이다. 스마트폰뿐 아니라 가전제품과  자율주행차(무인차)까지 수많은 기기에 음성 인식 기능이 담기면서 음성 인식을 장악하는  기업이 미래 시장의 출입구를 선점하게 되는 것이다. 실제로 삼성전자는 스마트폰용 AI 비서 빅스비를 에어컨·냉장고 등 다른 가전(家電)으로 확대  적용하겠다고 발표했다. 구글어시스턴트는 현재 서비스하는 영어와 독일어뿐 아니라 한국어·프랑스어 등 다양한 언어로 한 사람이 10년 동안 사용하는  분량의 말을 매일 학습하는 것으로 전해졌다.
  

http://news.chosun.com/site/data/html_dir/2017/03/23/2017032300413.html

과연 네이버가 구글을 따라갈 수 있을까 생각이 든다.

음성인식이라는 것이 단순히 언어나 통번역하는 시스템이 아니라는 것이다.

언어를 알아듣는 시스템이라는 얘기다.

그렇다면 언어를 알아듣는 것은 모든 사람을 아우른다는 얘기다.

왜냐하면 컴퓨터를 할 줄 모르는 어린아이 사용이 힘든 장애인, 노인들까지 말만 할 수 있다면 모든 사용자를 끌어들일 수 있는 것이기 때문이다.

그럼 언어를 알아듣게 된다면 모든 플랫폼은 없어지고 음성을 알아듣는 AI가 세상을 지배하게 된다.

왜냐하면 중간에 내가 앱을 누르거나 컴퓨터를 켜서 직접적인 입력을 하지 않아도 되기 때문이다.

말만 하면 되기 때문에 배달앱을 구동시킬 필요가 없다는 얘기다.

그냥 말만 해서 배달을 시키면 된다.

그렇다면 당연한 얘기지만 항상 로그온 되어 있어야 할 것이다.

중간에 멀쩡한 배달앱이 없어진다.

그리고 대리운전을 말로서 부른다.

술 취했는데 혀 꼬였는데 앱을 누를 필요 없다는 것이다.

그냥 말만 하면 된다.

물론 네이버가 이정도는 따라 올 수 있다.

대신에 중간에 이런 앱들이 전부 없어진다.

배달앱, 쇼핑몰 앱, 맛집을 찾아주는 앱, 대리운전 앱 등과 같은 모든 앱들 말이다.

그런데 구글은 이정도만 하는 것이 아니다.

자동차도 운전하고 우리의 자산관리도 로보어드바이저도 하고 드론도 조종하면서 의사업무도 본다.

즉 온오프라인을 넘나들며 그들의 영역을 넓히는데 심지어 공짜다.

인간의 욕망데이터만 있으면 될 뿐이다.

그러니 네이버가 이러한 모든 것들을 따라할 수 있을까에 대한 의문이 든다는 것이다.

단순히 통번역정도나 온라인상에서 따라하는 정도가 아니라 모든 영역을 다 할 수 있는 AI의 영역까지 쫓아갈 수 있는가에 대한 것이다.

다 할 수 없다고 본다.

미국은 아예 진출도 못한다.

구글의 지도도 없는데 어떻게 자율주행차 운전을 하며 그 외에 자산관리를 비롯한 수많은 일들을 할 수 없다는 것이다.

그리고 인력과 돈도 없다.

시간도 없다.

네이버가 그나마 안쓰럽긴 하지만 그래도 한국에는 앞으로도 살아남을 기업이 삼성전자와 네이버 밖에 없지 않나 싶다.

JD 부자연구소
소장 조던
http://cafe.daum.net/jordan777

매거진의 이전글 퀄컴의 '갑질'…삼성 엑시노스 외부판매 막았다  공정위
작품 선택
키워드 선택 0 / 3 0
댓글여부
afliean
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari