brunch

매거진 AI

You can make anything
by writing

C.S.Lewis

[카카오AI리포트]세상을 바꾸고 싶다면,딥러닝_김남주

전세계적으로 연구 본격화된지 불과 몇 년. 공개 연구로 함께 희망을 구현

카카오는 AI에 대한 사회적 관심을 높이는 동시에, 다양한 논의의 재료로 AI가 쓰일 수 있기를 소망하며 매달 리포트를 내고 있습니다. 카카오도 AI 기반 서비스와 비즈니스를 준비하지만, 기술 생태계를 키우고 사회를 바꾸는 것은 모두의 몫이라 믿어요. 현안을 나누고 지혜를 모으는데 조금이라도 거들겠습니다. 


'카카오 AI 리포트 Vol 2'는 다음 내용으로 구성되어 있습니다.


01. 앤드류 응이 말하는 AI, 그리고 경영전략 

02. 세상을 바꾸고 싶다면, 딥러닝 (이번글)

03. AI, 지능정보기술 개발 및 활용의 바람직한 방향

04. 인간의 길, AI 로봇의 길

05. AI 온라인 강의 모음


카카오 AI 리포트 Vol. 2 전체글 다운받기 


내용 중간의 [ ] 는 뒷부분에 설명 및 관련 문헌의 소개 내용이 있음을 알리는 부호입니다. 예를 들어, [1]에 대한 설명은 '설명 및 참고문헌'의 첫 번째에 해당합니다. 


김남주 카카오브레인 AI 연구 총괄님 글입니다. 




저는 자몽랩이라는 작은 스타트업에서 딥러닝을 연구했습니다. 우리나라 딥러닝 연구의 전반적 현황을 얘기하기는 어렵겠지만, 당시 제가 딥러닝을 공부하고 연구하면서 좌절과 희망을 반복했던 이야기를 나누고자 합니다. 지극히 주관적인 이야기지만, 비슷한 경험을 할 수도 있는 연구자들에게 참고가 됐으면 합니다. 




우리나라의 딥러닝 연구 현황과 바람직한 연구 방향에 대해 전문가로서 글을 써 달라는 요청을 받고 고민에 빠졌습니다. 한 분야의 전문가라면 적어도 10여년 경력을 가져야 할 텐데 제 딥러닝 경험은 사실 짧습니다. 엄밀하게 따져보면 저 역시 딥러닝 전문가라기보다 학생의 입장입니다.  물론 10년 경력을 기준으로 한다면 국내에 딥러닝 전문가는 거의 없다고 봅니다. 세계적으로도 20여년 보릿고개를 버틴 소수의 연구자들만 딥러닝 전문가라고 불릴 자격이 있다고 생각합니다. 이 소수 중에 해외에서 훌륭하게 연구 활동을 하고 계신 한국인도 몇 분 계십니다. 


제가 자몽랩에서 딥러닝 공부를 시작한 것은 2015년 가을쯤이었습니다. 그 당시에는 딥러닝을 활용해 무언가 매력적인 서비스를 만들어 보고 싶었습니다. 즉 기술 자체보다는 기술을 활용해서 사용자에게 가치를 주는 서비스를 만드는 것에 관심이 더 많았습니다. 20년이 넘게 프로그래밍을 했고 7년간 계량분석가인 퀀트(quant)로서 일해와 딥러닝이 그다지 어렵지는 않았습니다.  


시작은 감성 챗봇 서비스   


딥러닝을 시작하는 여느 기업과 똑같이 저도 챗봇 서비스에 제일 먼저 관심을 가졌었습니다. 챗봇 중에서도 영화 ‘그녀’(영어제목 ‘Her’) 에 나온 것처럼 사람의 외로움을 달래주고 위로해 줄 수 있는 감성 챗봇 서비스를 만들고 싶었습니다. 사람이 다른 사람을 달래고 위로하는 방식이라는게 과거의 경험 속에서 배울 수 있다는 점에서 딥러닝에 맞다고 생각했습니다. 또한 한 가지 정답만 있는 분야가 아니라서 실수해도 괜찮을 거라는 계산까지 더해져 감성 챗봇 서비스야 말로 딥러닝이 적용될 최적 분야라고,  무식하고도 용감한 판단을 했습니다. 마침 자몽랩의 관계사로부터 150만 건이 넘는 데이터도 입수할 수도 있었고 잘 되면 관계사를 통해 서비스에 바로 활용될 수도 있었습니다.  이때 부터 연말을 목표로 미친 듯이 개발을 시작했습니다. 밤늦게까지 코딩하고 퇴근해서 새벽까지 공부하고 잠시 눈붙이고 그 다음날을 약간 늦게 시작하는 방식이었습니다.  


처음으로 학습시켰던 모델은 RNN(Recurrent Neural Network)을 활용한 Q&A 모델이었습니다.  질문과 답변이 쌍으로 이루어진 데이터를 넣으면 기계가 스스로 질문과 답변의 관계를 학습하고 새로운 질문에 대해 답변을 생성하는 방식이었습니다. 학습에 사용할 데이터는 네이버 지식인의 꿈 해몽 섹션을 크롤링(crawling)하여 수집했습니다. 문법적으로 제법 그럴듯한 문장들이 생성되는 것을 확인했지만, 내용은 만족스럽지 않았습니다. 예를 들어 질문이 길어지면 대부분 ‘그냥 개꿈이에요’ 라는 답변을 뱉어내는 식이었습니다. 단순히, 데이터에서 가장 많이 볼 수 있는 답변들을 조합해서 흉내낸다는 느낌이 들었습니다.  그 당시에는 기계가 스스로 학습하여 사람의 언어를 그럴 듯 하게 생성하는게 너무 신기해서 부족한 부분은 금방 개선 할 수 있을 거라 생각했습니다. 첫 학습 결과에 고무되어 소설도 학습시켜 보았습니다. 그 때 막 소개 되었던 ‘Skip-Thought Vector[1]’ 모델을 사용했습니다. 첫 모델과 같이 소설도 그럴 듯 하게 뱉어 냈습니다.  얼핏 보거나 짧은 문단만 보면 사람이 쓴 것과 거의 구분하기 힘든 부분도 꽤 있었습니다. 물론, 스토리, 문맥, 주제, 소재의 일관성은 거의 낙제점 수준이었습니다. 참고로, 작년에 컴퓨터가 소설을 쓴다는 기사가 많이 나왔는데요, 잘 된 부분만 발췌한 ‘체리 피킹(cherry picking)’으로 결과를 과장 보도한 경우가 대부분이었습니다. 


두번의 테스트 학습으로 자신감이 충만하여 실전 150만 건의 데이터로 상용 대화형 모델에 도전해보았습니다. 이용자가 익명으로 고민을 올리면 익명의 이용자가 위로의 답변을 해주는 일본어 서비스의 데이터 였습니다. 저는 일본어를 전혀 몰랐지만 그 당시에는 딥러닝을 성배로 믿고 있을 때였고 150만 건의 데이터가 있어서 크게 걱정하지 않았습니다. 3주 동안 이런 저런 시도를 했지만 모델이 학습되지 않았습니다. 정확히는 언더피팅 현상(under fitting - 모델이 작아서 데이터를 충분히 설명하지 못하는 현상)이 발생하여 내용은 고사하고 형식적으로도 엉망인 답변을 내놓았습니다. 스타트업에서 사용할 수 있는 컴퓨팅 파워는 뻔하기 때문에 일본인 아르바이트를 고용하여 데이터를 들여다보기 시작했습니다. 150만 건을 전수검사 할 수가 없어 1만 개의 샘플을 추출해서 질문과 답변이 사람이 봐도 관련 있을만한 데이터를 구분했고, 이를 기준으로 150만 건의 데이터를 자동으로 정리했습니다. 이 과정도 딥러닝으로 해결하였습니다. 놀랍게도 90%의 데이터가 쓸모없는 것으로 파악됐고 15만 건 정도만 살아남았습니다. 일본인이 판단한 기준으로도 90% 정도의 데이터가 질문과 답변의 형식이 아니었습니다. 


그리고 거짓말처럼 2015년 마지막 날에 학습에 성공했습니다. ‘감기에 걸려서 너무 힘들어…’ 라는 고민에 ‘힘내세요…’ 라는 답변을 생성하거나, ‘직장 동료 때문에 미치겠어…’ 라는 고민에 ‘그런 사람도 있어요. 그냥 신경쓰지 마세요…’ 라는 답변을 생성해냈습니다. 여기에 시스템의 신뢰성을 높이기 위해 버려진 쓰레기 데이터를 활용하여 질문을 필터링할 수 있는 딥러닝 모델을 추가했습니다. 요새 자주 듣게 되는 ‘질문을 이해할 수가 없습니다’ 또는 ‘답변할 수 없는 질문입니다’ 라는 이용자에게 짜증을 주는 기능(?)을 추가한 셈이죠. 이후, 간단한 웹데모 시스템을 구축하고  일본으로 출장가서 프리젠테이션 하고 웹을 통해 직접 경험할 수 있게 했습니다. 예상대로 신기해하고 재미있어 했지만, 반응은 참혹했습니다. 참여자들은 다양한 질문을 테스트 했고 ‘질문을 이해할 수가 없어요’라는 짜증나는 답변을 받거나 단조롭고 기계적인 답변들을 받았기 때문입니다. 다양하고 정확한 답변을 받아도 감동이 느껴지지 않으면 ‘서비스적으로는 의미가 없는데 이런 것을 어디다 써먹지?’ 이런 반응이었습니다. 저의 철저한 판단 착오였습니다. 마라톤 풀코스를 완주해도 될까 말까하는 서비스에 이제 막 걷기 시작한 기술을 적용해보고자 했으니까요. 참여자 중 한 분이 라인에서 제공하는 시범 챗봇 서비스를 보여주었습니다. 사람이 면밀하게 하나씩 프로그래밍하기는 했지만 이모티콘과 유행어까지 사용하면서 재치있게 답변을 만들어냈습니다. 저로서는 이건 딥러닝이 아니라는 의미없는 변명 밖에 할 말이 없었습니다.


강화학습(reinforcement learning), 가능성의 발견


이후, 딥러닝 만능주의에서 빠져나와 딥러닝이 적용되기 적합한 부분을 고민하기 시작했습니다.  사용자에 대한 직접적 서비스 보다는 백엔드 서비스에서 기회를 찾고자 했습니다. 그 당시 딥마인드(DeepMind)사가 강화학습으로 아타리(Atari) 게임을 인간보다 더 잘 플레이하게 학습하는데 성공했고 이 기술을 이용하면 현재의 협업 필터 기반의 추천 시스템보다 더 좋은 추천 시스템을 만들 수 있을 거라고 생각했습니다. 다시 밤을 새며 딥마인드사의 아타리 게임 논문[2]을 재현해봤습니다. 수십 차례 실패하고 3주 만에 간신히 성공했습니다. 지금은 너무도 쉽게 되는데 그 당시에는 어려웠었습니다. 게임 학습에 성공한 후 바둑에 강화학습을 적용해보고 싶었으나, 리소스(데이터, 바둑 에뮬레이터)를 확보할 여력이 없어 포기했습니다. 추천 시스템도 포기할 수 밖에 없었습니다. 스타트업에서는 이런 종류의 데이터를 구할 수 없기 때문입니다. 이렇게 자몽랩 차원에서 강화 학습은 포기하던 즈음, 아이러니컬하게도 강화학습으로 만든 딥마인드사의 알파고가 이세돌을 이기는 역사적 사건이 발생했습니다. 


잠시 동안의 강화학습 외도를 끝내고, 다시 챗봇에 대해 연구를 시작했습니다.  공개된 보험 상담 Q&A 데이터로 시맨틱 검색을 수행하는 딥러닝 모델을 만들어 보았습니다.  답변을 생성하는 것은 어려웠지만 저장된 답변 중 가장 유사한 것을 찾아주는 것은 기존의 토픽 모델보다는 유연하고 성능도 좋았습니다. 하지만, 체감되는 성능 개선보다 필요한 컴퓨팅 비용이 커서 상용화에는 회의적이라는 생각이 들었습니다. 기소장을 넣으면 판례를 검색해 주는 법률 검색 서비스 또는 주가, 스포츠 기사의 자동 생성에 활용될 수는 있어도 그 이상은 어렵다고 느꼈습니다. 이 분야마저도 이미 최적화된 전통적 자연어 처리 기술보다 성능이 좋다는 보장이 없었습니다. 아직까지도 AI 분야에서 가장 다루기 어려운 분야가 언어입니다. 번역, 검색 등에서 좋은 성과를 내고 있기는 하지만 언어는 인간 두뇌 활동의  결과를 표현하는 수단이기 때문에 기계가 언어를 제대로 구사하기 위해서는 인간 수준의 상식, 현실 세계에 대한 이해, 추론 등 풀어야 할 숙제가 너무도 많습니다. 여기에다가 감성을 이해하는 챗봇이라면 더욱 어렵다고 생각합니다. 이 무렵 딥마인드사의 로드맵에서도 감성 챗봇 서비스가 제일 마지막인 것을 보게 되었고 딥러닝을 활용한 챗봇 서비스는 깨끗하게 포기하게 되었습니다. 여기서 분명히 할 점은 딥러닝 챗봇 서비스가 갈 길이 멀었다는 얘기이지 챗봇 서비스 자체가 당장 필요 없다는 얘기는 아닙니다. 한정된 영역에서 정교하게 제작된 룰 기반의 챗봇 서비스는 지금 당장이라도 사용자에게 매우 매력적인 인터페이스가 될 거라고 생각하고 있고 카카오도 이런 철학으로 챗봇 서비스를 개발하고 있는 것으로 알고 있습니다.


GAN(Generative Adversarial Networks), 새로운 기회


이때부터 새로운 기회를 모색하기 위해 다양한 시도를 하게 되었습니다. 영상, 음성부터 VAE(Variational Autoencoder), GAN(Generative Adversarial Networks)과 같은 생성 모델까지 영역을 가리지 않고 새로운 논문이 나올 때 마다 테스트를 시도했습니다.  그때 요새 화두가 되는 GAN 을 처음 테스트해 보았는데 학습도 어렵고 생성된 이미지의 품질도 매우 조잡했습니다. 동료 연구원이 GAN 의 매력에 심취해서 폰트를 생성하는 시도를  하고 있었는데 제가 옆에서 조롱하고 말렸던 기억이 납니다.  불행히도 불과 3개월도 안되서 GAN 만 연구하고 있는 저 자신을 발견하게 되었고요. 


 중간에 잠시 CNN(Convolutional Neural Network)을 이용한 불량 검사 프로젝트도 해보았는데 영상 분야가 딥러닝이 가장 잘 적용되는 분야라는 점을 알았습니다. 채 이틀도 걸리지 않고 검사의 정확성을 80%대에서 95% 이상으로 올렸으니까요. 그 외 타 딥러닝 스타트업 처럼 의료 영상 관련 캐글 경진대회(Kaggle Competition)에도 참여해서 상위 2%의 랭킹도 받아 보았습니다. 제가 시각분야(vision) 전공도 아니고 CNN 프로젝트를 많이 하지도 않았는데 어떻게 이런 랭킹을 받을 수 있었을까, 의아했습니다. 막연하게 전문가들은 이런 경연대회에 참여하지 않을 것이라는 가정도 해봤는데, 후일 생각이 바뀌었죠. 이후, 이런 인연으로 국내 최대 병원과 의료 영상에 관한 공동 연구 프로젝트를 진행하면서 한편으로는 새로 공개되는 GAN 관련 논문을 읽고 구현 코드를 깃허브(GitHub) 에 올려서 공개하기 시작하였습니다. 공개의 힘은 생각보다 컸습니다. 전세계 딥러닝 엔지니어들로부터 많은 피드백을 받을 수 있었고, EBGAN[3] 구현 코드는 딥러닝 사대천왕 중 한 분이신 뉴욕대 얀 레쿤(Yann LeCun) 교수의 페이스북 타임라인[4]을 통해 소개 받기도 하였습니다. 딥마인드사의 웨이브넷(WaveNet) 모델을 음성인식에 적용한 프로젝트의 경우에는 3일만에 1000개가 넘는 별을 받았고 지금도 이슈가 지속되고 있을 만큼 많은 관심을 받고 있습니다. 역시 사대천왕 중에 한 분이신 스탠포드대 앤드류 응(Andrew Ng) 교수가 딥러닝 논문 20편 정도 읽고 구현하다보면 반드시 아이디어가 나온다고 강연에서 얘기한 적이 있었는데요, 실제로 GAN 분야에서는 다음에 나올 논문이 예측되기 시작했고 심지어 제가 구현해서 GitHub에 공개한 아이디어와 똑같은 연구를 구글에서 한 달 뒤 ACGAN(Auxiliary Classifier Generative Adversarial Network)[5]이라는 제목의 논문으로 발표하기도 했습니다. 물론, 구글 연구자들이 제 깃허브 프로젝트를 몰랐을 것이고 논문 작성 시간을 감안한다면 저와 비슷하거나 먼저 연구를 시작했을 거라 생각합니다.  그 밖에 GAN을 이용해서 흑백 스케치 이미지를 컬러 이미지로 바꾸는 실험에 성공하고 며칠 뒤 버클리에서 같은 연구에 대한 논문이 나오는 것을 목격했습니다. 이때부터 이전 가정을 의심하게 됐습니다. 딥러닝 분야가 전세계적으로 시작한지 얼마 안되었기 때문에 대부분이 뉴비(newbie)인 분야이고 다같이 시행착오를 겪는 과정 중이라는 가정을 하게 되었습니다. 이 가정은 지금도 유지하고 있습니다.


이상 제가 자몽랩에서 딥러닝을 경험한 과정을 담백하게 나열해보았는데요, 전반기는 주로 좌절 모드였고 후반기는 주로 희망 모드라고 요약할 수 있습니다. 전반기에는 딥러닝을 이용해서 당장 국내에서 상용화 할 수 있는 것에 집중했었고, 후반기에는 상용화가 요원한 분야(국내에서는 의료, 국외에서는 깃허브 활동)에 집중했습니다. 그때는 몰랐지만 생각해 보면 당연한 결론이었을 수도 있을 것 같습니다. 현재의 모든 비지니스는 AI 없이 설계되었고 AI 없이 잘 돌아가고 있습니다.  AI는 이제 막 눈을 뜬 상태의 기술이라고 생각을 합니다. 기술 발전에 집중해도 부족할 텐데 여기에 AI 없이 설계된 기존의 비지니스 세계에  대한 상용화까지 고민했으니 고전할 수 밖에 없었다고 생각합니다. 가까운 미래에 누군가 아예 AI 를 바탕에 깔고 만든 새로운 사업 모델로 수익을 창출하는 모습을 보여줄 거라고 생각합니다.  그게 구글이 될지 우버가 될지 아니면 무명의 한국 스타트업이 될지는 아무도 모르는 일이겠죠. 그때  AI 기술과 인재를 가지고 있는 회사와 못 가진 회사의 성장 속도 차이는 지금으로서는 감히 상상을 할 수가 없습니다. 



후반기의 희망 모드는 ‘유발 하라리’의 ‘사피엔스’ 라는 책의 한 챕터에서 단초를 찾을 수 있을 것 같습니다. 16장에 나온 그림을 발췌해서 설명드리고 싶습니다.


[ 현대 경제 순환 구조, ‘사피엔스’, 유발 하라리 ]


위 그림의 왼쪽은 악순환의 과정이고 오른쪽 그림은 선순환의 과정입니다. 중간에 희망이 삽입되면서 신용도 창출되고 선순환으로 바뀌게 됩니다. 성장속도의 관점에서 본 그림은 아래와 같습니다. 


[ 한눈에 보는 세계 경제의 역사, ‘사피엔스’, 유발 하라리 ]


왼쪽은 저성장의 악순환이고 오른쪽은 고성장의 선순환입니다. 차이는 희망(미래에 대한 믿음) 하나이지만 악순환 구조에서는 뺏고 뺏기는 제로섬(Zero-sum) 게임을 피할 수 없고, 선순환 구조에서는 참여자(기업, 직원, 소비자) 모두가 만족할 수 있습니다. 제가 국내에서 딥러닝을 하면서 가장 아쉬웠던 부분은 AI를 주도하고 있는 글로벌 기업과 정반대로 국내 기업 대부분은 악순환 전략을 취하고 있다는 사실이었습니다. 사람 몇 명 채용해서 자사 서비스나 제품에 당장 활용할 수 있는 기술에 집중하거나 기술 내재화만 하려고 하고 몇 달 후에는 쓰지도 않을 걸음마 기술을 지킨답시고 보안을 강화합니다. 공개 연구는 글로벌 기업처럼 여유있는 기업들이 할 수 있는 것으로 생각하고 국내에서 이런 방식을 시도하면 안이하다고들 합니다. 제 딥러닝 경험담을 읽으면서 느끼신 분들도 있었겠지만 저는 절박함을 쥐어짜고 쥐어짜서 공개 연구만이 살길이라는 결론에 도달했습니다. 얼마전 수십 년의 비밀주의 전통을 깨고 AI 분야에 대해서는 공개 연구를 시작한 애플도 결코 돈이 넘쳐나서 안이한 판단을 한거라고 생각하기는 어렵습니다. 딥러닝이라는 신생 분야에서 과거의 경험으로 판단을 하는 경영자들의 마음속에는 어쩌면 패러다임이 바뀌지 않아야 현재의 위치를 유지할 수 있다는 바람이 있을 수도 있습니다. 물론, 모든 기업이 AI 기업이 될 수는 없고 그렇게 되어서도 안되겠지만, 적어도 AI 에서 새로운 기회를 모색하는 기업은 기존의 관점으로 AI를 바라보지 않았으면 합니다. AI는 당면 문제를 척척 해결해주는 믿을만한 직원이라기 보다는 이제 막 눈을 뜬 아이와 같기 때문입니다. 단, 너무 빠르게 성장하고 있고 잠재력도 가늠이 안된다는 점이 다를 뿐이라고 생각합니다.


공개 연구로 돌파구를 찾다


딥러닝은 전 세계적으로도 시작한지 4년 정도 밖에 되지 않았습니다. 국내에서도 빠르게 시작한 스타트업과 학교는 2년 전에 시작했으니 미국에 비해 2년 정도 밖에 뒤지지 않았습니다. 자동차가 100년 넘게 뒤져서 시작한 것에 비하면 국내 산업 역사상 이렇게 작은 격차로 시작한 사례도 없을 것 같기도 합니다.  제가 하고 싶은 얘기는 그들도 생각보다 그렇게 앞서 있지 않고 그들도 저희와 똑같이 헤매고 있다는 사실입니다. 각종 경연대회에서 좋은 성적을 내는 국내 학교와 스타트업도 있고 가장 앞선 연구 성과를 내는 실험실과 스타트업이 제법 있는 것이 이런 사실을 반증한다고 생각합니다. (단, 글 앞 부분에서 얘기한 극소수의 전문가들은 예외입니다. 그들은 적어도 10년은 앞서 있는 것 같습니다.) 동료 국내 딥러닝 연구자들도 비슷한 얘기를 합니다. 우리나라에도 인재들이 제법 숨어 있고 희망과 신뢰에 바탕한 선순환 구조만 만들어지면 충분히 글로벌 선두와도 경쟁할 만하다고 합니다. 다행히 최근에 이런 환경이 일부 기업에서 조성되고 있는 것으로 알고 있습니다. 인재들이 굳이 해외로 나가지 않아도 될 수 있는 날이 가까워지고 있는 것 같아 고무적입니다. 


참고로 AI 분야에서 전세계적으로 공개 연구가 대세인 이유는 우선 인재 풀이 너무 적고 극소수 선구자들이 대학교에 있었기 때문에 나타난 현상이기도 합니다. 다음은 센트럴플로리다대(UCF) 케네스 오 스탠리(Kenneth O. Stanley)교수의 얘기[6]를 발췌한 것입니다.  


“과학과 예술은 특별한 목표 없이 새로움을 추구하는 것 만으로도 지금처럼 눈부시게 발전해왔습니다. 새로움을 추구하다보면 단순한 것은 금방 고갈될 것이고 더 복잡한 조합으로 새로움을 찾을 것이기 때문입니다.”  



공개와 교류가 필요한 이유를 가장 잘 설명한 문구라고 생각합니다. 물론 AI 분야에서 공개가 더 필요한 이유는 앞서 밝혔듯이 지금은 희망과 신뢰를 만들어내야 하기 때문입니다. 공개하지 않고 희망과 신뢰가 생기기 어렵습니다. 다행히 AI 를 주도하는 글로벌 기업들이 공개 연구를 지향하고 있고, 최근에는 학교보다 더 많은 논문들이 기업에서 나오고 있습니다. 데이터와 컴퓨팅 파워에서 학교보다 유리하기 때문입니다. 국내 딥러닝 연구자의 풀은 매우 적습니다. 따라서 미국보다 더 강한 교류와 연대가 필요하다고 생각합니다. 소속에 상관없이 수십명, 수백명의 공저자가 참여한 AI 연구 논문이 한국에서도 나오기를 희망합니다. 

마지막으로 앤드류 응 교수의 말을 전하며 마치겠습니다.  


‘현재 딥러닝을 하고 있다면 축하한다. 딥러닝을 시작하려고 마음을 먹었다면 축하한다. 만약, 세상을 바꾸고 싶다면, 여기가 바로 그런 곳이다’.





글 | 김남주 namju.kim@kakaobrain.com
20년 동안 키보드로 밥먹고 살아왔습니다.  카카오에서는 얼굴이 육각형으로 생겨서 닉네임이 HEXA 입니다. 나이가 들고 살이 찌면서 얼굴이 점점 동그래져서 조만간 CIRCLE 로 닉네임을 바꿔야 될 듯 싶습니다. 얼굴도 성격도 더 동글동글해져서 앞으로 KFC 할아버지처럼 늙어가고 싶습니다.  단, 지팡이 대신 키보드를 들고...




[1] 논문 | Skip-Thought Vectors. Ryan Kiros, Yukun Zhu, Ruslan Salakhutdinov. NIPS 2015.

[2] 논문 | Playing Atari with Deep Reinforcement Learning. DeepMind Technologies. NIPS 2013.

[3] 참고 | https://github.com/buriburisuri/ebgan

[4] 참고 | https://www.facebook.com/search/top/?q=Yann%20LeCun%20ebgan

[5] 참고 | https://github.com/buriburisuri/ac-gan

[6] 논문 |  Art in the Sciences of the Artificial. Kenneth O. Stanley. MIT Press. 2016.


브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari