brunch

You can make anything
by writing

C.S.Lewis

by Tak Yeon Lee 이탁연 Jan 27. 2019

Deep Learning Summit후기

GAN과 Interpretable AI

최근 샌프란시스코에서 열린 ReWork주최의 Deep Learning Summit을 다녀왔습니다. 

청중은 주로 업계 종사자들 - Data scientist, ML engineers - 이었고, 일반 학회처럼 테크니컬한 내용은 없지만 개론이나 최근 프로젝트를 소개하는 내용이 많았습니다.  $900정도를 내면 발표자료와 영상을 다운받을 수 있다고 합니다 (링크). 


1. GAN (Generative Adversarial Network)의 약진

생성과 평가를 담당하는 두개의 AI가 서로 속이고 속는 과정을 반복합니다. 사진을 예로 들자면, 생성을 담당하는 AI는 세상에 존재하지 않는 가짜 사진을 만들어내고, 평가AI는 사진의 진위 여부를 판단합니다.  이 과정을 반복하면서 생성AI는 점점 고퀄의 결과를 만들어냅니다.  유명인의 비디오를 가짜로 만들어내는 DeepFake, 이미지의 해상도를 비약적으로 뻥튀기 시키는 Super Resolution GAN (slide), 사진을 특정 화가의 그림처럼 보이게 만들어주는 CycleGAN, 이미지에서 뻥 뚤린 부분을 메꿔주는 CoGAN 등 - 지금까지는 주로 사진이나 동영상의 생성에 많이 적용되었지만, 앞으로는 더 넓은 범위로 확장해 갈 것이 예상됩니다. 개인적으로 크게 관심이 가는 부분은 Data Augmentation - 즉 부족한 학습 데이터를 뻥튀기 시키는 용도입니다. 근 미래에는 GAN을 이용해서 소량의 학습데이터나, 비슷한 도메인에서 쓰였던 데이터의 양을 비약적으로 늘리게 되지 않을까 예상해 봅니다. 예를 들어서, User AI를 만든 담에 그걸로 가상의 사용성 평가를 하거나 디자인을 자동으로 개선하게 한다거나... 


2. Interpretable AI에 대한 논의들

수 년 전부터, 인공지능을 이해하고자 하는 욕구에 맞춰서 다양한 키워드들이 등장했습니다. Transparency, Predictability, Explanability, Accountability, Interpretability, etc etc.    작년까지는 Transparency가 대세였는데, 올해는 Interpretability로 넘어갔나 보네요.  모델이나 데이터의 출처를 투명하게 보여주는 건 어느 정도 받아들여졌으니, 이제는 비전문가가 해석할 수 있는지에 집중합니다.  이 분야에서 가장 혁신적인 프기술이 LIME인데요. 하나의 Input데이터에 노이즈를 섞어서 여러개로 만든 다음에 인공지능이 어느 지점부터 다른 Output을 내는지를 관찰함으로써 인풋의 어떤 부분이 아웃풋에 결정적인 영향을 미쳤는지 알아냅니다.  예를 들면, 복잡한 사진으로부터 AI가 '자동차'를 인식했을 때, 사진에서 자동차에 해당하는 부분을 찾아내는 거죠.  단일 결과의 "왜"에 집중하는 interpretability는 이제 시작일 뿐입니다.   사용자의 의사결정에 직접 영향을 미치는 정보는 수많은 결과가 종합되어야 하거든요.   


  - 이 AI가 정확하게 동작하는 문제의 영역은 어디까지일까?

  - 최악의 상황에서 이 AI는 얼마나 심각한 결과를 낼까? 


그래서인지, 학습데이터가 커버하지 못하는 케이스 (E.g. 내년에 올라올 UCC컨텐츠; 2019년 신조어; 미출시 제품을 쓰는 사용자들의 행태 등등) 를 uncertainty라는 개념으로 만들어서 인공지능의 성능에 도입하려는 시도도 점점 활발해 질 것을 예상해 봅니다. 






 









  



작가의 이전글 Design for AI: 학습 데이터의 생산  
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari