brunch

You can make anything
by writing

C.S.Lewis

by 이정원 Feb 02. 2019

하와이에서 쓰는 AAAI 2019

인공지능 학회 AAAI 2019 참석 후기

인공지능 학회 AAAI 2019가 하와이 Hilton Hawaiian Village에서 열리고 있습니다. 저는 학회에 참석할 때마다 매일 밤 팀원들에게 이메일을 씁니다. 학회장에서 보고 듣고 느낀 내용을 후기와 보고서의 중간쯤 되는 형식으로 공유하곤 합니다. (물론 이메일을 받으면서 부담스러워 하는 분도 계십니다.ㅋㅋㅋ) 3일 정도 이메일을 보내다가, 인공지능 학회 트렌드를 정리할 겸 AAAI 학회 후기를 브런치에 공유하기로 하고, 학회 마지막 날인 2월 1일에 이 글을 정리하고 있습니다.




1. 인공지능 학회의 맏형 AAAI


AAAI는 40년 전, 1979년에 처음 열렸습니다. 미국 캘리포니아 팔로알토(Palo Alto)에 헤드쿼터를 두고 있고,  처음에는 American Association for AI로 시작해서 2007년 Association for the Advancement of AI로 이름을 바꿨습니다. 1979년에 AAAI가 시작되었고, 1980년에 ICML, 1983년에 CVPR, 1987년에 NeurIPS(NIPS)와 ICCV, 1990년에 ECCV가 차례로 생겼으니, 1969년부터 격년으로 열리기 시작했던 IJCAI를 제외하면 TOP10 AI 학회 중 AAAI가 맏형의 역할을 톡톡히 해 온 셈입니다. AAAI는 인공지능 관련 학회 중 규모도 큰 편에 속하고 비전, 로봇, 머신러닝 등 특정 분야나 기술에 한정되지 않아 범인공지능 학회의 대표주자라 할 수 있습니다.


2. AAAI의 현재 위상


참석자 규모

아래 그래프는 학회 참석자 1000명(2017년 기준) 이상인 대규모 학회의 연도별 참석자 추이를 나타냅니다. 전통적으로 AAAI는 ICJAI와 쌍벽을 이루는 인공지능 학회였지만, 사실 최근에는 다른 학회들에 참석자들이 더 몰리는 추세입니다. AI Index 2017 Annual Report에서는 이러한 변화를 인공지능 연구의 초점이 symbolic reasoinng에서 머신러닝과 딥러닝으로 옮겨갔음을 보여주는 결과라고 분석합니다. 아니나다를까 NeurIPS(최근 Sexism 이슈로 NIPS에서 NeurIPS로 학회 이름을 바꾸었습니다)와 ICML, CVPR의 참석자가 크게 증가했습니다. 딥러닝의 출현을 2010년 경으로 보고 있으니, 긴 겨울을 깨고 봄을 불러온 딥러닝이 학회의 헤게모니도 옮겨놓은 것을 아래 그래프에서도 볼 수 있습니다.

참석자 1000명 이상 대규모 학회의 연도별 참석자 추이. AI Index 2017 Annual Report (http://www.aiindex.org)


한편, 참석자 1000명 미만의 소규모 학회 구성원들은 자신들의 연구와 커뮤니티를 꾸준히 이어가고 있음을 알 수 있습니다. 대규모 학회는 유행을 크게 타지만 소규모 학회는 유행에 덜 민감한 것 같네요. 딥러닝이 전부는 아니지요. ^^

참석자 1000명 미만 소규모 학회의 연도별 참석자 추이. AI Index 2017 Annual Report (http://www.aiindex.org)


논문의 영향력

연구자가 논문을 제출할 학회를 선택할 때에는 학회의 영향력(논문의 품질), 학회에서 만나게 될 사람들(커뮤니티), (실제로 가야 하기 때문에) 개최 장소를 고려하게 됩니다. 학회는 학문 분야의 폭과 깊이에 따라 다양한 층위를 가지고, 같은 분야 혹은 다른 분야 연구자들과 교류하는 커뮤니티 측면도 강하기 때문에 학회에 순위를 매기는 것은 어려운 일입니다. 하지만 저널에서 (다소 논란이 많은) impact factor라는 지수를 도입하여 (다소 무리하게) 순위를 매기듯이, 학회도 h5-index라는 지표를 도입하여 학회의 영향력을 가늠해 볼 수 있습니다.


h5-index는 최근 5년간 학회에서 발표된 논문의 인용 횟수를 이용한 지표입니다. 어떤 학회의 h5-index가 100이라면, 최근 5년간 발표된 논문 중 100회 이상 인용된 논문이 100편 이상이라는 뜻입니다.


Guide2Research의 분류에 따르면, AAAI는 현재 인공지능 분야에서 h5-index 기준으로 TOP10에 듭니다. CVPR, NeurIPS (NIPS), ECCV, ICML, ICCV가 TOP5에 해당하네요.


2018년 6월 데이터를 기준으로 정리한 자료를 보아도 CVPR의 h5-index가 월등히 높고, 규모가 비슷한 학회 중에서는 NIPS, ECCV, ICML, ICCV 다음으로 AAAI가 뒤따르고 있습니다. (참고로, 인용한 자료에서는 학회에서 발표된 논문 수가 많으면 h5-index도 높아지는 추세가 있다고 주장하며, 논문 수가 많으면 자체 인용이 활발하기 때문이라고 분석하고, normalized-h5-index를 도입하자고 얘기하고 있습니다.)

https://medium.com/@csindexbr/normalized-h5-index-of-computer-science-conferences-bde2385fcbce


3. AAAI 2019 몇 가지 인상


컴퓨터 운영체제 선호

저와 학회에 같이 참석한 동료의 관찰에 의하면, 맥OS가 압도적인 점유율을 차지하는 것 같습니다. 거의 대부분의 사람들이 맥을 쓰고 있고, 간혹 프로젝터에 연결하는 랩탑도 모조리 맥북이었습니다. 간혹 레노버가 보이지만 윈도우 서피스는 볼 수가 없었네요. 랩탑에 리눅스 우분투를 설치한 사람도 더러 보였습니다. 이러한 컴퓨터 OS 선호 성향은 CS 특히 인공지능 학회의 특성일 수도 있겠다는 생각을 했습니다.


다양성을 위한 노력

학회에서 Black in AI Lunch라는 프로그램을 준비했다는 점이 인상적이었습니다. 흑인들이 AI field에 더 많이 참여하고 커뮤니티에서 능력을 발휘할 수 있도록 올해 처음으로 준비한 행사라고 합니다. 학회장에 흑인들이 거의 눈에 띄지 않았는데, 학회 차원에서 다양성을 확보하려는 노력을 하고 있는 것 같습니다. 특히 AI 분야에서 이러한 다양성은 더욱 중요한 의미를 가집니다. 학습에 활용되는 데이터가 특정 인종의 데이터에 치우칠 경우, 인공지능이 편견을 학습하게 될 수 있다는 점에서 그렇습니다. 연구자들이 인종별로 고르게 분포된다면, 이러한 문제를 해결하는 데에도 도움이 될 것입니다.


기업의 구인 마케팅

JaneStreet은 financial trading AI를 만드는 회사입니다. 부스를 차린 기업 중 (선물 공세로) 가장 어필한 회사라고 생각합니다. 퀄리티 좋은 티셔츠를 거의 천 개 정도 뿌린 것 같습니다. 세 번째 날 점심시간에는, 저녁에 가면 줄 서서 들어가야 하는 펍에 학회 참석자들을 초대해 햄버거, 치킨, 튜나, 나초, 음료수, 맥주를 제공했습니다. 길에서 만난 KAIST 출신 CMU 박사과정 학생 한 명과, 식당 테이블에서 만난 나이지리아 출신 버지니아텍 박사과정 한 명과 한 테이블에서 식사를 했는데, 점심을 잘 얻어먹고 다음날 자료를 찾다가 딥러닝 batch normalization에 대해 잘 정리된 자료가 링크되어 있다길래 들어가보니 JaneStreet 블로그여서 어찌나 반갑던지요. 선물 주고 밥 사주는 사람한테 관심이 가는 것은 인지상정인가 봅니다.


중국의 압도적인 물량: Chinese Invasion

AAAI는 1979년 American Association for AI, 즉 미국 학회로 시작했습니다. 2007년부터 학회 이름에서 American을 떼어 버리긴 했지만, 올해까지 33회를 개최하는 동안 캐나다 몇 차례를 제외하면 모두 미국에서 열렸습니다.


이번에 하와이에서 열린 AAAI 학회에 참석하면서 가장 크게 받은 인상은, 중국 이름의 연구자가 쓴 논문이 압도적으로 많다는 것입니다. 프로그램 책자를 보면서 실제로 세어보아야겠다고 생각했을 정도입니다. 다 세어보진 못하고, 샘플링 하여 1/30 수요일 오전 한 시간(10:25~11:25) 동안 발표된 논문의 제1저자 이름을 살펴보았습니다. 한 시간 동안 9개 세션에서 발표된 논문은 총 90편이었습니다. 제1저자 이름만 쭉 적어놓고 보니, 총 90명 중 61명이 중국인 이름이었습니다. 한 세션은 10명의 발표자가 모두 중국인인 경우도 있었습니다. 참고로 한국 이름은 90명 중 2명이었습니다. (학회 마지막 날 강화학습 세션에서 발표한 송유항 씨의 연구가 인상적이어서 한국사람이냐고 물으면서 말을 걸었는데, 중국인이어서 살짝 당황한 일도 있었습니다. ^^;;;)


인공지능을 오랫동안 연구해 오신 경희대학교 이경전 교수님이 얼마 전 페이스북에 “올해 AAAI에서 한국 사람의 논문이 25편 accept된 것이 자랑스럽다”는 요지의 글을 쓴 적이 있습니다. 그런데 중국 출신 연구자들은 한 시간 동안에만 60편의 논문을 발표하고 있는 것입니다. 정확한 통계는 나중에 알게 되겠지만, AAAI에서 발표된 논문이 800여편이라면 대략 500편 정도를 중국 이름의 연구자들이 발표한 것이 아닐까 싶은 정도인 것입니다. 이는 한국의 20배에 해당하는 규모입니다.


아니나 다를까 AI Index 2018 Annual Report에서 정리한 국가별 논문 현황에 따르면, 중국이 미국을 앞선 것은 물론이고 유럽 전체와도 맞먹으려 합니다. 이는 2017년까지의 수치인데, 올해 데이터까지 업데이트 하면 어떨지 궁금합니다. 게다가 중국인이라고 해서 모두 중국 소속으로 논문을 발표하는 것도 아닙니다. 아마도 많은 중국인 연구자들이 미국 대학 소속일 것입니다. 올해 학회에서 중국 대학의 논문이 유난히 많이 accept된 것이 아니라면, 미국 소속으로 잡힌 통계에도 상당수 중국인 연구자가 포함되어 있을 것 같습니다. 어쨌든 중국 본토에서 인공지능 분야로 엄청난 투자가 이루어지고 있는 것만은 확실합니다.

AI Index 2018 Annual Report (http://www.aiindex.org)


AI Index 2018 Annual Report에서 정리한 아래의 AAAI 2018 국가별 논문 현황을 보면, 중국에서 엄청나게 많은 논문을 제출했을 뿐더러 전체 발표된 논문 중 중국 논문이 2/3에 해당하는 것을 알 수 있습니다. 올해 2019년 학회 현황도 궁금하네요.

AI Index 2018 Annual Report (http://www.aiindex.org)



4. AAAI 2019: Tutorial


1st day. Sunday 1/27


Deep Reinforcement Learning with Application in Transportation

(Zhengming Ding, Hongfu Liu, Handong Zhao)

첫날 아침 8:30부터 4시간 동안 이어진 강화학습 튜토리얼에서는 강화학습 기본을 소개하고 교통 흐름 최적화, 신호등 제어(Traffic Signal Control, TSC), 카풀 스케줄링 등 교통 분야에 적용한 사례를 보여주었습니다.

I. Introduction

    - Machine learning paradigms: supervised, unsupervised, RL

II. Basics: value-based RL

    - RL basics

     value function approximation

III. Advanced: policy-based RL & beyond

    - Policy optimization

    - Advanced topics

IV. Practice

    - RL development frameworks


Value-based RL에서는 DQN을 기반으로 하여 experience replay와 target network 아이디어와 Double DQN를 설명하고 Deep SARSA와 비교하여 DQN이 off-policy TD이고 Deep SARSA가 on-policy TD임을 설명합니다. Prioritized experience replay를 blind cliffwalk 예제로 설명하고, DiDi 데이터셋에 적용한 사례 데모를 보여주었습니다.


Policy-based RL에서는 DDPG를 중심으로 설명합니다. 지금까지 얘기한 모든 알고리즘이 지난 5년 사이에 나온 최신 알고리즘들이지만 이미 최최신은 아닌 것들입니다. 이번 튜토리얼에서는 최최신에 해당하는 TRPO나 PPO는 소개하지 않았습니다.


Building Deep Learning Applications for Big Data

(Jason Dai)

https://jason-dai.github.io/aaai2019/

https://github.com/jason-dai/aaai2019

우선 빅데이터 프레임워크와 딥러닝의 만남에 대해 네 가지 트렌드를 정리합니다.

Trend #1. Deep Learning Yearning (Yann LeCun)

Trend #2. Hadoop Becoming the center of data gravity

Trend #3. Real-world ML/DL systems are complex big data analytics pipelines

Trend #4. Unified big data platform driving analytics and data science

    - Apache Hadoop & Spark platform

- Large-scale image recognition at JD.com


빅데이터와 딥러닝 사이에는 간극이 존재합니다. 그 간극을 연결하기 위한 브릿지로서 양측을 오가는 연구자들이 노력하고 있고, 그 결과물 중 하나가 Apache Spark에서 돌아가는 딥러닝 프레임워크 BigDL입니다. Apache Spark는 빅데이터 하면 떠오르는 Hadoop과 경쟁 관계이고, 속도가 월등히 빠르지만 장단점이 있어 서로 보완하는 측면도 있습니다. 아무튼 빅데이터를 다룰 때 하둡이나 아파치 스파크를 쓰게 될 텐데, 인텔이 개발한 BigDL이 TensorFlow와 Keras를 지원하여 아파치 스파크를 좀더 활용성 좋게 만들어 준 것 같습니다. Analytics Zoo라는 재밌는 프로젝트도 알게 되었습니다 (아마도 Gan Zoo의 이름을 본딴 것 같네요).


5. AAAI 2019: Workshop


AAAI 공식 학회 일정 시작 전 이틀 동안 총 16개의 워크숍이 각각 하루 일정으로 동시에 진행되었습니다. Workshop은 학회와 별도로 등록비를 내고 미리 신청해야 합니다. 하지만 사실상 워크숍 등록 여부를 확인하는 절차는 없었습니다. 저는 둘째 날 W7: Games and Simulations for Artificial Intelligence를 등록하여 아침 9시부터 오후 5시까지 워크숍 프로그램에 참석했습니다.


2nd day. Modnay 1/28


WORKSHOP: Reinforcement Learning in Games

Reinforcement learning in Games: intro + mini-tutorial

(Marc Lanctot, Julien Perolat, Martin Schmid)

아침 9시부터 저녁 5시 반까지 하루종일 RL in Games 워크숍이 있었습니다. 딥마인드 연구원 세 명이 하와이안 스타일의 파인애플 남방을 맞춰 입고 유쾌하게 세션을 열었습니다. 20176년 알파고가 서울에 왔을 때 포시즌스 호텔에 가지는 못했기 때문에, 데미스 허사비스 외 딥마인드 연구원을 직접 본 것은 처음이라 팬심이 마구마구 샘솟았습니다. 그래서 사진 한 장. ^^


RL in games, from Checkers to AlphaZero, foundations

(Marc Lanctot)

강의 제목이 From Checkers to AlphaZero였습니다. 1959년 Arthur Samuel이 Checkers 게임 연구를 시작했는데, 60년이 지나서 보니 바둑, 포커, DOTA2 인간 프로선수를 다 이겨버렸습니다. 참고로 AI Index 2018 Annual Report에서는 인공지능이 인간 최고 수준을 넘어선 종목을 오셀로(1980), 체커(1995), 체스(1997), 퀴즈쇼 Jeopardy!(2011), Atari 게임(2015), 이미지넷 챌린지(2016), 바둑(2016), 피부암 진단(2017), 스위치보드 음성인식(2017), 포커(2017), Ms Pac-Man(2017), Chinese-English 번역(2018), Capture the Flag(2018), DOTA2(2018), 전립선암 진단(2018)으로 정리하고 있습니다.


RL in Markov games

(Julien Perolat)

게임이론을 MDP 환경으로 모델링한 마코프 게임에 대한 튜토리얼이었는데, multi-agent, zero-sum Markov games, independent RL를 소개하고, 첫 튜토리얼을 진행한 딥마인드의 동료 연구원 Lanctot의 PSRO를 소개하기도 했습니다. 그리고 Markov game이 Littman의 1994년 논문에서 비롯되었다고 역사를 소개하였는데, 이 Littman은 이 날 마지막 튜토리얼 연사였고, 제가 여태껏 들어본 학회 강의 중 가장 많이 웃었던 강연이었습니다.


RL (and search) in imperfect information games

(Martin Schmid)

바둑은 쌍방 모든 정보가 공개된 게임인 반면에, 포커나 스타크래프트는 상대방의 정보를 알지 못한 채로 전략을 세워야 해서 imperfect information game으로 분류합니다. 인공지능 입장에서는 더 어려운 도전입니다. State를 정확히 알기 어렵기 때문에 belief based value function 즉, value vector를 정의하고 action을 선택합니다.


딥마인드를 비롯하여 많은 팀에서 게임을 잘 풀고 있지만, 아직 갈 길이 멀다고 얘기했습니다. two-play zero-sum game에서도 아직 갈 길이 멀고, 포커보다 더 imperfect information game에서의 search 전략이 필요하다고 얘기하네요.


Towards optimal play of three-player Piglet and Pig

(Todd Neller)

Pig와 Piglet이라는 아주 간단한 게임으로 플레이어의 협력과 배신, 최적 전략을 계산할 수 있는 재밌는 내용이었습니다.


POSTER: internal model from observation for reward shaping

(IMB Research AI)

워크숍에는 포스터 세션도 있었는데요, IBM Research AI에서는 사용자의 데모를 입력으로 넣고 distance를 reward로 줘서 supervised learning의 개념을 강화학습에 접목한 논문을 발표했습니다.


POSTER: Application of self-play deep reinforcement learning to “Big 2”, a four-player game of imperfect information

(Hanry Charlesworth, University of Warwick)

Big 2라는 간단한 카드 게임인데 four-player imperfect information game이었고, 멀티에이전트로 최신 강화학습 기법인 PPO를 적용한 논문이었습니다.


Making decision in general sum environments

(Michael Littman)

Markov game 모델을 만든 Littman의 튜토리얼 강연이었는데, 제가 지금까지 들어 본 연구자의 발표 중 가장 사람들을 많이 웃게 만든 강의였습니다. 거의 스탠딩 코미디였습니다. (저는 말을 다 알아듣지는 못했지만) 사람들을 웃기는 재주가 있었고, 강의 내용 또한 훌륭했습니다. 간단한 게임에서 협력과 적대 전략을 어떻게 모델링 할 수 있는지 소개했습니다.


PANEL DISCUSSION

패널 디스커션 시간에는 쟁쟁한 분들이 자리하셨고, 딥마인드 연구원 트리오가 좌장을 맡았습니다. 노리미트 텍사스홀덤 포커 챔피언을 이긴 인공지능 Libratus를 개발하고 Science에 논문을 낸 CMU의 Tuomas Sandholm 교수, IBM 딥블루 개발책임자 등 7명의 패널이 좌장과 청중의 질문에 이런저런 이야기를 나눴습니다.


6. AAAI 2019: Inivted Talk


4th day. Wednesday 1/30

INVITED TALK: Ian Goodfellow (Google AI)

Adversarial Machine Learning

넷째 날 아침에는 수퍼스타 Ian Goodfellow의 invited talk이 있었습니다. 2천명 넘게 들어가는 가장 큰 방에 아침 8시 반부터 시작한 강연에 사람이 가득 찼습니다. 학회장에서 앞자리부터 차는 경우는 별로 보지 못했는데, 무대에서 가장 가까운 섹션부터 차곡차곡 사람들이 앉기 시작한 것도 흥미로웠습니다. 물론 저도 30분 전에 도착해서 맨 앞 줄에 앉아 이안 굳펠로우를 기다렸습니다.


우선 GAN의 기본 원리인 game theory를 설명합니다. 지금 보면 다들 아는 내용이지만 자신의 아이디어를 설명하는 대목에서 GAN 창시자가 뿜어내는 포스가 느껴졌습니다. 그리고 머신러닝 토픽의 다양성을 5억4천3백만년 전의 캄브리아기 대폭발에 비유하며, 9개의 카테고리로 분류하고 목차로 활용하였습니다. 각각의 토픽에 대해서 GAN을 중심으로 한 트렌드를 리뷰하는 식으로 (비록 유머 코드는 없었지만) 아주 매끄럽게 청산유수로 예정된 1시간에서 질문 3개 정도 받을 시간만 딱 남겨놓고 훌륭한 강의를 끝내 주었습니다. 2014년에 GAN 논문을 NIPS에서 발표하고, 2016년에 GAN 연구가 폭발하였느니 지난 3년 동안 얼마나 많은 키노트와 튜토리얼을 하고 다녔을까요. 이제 34세(85년생)인데요.


'좋은 친구'가 정리한 머신러닝의 캄브리아기 대폭발은 다음과 같습니다.

1. Generative modeling

2. Security

3. Model-based optimization

4. Reinforcement learning

5. Extreme relability

6. Label efficiency

7. DOmain adaptation

8. Fairness, accountability and transparency

9. Neuroscience


내용이 방대해서 제가 특히 관심 있는 신경과학 토픽에 대해서만 요약해 드립니다. 인공지능과 신경과학의 관계 재정립에 관한 내용입니다. 과거에는 인공지능 연구자들이 신경과학에서 영감을 받아 인공지능 개발에 활용하려고 했다면, 이제는 그 반대도 가능하게 되었다는 것입니다. 인공지능 연구를 활용하여 신경과학 실험을 할 수 있게 되었다는 것이죠. 이에 이안 굳펠로우 자신이 참여한 Google Brain의 연구를 소개합니다. 이미지 인식 딥러닝을 속이는 adversarial example로 사람도 속일 수 있는지에 대한 연구인데, 사람이 시각적으로 물체를 어떻게 인식하는지에 대한 좋은 실험 환경을 제공합니다. 신경과학에서 아직 풀지 못한 문제에 접근할 수 있는 새로운 통로가 생긴 것입니다.


5th day. Tursday 1/31

INVITED TALK: Tuomas Sandholm (CMU)

New Results for Solving Imperfect-Information Games

Labirintus를 만든 CMU의 Sandholm 교수의 강연이었습니다. Labirintus는 No-limited 텍사스 홀덤 포커 종목에서 세계 최고 수준의 포커 플레이어를 처음으로 이긴 인공지능입니다. 이번 강연에서는 Labirintus Science 논문 이후의 진행 상황을 소개하였습니다. Depth-limited solving이라는 방법으로 랩탑 한 개로 구동 가능한 Modicum이라는 포커 AI를 개발 중이었습니다.


7. AAAI 2019: Technical talk


6th day. Friday 2/1

State Abstraction as Compression in Apprenticeship Learning

(David Abel)

강화학습은 state 공간이 너무 넓은 것이 어려운 점이기 때문에 state abstraction이 중요한 이슈입니다. 정보이론으로 state abstraction하는 방법에 관한 논문 발표였는데, 거의 튜토리얼 수준의 훌륭한 톡이었습니다. 튜토리얼과 워크숍, invited talk을 제외하고, 이번 학회 논문 발표 중 가장 좋았습니다.


On Reinforcement Learning for Full-length Game of StarCraft

(Zhen-Jia Pang)

며칠 전에 딥마인드에서 StarCraft2를 발표했기 때문에, 아무래도 의식이 되었나 봅니다. 발표를 시작하면서 딥마인드는 여러 개의 TPU를 사용한 반면에, 자신들은 계산량이 훨씬 적다고 얘기합니다.


Fully Convolutional Network with Multi-Step Reinforcement Learning for Image Processing

(Ryosuke Furuta)

github.com/rfuruta/pixelRL

PixelRL이라는 방법으로 영상처리에 강화학습을 적용한 놀라운 논문이었습니다. pixel-wise로 reward를 설정하고, denoising과 가린 배경 복원 예시를 보여주었는데 기존 CNN 방법보다 결과가 좋아 보였습니다. 결과는 둘째치고 딥러닝 기술보다 좋은 점은, action이 적용된 중간 단계의  image를 볼 수 있다는 점입니다. 저한테는 가장 도움 되는 논문이었습니다.


(제가 내일 빅아일랜드로 이동하기 때문에 일단 발행하고, Tech talk 내용은 계속 업데이트 하려고 합니다.)




올해 AAAI 학회 프로그램과 프로시딩은 여기,

Ian Goodfellow의 강연을 비롯하여 invited talk 영상은 여기에 모두 올라와 있습니다.


발표 들으면서 이것저것 찾아보니 재밌는 내용이 너무 많은데, TMI여서 다 적지 못합니다. TL;DR.



작가의 이전글 알파고는 스스로 신의 경지에 올랐다

작품 선택

키워드 선택 0 / 3 0

댓글여부

afliean
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari