많은 이들에게 딥러닝은 인공지능(AI) 분야에서 가장 고난도 테크닉으로 알려져 있다. 하지만 게리 마커스, 어니스트 데이비스가 쓴 2029 기계가 멈추는 날을 보면 딥러닝은 과대포장돼 있는 측면도 적지 않다.
실제로 할 수 있는 것보다 많은 것들을 할 수 있다고 여겨지는 부분이 많다는 것이다.
저자들은 딥러닝을 대표되는 AI 분야에서 많은 진전이 이뤄진 것은 부정하지 않지만 미디어에서 다뤄지는 딥러닝은 오버액션이라고 지적한다.
책을 보면 딥러닝은 정해져 있는 건 잘할지 몰라도 불확실성이 조금이라도 있는 쪽에선 여전히 갈 길이 멀다는 메시지가 많이 읽힌다. 맥락을 이해하고 추론도 가능하려면 지금의 딥러닝은 부족한 것들 투성이다.
저자들의 얘기를 종합하면 지금 딥러닝은 세가지 핵심적인 문제에 직면해 있다. 각각의 문제들은 딥러닝 자체와 딥러닝에 크게 의존하는 심층 강화 학습과 같은 다른 인기 있는 기법들에 영향을 미친다.
첫째 딥러닝은 탐욕스럽다. 신경망 속의 모든 연결을 정확하게 설정하기 위해 딥러닝은 종종 엄청난 양의 데이터를 필요로 한다. 알파고는 인간을 넘어서는 수행 능력에 이르기 위해 3000만 번의 게임을 해야 했다. 인간이 평생 할 수 있는 것을 훨씬 넘어서는 횟수다. 데이터의 양이 적으면 딥러닝은 종종 형편 없는 수행 능력을 보인다. 딥러닝의 특기는 수백만, 수십억의 데이터 포인트와 함께 작용하면서 서서히 그 사례들 사이의 관계를 포착하며 일련의 신경망 가중치에 도달하는 것이다. 딥러닝 시스템에 손을 꼽을 수 있는 정도의 적은 사례 데이터만 주어지면 결과의 정확성을 좀처럼 기대할 수 없다. 우리는 인간으로서 우리가 하는 일의 대부분을 아주 짧은 시간에 학습한다. 당신이 3D 안경을 처음 보고 처음 써본다고 해도 수십만 번 시도가 필요하지는 않다. 안경을 끼면 어떤 일이 벌어질지 어느 정도 추론할 수 있기 때문이다. 딥러닝은 이런 종류의 빠른 학습을 할 수 있도록 만들어지지 않았다.
앤드루 응은 "인간이 단 1초 내에 할 수 있는 일이라면 기계가 그 모두를 곧 자동화할 것"이라고 내다보았지만 좀 더 현실적인 견해는 '전형적인 사람이 1초도 걸리지 않는 생각으로 할 수 있는 정신적 과제이면서 동시에 우리가 직접 관련된 데이터를 엄청나게 많이 수집할 수 있는 과제라면 해볼 만 하다. 단 우리가 실제로 마주하는 상황들이 훈련 데이터와 크게 다르지 않고 시간이 지나도 영역이 크게 변하지 않는다는 전제에서 말이다. 바둑이나 체스처럼 수천 년 동안 규칙이 변하지 않은 게임의 경우에는 괜찮다. 하지만 도입 부분에서 언급했듯이 우리가 현실에서 겪는 많은 문제들은 적절한 종류의 충분한 데이터를 얻는 것이 비현실적이거나 아예 불가능하다. 딥러닝이 언어에서 문제를 겪는 가장 큰 이유는 언어는 새로운 의미를 가진 새로운 문장이 무한히 공급되며 각각이 서로 미묘하게 다르다는데 있다.
딥러닝은 결과물에 대해 어떻게 해서 이런 결과가 나왔는지 설명할 수 없다.
둘째 딥러닝은 명료하지 않다. 고전적인 전문가 시스템들은 비교적 쉽게 이해할 수 있는 규칙들로 이루어진 반면 신경망은 사실 일반인들은 전혀 직관적으로 이해할 수 없는 다양한 숫자들로 이루어져 있다. 정교한 도구를 갖춘 전문가들 조차 특정 신경망이 어떤 결정을 내리는 이유를 파악하는데 어려움을 겪는다. 신경망이 왜 작동하는지는 물론이고 왜 효과가 있는지에 대해서는 풀리지 않는 미스터리가 존재하며 그들이 작동하지 않는 정확한 환경에 대해서도 명확히 알려지지 않았다. 특정 과제를 학습한 어떤 신경망이 일부 시험에서 95%의 정확도를 기록했다고 가정해보자.
그래서 어떻단 말인가? 왜 그 신경망이 다른 5퍼센트에서 실수를 했는지 파악하기란 대단히 어렵다. 이문제가 특히 심각한 이유는 신경망이 자신들이 내놓는 답에 대해서 정확하든 아니든 인간 스타일의 설명을 할 수 없기 때문이다. 신경망은 블랙박스다. 그들은 그저 할 일을 할 뿐이고 그 안에 뭐가 있는지는 알 수가 없다. 그런 그들에게 운전이나 집안을 시켜야 할 때라면 심각한 문제가 된다.
여전히 딥러닝은 맥락과 상황을 이해하는데 있어 갈 길이 멀다.
셋째 딥러닝은 불안정하다. 첫장에서 보았듯이 딥러닝은 어떤 상황에서는 완벽하다가도 다른 상황에서는 황당한 오류를 저지른다. 앞서 보았던 존재하지도 않는 냉장고와 같은 환각은 단 한번으로 그치지 않는다. 그 문제가 처음 발행하고도 수년이 흘렀지만 문제는 그대로 남아 있다. 한 연구에 따르면 보다 최근의 모델들도 7~17퍼센트의 확률로 똑같은 오류를 저지른다. 전형적인 사례로 두명의 여성이 휴대전화로 통화하고 있는 장면을 보여주는 사진이 있다.
그들 뒤에는 초점에서 벗어난 나무가 있고 한 여성은 카메라 쪽을 향하고 있는 반면 다른 여성은 돌아서 있어서 한쪽 뺨만 보인다. 이 사진에 대한 AI의 설명은 "한 여성이 벤치에 앉아 휴대전화로 통화를 하고 있다"였다. 정확한 세부 사항과 지어낸 말이 혼합된 것이다. 비슷한 기제가 자동 보안 로봇이 휴대전화를 총으로 오인하는 상황이다. 이런 상황은 어렵지 않게 발견할 수 있다.