brunch

You can make anything
by writing

C.S.Lewis

by 송범근 Aug 19. 2017

너의 사과는 나의 사과가 아니다

<김대식의 인간 vs 기계>, 김대식

김대식은 <김대식의 빅퀘스천>, <이상한 나라의 뇌과학> 등을 쓴 뇌과학자다. 정재승 교수와 비슷하게 어려운 주제를 쉽게 일상적인 말로 풀어서 설명하는 재주가 있다. 전작인 <이상한 나라의 뇌과학>을 재미있게 읽었던 기억이 있다. 나는 이런 일이 아주 가치 있다고 생각한다. 세상이 빠르게 변한다는 말조차 진부해진 세상이다.


어렵지만 세상을 바꾸고 있는 지식에 대해서 많은 사람이 알아야 한다. 알아야 대비하고 앞서 나갈 수 있다. 그래서 유시민 작가의 표현대로 지식을 유통하는 ‘지식소매상’들이 많아져야 한다고 생각한다. 그리고 단순히 이들은 지식을 떼어다가 쉬운 말로 풀어쓰기만 하는 것이 아니다. 도매 시장에서 옷을 사지만 자신만의 스타일을 가미하는 편집숍같이, 뛰어난 지식소매상들은 지식을 가져와서 자신만의 질문을 가미한다. 그리고 독자들이 어떤 생각을 해봐야 할지 던져둔다.

이 사진을 참 좋아하시는 듯...


잠깐 얘기가 옆으로 샜지만, 이 책의 주요 주제는 ‘인공지능’이다. 출판 일자를 보니 작년 3월 알파고가 이세돌 9단을 이기고 난 직후다. 그래서인지 ‘도대체 알파고가 뭐길래?’ 궁금해하는 독자들을 목표로 한 느낌이 든다. 하지만 나는 알파고가 어떻게 이세돌 9단을 이겼나 가 아니라 뇌는 어떻게 작동하고, 이전까지의 인공지능이 그걸 따라 하지 못했던 이유가 훨씬 흥미로웠다.


뇌는 직접 세상을 보지 않는다. 뇌는 자신이 해석한 세상을 본다.

컴퓨터는 밖에서 들어온 정보를 가감 없이 그대로 받아들이지만, 뇌는 그렇지 않다. 뇌는 다양한 감각 기관으로부터 정보를 받는다. 하지만 이때의 정보는 그냥 단순한 패턴의 집합이다. 뇌는 이 정보들을 나름대로 읽은 뒤에 알맞은 이미지로 가공한다. 자신만의 해석을 더한 다음 인식하는 것이다.


예를 들면, 우리 눈에는 빛을 감지하는 센서의 역할을 하는 광수용기(photo receptor)라는 세포가 있다. 하지만 인간의 망막은 센서의 정반대 편에 자리 잡고 있고, 뒤집어진 채로 발달한 바람에, 실제로 망막에 미치는 영상에는 혈관들의 그림자가 보이고, 영상이 뒤집혀서 나타난다. 



그런데 우리 뇌는 그것을 인지하지 못한다. 실제 비친 영상에서 그림자도 제거하고 맹점도 제거하고 자신이 알아서 보정을 한 뒤에 인식하기 때문이다. 현대 뇌과학에서는 우리가 인식하는 것의 90% 정도는 뇌가 만들어낸 보정이라고 한다. 실제로 우리가 보는 색깔, 형태, 입체감은 뇌가 만들어낸 보정의 효과다.


그러니까 우리는 보이는 그대로가 아닌, 뇌가 보정한 세상을 보고 있다. 실제 그 물체들이 어떻게 생겼는지는 알 수가 없다. 우리는 해석한 아웃풋만을 보기 때문이다. 이런 이유로 우리가 보는 세상은 고양이가 보는 세상이나 박쥐가 보는 세상과 완전히 다르다. 고양이의 뇌나 박쥐의 뇌가 신호를 보정하는 방식이 다르기 때문이다. 심지어 나와 다른 사람이 보는 세상도 다르다. 우리의 뇌는 모두 구조가 다르기 때문이다. 그래서 지금 이 순간에도 우리 눈에 보이는 세상은 모두 조금씩 다르다.


아니, 이게 무슨 소리인가? 우리는 다 같은 것을 보고 있으므로 서로 말이 통하는 것 아닌가? 나는 이걸 빨간색이라고 봤는데 저 사람은 저걸 파란색이라고 볼 수 있다는 말인가? 맞다. 그 유명한 파랑/검정, 흰색/금색 드레스 논쟁도 바로 이것 때문에 생긴 일이다.


우리가 서로 다른 세상을 보면서도 서로 문제없이 소통할 수 있는 이유는, 언어의 해상도가 인식의 해상도보다 낮기 때문이다. 내가 손에 빨간 사과를 들고 ‘이거 빨간 사과 맞죠?’라고 하면 다들 맞다고 할 것이다. 하지만 실제로 빨간 사과를 자세히 보면 단순히 빨간 사과가 아니다. 사과 겉면에는 흰색, 초록색, 주황색 등 수많은 색깔이 섞여 있다. 게다가 같은 사과라고 모양이 같지도 않다. 하지만 우리는 그 다양한 스펙트럼의 물체를 모두 하나로 묶어서 ‘사과’라고 부른다. 인지하는 것을 완벽하게 표현할 수 있는 언어가 없기 때문이다. 그래서 ‘언어의 해상도’가 ‘인지의 해상도’보다 낮은 것이다. 언어의 해상도가 실제보다 낮기 때문에 '너의 빨간 사과'가 '나의 빨간 사과'와 다르더라도 우리는 그것을 ‘사과’라고 부른다. 이를 통해 우리는 서로가 서로의 세계를 이해했다는 착시를 얻게 된다. 



설명에서 학습으로

인공지능을 처음 연구했던 사람들은 언어와 기호로 세상의 모든 것을 설명할 수 있다고 생각했다. 인공지능에 고양이를 알아보게 하고 싶으면, 고양이의 특징에 대해서 모두 설명해주면 된다는 논리였다. 이런 인공지능의 구현 방법을 특징 공학(Feature engineering)이라고 부른다. 


그런데 앞서 설명했듯이 사실 세상에 언어로 설명할 수 있는 부분은 10%밖에 되지 않는다. 나머지는 우리가 인식하지 못하는 사이에 뇌에서 해석해내는 내용이다. 우리는 그런 뇌의 보정을 설명할 수 없으므로 인공지능은 도저히 그걸 따라올 수가 없었고, 모두 실패했다. 10%의 정보를 가지고 우리 뇌와 비슷한 지능을 만들려고 했기 때문이었다.


이것이 인공지능이 1950년대부터 시작된 연구였음에도 불구하고, 최근까지 과학계에서 천대받고 있었던 이유다. 누구도 인공지능이 뇌와 같이 동작할 수 있다고 생각하지 않았다. 하지만 뇌과학이 발전하면서, 우리는 점점 뇌가 어떻게 신호를 해석하는지에 대해서 알게 되었다. 우리는 부모님이 옆에 앉혀놓고, 강아지에 대해 설명해주면서 '강아지'를 알아보는 법을 배운 적이 없다. 우리 뇌는 무언가 다른 방식으로 배운다.


그 결과로 등장한 새로운 알고리즘이 바로 ‘딥러닝(deep learning)’이다. 인간은 딥 러닝에게 배워야 할 것에 대해서 설명해주지 않는다. 그냥 엄청난 양의 데이터를 때려 박고 알고리즘이 알아서 학습하게 한다. 이 접근법은 상당히 성공적이었다. 딥 러닝은 최근 성과는 그야말로 세상을 뒤흔들었다. 저자 본인도 딥 러닝이 등장하기 전에는 인간과 같은 인공지능이 나오려면 50년도 넘게 기다려야 할 거라고 생각했는데, 딥 러닝 이후에 '곧 가능해질 것 같다'라고 생각을 바꾸었다고 한다. 


이제 비트겐슈타인의 유명한 말 '말할 수 없는 것에 대해서는 침묵해야 한다'는 '말할 수 없는 것에 대해서는 알고리즘이 스스로 학습해야 한다'로 바뀌어야 할지 모른다.


브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari