[인공지능 2주차-신경생물] 2. 인간 같은 컴퓨터
지난 시간에는 인간에게서 발견되는 컴퓨터와의 유사점에 대해 살펴보았습니다. 이번 포스팅에서는 컴퓨터가 가지고 있는 인간과의 유사점에 대해 알아봅시다.
지금까지 이야기했던 것들을 살펴보면, 인간의 신경계와 컴퓨터는 확실히 공통점이 있는 것 같습니다. 그런 인간의 신경계의 모습을 모델 삼아 개발한 인공지능 학습 방법을 바로 딥 러닝 deep learning이라 합니다. 신경계를 모델로 삼은 알고리즘의 모습은 딥 뉴럴 네트워크 deep neural network라고 표현하기도 합니다. 최근 알파고가 화제로 떠오르면서 이런 용어들을 아마 한 번쯤 들어 보셨을 수도 있습니다. 그렇다면 알파고에 사용된 이 인공지능 학습 방법이란 과연 무엇인지, 왜 신경계를 모델로 삼았다고 주장하는지 한번 살펴봅시다.
자, 여러분은 지금 사진을 보면 사람의 얼굴인지 아닌지 구분할 수 있는 인공지능 프로그램을 개발하고 있다고 가정해봅시다. 먼저, 프로그램이 입력받는 내용은 사진들의 픽셀 값 들일 것입니다. 이 값들은 첫 번째 층(Layer)을 형성하고, 이를 통해 프로그램은 그 나름의 계산을 거쳐 두 번째 층으로 넘어갑니다. 위 그림에서 제일 왼쪽의 Image Layer에서 다음 층으로 넘어갈 때, 각각의 선들은 하나의 계산을 나타내며 이를 가중치라 부릅니다. 각각의 값들은 노드 Node라고 칭하며, 한 노드에서 다음 노드로 넘어갈 때 가중치를 증가시킬 수도, 혹은 떨어뜨릴 수도 있습니다. 이 과정을 여러 층에 걸쳐 반복하면 프로그램은 최종적으로 계산되는(Output layer) 값을 바탕으로 결과를 도출하게 됩니다. 즉, 사람의 얼굴인지 아닌지를 판단할 수 있게 되는 것이지요.
어떤가요? 이러한 과정들이 뉴런의 연결과 비슷한 것 같은가요? 뉴런이 여러 개의 다른 뉴런들로부터 흥분성 신호도 받고 억제성 신호도 받는 것처럼, 딥 뉴럴 네트워크의 노드 또한 여러 개의 노드들로부터 다양한 가중치의 신호들을 받아 종합한 후 다음 노드로 전달한답니다.
그럼 ‘학습’한다고 표현하는 이 ‘딥 러닝’의 과정은 어떻게 이루어지는 것일까요? 바로 가중치 변화를 통해서입니다! 예를 들어, 알고리즘에게 여러 사진을 보여주며 (이것을 트레이닝 셋 training set이라고 합니다) 얼굴인지 아닌지 판별하라고 한 후 그 정답 여부를 알려주는데, 이러한 과정을 거칠 때마다 알고리즘의 가중치는 조금씩 변화하게 됩니다. 횟수를 거듭할수록 알고리즘이 각각의 경우를 분석하면서 어떤 노드들이 어느 정도로 중요한지 학습하게 되는 것이지요.
처음에는 거의 랜덤으로 맞추지만, 수많은 학습과정을 거치면서 가중치들은 높은 확률의 정답률을 가지는 네트워크를 향해 나아갈 것입니다. 이처럼 하나의 딥 뉴럴 네트워크가 탄생하기까지는 수많은 트레이닝 셋이 필요하므로 우리는 딥 러닝의 결과로 탄생한 인공지능이 어떻게 작동하는지 그 자세한 내막은 알 수가 없습니다. 어떤 노드가 왜 그 특정 가중치를 갖게 되었는지 이해할 수 없기 때문입니다. 이런 의미에서 우리는 입력해 주는 정보와 최종 결과를 제외한 그 중간 과정들을 히든 레이어 Hidden layers라고 부릅니다.
딥 러닝에 대해서 더 자세한 설명은 추후 다른 포스팅에서 다루겠지만, 여기서 강조하고 싶은 부분은 바로 우리의 뇌가 학습하는 방식과 딥 러닝이 매우 비슷하다는 점입니다. 우리 스스로도 사람 얼굴을 구분할 때 설정된 값의 조건들을 통해 결정하는 것이 아니라, 자연스럽게 쌓아온 경험을 통해 학습한 것처럼 말이죠.
지금까지 우리가 본 예시들은 아주 단순한 것들이었지만, 최근의 알고리즘은 인간의 학습 방식과 점차 더욱 유사해지고 있습니다. 그럼 인공지능, 그리고 로봇들은 과연 어디까지 인간의 특징을 배우며 학습할 수 있을까요? 지금까지는 인간의 특징이라고만 여겨졌던 감정, 직관, 윤리에 대한 개념까지 학습할 수 있을까요?
한 대학교에서 연구하고 있는 로봇은 명령을 거부하기도 합니다. 테이블 위에 있는 로봇에게 걸으라고 명령하면, 안전한지 그 여부를 파악해 위험하다고 판단될 시에 그 명령을 거부하는 것입니다. 무조건적인 복종만이 아닌, 판단의 기준이 있는 인공지능은 미래의 로봇에 있어 중요한 요소가 될 것입니다. 로봇에게 어떤 사람을 해하라고 명령을 해도 윤리적 감각이 있는 로봇은 그러한 명령을 거부할 수 있습니다. 더욱 복잡해지고 강해지는 인공지능의 이면에는 편리함을 넘어서 위험이 기다리고 있을지도 모릅니다. 로봇의 위협적인 요소를 미연에 방지하기 위해서는 윤리와 가치에 대한 깊은 성찰이 필요해 보입니다. [코싸인 신경생물팀]
[1] https://www.mongodb.com/blog/post/deep-learning-and-the-artificial-intelligence-revolution-part-3
[2] HRI laboratory at Tufts university