brunch

매거진 지식일기

You can make anything
by writing

C.S.Lewis

by 낭만민네이션 Mar 28. 2017

인간과 기계

딥러닝과 인공지능



알파고, 인공지능


- 알파고는 구글사가 2014년 약 4000억원을 들여 인수한 딥마인드사가 개발한 프로그램이다.


- 딥마인드사의 창업자 데미스 하사비스는 영국 최고의 천재로 알려져 있다.


- 기계학습이란 무엇인가? 알파고는 딥러닝이라는 인공지능 학습기능을 가지고 있다.


- 기계가 학습기능을 가지고 있는것 그리고 가져야 하는 이유는 무엇인가?


 딥러닝


- 세상에는 두가지의 정보가 존재한다. 정랑화된 정보로써 완전한 답이 있는 것이 첫번째 정보이다.


- 그리고 반대로 정량화되지 않은 정부가 있다. 이러한 비 정량화된 정보를 분석하기 위해서는 '직관'이 작용한다.


- 그렇다면 직관은 어떻게 작용하는가?


- 직관은 경험과 학습을 통해서 만들어진다.


- 자주보고 듣고, 경험하는 정보를 저장하는 세포들 간의 연결성이 강화되어 비슷한 정보를 받아들일 때 활성화될 확률이 높아지는 것이 시냅스 세포이다.


- 딥러닝은 1957년 천재 과학자 프랭크 로젠블라트가 발평한 perceptron에서 처음 시작되었다.


- 인공신경세포들을 적절히 연결시켜주면 논리 연산 규칙을 스스로 인식하게 된다. 이것이 바로 기계학습의 시작이다.

- MIT의 민스키와 페퍼트 교수는 단층 퍼셉트론으로 학습할 수 있는 정보는 지극히 한정되어 있다는 사실을 증명한다.


- 복잡한 정보를 학습하기 위해서는 다층 퍼셉트론 multi-layer perceptron이 필요하다.


- MLP 신경망의 수많은 시냅스를 학습시킬 방법이 필요했지만 당시에는 이러한 방법이 없었다.


- 20년 후 인지심리학자 룸멜하트와 맥클리랜드는 MLP를 효율적으로 학습시킬 수 있는 오차역전파법backpropagation을 제시했다.


역전파알고리즘


- 역전파 알고리즘은 간단한다.

- 3층으로 구성된 인공신경망을 상상해 보면 된다.


- 첫층은 예를 들면 고양이라는 물체를 숫자로 표현된다.


- 고양이 사진의 픽셀 값들이라고 할 수 있다.


- 마지막층 신경세포는 전체 MLP가 계산한 값을 출력한다.


- 처음에는 랜덤이기에 틀릴 수 있지만, 정답과 차이는 학습의 반복과 경험에 의해서 직관으로 알고리즘을 완성한다.


- 이런 식으로 수천만 가지 고양이 사지을 보고, 매번 정답으로 그 차이를 줄여간다면, 언젠가 MLP는 고양이 전문가가 될 것이다.


- 바로 고양이에 대한 직관이 생긴 것이다.


딥러닝, 퍼셉트론


- 하지만 퍼셉트론은 치명적인 무제를 가지고 있는데 인공신경망을 3층 이상으로 올리면 점차 학습능력이 떨어진다는 것이다.


- 오차 값이 깊은 층수로 역전파되면 점점 왜곡되는 사라지는 경사도diminishing gradient 문제가 생기는 것이다.


- 층수가 높을 수록 더 추상적인 학습능력이 가능해진다. 그러나 3층 이상이 되면 다층 퍼셉트론은 작동하지 않는다.


- 또한 새로운 사실을 추론해 내는 것은 퍼셉트론으로는 불가능하다.


- 그러나 2012년 토론토대학의 힌튼교수팀은 깊은 층수의 MLP역시 사전 학습을 통해 트레이닝시킬 수 있고, 인공신경망을 랜덤으로 죽여주면 추론능력을 개선할 수 있다는 것을 보여준다.


- 기존 인공신경망의 한계를 극복한 깊은 층수의 구조의 인공신경망을 보통 '딥러닝'이라고 부른다.


알파고, 딥러닝


- 알파고는 바둑판을 알아보는 딥러닝과 승부 결과를 기반으로 현재 수의 가치를 평가하는 깊은 보상학습 알고리즘을 사용한다.


- 이번 대결에서 사용된 알파고 v18은 약 16만 판의 바둑 경기들을 학습했다.


- 알파고의 바둑판 인식 딥러닝은 48층의 인공신경망을 사용했다.


- 인간의 신경망은 보통 10층에서 20층 정도이다. 깊으면 깊을 수록 더 추상적인 정보를 학습할 수 있기 때문에, 알파고의 한수한수는 인간보다 더 많은 경우의 수를 분석한 것이 된다.


- 그러나 원천학습, 즉 사전학습 자체에 결함이 있을 경우 직관은 흔들릴 수 있다.


- 인간의 뇌를 모방한 딥러닝은 당연히 인간을 능가하지만 또한 인간을 능가하지 못한다.


- 인간의 뇌는 1.5kg으로 이 모든 사고를 하지만 알파고는 1200대의 컴퓨터를 사용해야하는 전력이 있어야 작동이 된다.


- 또한 이세돌 9단은 3번의 대국을 통해서 딥러닝의 한계를 판단하고 그것을 극복했다. 이것을 one-shot learning학습법이라고 부른다.


- 어린아이는 고양이 4,5마리만 경험하면 모든 고양이들을 알아보지만 딥러닝은 수천만번의 학습을 요구한다.


- 딥러닝은 또한 실시간 학습을 하지 못한다. 한번 저장된 정보는 새로운 정보에도 동일하게 적용되기 때문에 새로운 것을 이전것으로 이해한다.


- 따라서 실시간으로 변화하는 인간의 지능과는 현저한 차이가 있다.


민네이션, 생각


- 직관의 구성요소는 학습과 경험이다. 그렇다면 학습과 경험이 높아질 수록 어떤 분야에서의 전문적인 직관이 성장한다는 것이다.


- 그렇게 되면 다층 퍼셉트론을 20개에서 40개 정도로 늘려도 그것들 간의 상호작용을 경험으로 연결시킬 수 있고, 어떤 사건을 만들어서 그것들을 통합시키는 일종의 통섭이나 에디톨로지로 만들 수 있다. 가능하다. 시도해보자.


- 메타인지를 딥러닝과 연결해서 생각해보자. 인식의 첫번째 레이블~ n개의 레이블로 확장하고 한개의 레이블 당 한개의 정보를 파악해 보자.


- 그리고 이것들을 한번에 입체적으로 인식하는 툴을 만들어보자. 인간이라서 가능한 것이 아닌가?


- 또한 이러한 인식툴에 시간개념을 첨가하여 과거의 인식결과를 미래에서도 바꿀 수 있는 딥러닝개념을 교육방식에도 적용해 보자.

매거진의 이전글 개념과 연결
작품 선택
키워드 선택 0 / 3 0
댓글여부
afliean
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari