brunch

You can make anything
by writing

C.S.Lewis

by 삼더하기일 May 30. 2021

AI의 머릿속을 들여다 보면 어떻게 돼?

인공지능과 블랙박스(Black Box) 현상

인공지능의 발전 속도는 그야말로 놀라운 수준이다. 10년 전까지만 하더라도 인공지능을 통해 어떤 프로그램을 작성했다고 하면 수준이 떨어진다는 생각을 했지만 지금은 절대 그렇지 않다. 분야에 따라 다른 이야기이기는 하지만 이제 인공지능의 지능 수준이 인간 정도로 충분히 올라왔다고 봐도 좋으며 특정 영역에서는 오히려 인간보다 더 좋은 능력을 보여주고 있다. 예전에야 AI에게 바둑을 질 수는 없지라고 생각한 사람이 많았지, 이제는 알파고와 바둑 대결에서 이길 자신이 있는 사람은 사실상 없을 것이다. 이렇게 인공지능의 지능 수준이 점점 올라옴에 따라 AI의 사고 과정을 궁금해하는 사람도 점차 많아져간다.


AI는 어떻게 그렇게 정확한 판단을 해내는 거야?


요약하자면 AI가 판단을 하는 방법에 대해서 궁금해하는 사람들이 늘어나고 있다는 것이다. 여기서 말하는 방법이란 알고리즘과 연관된 이야기가 아니다. 무지하게 복잡한 연산 과정을 통해서 AI가 여러 어려운 문제를 해결해나간다는 것은 충분히 알겠는데 우리가 이해하기 쉬운 직관적인 이미지로 AI의 의사결정 과정을 알 수 있냐는 것이다. 예를 들어, 바둑을 둘 때 인간은 하나하나의 수를 모두 생각을 하고 둔다. 바꿔 말하면 하나의 수를 둘지라도 그 근거가 있다는 것이다. 상대의 길을 막던가 본인의 영역을 확고히 하고자 하는 이유가 있다. 그렇다면 알파고가 바둑을 둘 때도 한 수 한 수에 모두 의미가 깃들어있을까?


AI가 어떤 근거로 각각의 상황에서 판단을 하고 의사결정을 하는지 알 수 있다면 그 의미는 상당할 것이다. 인공지능 기술을 도입하고 있는 수많은 기업에서는 인공지능의 판단 방식을 이용해 이를 다른 분야에 적용할 수 있을 것이며 인공지능의 판단 방식을 다시 인간이 학습해보는 기이한 현상이 일어나는 가능성 또한 존재한다. 이러한 이유를 제쳐두고라도 단순히 궁금하기도 하다. 과연 인공지능은 어떤 근거로 각 상황을 판단해나가는 것일까? 하지만 생각해보면 인공지능이 어떤 근거로 특정한 판단을 하고 있는지에 대해 설명하는 글은 딱히 존재하지 않는다. 이 곳에 현재 인공지능 기술이 가지고 있는 근본적인 한계점이 드러난다.


인공지능 기술의 판단 근거를 해석하는 것 자체에 한계가 존재합니다.


사실 인공지능이 어떤 근거로 각 상황을 판단하는지 알아내는 것에는 한계가 존재한다. 우리가 원하는 정도로 AI의 사고방식을 그대로 알아내는 것 자체가 사실상 불가능하다는 것이다. 이것을 인공지능 분야에서는 인공지능의 블랙박스(Black Box) 현상이라고 부른다. 현상이라고 보기보다는 문제점이라고 보는 게 정확할 것 같다. 블랙박스라는 이름이 붙여지게 된 것은 다른 이유가 특별히 있는 것이 아니다. 인공지능이 어떻게 사고하고 판단하는가를 살펴보자 하니 이게 사실상 검은 상자에 가려져있다는 것과 같다는 의미이다. 밖에서 관찰하는 우리의 입장에서는 도저히 알 방법이 없다.


인공지능의 사고방식은 블랙박스에 가려져 있다.

최근 많이 발전된 인공지능은 거의 대부분이 딥러닝(Deep Learning) 방식을 이용하고 있다. 여기서 딥러닝 방식의 가장 큰 특징이라 함은 입력 값과 출력 값만을 제공하면 컴퓨터가 스스로 학습을 해낼 수 있다는 점이다. 딥러닝 모델 하나만 가지고 있다면 충분하다. 결국 딥러닝 모델이 이미 있다는 전제하에 인간이 관여하는 일은 입력 값과 출력 값을 제공하는 것 하나뿐이다. 특정 이미지를 판독하여 해당 이미지가 '개'인지 '고양이'인지 판단하는 인공지능이 있다고 가정하자. 여기서 사람이 하는 일은 '개 이미지'를 딥러닝 모델에 집어넣는 것이고 그 이미지의 결과 값이 '개'라고 설정해주는 것뿐이다. 여기서 개 이미지가 입력 값, 개라는 정답이 출력 값에 해당한다.


AI는 단순히 더 높은 확률을 가지는 경우의 수를 따라 움직일 뿐입니다.


그렇다 보니 딥러닝 모델을 직접 만든 사람이라고 할 지라도 이 AI가 어떤 근거로 사고하는지에 대해서는 알 방법이 없다. 물론 그 안에서 엄청나게 복잡한 수학 연산이 일어나게 되고 그 연산이 어떠한 방향으로 흐를지 정도는 인공지능 개발자가 관여하게 되지만 단지 그뿐이다. '이렇게 꼬리가 복슬복슬한 것을 보니 이건 고양이가 아닌 개 사진이군!'이라고 직접적으로 판단하는 장면을 관찰하지 못한다. 유명한 사실이지만 컴퓨터는 이미지와 텍스트를 포함한 모든 데이터를 숫자 형식으로 읽는다. 복잡한 숫자들의 조합으로 사진을 읽어내더니 여기서 그 숫자들에 복잡한 수학 연산을 진행하고 갑자기 결괏값을 내뱉는다. 참 신기한 현상이다.


여기서 AI는 모든 연산을 '숫자' 형식으로 진행하니 이것에 대해 무언가 연구하면 인공지능의 사고방식을 알 수 있지 않을까 생각을 할 수 있다. 하지만 인공지능이 해당 숫자를 지지고 볶아서 최종적으로 결괏값을 내뱉는 것은 단순한 확률 값이다. 위의 예로 설명을 하자면 특정 이미지를 읽어 들이더니 최종 결괏값으로 하나의 숫자로 내뱉는다. 그리고 그 숫자는 이 사진이 '개'일 확률을 의미한다. 결론적으로 말하면 해당 숫자 조합과 연산에서 특정한 의미를 도출하는 것은 사실상 불가능하며 우리가 확인 가능한 팩트는 그냥 인공지능은 정답일 확률이 높은 경우로 연산을 하다는 것 정도이다. 알파고로 예를 들면 '그냥 이 자리에 수를 두는 것이 최종적으로 경기를 이길 확률이 높기 때문'이라는 정도밖에 해석을 할 수 없다.


블랙박스 현상을 해결하는 것 역시 많은 연구자들이 집중하는 하나의 연구영역이에요.


이 때문에 딥러닝 기술을 이용한 최신 AI는 정말 강력한 힘을 지니고 있음에도 지켜보는 입장에서 이를 해석할 수 없으니 많은 답답함을 야기하기도 한다. 그래서 이러한 블랙박스 현상을 해결하기 위한 것 역시 하나의 연구 분야이다. 다른 말로 하자면 정말 많은 연구자들이 블랙박스 현상을 해결하기 위해 지금 이 시간에도 열심히 노력하고 있다. 최신 인공지능의 블랙박스 문제를 해결하기 위한 새로운 인공지능 방법론 등을 XAI(Explainable AI)라고 부른다. 영어 단어를 번역하면 설명 가능한 인공지능인데 말 그대로 인공지능의 사고방식을 인간이 설명하기 위해 노력하고 있는 연구분야라고 보면 된다.


그리고 다른 인공지능 분야와 마찬가지로 XAI도 많은 발전이 있는 중이다. 분야에 따라 많이 다르기는 하지만 크게 딥러닝에 이용되는 데이터의 종류를 정형(숫자), 텍스트, 이미지 데이터로 나누어 본다면 특히 이미지 데이터에서 XAI 발전이 많이 이루어져 있다. 이미지 데이터의 경우 데이터 자체가 시각적 효과가 크기 때문이 아닐까 하는 개인적인 추측을 하고 있다. 다시 앞선 예를 활용하자면 이제는 인공지능이 이미지를 받았을 때, 사진 속 동물이 개인지 고양이인지 판단함에 있어 구체적으로 사진 속에서 어떤 부분을 주의 깊게 살펴보았는지 정도는 알 수 있다. 물론 숫자 데이터에서도 역시 어떤 변수를 살펴보는 것이 의사결정 과정에 영향을 많이 미치는가를 주제로 많은 논의가 이루어지기도 한다.


인공지능의 판단 근거를 인간이 해석할 수 있도록 하는 것, 
굉장히 중요한 영역입니다.


데이터 과학, 인공지능을 하는 사람들을 볼 때 크게 두 가지의 부류로 직무를 나눌 수 있다고 생각한다. 어떻게 하면 더 좋은 알고리즘을 만들어 딥러닝 모델이 더 좋은 정확도를 낼 수 있게 하는지 '테크니컬'한 부분에 집중하는 사람이 있는 반면, 이미 구성된 데이터 분석 결과 혹은 AI를 어떤 방식으로 활용하면 좋을지 '비즈니스'적인 부분에 초점을 맞추는 사람들이 많다. 가끔가다 보면 테크니컬 한 부분에 초점을 맞추는 사람들 중 일부는 이렇게 설명 가능한 인공지능을 연구하는 것에 그 필요성을 못 느끼는 경우가 있다. 결국 인공지능의 정확도를 높이면 되는 것이지 그 과정을 우리가 알아서 어디다 쓰겠냐는 논리이다. (물론 이런 주장을 펼치는 사람은 소수이다.)


하지만 인공지능의 의사결정 과정을 우리가 해석할 수 있다는 것은 다시 말하지만 정말 중요하다. 아무리 인공지능이 정확하다 한들 그냥 이용하기에는 마음속 불안함을 떨칠 수 없다. 중요한 일을 AI에게 맡길수록 인공지능이 어떻게 데이터를 받아들이고 해석하는지 알고 싶은 욕망이 크다. AI의 의사결정 과정을 모르고 이를 설명해줄 수 있는 방법이 없으니 인공지능 도입을 망설이는 기업도 분명히 있을 것이라 추측한다. 타인을 '납득'시킬 수 있냐 아니냐는 문제는 매우 중요하다. 때문에 AI가 더 많이 발전했으면 좋겠다고 생각하는 사람의 입장에서 관련 연구자들이 열심히 노력해 XAI 분야에 더욱 많은 발전이 있기를 바라고 있다.




※ 평소 빅데이터/인공지능에 궁금한 점이 있어 답변을 원하는 내용이 있다면 공유해주시면 감사하겠습니다.

매거진의 이전글 AI는 어떻게 이렇게 빨리 발전하는 거야?
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari