AI가 내린 결론을 인간이 이해하지 못할 때
바둑판의 확률을 넘어, 이제 우리는 '설명할 수 없는 지능'의 시대로 진입합니다.
설계자도 모르는 정답
알파고가 이세돌 9단을 꺾었을 때, 구글 딥마인드의 엔지니어들은 환호했지만 한편으론 기묘한 표정을 지었다. 그들은 알파고를 만든 사람들이었지만, 알파고가 왜 그 타이밍에 그곳에 돌을 놓았는지 수학적으로 명쾌하게 설명할 수 없었기 때문이다.
이것이 현대 AI의 가장 거대하고도 서늘한 특징, 바로 '블랙박스(Black Box)' 문제다. 과거의 소프트웨어는 인간이 짠 'A이면 B를 하라'는 명령어의 집합이었다. 결과가 이상하면 코드를 열어보고 수정하면 그만이었다. 하지만 딥러닝은 다르다. 인간은 그저 수조 개의 데이터를 밀어 넣고 학습할 수 있는 환경(신경망)만 제공할 뿐이다. AI는 그 안에서 스스로 수조 번의 연산을 거치며 자신만의 '논리'를 구축한다. 문제는 그 논리가 너무나 복잡하게 얽혀 있어, 정작 인간의 언어로는 번역이 불가능하다는 점이다.
"개라고 판단했습니다, 이유는 묻지 마세요"
예를 들어보자. AI에게 강아지 사진을 보여주면 AI는 0.001초 만에 "강아지"라고 답한다. "왜 강아지라고 생각했니?"라고 물으면, 과거의 방식은 "귀가 뾰족하고 코가 젖어 있으며 꼬리가 있기 때문입니다"라고 답했을 것이다.
하지만 지금의 딥러닝 AI는 이렇게 답한다. "첫 번째 층위의 뉴런 8,402번과 두 번째 층위의 12,903번 뉴런이 0.78의 강도로 반응했고, 이 조합이 최종적으로 강아지라는 결과값에 도달했습니다." 인간에게는 외계어와 다름없는 수치들의 나열이다. AI는 정답을 맞히지만, 그 정답에 이르는 '이유'는 거대한 신경망의 숲속에 파묻혀 버린다.
우리는 지능을 창조했지만, 그 지능의 사유 과정을 이해할 권한은 부여받지 못한 셈이다. 창조주가 피조물의 생각을 읽지 못하는 이 역설적인 상황은 단순한 기술적 호기심을 넘어 공포로 다가온다. 만약 AI가 누군가의 대출을 거절하거나, 암 진단을 내리거나, 자율주행 차의 운전대를 꺾기로 결정했을 때 "그냥 확률이 그렇게 나왔어"라는 말 외에 아무런 설명을 들을 수 없다면 어떨까?
판결하는 기계와 인간의 존엄성
미국 법정에서 실제로 사용되었던 형사 판결 보조 시스템 '컴파스(COMPAS)'는 블랙박스의 위험성을 적나라하게 보여주었다. 이 AI는 범죄자의 재범 가능성을 점수로 매겨 판사의 양형을 돕는다. 그런데 조사 결과, 이 AI는 흑인 피고인에게 유독 엄격한 잣대를 들이대고 있었다.
사람들이 물었다. "왜 이 피고인의 점수가 높게 나왔습니까?" 개발사는 영업 비밀이라는 이유로, 그리고 시스템 자체가 너무 복잡하다는 이유로 명확한 근거를 제시하지 못했다. AI는 인간 사회에 실존하는 편견과 차별이 담긴 데이터를 학습했고, 그것을 자신만의 블랙박스 안에서 '논리'로 굳혔다. 인간은 기계가 왜 그런 결론을 내렸는지 알지 못한 채, 그저 기계가 산출한 숫자에 따라 누군가의 자유를 박탈했다.
설명할 수 없는 권력은 폭력과 다름없다. 우리가 AI의 블랙박스를 두려워하는 이유는, 우리가 통제할 수 없는 '보이지 않는 논리'에 우리의 삶이 좌우될 수 있기 때문이다.
설명 가능한 AI(XAI)를 향한 고군분투
과학자들은 이제 이 검은 상자에 창문을 내기 위해 고군분투하고 있다. 이른바 '설명 가능한 인공지능(Explainable AI, XAI)' 연구다. AI가 사진에서 어떤 부분을 보고 결론을 내렸는지 강조해서 보여주거나, 복잡한 신경망의 연산을 인간이 이해할 수 있는 언어로 요약하는 기술들이다.
하지만 여기엔 딜레마가 있다. AI의 성능을 극도로 끌어올리려면 블랙박스는 필연적으로 더 깊고 복잡해져야 한다. 반면 인간이 이해하기 쉽게 만들려면 시스템을 단순화해야 하고, 이는 결국 AI의 천재성을 깎아먹는 결과를 초래한다. '완벽한 성능'과 '완벽한 이해' 사이에서 인류는 아슬아슬한 줄타기를 하고 있다.
이해하지 못해도 신뢰할 수 있는가?
우리는 매일 블랙박스와 함께 산다. 당신의 넷플릭스 추천 목록, 내일 아침의 날씨 예보, 당신이 탄 비행기의 자동 항법 장치까지. 우리는 그것들이 어떻게 작동하는지 정확히 모르지만, 대개는 그 결과를 믿고 따른다.
그러나 바둑판 위에서의 '신의 한 수'와 법정에서의 '유죄 판결'은 무게가 다르다. 바둑에서는 기계의 이해할 수 없는 수가 승리를 가져오면 찬사를 받지만, 현실의 삶에서는 이해할 수 없는 결정이 비극을 낳는다.
브런치 독자 여러분, 우리는 지금 인류 역사상 가장 똑똑하면서도 가장 말이 통하지 않는 동반자와 살기 시작했습니다. 이 블랙박스가 더 커지고 깊어질수록, 우리는 기계에게 정답을 묻는 법보다 기계에게 '왜'라고 되묻는 법을 더 치열하게 고민해야 할지도 모릅니다.
다음 화에서는 이 화려한 지능의 이면에 숨겨진 그림자를 들여다보겠습니다. AI가 내뱉는 매끄러운 문장과 아름다운 그림 뒤에서, 수조 개의 데이터를 손으로 직접 분류하며 눈이 멀어가는 이들. '데이터 라벨링의 노예들'이라 불리는 현대판 터크들의 이야기를 다뤄보겠습니다.
[작가 노트]
10화는 현대 AI의 가장 큰 화두인 '블랙박스' 문제를 다루었습니다. 기술적 한계가 어떻게 사회적, 철학적 위협으로 번지는지를 극적으로 구성했습니다.