인공지능에 대한 개인적인 생각.
누군가는 기계 학습 모델의 도입 후 구글 번역기의 성능이 높아졌던 시기로 기억한다. 다른 이는 2016년 알파고와 이세돌의 대결로 기억한다. 아마 2023년 챗GPT(GPT-3.5)의 등장을 기억하는 이가 가장 많을 것이다. 기계 학습 기반 인공지능이 대중에 깊이 각인되고, 대량 언어 모델(Large Language Model, LLM)이 귀에 들리기 시작한 때다.
뼛속까지 문과이자 확률과 통계로 좌절을 맛봤던 나도 AI의 성능과 화려함에 매료되었다. 미리 변명을 하자면, 고3 이후 처음으로 다시 확률과 추리 통계, 행렬을 꽤나 진지하게 펼쳐 보기도 했다. 앨런 튜링의 <Computing Machine And Intelligence> 같은 역사적인 논문부터 구글 엔지니어들이 낸 <Attention is All you Need> 같은 유명한 논문도 읽으려 시도했다. 그러나 애초에 근본이 없던 나는 아쉽게도 이 모든 것을 이해하지 못했고, 그저 수식과 모델이 없는 몇몇 교양서 정도 이해하는 수준에서 만족해야 했다.
작년에 챗GPT와 Dall E-2(서비스 종료)로 수업을 하려다 학생들 학부모 인증 과정에서 좌절을 겪어서 그런 걸까. 올초 GPT-4o가 나오고 나서 인공일반지능(AGI)에 대한 불안한 보고서가 나와서였을까. 아니면 최근에 읽은 조나단 하이트의 <불안 세대>라던가 박태웅 의장의 <AI 강의 2025> 때문이었을까. 교육에 도입되는 인공지능과, 더 나아가 인공지능 자체에 대한 사람들의 열광에 두려움을 느끼기 시작했다.
생성 인공지능을 써보며, 문뜩 그런 의문이 들었다. 얘네는 이걸 왜 만들었을까. 인공지능 분야에서 먹고사는 친구 한 놈이 있어 물었다. 얘네들은 왜 기계에게 자연어나 이미지 같은 것을 이해하고 분류하고 만들게 시키냐고. 자꾸 학습량과 매개변수를 감도 안 올 만큼 후덜덜할 정도로 늘리냐고. 숫자의 단위가 몇 천억에서 몇 조를 넘는 다는데, 그렇게 많은 GPU를 사서 그렇게 많은 전기와 돈을 게걸스럽게 먹는 시스템을 만드는 거냐고 물었다. 그의 대답은 간단했다.
그렇게 할 수 있으니까.
필요가 발명을 낳는 게 아니라 발명이 필요를 낳는다. 제라드 다이아몬드가 <총균쇠>에서 에디슨의 예를 들며 한 주장했다. 수단이 목적에 따르지 않고, 오히려 목적을 이끈다. 무언가를 만들어 내고 그 후에 쓰임에 대해 고민한다는 말이다. 인공지능 엔지니어들이 천문학적인 자원과 돈과 인력을 갈아 넣어 인공지능의 성능을 높이는 이유는 애당초 그렇게 할 수 있었기 때문이 아닐까. 인공지능의 쓸모는 그 후에 파생되는 것처럼 보일 때도 많다. 마치 현재 우리나라를 포함한 많은 나라의 공교육에서 인공지능과 에듀테크를 시끄럽게 떠드는 것처럼.
생각해 보면, 호모사피엔스는 아프리카 대륙 밖으로 나와 베링해협을 건너 아메리카 대륙으로 가기도 하고, 태평양을 넘어 오세아니아로까지 뻗어나갔다. 때로는 생존을 위한 도전이었을 테지만 때로는 용감한, 혹은 무모한 누군가가 그렇게 할 수 있었으니까 시도했을지도 모른다. 뉴턴 역학을 뒤집고 거시세계에 대한 더 넓은 상상력을 만들어낸 아인슈타인의 상대성이론, 동시에 그 아인슈타인마저 인정하지 못한, 미시세계에서의 모호성을 수학으로 보여준 양자역학, 이런 과학적 발견 역시 인류 지성의 정점에 있던 이들이 수학적 욕망을 이뤄나가면서 얻은 성취이지 않을까. 그럴 수 있었으니까.
우려되는 지점이 많다. 인공지능에 대한 낙관론과 비관론은 분리수거가 되지 않은 쓰레기통처럼 혼란스럽게 뒤섞여 있다. 다만, 누구나 다 아는 그 유명한, 인공지능 산업을 선도하고 있는 그들에게 이런 사회의 기대와 우려는 큰 관심사가 아닌 듯하다. 어떤 기업이 AI 윤리팀 전원을 해고, 해산하기도 하고, 오픈소스를 지향하며 비영리단체로 시작한 어떤 기업은 그들이 개발한 생성형 인공지능의 스펙을 공유하지 않았다 한다.
조나단 하이트는 <불안 세대>에서 이렇게 지적하였다. 소셜미디어의 강점이라 일컬어지는 것들, 이를 테면, 인간관계의 양적 팽창으로 인해 사회적 유대가 강화되고, 사용자 한 명, 한 명이 자신의 의견을 민주적으로 게시하고 공유함으로 확장된 사회적 합의와 숙의 과정을 거칠 수 있다는 점, 어디서나 소통할 수 있다는 편의성 등을 많은 사람들이 칭찬한다. 그러나 그런 강점에 대한 찬양 안에는 인간 정신의 황폐화와 극단적 사고가 고착화되는 개인적, 혹은 집단적 심리와 인지 문제는 포함되지 않는다. 마치 만 6세까지 아이의 성격과 정서 성장에 대해 그렇게 섬세하게 관심 갖던 부모가 만 7세를 기점으로 학습을 지상최강의 목표로 하며 아이의 성장은 잊어버리는 것처럼.
그 지적은 인공지능 산업에도 유효한 듯 보인다. 인공지능을 통해 얻는 경제적 이득과 효율성 이면에는 학습 데이터 수집과 전처리, 기계학습 과정 및 운영 과정에서 보이지 않는 인간(아마존의 Mechanical Turk 같은)의 노동 착취, 데이터의 저작권 문제, 개인정보 유출과 딥페이크, 가짜뉴스 문제 등이 산적해 있다. 또한, 서버의 운용과 유지를 위한 전기 사용, 배터리 생산을 위한 천연광물 채취에서 오는 환경파괴도 무시할 수 없다. 얼굴에 철판을 깔고 거짓을 말하는 환각 효과는 기계학습의 본질적 특징이라 엔지니어들도 없앨 수 없다 시인했다. 이런 지점에 대해서는 심각하게 다뤄지지 않는다.
특히, 교육을 인공지능에 전가하려는 에듀테크의 문제가 가장 크다 생각한다. 인공지능, 특히 생성형 인공지능이 내리는 의사결정(output)은 엄청난 수의 매개변수와 각 매개변수의 미묘한 가중치를 조정하면서 산출된 결과이다. 어떤 매개변수의 가중치 값이 0.00000013이라고 한다면 그게 무슨 뜻일까. 알지 못하기에 이 결정과정을 블랙박스라고 표현하기도 한다. 이를 위한, 설명력 혹은 설명가능성(explainability)에 대한 연구도 이루어지고 있다고는 하지만 아직 걸음마 수준이라 한다. 인간은 결코 인공지능이 내린 결정을 이해할 수 없다. 학습에서도 마찬가지다. 현재 에듀테크 분야의 옹호자들은 교사의 학습을 지원하는 인공지능을 표방하고 있지만, 인공지능이 학생의 수준과 능력에 대한 내린 결정과정을 교사가 파악할 수도, 이해할 수도 없다. 이는 다음 글에서 좀 더 다룰 예정이다.
인공지능의 성능을 향상하는 연구보다 지금까지 만들어진 인공지능이 우리 인간에게 어떤 식으로 사용되고 있으며, 사용되어야 하는지를 더 밀착하여 알아봐야 한다고 생각한다. 또는, 이를 사용하는 인간이나 집단이 어떤 윤리의식 위에 서있어야 하는지에 대한 사회적 합의도 중요하다. 특히, 내가 몸담고 있는 교육 분야에서, 인공지능의 도입이 아이들에게 어떤 영향을 끼치는지, 교사와 학교환경에는 어떻게 작용하는지를 들여다봐야 생각한다. 그러나 인간의 욕망은 끝이 없고, 그래서 이런 위험에 대해 이야기한다고 해서 그 욕망을 억제하긴 힘들 것이다. 미래는 불안하기만 하다.