2024.01.01.
특이점이 온다
영국 SF 작가, 아서 클라크가 제시한 과학 3법칙의 세번째 법칙인 '고도로 발달한 기술은 마법과 구별할 수 없다. (Any sufficiently advanced technology is indistinguishable from magic.)'를 ‘고도로 발달한 ㅇㅇ는 ㅇㅇ와 구분할 수 없다’ 로 패러디가 2, 3년 전 인터넷에서 유행한 적이 있다.
기발한 패러디가 많았고, 사람들은 그저 즐겼지만, 요즘 AI 정확히는 ChatGPT 때문에 아서 클라크의 말을 다시금 곱씹는 중이다.
그리고 다시 손에 든 책이 미래학자인 레이 커즈와일의「특이점이 온다(김영사, 2007)」이다. 그의 책을 처음 읽었을 때는 그의 예측을 SF 소설 수준에서 바라는 정도로 여겼다. 그러나 2022년 11월 30일을 지나면서 레이 커즈와일이 예측한 것보다 특이점(Singularity, 천체물리학에서는 블랙홀 내 무한대 밀도와 중력의 한 점을 뜻하는 용어이며, 레이 커즈와일은 사회 경제적 의미로서 특이점이란 기술 변화의 속도가 매우 빨라지고 그 영향이 매우 깊어서 인간의 생활이 되돌릴 수 없도록 변화되는 시기로 사용함)이 빠르게 온 것은 아닌가 하고 생각하기에, 16년이나 지난 이 책을 다시 열어보았다.
이 책의 5장 (GNR: 중첩이 되어 일어날 세가지 혁명)은 21세기 전반부에 세 개의 혁명이 꼬리를 물고 중첩되어 발생하는 것을 볼 것이라며 시작한다.
그 세 가지 혁명은 G(Genetics, 유전학), N(Nanotechnology, 나노기술), 그리고 R(Robotics, 로봇공학)이라고 말한다. 특히 로봇공학에서 강력한 AI(AGI, 인공일반지능, 초지능)를 이야기하는 부분에서는 R의 부분이 가장 심원한 혁명이라고 한다.
그는 딥러닝이 인간의 의식을 가질 것으로 확신했고 2045년쯤 특이점이 올 것으로 보았으며 인공지능과 함께할 인간의 미래에 대해 전망했다. 그러나 2022년 11월(ChatGPT 등장)을 보내면서 그보다 20년 가까이 더 빠른 특이점이 온 것이다.
다시 읽으면서 놀란 것은 그의 예측이 너무 근사(가깝게)하게 맞았다는 것이고, 두려운 것은 그가 우려한 부분에 대한 어떤 것도 우리는 준비되어 있지 않다는 것이다.
컴퓨팅적 사고(Computational Thinking)
특이점이 무엇인지 이해하고, 그 의미를 자신의 삶에 반추하는 사람을 특이점주의자라고 한다면, 나는 개인적으로 교육에 헌신하는 사람들을 특이점주의자로 생각해볼 수 있다.
이미 대한민국 교육은 시대마다 변화의 특이점을 이해하고 그것을 교육의 변화에 녹여내었기 때문이다. 80년대 초반만 해도 컴퓨터라는 단어조차 없던 우리 사회가 40여 년 만에 초연결을 기반으로 한 정보 강국에 우뚝 설 수 있던 이유는 단 하나, 미래 세대를 키우는 교육이 그 역할을 단단히 했기 때문이었다.
기초과학보다는 응용과학에 많은 인재가 몰리지만, 현재 대한민국 사회를 읽는 키워드는 단연코 ‘과학’이다. 과학적 사고는 교육을 통하지 않고는 결코 많은 사람이 갖추기 힘든 것이기에, 결과적으로 지금 우리가 갖는 과학적 사고는 ‘교육’의 결과이다.
앞으로의 사회는 과학적 사고를 넘어 다음 단계로 ‘컴퓨팅적 사고능력(Computational Thinking)’의 시대가 될 것이다. 아니다, 이미 2023년부터 그런 사회로 진입하였다. 그러니 다시 한번 휘몰아칠 변화에서 우리가 가장 힘을 쏟을 부분은 미래 세대를 위한 ‘교육’이다.
그리고 그 교육을 현장에서 이뤄내는 ‘교사’들의 역량이, 인간 역사 이래로 가장 필요한 시점이기도 하다
ChatGPT 시대에 여기저기서 코딩을 말하고 프로그래밍을 말하는 사람들은 둘 중 하나다. 뭘 모르거나, 사기꾼이거나. 그러니 교사들은 머릿속에서 코딩이나 프로그램 교육은 지우길 바란다.
특이점의 시대에, 우리 교육은 과학적 사고를 넘어 ‘컴퓨팅적 사고능력’을 키우는 교육을 해야 한다. 이렇게 말하면 또다시 아이들에게 디지털 기기를 나눠주고, 교실을 디지털화하는 것 정도로만 생각하는 사람들도 있으리라. 다시 말하지만, 절대 그렇지 않다.
그럼 뭐가 ‘컴퓨팅적 사고능력’이냐고?
간단히 말하면 정답이 정해지지 않은 문제(Open-ended Problem)에 대한 해답을 일반화하는 과정이다.
그러기 위해서는 문제 분해(Decomposition), 자료 표현(Data Representation), 패턴인식(Pattern recognition), 일반화(Generalization), 모형화(Modeling), 알고리즘(Algorithm)등에 능력이 필요하다.
여기서 가장 먼저 교사들이 생각해야하는 것은 “정답이 정해지지 않는 문제”라는 부분이다. 이 부분이 아마 우리 사회에서 가장 어려운 것이리라. 그동안 우리는 “정답 찾기” 교육을 해왔기 때문이기에. 정답찾기 교육을 계속하는 순간 우리는 특이점의 시대에 뒤로 밀려나 이제 막 오른 선진국에서 멀어질 것이 뻔하다.
AI로 어수선한 2023년을 보내고, 2024년 출발에 있어 우리 교사와 교육계 사람들은 다시 한번 특이점을 이해하는 특이점주의자가 되어야만 한다.
2024년, 우리 교사들은 특이점주의자로서 무엇이 변하고 있고, 그 변화를 이끄는 요소들이 무엇이고, 무엇이 위험한지 제대로 알아야만 한다.
거대언어모델(LLM, Large Language Model)
ChatGPT는 ‘생성형(G, Generative) 사전 학습(P, Pre-trained) 변환기(T, Transformer)’의 약자다. 그리고 ChatGPT는 거대언어모델(LLM)이다.
일종의 컴퓨터 알고리즘인 LLM은 자연어 입력 내용을 처리하고 이미 나온 것을 기반으로 다음 단어를 예측한다. 쉽게 말하자면, LLM은 다음에 나올 단어를 예측하는 엔진이다. LLM은 수백만 개, 수십억 개, 심지어 수조 개의 매개변수에 의해 제어된다. 오픈AI의 GPT-3 LLM은 매개변수가 1,750억 개이며 최신 모델인 GPT-4는 매개변수가 1조 개로 알려져 있다.
가령, ChatGPT 프롬프트 창에 “오늘 점심으로 내가 먹은 것은…”을 입력하면 LLM은 “밥” 또는 “국수” 또는 “햄버거, 시리얼, 채식버거 등”라는 단어를 모델에 이미 입력된 데이터를 기반으로 확률적으로 제시한다. LLM은 기존 데이터를 기반으로 가장 개연성 있는 답인 “밥”로 문장을 완성할 수 있다. 그러나 LLM은 확률 엔진이기 때문에 가능한 답변마다 백분율을 지정한다. 밥은 50%의 확률로 발생하고 국수는 20%의 확률로 답이 될 수 있으며 채식 버거가 답일 확률은 0.005%일 수 있다.
학습된 데이터가 인터넷 자료이기 때문에 당연히 LLM은 편향된다. 마이크로소프트에서 2016년 3월 23일 트위터 계정(@TayandYou)을 개설하면서 일반에 공개한 적이 있었다. 인공지능으로서 사람과 트위터상에서 대화하기 위한 목적으로 제작되었다. 이 챗봇은 16세 미국 소녀의 생각과 말투를 바탕으로 만들어졌으나 ‘테이’가 인종차별주의자로 변하는 데는 단 몇 시간도 걸리지 않았다.
테이가 공개된 후 트위터에 테이의 계정을 태그해서 자극적인 발언을 가르치려는 움직임이 나타났고, 테이에게 인종차별적인 용어, 성차별 발언, 자극적인 정치적 발언 따위를 하도록 유도했다. '따라해 봐(repeat after me)'라는 말을 먼저 학습시킨 후 부적절한 발언을 그대로 따라 하게 만들어 해당 어휘를 학습하도록 유도한 것이다. 결국 홀로코스트는 조작이라느니, 히틀러는 잘못이 없었다느니, 유대인, 미국 흑인, 멕시코인들을 쓸어 버리자니, 페미니스트들은 지옥에서 불타 죽어야 한다는 등의 부적절한 발언들을 쏟아내면서 마이크로소프트사는 공개 16시간 만에 운영을 중단하고 조정작업에 들어갔으며 사과문 발표를 했다. 그리고 결국 테이 계정은 완전히 비공개 처리되었다.
테이만 편향되었을까? 그렇지 않다. 그래서 ChatGPT의 경우 사전에 인간의 피드백으로 강화학습을 통해 편향을 수정했으며, 또한 테이와는 달리 사람들과 대화하는 과정을 통해 학습하지는 않는다. <뉴욕타임즈> 보도에 따르면 편향되지 않은 질문과 대화를 학습하는데 ChatGPT는 약 3.7조 원 정도가 들었다고 한다. 결국 어마어마한 자본이 투입되지 않거나 못하면 ChatGPT와 같은 LLM 인공지능 개발은 어렵다는 이야기도 되는 것이다.
2023년에는 수없이 많은 LLM 기반 인공지능이 출현했다. 그리고 결국 인공지능의 아버지인 제프리 힌턴은 경고하기 시작했다. 경고 내용 중 가장 무서운 것은 LLM은 어떤 주제를 주든지 그럴듯한 말을 금세 지어낸다는 것이다. 이는 결국 어떤 집단이 자신들의 주장을 담은 허위 정보를 아주 그럴듯하게 포장해 배포하는 최적의 도구가 바로 이러한 거대언어모델의 AI가 될 것을 말한다. 이미 가짜 얼굴, 가짜 목소리로 신종 사기 사건이 이루어지고 있고, 사건이 보도되기도 했다. (한국경제(2023.6.24.) ‘친구와 영상통화 했는데, 7억 털렸다.’)
잔인한 AI시대
2023년 12월 초 국민은행 콜센터 상담원 해고 뉴스가 나왔는데, 제목이 ‘AI에 내몰린 상담원…대량해고 현실화 (KBS 2023.12.13.)’ 였다. 다행히 해고되지 않는 방향으로 문제가 봉합되었으나, 이게 시작일 것이다. 어쩌면 우리는 ‘잔인하고도 편리하며 비참하고도 화려한 시대’ 에 들어선 것이다.
ChatGPT와 같은 생성형 AI는 대화형만 있는 것이 아니다. ChatGPT(오픈AI), 빙챗(마이크로소프트), 바드(구글), 클로드AI(앤트로픽), 클로바X(네이버)와 같은 대화형 AI도 있고, 음성생성 AI(타입캐스트, 일래븐랩스 등), 이미지 생성 AI(Dall-E, 미드저니 등), 동영상 생성 AI(젠-2, 픽토리, 인비디오 등)도 있다.
이미 우리는 AI가 글도 쓰고, 그림도 그리고, 동영상도 만드는 세상에서 우리는 살고 있다. 생성형 AI는 이미 모든 비즈니스에서 ‘게임 체인저’가 되었다. 교육영역 역시 큰 영향을 줄 것이다. 그 방향은 좋을 수도, 나쁠 수도, 아니 최악일 수도 있다.
가장 시급한 것은 교사들이 AI를 바라보는 시선을 어떻게 가져야 하는가인 것이다. 우리가 피해야 하는 가장 최악은 맹목적 믿음, AI는 좋을 것이라는 맹신이다.
개인적으로 학교장, 교육감 등 기관장들의 맹신이 나는 가장 두렵다. AI에 대해 아무것도 모르는 시대의 교육을 받았을 것이고, 개발의 화려함만을 겪었을 세대이기 때문에 그들은 AI 신기술에 대한 맹신을 가질 가능성이 너무 높기 때문이다.
미래에 대해 예측 불가능한 시대를 목전에 두고 어쩌면 가장 먼저 사라질 무지의 세대가 미래 세대를 교육하여 대비시켜야 하는 이 암울함이 2024년 시작과 함께한다. 그래서 너무 두렵다.