brunch

You can make anything
by writing

C.S.Lewis

by JH Green Oct 07. 2024

교사라면 꼭 알아야 할 ‘AI’

2023.12.08

‘AI’가 무엇인가.


인공지능(AI : Artificial Intelligence)에 대해서 장밋빛 희망만 그리는 교육부와 전북교육청을 보면 개인적으로는 마음이 불편하다. 왜냐고? 근본적으로 많은 교사가 AI가 도대체 뭔지 모르기 때문이다. 어떤 분은 자동차를 운전하는데 꼭 자동차 내부를 알아야 해? AI도 마찬가지 아냐? AI 동작 원리 몰라도 학교 현장에서 잘만 써먹으면 되는 거 아냐? 라며 나의 불편함에 코웃음을 칠 수도 있다.


과연 그럴까?


자동차나 기계의 경우 내부를 알든 모르든 사용하는 사람의 문제이지만, 학교 교육은 AI를 사용하는 교사만의 문제가 아니라 교육을 통해 배우는 다음 세대와 관련이 있기에 차원이 다른 문제이다.


정확한 동작 원리를 모르더라도 무엇이 AI인지, 교육 현장에 끌고 들어오기 전에 어떤 점이 우려스러운지 그리고 이러한 기술변화가 미래 사회를 어떻게 변화시킬지, 그 변화로 인해 다음 세대에게 어떤 위협이 있을지 알고 대비하지 않으면, 우리는 모두 무엇을 잘못 하는지도 모르면서 다음 세대에 엄청난 재난을 일으키는 교사가 되고 만다.


두 번째 혁명


박태웅 한빛 미디어 의장은 말한다. ‘우리는 지금 두 번째 산업혁명을 목격하고 있다. 1차 산업혁명이 몸, 즉 Body의 한계를 뛰어넘는 혁명이었다면, 이번은 인간의 지능 혹은 정신, 즉 Mind의 한계를 뛰어넘는 혁명이다. 그저 우리가 활용할 수 있는 뛰어난 기술이 하나 더 나타난 것이 아니라는 뜻이다’라고. (박태웅 저 ‘눈떠보니 선진국’ 149 페이지)


1차 산업혁명 시기를 한참 지나 태어난 나는 그 당시 인류 전체가 오랜 기간, 얼마나 많은 혼란과 어려움을 보냈는지 자료를 통해서 볼 뿐이지만, 변화를 읽지 못했던 많은 사람이 노동착취와 이에 따라 죽었고, 약소국 쟁탈 전쟁을 확인할 수 있다.


극소수의 지배계급과 자본계급을 제외하곤 초기 많은 인류는 변화의 밖으로 쫓겨났다. 어쩌면 2023년을 살아가는 대한민국 사람들은 1차 산업혁명으로 인해 인류가 편안해진 것만을 누리고 있는 지극히 운 좋은 시대에 태어난 사람들일 뿐이다.


박태웅 의장은 전문가들이 말하는 2차산업, 3차산업, 혹은 4차 산업이라고 말하는 것은 요즘 일어난 AI 혁명에 비하면 1차 산업의 연장일 뿐이라 말한다.


나 역시 그의 말에 완전히 동의한다. 생각해보면 이전 3차 정보화나 4차 서비스 산업 역시 인간의 몸에 국한된 것이다. 인간의 몸이 좀 더 편하고 효율과 효과가 높아지는 방향으로 변화되었지만 요즘 스마트 기기 속 우리가 알지 못하는 AI 알고리즘들은 우리의 생각을 완전히 지배하고 있지 않은가. 페이스북 광고든 쿠팡의 광고든 아마존의 광고든 내가 말하지 않아도 내가 관심 있는 것을 척척 보여주고 있고, 유튜브는 내가 원하는 동영상을 내 코앞에서 연신 보여주고 있다.


몸과 마음을 점령당한 채, 어쩌면 1차 산업혁명기와 같은 또 한 번의 잔인한 시간이 펼쳐질지도 모른다.


인터넷, 컴퓨팅 파워 그리고 알파고와 ChatGPT


두려움에 싸여 걱정하기 전에 우리 교사들은 AI가 뭔지 그 동작의 기본 원리를 알아야 한다. AI 작동원리를 가장 쉽게 표현하면 숨겨진 패턴을 찾아 분류하거나 예측하는 것이다.


과거 인공지능에게 학습시킬 때는 사람이 고양이의 특징을 몽땅 넣어주는 방식을 사용했다. 이를 ‘전문가시스템(Expert System)’이라 한다. 즉 귀는, 털은, 눈은, 몸 모양은 발은, 꼬리는 이렇고 저렇고... 그러나 이 방식은 한계가 있다. 바로 너무 많은 예외 때문이다. 이런 전문가시스템으로 학습을 하다 보니 인공지능 시스템은 제대로 발전하지 못하고 오랫동안 제자리걸음을 하였다. 나 역시 AI 관련 연구(90년대 초 시각연구)를 했었지만, 당시 연구자나 전문가들은 AI 구현에 너무 많은 어려움과 물리적 제약으로 인공지능을 만들어 내지 못할 것으로 예측했다. 결국 전문가시스템 방식으로는 인공지능을 구현하지 못한다는 것을 밝히는 논문이 나왔고, AI의 겨울이 오랜 기간 지속되었다.


그러나 긴 겨울 동안 제프리 힌턴 교수는 인공지능을 학습시키는 새로운 방법을 찾아냈다. (제프리 에버레스트 힌턴(Geoffrey Everest Hinton, 1947년 12월 6일 ~ )은 인공지능(AI) 분야를 개척한 영국 출신의 인지심리학자이자 컴퓨터 과학자. 캐나다 토론토 대학교에서 컴퓨터 과학 교수로 재직 중이며 구글의 석학 연구원도 겸임했었으나 2023년 인공지능(AI)의 위험성에 대해 경고하며 퇴사하였다)


2006년 제프리 힌턴의 기념비적 논문<심층망을 위한 고속 학습 알고리즘(A fast learning algorithm for deep belief nets)>이 나오고, 그는 딥러닝의 대부로 불리게 된다. 즉 학습 이미지들 간의 차이를 사람이 알려주는 것이 아니라 그 차이점을 구분하는 것까지도 몽땅 AI에게 맡긴 것이다. 쉽게 말해 고양이 사진을 10만 장 이상 넣어주면서 이미지들 간의 차이점을 AI가 다 잡아내게 한 것이다. AI에서는 찾아낸 차이점들에게 가중치를 주는데, 이렇게 값을 가진 가중치를 ‘매개변수’라고 한다.


인간이 차이값을 넣어주었던 전문가시스템과는 비교할 수 없을 만큼의 수많은 매개변수를 딥러닝을 하는 AI는 갖는다. 1,000만 개일 수도 있고 1억 개일 수도 있다. 참고로 여러분이 아는 ChatGPT3.5는 1,750억 개의 매개변수를 가지고 있다.


우리는 이런 변화를 전혀 몰랐다. 그러다 2016년 알파고가 등장했다. 


이세돌 9단이 인공지능에게 지던 그날에야 ‘AI’를 다시 만난 것이다. 구글의 딥마인드가 길을 터줬다. 인공신경망 기법의 발전과 컴퓨팅 파워의 발전 그리고 인터넷의 놀라운 발전이 AI의 급격한 발전을 가져왔기 때문이다.


알파고의 등장에 모두 정말 깜짝 놀랐지만 금세 AI를 다시 잊었다. ChatGPT를 만나기 전까지는.


2022.11.30. Open AI의 ChatGPT가 세상에 나오기 전까지 우리는 정말 AI가 어떻게 발전하고 있는지, 우리에게 어떤 영향을 줄 수 있는지 정말 모르고 있었다. (ChatGPT는 Generative Pre-trained Transformer(GPT)와 Chat의 합성어) 실은 OpenAI 엔지니어들조차 ChatGPT가 크게 성공할 것이라고 예상하지 못했다고 한다. 모든 예상은 빗나갔다. 2022년 12월 4일이 되자 ChatGPT의 사용자 수는 100만 명을 넘었다. 개발 후 2달 뒤인 2023년 1월, ChatGPT는 1억 명 이상의 사용자를 확보하면서 현재까지 가장 빠르게 성장하고 있는 애플리케이션으로 기록되었다. 그때쯤이었다. 1억 명 이상 사용하게 되면서 서서히 우리 사회에서도 올해 2월이 되자 난리가 나기 시작했다.


이 글을 읽는 대다수 사람은 이래저래 ChatGPT를 사용해 본 경험이 있으리라 생각된다. 이러한 난리 속에서 눈치 빠른 사람들은 잘 알지 못하는 사람들에게 이상한 짓을 하기 시작했다. ‘코딩교육’이 그것이다. 조금이라도 AI를 알고 있는 사람이라면 이것이 얼마나 말이 안 되는지 다 안다.


학교 현장에 파고드는 코딩교육이라는 것이 문제인 이유는 아주 단순하다. 코딩은 ‘코딩을 하는 법’ 교육으로 아무런 효과가 없기 때문이다. 코딩을 잘 알지도 잘 하지도 못하는 교사(당연하다 어떤 교사도 AI 시대를 경험한 적이 없으니)가 가르치는 코딩교육이란 결국 또 다른 암기과목의 하나가 될 것이 뻔하다. 코딩교육은 초중등 교과 안에서 배우는 모든 교육을 통해 일어나야하며, 과학적 사고의 과정 안에서만이 성과를 낸다. 만약 학교 수업에서 제대로 AI를 교육하고 싶다면, 깊게 생각하고 그 생각의 흐름을 순차적으로 구현해내는 능력, 즉 과학적 사고를 키우는 수학, 물리, 화학, 생물을 제대로 가르치면 된다.


제프리 힌턴 교수는 "ChatGPT는 완전히 다른 형태의 지능이다. 무시무시한 속도로 학습한다"고 말한다. 그는 2023년 5월 인공지능의 위험에 대해 더 자유롭게 말하기 위해서 구글을 떠났다.


발등 찍는, AI


이토록 놀랍고 세상에 못 할 것 없어 보이는 AI이지만 무턱대고 인공지능의 말을 믿지 마시라. 인공지능은 절대 믿을 만한 것이 못 된다. 또한 만능 기술도 아니다. AI가 학습하는 데이터가 오염돼 있거나, 알고리즘을 잘못 짜면(뭘 잘못 짜는지도 모르면서) AI는 우리 사회에 편향된 오류투성이 결과나 불공정하고, 객관적이지도 않은 것들만 쏟아낼 것이기 때문이다. 이미 그런 예(아마존, 애플 사례)는 수없이 많다. 그러니 AI로 했으니 믿을 수 있거나, 객관적이라고 쉽게 말하지 말라.


더구나 Chat GPT와 같은 LLM (거대 언어 모델, Large Language Model) 인공지능의 경우, 피할 수 없는 것이 있는데, 바로 ‘거짓말을 한다’는 것이다. 그것도 아주 그럴싸한 거짓말을 한다. 이렇게 능숙하고 전문적으로 가짜 정보를 만들어 내는 것을 ‘할루시네이션(Hallucination)’이라고 한다. 직역하면 환각, 환청을 뜻하는 정신의학 용어이다.


미국의 사례지만 올해 5월 미국 뉴욕 남부지법에 한 변호사가 ChatGPT를 사용하여 판례를 인용했는데 그 판례는 미국에 없었던 거였다. 생성형 AI의 ‘할루시네이션’이 법정에서 실제로 큰 문제가 된 것이다. 이후 미국에서는 법정에 변호사들이 서류를 제출할 때 인공지능이 작성하지 않았다는 서명을 받기로 했다고 전한다.


AI가 가진 문제는 할루시네이션만이 아니다. 놀라지 마시라, 이미 전문가들은 AI의 잠재된 위험성에 대해 알고 있고, 이를 방지하고자 법안을 만들기도 하였다.


문제는 우리 사회다. AI에 대한 비전문가들의 감탄사 속에 마구잡이로 교육 시스템에 침투되고 있기 때문이다.


팬데믹, 핵전쟁, AI 앞의 인류



유럽집행위원회 (European Commission)는 2021. 4. 21. 유럽의회 (European Parliament)에「인공지능에 관한 통일규범(인공지능법)의 제정 및 일부 연합제정법들의 개정을 위한 법안(Proposal fora Regulation layingdown harmonized rules on articial intelligence(Articial Intelligence Act) and amending certain Union Legislative Acts)」을 발의하였다. 부속서를 포함해 120쪽이 넘는 긴 법안이다. (European Commission, COM/2021/206 final, Brussels, 21.4.2021.)


우리는 교육자들이니, 이 법안에서 받아들일 수 없는 리스크와 높은 리스크를 가진 AI 시스템의 분야를 알아야 한다. 높은 리스크(High Risk)를 가진 분야에는 ‘교육․직업 훈련’이 있다. High Risk에 왜 교육과 직업 훈련이 들어가 있는지는 이 법안을 읽어보면 누구나 상식선에서 이해가 된다.


위 법안을 읽지 않아도 AI 관련 뉴스만 보더라도 그 위험은 누구나 쉽게 알 수 있다. 이미 올해 6월부터 AI로 인류가 멸종할 수도 있다며, 핵무기나 팬데믹 이상으로 AI 위험에 대해 모두가 합의하며 개발해야 한다고 IT 주요 인사들이 한목소리를 내고 있기 때문이다.


                                  <CAIS의 ‘AI 위험에 대한 성명서(Statement on AI Risk)’ 홈페이지>


비영리단체 ‘AI안전센터(Center for AI Safety, CAIS)’에서 발표한 ‘AI 위험에 대한 성명서(Statement on AI Risk)’ 에는 “AI로 인한 멸종 위험을 완화하는 것은, 팬데믹 및 핵전쟁과 같은 다른 사회적 규모의 위험과 함께 전 세계적으로 우선순위가 되어야 합니다.”라는 한 줄짜리 짧은 성명서였다.


누가 함께했는지 CAIS 웹페이지에 방문해서 확인하기를 바란다. 여기에 ChatGPT를 개발한 오픈AI의 CEO 샘 올트먼, MS사의 CSO 에릭 호비츠, 구글의 딥마인드 COO 릴라 이브라힘, 딥러닝을 개발해 인공지능 분야를 개척한 토론토 대학의 제프리 힌튼 교수, 빌게이츠 등 350명이 넘는 세계 AI 전문가, 언론인, 정책가들이 서명했다. (https://www.safe.ai/statement-on-ai-risk#open-letter) 제발 교육부와 교육청 인사들은 그들의 AI 위험 경고를 흘려듣지 말기 바란다.


교사가 해야 할 일


2022.11.30.로부터 겨우 1년 지났다.

인공지능의 세계에서는 한 달이 일 년이라고 하니, 우리는 1년이지만 AI는 10년의 변화가 있었다.


<타임매거진 23년 6월 12자 표지>


무시무시한 변화 속에서 교사와 교육자들은 무엇에 집중하며 무엇을 가장 먼저 해야 할까?


나는 모든 교사가, 디지털 교과서를 쓴다고, AI 기반으로 분석하면 기초학력이 올라간다고, 스마트 기기를 사용한다는 그 장단에 막춤을 춰서는 안 된다고 생각한다.


우리는 앞으로 닥칠 감당 못하는 변화에, 중심을 잃지 않을 다음 세대를 만들어야 하는 책무가 있다.


일단, 모든 학교 현장의 교사와 교육부 교육청은, AI 시대의 교육 방향을 정의(definition)하기 위해 모여서 이야기를 시작해야 한다.


몇몇이 ‘나를 따르라’식의 방향 정리는 안 된다. 대한민국 교육 공동체 안의 교사와 사회학자, 역사학자, 철학자, 인문학자, 심리학자들과 만나야 한다. 무엇을 어떻게 가르쳐야 하는지 우리가 가진 모든 역량을 동원해서 적어도 1년은 서로서로 논의해야 한다.


그리고 교육에서 기초과학을 육성하는 방법을 찾아야 한다. AI를 제대로 움직일 많은 과학자를 배출하기 위해서는 지금의 의대학 계열로만 불붙은 입시 위주의 학교 교육을 바꿔내야만 한다.


우리 교육에 정말 현명한 긴 호흡이 필요한 때이다.

작가의 이전글 차별과 분리는 ‘미래 교육의 적’
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari