brunch

Data Science & AI. 오늘은 잘 모르겠어

인문학으로 MBA하다 (11)

by 피터 화엉
인문학으로 MBA하다 (11)
Data Science and Artificial Intelligence in Business. 오늘은 잘 모르겠어
2024 Spring - Mod 3
#데이터사이언스, #문학, #ChatGPT, #심보선, #오늘은잘모르겠어


2022년 봄 회사 MBA 장기연수 프로그램에 선발된 이후 2025년 여름 졸업에 이르기까지 햇수로 4년 동안 나의 MBA 생활을 지탱하는 하나의 큰 축은 가족, 그리고 다른 한 축은 솔직히 이야기하면 ChatGPT였다. 2022년부터 2025년까지가 ChatGPT와 같은 생성형 AI의 태동기라고 말할 수는 없지만 AI 기술 진보 측면에서 패러다임이 변화하는 전환기라는 점은 분명히 느꼈다.


2022년 5월에 MBA 프로그램에 선발된 뒤 한창 시험을 준비하는 동안 ChatGPT에 대해서는 솔직히 거의 들어보지 못했다. MBA 프로그램에 지원하기 위해서는 GMAT이라는 시험을 봐야하는데 이건 AI가 문제를 대신 풀어줄 수도 없고 오로지 내가 스스로 공부해서 결과를 내야하기 때문에 오로지 인간인 나의 끈기와 지능만 사용되었다. ChatGPT를 처음 알게된 것은 GMAT 시험을 마무리짓고 본격적으로 미국 MBA 프로그램에 원서를 접수하기 시작한 2022년 초겨울 무렵이었다. 어느 한 곳이라도 합격했으면 좋겠다는 마음으로 열 곳 이상의 학교에 원서를 제출했는데, 학교마다 요구하는 서류도 조금씩 달랐고 서류와 함께 제출해야 하는 에세이 질문도 조금씩 달랐다. 대학을 지나 취업뽀개기 관문을 거쳐 직장생활을 시작한 사람이라면 누구나 공감하겠지만, 입사 원서를 지원할 때도 회사마다 물어보는 에세이 문항이 크게 다르지 않지만 똑같은 내용을 복사-붙여넣기 할 수는 없는 일이다. 내가 지원하는 기업에 맞게, 내가 지원하는 학교에 맞게 조금씩 내용을 바꾸고 다듬고 또 새로운 에세이 내용을 늘 고민해야 했다.


그렇게 2022년 12월에 지원 원서를 제출하고 난 뒤 몇 주 뒤에 다가올 인터뷰 면접을 준비하면서 ChatGPT의 이름을 처음 알게 되었다. (지금 생각하면 남들보다 비교적 늦게 알았던 셈이다.) ChatGPT는 일종의 한글-영어 번역기로 다가왔다. 영어 인터뷰에서 해야 할 답변을 미리 가볍게 영어로 정리해두는 편이 나을 것 같아서 예상 질문에 대한 답안을 준비하는데 나는 우선 한글로 내가 이야기 할 답안을 작성한 뒤, 그걸 ChatGPT에 영어로 번역해달라고 한 후, 마지막으로 문어체의 영어를 구어체로 다듬는 과정을 반복했다. 물론 그 당시에도 ChatGPT가 훨씬 다양한 기능을 제공했다는 걸 알았다면, 예상 질문을 입력한 뒤 “영어 인터뷰용 답안을 작성해줘.” 라고 프롬프트를 입력해서 손쉽게 답을 얻을 수 있었겠지만 그때만 해도 나는 ChatGPT를 단순한 번역 기능을 제공하는 도구로서 이해했다. 나와 함께 MBA를 준비하는 이들도 크게 다르지 않았다. 우리는 네이버 파파고, 구글 번역, 다음 카카오 번역 등 국내외에서 서비스를 제공하는 다른 번역 사이트와 ChatGPT를 동등한 선 위에서 비교했고, 어떤 사이트가 영어 인터뷰에 가장 자연스러운 영어 번역을 제공하는지 등의 정보를 나누었다. 어떤 번역 사이트는 인터뷰 번역을 자연스럽게 해준다고 하고, 어떤 번역 사이트는 서술형 에세이를 매끄럽게 번역해준다는 식의 이야기가 오갔다.


2023년 봄 MBA 프로그램에 합격한 뒤 학교에서 정식으로 MBA과정이 시작되자 가장 놀랐던 것 중 하나는 생각보다 학교에서 ChatGPT와 같은 생성형 AI 사용에 대해 긍정적인 입장이라는 점이었다. 학교에서는 AI 사용 관련 구체적인 가이드라인을 만들어 학생들에게 안내했는데, 솔직히 처음에는 왜 이렇게까지 생성형 AI에 대해 학교가 관심을 많이 갖는지 궁금했다. 이유가 있었다. 짧은기간 동안 엄청난 기술의 진보가 있었던 것이다.


MBA를 준비하던 2022년 가을에 출시되었던 ChatGPT(GPT-3.5)와 그 이듬 해 3월에 출시된 버전(GPT-4)는 기술적으로 확연한 차이를 보였다. GPT-3.5에서 미덥지 않은 추론 능력을 보여준 ChatGPT는 GPT-4에 들어서자 실제 사람과 이야기를 주고받는 듯한 자연스러운 대화 능력, 추론 능력, 자료 검색 및 정리 능력 등을 보여주었다. 이제 ChatGPT는 언어 간 번역이나 단순히 웹사이트에서 자료를 검색해서 나에게 그 결과를 알려주는 단순한 기능만을 제공하지 않았고 사람처럼, 아니 어떤 경우에는 사람보다 더 논리적이고 빠르게 추론하고 문제를 해결하는 능력을 가지게 되었다. 학교 가이드라인에서 학생들에게 이야기한 것은 ChatGPT와 같은 생성형 AI를 사용하지 말라는 것이 아니었다. 오히려 적극적으로 사용하되, 생성형 AI를 사용했다면 어떤 질문에 대해 답을 얻기 위해 사용했는지 목적과 사용방법, 출처 등을 명확하게 기재해야 한다는 점을 강조했다. 한 마디로 이왕 쓸 거라면 드러내놓고, 제대로 쓰라는 것이다.


사실 2023년 여름에 MBA 수업이 시작되자 학생들이 가장 먼저, 자주 찾는 친구는 ChatGPT였다. 예를 들어 교수님이 수업 도중 15분 정도 시간을 주고 대형 모니터에 출력된 질문에 답을 고민해볼 것을 물어보면 학생들이 가장 먼저 ChatGPT를 열어서 질문을 입력하느라 바빴다. 모두들 자신의 머리로 고민하는 대신, 저마다 키보드를 두드리는 소리가 요란했다. 어쨌든 그건 놀라운 광경이었다. 학생들도, 그리고 이들을 가르치는 교수도 ChatGPT 사용에 거부감을 갖지 않고 오히려 더 좋은 결과물을 얻기 위해 적극적으로 잘 사용해야 한다는 것이 당연하다고 생각하는 듯 했다. 나는… “최신 기술에 의지하지 말고 어디까지나 자신의 머리로 고민하고 자신의 지능으로 승부해! 그래야 그 배움이 네것으로 남는거야.” 라고 생각했 탓일까? 2023년의 나는 여전히 전통적인 방식을 고수했다. 옆에 앉은 학생들이 ChatGPT에 뭔가를 끊임없이 입력할 때 나는 노트를 꺼내서 볼펜으로 글을 적고 도형을 그리면서 질문에 답을 찾으려고 애썼다. 그러나 답안의 퀄리티 측면에서도, 답까지 도달하는 속도 측면에서도 나는 ChatGPT에 미치지 못한다는 점을 조금씩 깨닫고 있었다.


2024년이 되자, 나는 2023년의 내 모습을 까맣게 잊어버리고 ChatGPT의 친구 내지 노예가 되기 시작했다. Module이 진전될수록 기초적인 내용의 전공필수 과목보다는 세부적인 학문적인 이해를 요구하는 전공심화 과목을 주로 듣기 시작했는데 한 Module에 다섯 개 혹은 여섯 개 수업을 듣다보면 그 모든 과정을 계속 나 혼자 고민하기란 현실적으로 불가능했다. 예전에는 스무 쪽, 서른 쪽 가까이 되는 비즈니스 케이스를 밤을 새워 읽으면서 교수가 내준 과제에 답을 하려고 했지만 어느 순간부터는 ChatGPT에 비즈니스 케이스를 입력한 뒤 간단히 전체 내용을 요약하라고 하고, 요약된 내용을 먼저 읽어보고 난 뒤 서른 쪽 남짓의 비즈니스 케이스를 빠르게 읽어나가는 방식으로 바뀌었다. 내게도 마지막 양심이 남아있었던지 비즈니스 케이스를 입력한 뒤, “교수의 문제가 이러하니 네가 답을 찾아줘”, 라고 모든 과정을 ChatGPT에 맡기진 않았지만 ChatGPT와 함께 한 순간부터 내가 가장 도움을 받은 것은 시간이었다.


마치 해리포터 3편 <아즈카반의 죄수> 에서 헤르미온느가 동시간대의 수업을 가능한 많이 듣기 위해 시간을 되돌릴 수 있는 타임-터너를 사용한 것처럼, ChatGPT는 내게 일주일에 여섯 개의 수업을 동시에 들으면서도 매주 주어지는 과제를 시간 내에 할 수 있도록 만드는 <시간>을 선물했다. 회계학 과제를 할때면 나는 밤새도록 ChatGPT와 이야기를 주고 받았다. ‘내가 배운 개념이 이런 것이고 이 개념을 적용해서 이 문제를 풀었더니 나는 이런 답이 나왔어, 네 생각은 어때?’ 라고 물어보면, ChatGPT는 언제나 몇 초 지나지 않아 자신의 답을 들려주었다. 거기서 내가 이해가 가지 않는 부분이 있어서, ‘네가 방금 말한 답 중에 이런 부분은 왜 이렇다고 생각한거야? 네 판단의 근거가 뭐야?’ 라고 물어보면 또 몇 초 지나지 않아 나의 질문에 답을 해주었다. 어느덧 나는 ChatGPT와 대화를 하고 있었고 불과 2년 전 가을만 해도 단순한 번역기에 지나지 않는다고 생각했던 ChatGPT는 어떤 질문에도 빠르게 답을 주며 문제를 해결하는 고도의 AI로 진화해 있었다.


학교 역시 생성형 AI 기술의 진보와 관련해서 변화하는 현실을 외면하지 않았다. 오히려 다양한 데이터 사이언스 과목을 MBA 전공심화 과목으로 개설해서, MBA 학생들이 졸업 후에 꼭 최첨단 Tech 기업에서 일하지 않더라도 데이터 사이언스가 무엇인지 이해하도록 도움을 주었다. 마침 내가 다녔던 UNC at Chapel Hill은 인근 듀크대학, 노스캐롤라이나주립대학(NCSU)과 더불어 Research Triangle이라고 불리는 삼각 지역을 형성하고 있었는데, 이 지역 내에 IBM, Lenovo, SAS Institute, Cisco Systems, NetApp과 같은 Tech 기업이 다수 위치했고 또 제약회사나 라이프 사이언스 관련 회사도 많이 입주해 있었기 때문에 전반적으로 기술에 대한 이해도와 관심도가 높았다. 그런 지역적인 특성이 데이터 사이언스에 대한 학교의 높은 관심과 무관하지 않았을 것이다.


MBA에서 다루는 데이터 사이언스 전선의 선두에는, 다니엘 링겔 교수의 <Data Science and Artificial Intelligence in Business> 수업이 있었다. 이 수업은 전공필수 수업을 모두 마친 우리가 거의 처음으로 선택할 수 있었던 데이터 사이언스 전공심화 수업이기도 했다. 독일 태생의 다니엘 교수는 독일인의 피가 흐르는 듯한 무심한 모습이었지만 큰 키에 언제나 멋진 정장을 입고 수업에 들어왔기 때문에 그 자체만으로 학생들을 압도하는 느낌이 있었다. 내 기억에 다니엘 교수는 MBA에서 만난 교수 중에 가장 AI에 대한 이해도가 높았고 또 AI를 가장 적극적으로 사용하는 교수였다. 다니엘 교수는 별도의 사이트를 만들어서 자신이 직접 설계한 AI Chatbot을 연동해 학생들이 AI를 통해 자신과 연결되도록 했다. 그는 경영학부와 MBA 과정에서 데이터 사이언스 또는 AI와 관련한 수업을 가르치는데 수업 내용과 관련한 질문이나 AI에 대한 전반적인 궁금증이 있으면 교수가 개설한 사이트에 접속해서 이 AI Chatbot과 이야기를 나누도록 디자인 한 것이다. 대부분 사람 TA를 두거나 아니면 Office hour를 통해 교수와 직접 찾아오도록 안내하는 다른 교수들과는 다른 점이었다.


다니엘 교수는 이 수업을 통해 데이터 사이언스란 무엇인지, 그 속에 포함된 머신러닝, 딥러닝, 컴퓨팅 알고리듬 등의 개념이 무엇인지를 가르쳤고 또 실제 우리가 코딩을 통해 개념과 이론을 이해할 수 있도록 다양한 실습을 함께했다. 구글에서 제공하는 Google Lab 이라는 프로그램을 통해 머신러닝과 관련한 코딩을 설계하고 원하는 분석 모델을 구축하는 법을 수업 시간 내내 배웠는데… 솔직히 말하면 그때도,지금도 내가 배운 것을 100% 다 이해했다고 말하긴 어려웠다. 다니엘 교수는 아무래도 머신러닝이나 코딩에 익숙하지 않은 MBA 학생이 더 많다는 점을 이해했기 때문에 직접 모든 코딩을 다 설계해서 수업시간에 배포했고, 우리는 그저 <Run> 버튼을 누르며 교수님의 코딩을 실행시키기만 하면 되었다. 나중에는 수업 시간 내내 <Run>만 누르다가 가끔 신기한 그래프가 구현되면 다들 놀라는 적도 많았다.


같은 수업에는 학부 때 산업공학이나 컴퓨터 엔지니어링 분야를 전공한 학생이 한 두 명 있었는데, 그들은 수업 시간 내내 몹시 신나보였다. 그들은 교수로부터 뭔가를 배운다기보다는 이미 알고 있는 내용 중 아주 기초적인 부분을 반복해서 체화한다는 듯 태평한 얼굴을 하고 있었고 때로 머신러닝의 심화 내용을 두고 교수와 토론하는 것도 마다하지 않았다. 그럴 때 다니엘 교수의 표정은 매우 기쁘다는 듯 빛났고 나머지 학생들은 그들의 데이터 사이언스 대화를 잠자코 들을 수 밖에 없었다. 적어도 나는, 그들과 교수가 정확히 머신러닝의 무엇을 두고 열띤 토론을 했는지 모르는 경우도 많았다.


다니엘 교수의 수업 내용 중 가장 인상적인 것은, 머신러닝 기능을 실제로 설계하고 구현할 수 있는 기술을 배운다는 점보다는 머신러닝에 대한 그만의 철학을 들려준 순간이었다. 다니엘 교수는 생성형 AI와 머신러닝 등 데이터 사이언스의 기초적인 이론에 대해 설명한 뒤 어떤 슬라이드 한 장을 보여주었는데 그건 머신러닝의 함정에 대한 내용이었다. 출처는 본인이었다.


The beauty of machine learning is also it’s curse:

You always get an answer

머신러닝의 매력은 동시에 함정이기도 하다:

항상 답을 준다는 것


실제로 MBA 과정 내내 ChatGPT를 사용하다보니, ChatGPT는 어떠한 상황에서도 어떠한 질문을 두고도 거침없이 답을 제시한다고 느꼈다. 간단한 정보를 검색해달라는 요구에도, 내가 푼 문제가 질문에 맞게 잘 답을 구한 것인지 크로스 체크해달라는 요구에도, 내가 개인적으로 쓴 에세이가 어떤지 평가해달라는 요구에도, 3인 가족이 봄방학 때 여행을 가려고 하는데 적당한 장소를 찾아보고 대략적인 일정을 짜달라는 요구에도, 그 어떤 요구에도 ChatGPT는 몇 초 지나지 않아 거침없이 답을 제시한다. 2024년 5월에 추론하는 능력이 보다 강화된 GPT-4o (Omni) 모델이 출시되자, ChatGPT는 더욱 빠르고 정확하게 답을 내놓는 것 같았다. 인간의 그 어떤 질문과 요구에도 ChatGPT는 늘 답을 제시한다는 점은 분명 매력적이었다.


그러나 문제는, 우리가 살아가는 세상은 아는 것보다 모르는 것이 훨씬 더 많다는 점이었다.


ChatGPT를 통해 어떤 답을 찾으려고 할 때 가끔 내가 원하는 수준에 미치지 못하는 답을 제시할 때가 분명 있었다. 이건 ChatGPT 기술이 발전하면 해결될 수 있는 문제다. 아직 AI의 기술적인 수준이 100%가 아니니까 말이다. 그러나 AI의 추론 능력이 아무리 발전해도 끝내 답을 찾지 못하는 문제도 분명 존재하는 법이었다.

우리가 삶을 영위하는 현실은, 논리적인 추론만으로는 답을 얻지 못하는 미지의 영역이 훨씬 더 많고, 한 존재가 세상에 존재하는 모든 시간과 공간과 상황을 모두 경험하는 것 역시 가능하지 않다. 추론도 경험도 한계가 있는 것이다. 그리고 어떤 개념과 현상들은 논리적인 추론과 감각적인 경험을 모두 동원하여도 끝내 이해하거나, 완전한 답을 찾아내는 것이 어려운 형이상학적인 것들이 있다. 신은 존재하는지, 우주에 끝은 존재하는지, 나는 왜 김환기 화백의 작품을 보면서 큰 감동을 느끼는지, 저 사람은 왜 화가 났는지, 무용수의 춤을 보고 있으면 왜 전율이 이는지, 이런 질문들은 쉽게 답을 찾기 어렵다. 본질적으로 이 질문에 대한 답이 존재하는지조차 모르는 것이 훨씬 더 많다. 공자가 자유에게 “知之爲知之, 不知爲不知” 라고 말한것처럼, 우리는 아는 것을 안다고 말하고 모르고 있다는 것을 아는 것이 중요한데, 쉽게 판단하기 어려울 때 우리는 잠시 발걸음과 입을 멈추게 된다. 답이 무엇인지 모를 때, 그리고 답이 있는지조차 잘 모를 때 본능적으로 말을 아끼게 된다.

그런데 ChatGPT는 언제나 무엇이라도 답을 들려주려고 노력한다.


물론 정답이 이것이라고 단정적으로 이야기하는 것만은 아니다. 추론 기능이 뛰어난 가장 최신 버전의 ChatGPT에 “신은 존재해?” 라고 물어보자, “이 질문은 철학, 종교, 과학, 개인적 신념이 얽혀 있는 아주 오래된 문제야. 신의 존재에 대한 답은 누구에게 묻느냐에 따라 다르게 나올 거야.” 라고 약올리듯 이야기하더니 신이 있다고 믿는 입장과 없다고 믿는 입장의 주장과 논거를 병렬적으로 제시한다. 이윽고 마지막에는 “과학적으로는 신의 존재를 증명하거나 부정할 방법이 없어. 하지만 많은 사람들이 종교적, 철학적, 개인적인 이유로 신을 믿거나, 혹은 믿지 않거나, 판단을 유보하면서 살아가고 있지.” 라고 말하며 결론내릴 수 없다고 말한다. 당연한 이야기를 당연하게 말한다… 답안의 정확도와 신뢰도가 썩 높지는 않지만 어쨌든 ChatGPT는 뭐라도 답을 한다.


그러나 사람은, 이러한 유형의 질문 앞에서는 저런 식의 정보 나열형 대답을 주저하게 된다. 누군가 내게 “신은 존재해?” 라고 묻는다면, 그 질문의 이면에는 너는 특별히 믿는 종교가 있는지, 신이 있다고 믿는다면 그것은 종교적인 관점에서의 절대신을 의미하는 것인지 아니면 우주의 생성과 구동 원리로서 일종의 자연철학적인 관점에서의 존재를 의미하는 것인지, 신이 있다고 믿는다면 그 믿음이 너의 다른 행동양식에 어떤 영향을 미치고 있는지 등을 종합적으로 묻고 있는 것과 같다. 하나의 질문은 여러 개의 질문을 복합적으로 끌고 다가오기 때문에 우리는 이러한 질문을 받고 몇 초 안에 ChatGPT처럼 술술 이야기하기란 어렵다. (평소 이 문제에 대한 신념이 확고하기에 신은 분명 있다고, 혹은 없다고 기계적으로 대답하는 사람도 물론 있겠지만 말이다.) 기계가 아닌 인간으로서 우리는 항상 답을 얻을 수는 없다.


AD_4nXd37xX4hcBgsamTypWhzPr6KZsjPAQwPaktSkZDVJY5yScZvWVxok2l76EZU833ogPma0CYW_2mLpG7Lp53tJE2monogCR3K5x_cBQR7pyBPS3dEho3O70Q2Qj27zclq99yOxEMnQ?key=uftqr18r1Yqx9dyLiVEgQSVn


적어도 내게는 쉽게 답을 할 수 없는 것들이, 답을 할 수 있는 것보다 훨씬 많다. 아는 것보다는 모르는 것이 훨씬 많다. 일본의 사상가 우치다 다츠루는 2024년에 펴낸 책 <도서관에는 사람이 없는 편이 좋다> 에서 이렇게 말한다.


“책이란 외부로 통하는 법입니다. 책은 독자를 ‘지금이 아닌 시대’와 ‘여기가 아닌 장소’로 데려가는 힘을 지녔습니다. 그래서 책 한 권이 거기에 있는 것만으로도 닫힌 공간에 자그마한 구멍이 생기고 그로부터 신선한 바람이 불어 들어옵니다. (중략) 도서관을 찾을 때마다 우리는 자신이 이만큼이나 앎이 부족하다는 사실에 놀라게 됩니다. 이 놀라움이 도서관에 다니는 보람이죠.”


우치다 다츠루의 말처럼, 책만 놓고 생각하더라도 우리는 모르는 것이 훨씬 더 많다. 국내 출판업계에는 한 해에 약 60,000 종에서 많게는 80,000 종의 신간 도서가 발간된다. 아무리 책을 좋아하는 사람이라도 한 해에 100권의 책을 읽기가 쉽지 않다는 점을 생각하면, 우리는 한 해에 쏟아지는 새로운 책의 1%도 다 읽지 못하고 흘려보내는 셈이다. 그런 책이 존재한다는 사실도 모른채, 즉 “모른다는 것을 모르는” 정보가 훨씬 더 많은 셈이다. 이런 상황이 몇 년만 누적되면 우리의 독서 행위는 책이라는 거대한 우주의 아주 자그마한 귀퉁이에 불과하다. 그러므로 언제나 아는 것보다 모르는 것이 많다고, 모른다고 생각하는 것이 옳다. 뭔가 모르는 게 많다고 생각할 때 우리는 ChatGPT와는 달리 쉽게 입을 열기 어려워진다.


MBA에서 과제를 해결해야 할 때 ChatGPT를 이용하는 것은 아무런 이질감이 없었고 오히려 너무나 편리하기만 했다. 그러나 우리가 살면서 겪는 다양한 상황은 MBA 수업에서 주어지는 과제와 꽤 다른 유형이 더 많다. 답을 내리기 어려운 문제, 답이 있는지조차 잘 모르는 문제를 두고 ChatGPT처럼 뭐라도 답을 제시하려고 하면 어딘가 어색하다는 느낌을 받을 수 밖에 없었다. 삶 속 어떤 문제는 단순히 긍정과 부정의 양면만을 병렬적으로 비교하는 것으로 답을 해서는 곤란한 문제도 있고, 또 어떤 문제는 답을 내는 순간 또다른 측면에서 고민해야 하는 문제가 동시에 생겨나는 유형의 문제도 있었기 때문이다. 이건 아무리 ChatGPT의 추론 능력과 창의적인 문제 해결 능력이 진보한다고 해도 해결될 수 없다고 생각했다. 그러니까 삶에 우리가 모르는 공백이 많다는 사실이, 머신러닝의 매력을 함정으로 만든다. 어디서부터 시작해야 할지 모를만큼 막막할 때 뭐든지 알고 있다며 말을 건네는 존재는 든든하지만, 그 존재에 귀를 기울이는 순간 우리가 그 다음 내딛을 수 있는 걸음은 제한적일 수 밖에 없다.


백 번 양보해서 어제까지의 나, 어제까지의 세상은 우리가 ChatGPT의 도움을 받아서 모두 알 수 있다고 해보자. 왜냐하면 이미 흘러간 일이고 발생한 일이기 때문이다.


그러나 내일은? 아니, 내일을 생각하기에 앞서서 오늘은? 오늘의 나와 현실은 어제의 나와 현실과 크게 다르지 않다고 과연 우리는 말할 수 있을까. 나는 어제를 알았던 것처럼 오늘을 안다고 말할 수 있을까. 내일에 대한 전망을 떠올리기에 앞서, 나는 오늘의 나에 대해서도 자신있게 말하지 못하는 것이다. 그건 코딩을 아무리 잘 만든다고 해서, ChatGPT 버전이 999까지 등장한다고 해도 해결될 수 없는 문제였다. 모르는 것은 끝내 모르는 것이다. 심보선 시인의 말처럼 말이다.



당신의 눈동자

내가 오래 바라보면 한 쌍의 신(神)이 됐었지


당신의 무릎

내가 그 아래 누우면 두 마리 새가 됐었지


지지난밤에는 사랑을 나눴고

지난밤에는 눈물을 흘렸던 것으로 볼 때

어제까지 나는 인간이 확실했었으나


오늘은 잘 모르겠어


- 심보선, 오늘은 잘 모르겠어, 시집 <오늘은 잘 모르겠어> 수록, 문학과지성사, 2017년



독특한 이번 시집의 제목 그대로 "오늘은 뭘 잘 모르시냐"고 묻자 시인은 "어느 시점마다 모르는 게 늘 있다"면서 "모르는 게 하나도 없는 게 이상한 거 아니냐"고 반문했다. "'아이, 알면서' '다 알잖아' '그런 거지 뭐' 이런 대화보다는 '나도 잘 모르겠어' '그런데 이런 거 아닐까' '그런데 또 모르지 뭐' 이렇게 대화해야 좋은 대화라고 생각한다"면서 "'모름'의 여지가 있어야 대화가 된다"고 덧붙였다.

- 심보선 시인 인터뷰, <'스타 시인' 심보선 "시는 말의 '뿔'이다">, 2017년



앞으로 거의 모든 영역에서 AI와 함께 살아가는 세상이 왔음을 부인할 수 없다. 아내와 나는 종종 2022년부터 2025년까지 MBA 과정에서 내가 경험한, 그리고 아내가 데이터 사이언스를 혼자 공부하며 느낀 ChatGPT 모델의 기술 발전을 이야기하며 이제 10살이 된 딸이 성장한 이후에는 훨씬 더 많은 영역에서 생성형 AI의 역할이 늘어날 것이라는 점에 공감했다. “그래도 AI가 할 수 없고, 인간만이 할 수 있는 직업이나 영역이 있지!” 라고 생각할 수 없을만큼 AI는 이미 우리 삶 곁에 가까이 와있다. 이미 많은 영역이 AI에 의존하고 있고, 앞으로는 의존을 넘어 대체될 것이라는 생각을 지울 수가 없다. 그렇다면 이제는, 학교에서 데이터 사이언스 수업을 많이 개설한 것처럼, 피할 수 없다면 적극적으로 그리고 윤리적으로 AI를 사용하는 법을 고민할 때다.


그럼 인간은, 간단한 생각조차도 ChatGPT가 대신 해줄지도 모르는 세상에서, 그럼 인간은 어떤 생각을 해야할까. AI의 시대에도 아래와 같은 생각은 우리가 계속해서 할 수 있지 않을까.


여전히 모르는 것이 더 많다는 생각.

우리의 삶은 미리 고민하고 합리적으로 계획하고 추론한대로만 흘러온 것이 아니라는 생각,

작은 비껴감, 작은 오류, 작은 무지, 작은 공백들이 모여 지금의 우리를 만들었다는 생각.

때로는 답을 내릴 수 없는 질문도 있다는 생각.

우리가 완벽하지 않다는 생각.

아무리 생각해도 오늘은 잘 모르겠다, 아니 오늘조차 잘 모르겠다는 생각.

그렇게 생각하면 다니엘 교수가 이야기한 문장을 다르게 적을 수 있을 것 같다.


The curse of human life is also its beauty:

You always (not) get an answer

keyword
매거진의 이전글Intermission. Home Stretch