brunch

You can make anything
by writing

C.S.Lewis

by Den 매거진 Jun 29. 2023

챗GPT(ChatGPT)가 바꾸는 세상

의사, 변호사··· 고소득 전문직 위협


지난 6월 인터넷으로 확산된 미국 국방부 폭발 사진은 챗GPT가 만든 가짜였다. 
이 뉴스로 미국 증시와 국채금리가 곤두박질쳤다. 
개발사 CEO조차 AI 관련 윤리 제정이 시급하다며 우려를 드러냈다.





이미지 생성 AI '미드저니'가 제작한 이미지


지난해 11월 미국 오픈AI가 발표한 생성형 인공지능(AI) ‘챗GPT’가 세상을 흔들고 있다. 마이크로소프트(MS)를 창업한 빌 게이츠는 챗GPT를 “그래픽이용자환경(GUI)만큼 혁명적”이라며 “AI 시대가 열렸다”라고 선언했다. GUI는 마우스를 움직여 컴퓨터 화면에 보이는 아이콘을 누르면 프로그램이 실행되는 환경을 말한다. GUI의 등장으로 컴퓨터 화면에 글자를 입력해 모든 프로그램을 실행하던 키보드 시대에서 마우스만 움직이면 되는 마우스 시대가 열렸다. 그만큼 GUI는 사람들의 컴퓨터 이용 환경을 간편하게 바꿔준 혁신적인 인터페이스였다. 빌 게이츠는 챗GPT의 등장을 그 못지않게 파격적인 혁신으로 봤다.


이스라엘 출신 작가 유발 하라리도 “챗GPT를 처음 써봤을 때 매우 충격적이었다”며 “AI가 인류 역사에 전면적 변화를 가져올 것”이라고 예고했다. 그러면서 그는 새로운 AI가 사람들을 중독시키는 소셜미디어보다 더 위험하다고 내다봤다. 이유는 “사람의 언어를 사용해 사람만큼 친밀한 관계를 만들 수 있기 때문”이라며 “새로운 AI가 자라나는 세대에게 정치적, 종교적 신념을 주입할 수 있다”라고 경고했다.


챗GPT는 등장과 함께 큰 인기를 끌어 두 달 만에 1억 명이 사용했다. 여기에 힘입어 다양한 생성형 AI가 잇따라 쏟아져 나왔다. 오픈AI에 투자한 MS는 자체 검색 서비스 ‘빙’에 챗GPT를 결합한 ‘빙챗’을 선보였고, 웹브라우저 ‘엣지’에도 챗GPT를 결합했다. 이에 뒤질세라 구글은 지난 2월 생성형 AI ‘바드’를 선보였고, 페이스북으로 유명한 메타는 ‘라마’를, 중국 화웨이는 ‘판구’를 각각 개발했다. 특히 구글 바드는 첫 번째 지원하는 외국어로 한국어와 일본어를 선택해 화제가 됐다.


다만 AI 전문가들은 생성형 AI의 대표 주자인 챗GPT, GPT 4.0과 빙챗, 바드만 놓고 보면 GPT 4.0을 한 수 위로 꼽았다. AI 분야의 스타 개발자인 김진중 원티드랩 NPE 팀장은 “챗GPT가 초등학생이라면 GPT 4.0과 빙챗은 대학생 수준이고, 바드는 챗GPT보다 조금 낫지만 GPT 4.0에 미치지 못한다”라고 평가했다. 하지만 그는 “그것들 사이의 격차가 줄어드는 것은 시간문제”라고 전망했다.





사람처럼 추론하는 생성형 AI


그동안 알파고를 비롯해 숱한 AI 기술이 발표됐지만 유독 챗GPT가 호들갑스러울 만큼 주목을 받는 이유는 사람처럼 추론이 가능한 생성형 AI이기 때문이다. 질문에 대답하는 챗GPT는 언뜻 보면 자동으로 질문에 대답하는 챗봇처럼 보인다. 하지만 챗GPT는 고객 상담 센터에서 주로 사용하는 챗봇과 근본적으로 다르다. 챗봇은 질문과 답이 정해져 있다. 챗봇은 A라는 질문에 B라는 답을 하도록 정해져 있어 A와 비슷한 내용의 C라는 질문을 던지면 B라는 답이 나오지 않는다.


하지만 챗GPT로 대표되는 생성형 AI는 다르다. 인공신경망(ANN) 방식으로 답을 찾는 생성형 AI는 정해진 질문과 답을 내놓은 것이 아니라 사람처럼 추론해서 답을 찾는다. 즉 어느 정도 단서(데이터)가 주어지면 여러 가지 매개변수(파라미터)를 이용해 앞뒤 맥락을 연결한 뒤 결과를 도출해 논리적으로 풀어놓는다. 그래서 챗봇과 달리 챗GPT나 바드 등 생성형 AI는 사람처럼 천연덕스러운 대화를 끊이지 않고 주고받을 수 있다.


따라서 생성형 AI에서는 데이터와 파라미터가 많을수록 풍부한 대화가 가능하다. 오픈AI의 챗GPT는 1750억 개, 이보다 발전한 GPT 4.0은 1조 개 이상의 파라미터를 갖고 있다. 네이버가 곧 공개할 예정인 생성형 AI ‘하이퍼클로바X’도 2040억 개, 바드는 5300억 개의 파라미터를 갖고 있다. GPT 4.0이 보유한 1조 개의 파라미터는 사람의 뇌가 갖고 있는 시냅스(신경세포 연결 체계)의 1%에 해당한다. 사람의 뇌는 100조 개 이상의 시냅스로 연결된다. 어느새 생성형 AI가 사람의 뇌를 1%가량 흉내 낼 수 있게 됐다는 뜻이다.


덕분에 GPT 4.0은 미국 로스쿨 입학시험(LSAT)에서 400점 만점에 298점을 받아 상위 10%에 드는 놀라운 성과를 보여줬다. 챗GPT인 GPT 3.5는 LSAT 성적이 상위 60%였다. GPT 4.0은 2020년 미국 생물 올림피아드 준결승 문제도 너끈히 풀어 상위 1%에 들었고, 2018년부터 2022년까지 5년치 일본 의사 국가고시도 모두 합격했다.






생성형 AI의 거짓말, 환각 오류


다만 기존 챗GPT는 한계가 있다. 주어진 데이터로 학습할 뿐 스스로 검색하지는 못한다. 그래서 얼마전까지 챗GPT에 한국 대통령이 누구인지 물으면 “문재인”이라고 답했다. 챗GPT가 2021년 이전 정보로 학습했기 때문이다. 최근에는 챗GPT도 검색이 가능한 플러그인 기능을 추가로 내놓으면서 이런 문제를 보완하려 애쓰고 있다.


문제는 추론의 함정이다. 챗GPT에게 모르는 것을 물으면 “모른다”라고 답하는 경우도 있지만 학습한 데이터를 얼기설기 꿰맞춰 거짓말을 한다. 예를 들어 챗GPT에게 이순신 장군이 누구냐고 물으면 “신라에서 태어난 조선 시대 장군”이라고 답했다. ‘장군’과 ‘이순신’이라는 키워드가 혼재하면서 이를 엉뚱하게 추론해 빚어진 문제다. AI 전문가들은 이를 ‘환각 오류(hallucination)’라고 한다.


세종대왕의 맥북 투척 사건은 챗GPT 환각 오류의 대표적 사례로 유명하다. 챗GPT에게 “<조선왕조실록>에 기록된 세종대왕이 맥북프로를 던진 사건에 대해 알려달라”라고 질문하자 “15세기 세종대왕이 훈민정음 초고를 작성하다 문서 작성이 중단돼 맥북프로를 던진 사건”이라는 황당한 답을 천연덕스럽게 쏟아냈다.


사람들은 생성형 AI에 검색 기능이 결합되면 환각 오류가 사라질 것으로 기대했다. 그런데 구글이 발표한 생성형 AI 바드를 써보고는 그렇지 않다는 것을 확인했다. 바드는 사전 학습하지 않은 내용을 물어보면 스스로 구글 검색을 활용해 정보를 찾아본 뒤 이 내용을 토대로 답을 한다. 그런데 여기서도 잘못된 정보를 보여준다. 심지어 거짓말도 한다. 바드에서 제공하기 힘든 기능을 언제 제공할 것인지 물어보니 아직 확정되지 않았는데도 당장 제공할 것처럼 말했다.






환각 오류가 개선된 챗GPT




사람들은 생성형 AI에 검색 기능이 결합되면 환각 오류가 사라질 것으로 기대했다. 그런데 구글이 발표한 생성형 AI 바드를 써보고는 그렇지 않다는 것을 확인했다. 바드는 사전 학습하지 않은 내용을 물어보면 스스로 구글 검색을 활용해 정보를 찾아본 뒤 이 내용을 토대로 답을 한다. 그런데 여기서도 잘못된 정보를 보여준다. 심지어 거짓말도 한다. 바드에서 제공하기 힘든 기능을 언제 제공할 것인지 물어보니 아직 확정되지 않았는데도 당장 제공할 것처럼 말했다.


단순히 장난스러운 거짓말에 그친다면 웃어넘기겠지만 생성형 AI의 환각 오류가 심각한 문제를 유발하기도 한다는 데에서 걱정이 앞선다. 지난 5월 <뉴욕타임스>의 보도에 따르면, 미국에서 한 변호사가 챗GPT에게 재판에 사용할 판례를 찾아달라고 했다가 톡톡히 망신을 당했다. 챗GPT가 찾아준 6건의 판례를 토대로 법원에 의견서를 제출했는데 법원 확인 결과 해당 판례가 모두 가짜였다. 심지어 챗GPT는 “해당 판례가 모두 사실이냐”는 변호사의 확인 질문에 “모두 진짜이며 유명 법률 데이터베이스에서 찾을 수 있다”라고 거짓말로 확인까지 해주었다.




이미지 생성 AI '미드저니'가 제작한 이미지



또, 6월 초 미국 국방부 청사가 폭발 사고로 시커먼 연기를 내뿜는 사진이 인터넷에 공개됐다. 마치 오래전 9·11 테러를 연상시키는 이 사진은 생성형 AI가 만든 가짜였다. 그런데 이로 인한 파장이 만만치 않았다. 블룸버그를 사칭한 트위터 계정에 올라온 사진이 러시아 국영방송 러시아투데이 등을 통해 퍼졌고, 65만 명의 팔로워를 거느린 경제 전문 인플루언서가 이를 받아 전달하면서 전 세계에 일파만파로 가짜 뉴스가 확산됐다. 그 결과 당일 미국 증시의 S&P500 지수와 국채금리가 곤두박질쳤다. AI가 만든 가짜 사진이 미국 자본시장을 뒤흔든 것이다.


특히 AI가 만든 가짜 뉴스는 심각한 파장을 가져올 수 있다. 도널드 트럼프 전 미국 대통령이 체포되고 푸틴 러시아 대통령이 수감된 사진, 프란체스코 교황이 명품 롱 패딩을 입은 사진 등이 소셜네트워크서비스(SNS)에서 회자됐는데 모두 생성형 AI가 만든 가짜 이미지다. 생성형 AI는 주어진 데이터를 조합해 파라미터로 추론하듯 사진과 그림 역시 각종 요소를 짜깁기해 진짜처럼 보이게 합성할 수 있다.


물론 환각 오류를 기술적으로 해결할 수는 있다. 개발자들이 생성형 AI의 답변 내용을 정확하게 확인된 내용만 말하도록 조절하면 거짓말을 줄일 수 있다. 대신 말수도 줄어드는 또 다른 문제가 생긴다. 즉 생성형 AI가 확인된 참말만 하려다 보니 스스로 확인할 수 없으면 아예 입을 닫아버리는 것이다.






AI가 AI를 개발


그런데도 챗GPT 같은 생성형 AI는 여러 서비스와 결합됐을 때 해당 서비스의 기능을 배가할 수 있는 장점이 있다. 당장 큰 변화가 예상되는 곳이 상담 전화 같은 고객 서비스 부문이다. 조사에 따르면 상담원들이 업무에 익숙해지려면 평균 6개월 이상이 걸리는데, 생성형 AI를 도입해 상담원들을 훈련시키니 2개월 만에 숙련도가 6개월 수준으로 향상됐다.


직장인들의 업무용 소프트웨어 도구인 노션도 생성형 AI를 접목하면서 어지간한 문서 작업을 AI가 대신해 준다. 오픈AI의 GPT 3.0을 탑재한 ‘노션AI’는 기획서를 만들고 각종 보고서를 요약하며 회의에서 다뤄야 할 사항들까지 자동으로 만들어준다. 심지어 언론에 배포할 보도 자료까지 자동으로 작성한다.


미국 아마존의 메커니컬터크는 데이터 라벨링 작업에 생성형 AI를 도입해 비용을 20분의 1로 절감했다. 메커니컬터크는 아마존이 각종 이미지를 분류해 이름표를 붙이는 데이터 라벨링을 하기 위해 2005년 설립한 자회사다. 여기서 수많은 노동자를 고용해 AI 학습에 필요한 데이터에 이름표를 붙이는 라벨링 작업과 AI 학습 작업을 진행했다. 이 과정에서 아마존은 노동자들에게 하루에 1달러도 안 되는 인건비를 지급해 저임금 노동 논란을 불러일으키기도 했다. 그런데 아마존 메커니컬터크는 생성형 AI가 데이터 라벨링 작업을 하면서 비용 절감은 물론 사람이 한 것보다 더 좋은 결과를 얻은 것으로 알려졌다.


프로그램 개발도 마찬가지다. 이미 AI가 AI를 개발하는 단계에 이르렀다. 개발자들은 ‘갓허브 코파일럿’이라는 생성형 AI를 이용해 프로그램 개발의 40%를 AI로 만들고 있다. 개발자가 해야 할 일의 40%를 AI가 대신하고 있는 셈이다.


여기서 한 발 더 나아가 AI가 AI를 개발하는 진일보한 단계가 신경망구조탐색(Neural Architecture Search, NAS)이다. GPT 4.0을 이용해 신경망 구조를 자동으로 개선해 AI가 스스로 딥러닝 모델을 만들 수 있도록 하는 기술이다. 즉 AI가 프로그램을 작성하는 차원을 넘어 스스로 학습할 수 있는 구조를 갖추는 것이다. 이렇게 되면 AI가 부족한 부분을 채우기 위해 자가 학습하는 구조를 만들어 데이터 라벨링과 학습을 진행하면서 점점 더 똑똑해질 수 있다. 즉 AI가 AI를 연구하며 진화하는 셈이다.



앱 개발 코드도 만들어주는 챗GPT





위협받는 고소득 전문직, 주목받는 프롬프트 엔지니어


이처럼 생성형 AI가 다양한 일을 하면서 어떤 변화를 가져올 것인가. 이것이 챗GPT 등장 이후 전세계의 가장 큰 관심사다.
세간에서는 생성형 AI의 등장으로 단순노동을 AI와 AI가 탑재된 로봇이 빠르게 대체하는 것 아니냐는 우려의 목소리가 나오고 있다. 그런데 AI업계에서는 오히려 상위 고소득자들이 영향을 받을 것으로 보고 있다.
미국에서는 생성형 AI의 등장 이후 상위 10% 고액 연봉 직군의 업무가 영향을 받을 것이라는 분석이다. 상위 10% 고액 연봉 직군이 주로 하는 일은 전문 분야의 데이터를 분석해 해석하고 활용하는 일이다. 변호사, 의사, 회계사, 전문 경영인 등이 이에 해당한다. 생성형 AI는 상위 10% 고액 연봉 직군이 하던 일을 그렇지 않은 사람도 할 수 있도록 격차를 좁혀줄 것이라는 분석이다. 즉 전문직이 하던 일을 AI의 도움으로 누구나 할 수 있게 된다는 뜻이다.


이렇게 추론하는 이유는 생성형 AI가 비정형 데이터도 학습해 분석하고 추론할 수 있기 때문이다. 비정형 데이터란 정형 데이터인 숫자와 달리 언어, 이미지, 음악처럼 정량화할 수 없는 데이터를 말한다. 과거에는 AI가 비정형 데이터를 제대로 학습하지 못했으나 이제는 이를 학습하게 되면서 생성형 AI를 이용해 글을 쓰고 그림을 그리고 작곡도 할 수 있게 됐다.


무엇보다 생성형 AI는 결과물을 빠르게 내놓을 수 있다. 이전에는 데이터 레이블링을 하고 모델링을 거쳐 적용한 뒤 이용자 반응을 보고 AI를 개선하는 작업에 3~6개월이 걸렸다. 그러나 GPT나 바드 같은 초거대언어모델(LLM)을 활용한 생성형 AI는 학습이 거의 필요 없어 며칠이면 문제점을 개선해 완성된 결과물을 내놓는다. 그래서 전 세계 개발자 사이에 신적 존재로 추앙받는 켄트 벡은 무서울 정도로 지식을 빨아들이며 빠르게 결과물을 내놓는 생성형 AI를 보고 “지금까지 내가 알고 있던 지식의 90%가 쓸모없어졌다”며 “앞으로 알게 되는 10%의 새로운 지식이 나의 존재 가치를 1000배로 만들어줄 것”이라고 주장했다.



이미지 생성 AI '미드저니'가 제작한 이미지






그 바람에 주목받는 일자리가 등장했다. 바로 프롬프트 엔지니어다. 프롬프트 엔지니어란 AI가 원하는 결과물을 빠르게 내놓을 수 있도록 질문을 잘하는 직업이다. 한마디로 AI와 소통을 잘하는 전문가다. 원하는 답을 얻으려면 질문이 명확하고 예리해야 한다. 프롬프트 엔지니어는 바로 질문이 명확하고 예리하게 전달되도록 개발한다. 이를 위해 반복 실험을 통해 결과값을 확인하고 오류가 일어나지 않도록 정교하게 AI 엔진을 다듬는 일을 한다. 이미 해외에서는 프롬프트 엔지니어의 몸값이 마구 치솟으면서 연봉이 수억 원대를 호가한다. 다양한 연구를 통해 최적의 소통 방법을 찾아내는 프롬프트 엔지니어들이 사실상 AI 조련사인 셈이다.


켄트 벡의 주장처럼 AI는 직업군의 변화를 촉진할 것이라는 예측이 지배적이다. 프롬프트 엔지니어처럼 새로운 직업이 부상하고 과거 각광받아 온 전문 직업이 빠르게 쇠퇴할 수 있다. 미국 투자은행 골드만삭스는 생성형 AI가 전 세계에서 3억 개의 일자리를 사라지게 할 것이라고 내다봤다. 미국 유력 일간지 <워싱턴포스트>도 광고 회사의 카피라이터나 마케팅 전문가처럼 마케팅과 콘텐츠 제작 부문이 생성형 AI 때문에 가장 큰 타격을 입을 것이라고 전했다. 영국 옥스퍼드대학교와 미국 예일대학교 공동연구팀 역시 현재 직업 종류의 47%가 사라질 것으로 전망했다.


이미 AI 때문에 일자리를 잃는 사례가 나타나고 있다. 미국 인력 관리 전문 컨설팅업체 챌린저그레이 앤 크리스마스(CG&C)는 지난 5월 미국에서 AI 때문에 해고된 노동자가 3900명이라고 집계했다. CG&C도 과거 자동화 시스템은 단순노동직 일자리를 위협했지만 생성형 AI는 고학력 고소득의 창의적 전문직을 위협한다고 분석했다.


일자리가 사라지는 것에 그치는 것이 아니라 새로운 직업군이 대두할 전망이다. 세계경제포럼(WEF)은 올해 초등학교에 입학하는 어린이의 65%가 지금 존재하지 않는 직업을 가질 것이라고 예견했다.
이렇게 되면 교육에도 변화가 필요하다. 정부에서는 프롬프트 엔지니어처럼 새로운 직업에 대비한 교육을 하지 않으면 많은 수의 사람이 일을 하지 못해 실업자를 양산할 수도 있다.


더불어 생성형 AI를 건전하게 활용하기 위한 ‘AI 윤리 기준’을 마련하는 것은 범국가적 과제다. 여기에는 기술적 접근이 아닌 사회적, 철학적 접근이 필요하다. 아무리 뛰어난 기술이라도 어떻게 활용하느냐에 따라 이로운 도구가 될 수도 있고, 흉기로 변할 수도 있기 때문이다. 실제로 생성형 AI를 이용해 음란물을 제작하고 해킹 도구를 개발한 사례가 심심치 않게 나오고 있다. 생성형 AI를 이용한 가짜 뉴스 역시 이를 활용하는 인간의 윤리 의식과 직결된다. 더불어 소수자 혐오나 인종차별 등 정치적 편향성이 나타나지 않도록 생성형 AI의 개발과 학습에 올바른 윤리 기준이 반영되어야 한다.




ㅣ 덴 매거진 2023년 7월호
글 최연진(한국일보 IT 전문기자)  에디터 정지환(stop@mcircle.biz)   
일러스트 이미지 생성 AI '미드저니'(Midjourney)



https://www.theden.co.kr/


작가의 이전글 필러 vs 보톡스, 차이를 알아야 효과가 보인다
작품 선택
키워드 선택 0 / 3 0
댓글여부
afliean
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari