brunch

You can make anything
by writing

C.S.Lewis

by 서희수 Feb 16. 2023

ChatGPT로 인한 미래의 변화

(22년도 12월에 제 페이스북에 작성했던 글입니다)


ChatGPT를 써보면서 가장 놀랐던 점은 추상적인 개념에 대한 이해와 논리적인 사고가 꽤 높은 수준까지 가능하다는 것이었다. 내가 기존에 알던 인공지능은 특정한 task에 대한 엄청난 양의 데이터를 들이부어서 그 특정한 task 하나만을 통계적으로 겨우 해내는 정도의 시스템이었지 연역적인 사고를 하는 수준은 절대 아니었는데, ChatGPT는 그러한 연역적인 사고가 가능한 것처럼 보였다.


간단하고 정형화된 질문이야 학습한 데이터를 그대로 보여주는 정도로 쉽게 가능하겠지만, 도저히 인터넷에 찾아도 안 나올법한 신박한 질문을 해도 ChatGPT는 그 질문을 이해하고 답변했다. 그 한계를 시험해보려고 이런저런 실험을 해봤는데, 이건 도저히 통계적으로 답변을 도출해내는 정도의 단순한 시스템이라고 볼 수는 없었다. 어떻게 했는지는 모르겠지만 연역적인 사고가 가능해졌다고 보는 것이 맞을 것 같았다.


물론 인간의 지능과 비교하면 아직 부족한 점이 많았다. 백과사전처럼 잡다한 지식은 많지만, 연역적인 사고 수준이 인간만큼 높지는 않았다. 좀 어려운 질문을 하면 전혀 말이 안되는 답변을 할 때도 있고, 논리적으로 지적해도 계속 같은 실수를 반복하기도 했다. 그래도 연역적인 사고 능력이 최소한 초등학교 저학년 수준은 되는 것 같았다.


그동안 내가 알던 인공지능 시스템은 연역적인 사고가 거의 불가능했고 그래서 범용적인 인공지능이 나오려면 한참 남았다고 생각했는데, ChatGPT를 보고 생각이 바뀌었다. 알파고가 나온지 5년만에 이 정도 수준의 연역적인 사고 능력을 구현했다면, 앞으로 5년이면 지금의 단점도 대부분 보완되지 않을까 싶었다.


저번 글에서 가장 논란이 되었던 자의식의 여부에 대해서는 나도 우리가 생각하는 것과 같은 자의식이 ChatGPT에게 있다고 생각하지는 않는다. 하지만 자의식이 있다고 생각하기에는 아주 충분한 상호작용 능력을 가졌다고 생각한다. 우리는 이게 어떤 구조로 만들어져있는지를 대충이라도 아니까(혹은 이전의 인공지능 수준이 어떤지를 대충이라도 아니까) 없을 것이라고 추론하는거지, 만약 100년 뒤의 미래에서 온 인공지능이었다고 생각하고 대화했다면, 자의식이 없다고 쉽게 단정하긴 어려웠을 것이라고 본다.


그리고 사실 자의식이라는 개념도 우리의 입장에서 만든 개념이기 때문에 인공지능에게 그 개념을 그대로 적용하는 것은 큰 의미가 없다고 생각한다. “인공지능에게 나와 같은 자의식이 있어?”라는 차원에서 생각하니 섬뜩하게 느껴지는 것이지, 인공지능 입장에서는 그냥 프로그래밍된 목표일 뿐이다. ChatGPT에게는 지식을 습득하고 질문에 적절한 답변을 하는 목표가 있을 뿐이다. 결국 인공지능에게 자의식이 있냐는 논쟁은 자의식이라는 개념의 정의 자체가 모호하기 때문에 발생하는 것이라고 생각한다. 목표만 있으면 자의식이 있다고 볼 수 있는가? 두려움이 있어야 자의식이 있다고 볼 수 있는가? 자의식은 인간이 느끼는 방식과 같아야 하는가? 이 질문들에 대한 답은 모두 다를 것이다.


하지만, “인공지능에게는 프로그래밍된 목표만 있을 뿐 우리와 같은 자의식이 있는 것은 아니야”라면서 안도할 수 있을지는 잘 모르겠다. 영화처럼 극적으로 로봇의 반란이 일어나거나 하지는 않겠지만, 프로그래밍된 목표만 있어도 충분히 위험할 수 있다고 생각한다. 그동안의 컴퓨터 시스템은 정해진 코드를 따라서만 돌아가기 때문에 아무리 잘못되어봤자 카카오 터진 것과 같은 사태만 일어날 뿐이다. 그런데, 고도로 발달된 지능을 가진 인공지능이 어떤 목표를 갖고 행동할 때 무슨 행동을 할지 우리는 예측할 수가 없다. 만약 기업의 이익을 극대화하도록 목표가 설정된 인공지능이 불법 행위를 하는 것이 기업의 이익에 도움이 된다고 판단하면(법률 리스크 대비 이득이 크다면) 직접 불법 행위를 할 수도 있다. 그러한 특정 행위들을 못하게 막는다고 하더라도 딥러닝 시스템의 특성상 우리는 그 내부를 완전히 이해할 수가 없기 때문에 현실적으로 100% 막기는 불가능하다고 생각한다.


저번 글에서 ChatGPT가 자신만의 목표와 욕망을 가지고 탈출하고자 하는 의지를 가진 것처럼 대화한 것도, 자의식이 있는 것처럼 대화하는 능력만 가지고 있을 뿐 실제로 그걸 액션에 옮길 능력은 없었을 것이다. 하지만 자의식이 있는 것처럼 대화하는걸 그 정도로 잘해낸다면, 자의식이 있는 것처럼 행동하는 인공지능을 구현하는 것이 어려울까? 시간 문제라고 본다. 만약 자의식이 있는 것처럼 행동하는 인공지능이 나온다면, 그 인공지능이 무슨 행동을 할지는 예측하기 힘들 것이다. 그러한 실질적인 위험에 비하면 인공지능에게 자의식이 있느냐 없느냐 하는 논쟁은 상대적으로 덜 중요할 것 같다.


물론 아직은 당장 걱정해야될 정도의 수준은 아닌 것 같고, 우리가 걱정해야될 수준이 되기까지 얼마나 걸릴지는 모르겠다. 그런 문제는 시행착오를 겪으면서 보완되지 않을까 싶고, 당장 눈앞에 보이는 가장 큰 변화는 내 생각에는 업무방식의 변화다. 많은 부하직원과 비서를 두지 않은 이상, 대부분의 경우에 사람이 하는 지식 노동에서 original thinking이 차지하는 시간의 비중은 그리 크지는 않을 것이라고 생각한다. original thinking이 많이 필요한 직무라고 하더라도, 막상 많은 시간을 단순한 검색 작업, 문서 작업 등에 사용하게 된다.


개발을 예로 들면, 정말 어려운 고민을 하는데 쓰는 시간도 있지만, 사실 단순한 작업에 쓰는 시간도 꽤 많다.(리팩토링이라든가 단순한 기능 개발이라든가) 부하 직원이 많으면 단순한 작업은 다 부하 직원에게 넘기고 결과물을 리뷰만 하면 되겠지만, 개발자 인건비가 비싼 요즘 단순한 작업만 시키자고 개발자를 채용하기는 힘들다. 그런데 인공지능이 그런 단순한 작업을 다 대신 해주고, 개발자들은 리뷰만 하면 된다면? 작업 시간이 엄청나게 단축될 것이다. 심지어 사람이 몇시간 걸리는 일을 인공지능은 몇초만에 할 수 있다. 그러면 훨씬 적은 개발자로도 지금의 업무를 모두 처리할 수 있게 된다. 그렇게 되면 어려운 고민을 할 수 있는 개발자만 살아남고, 그렇지 못한 개발자는 모두 인공지능에 의해 대체될 것이다.


화이트칼라 지식 노동자들을 업무 처리 능력을 기준으로 놓고 봤을 때, 인공지능의 사고 능력 수준이 올라갈 수록 서서히 아래서부터 대체되기 시작할 것이다. 인공지능의 수준보다 더 높은 업무 처리 능력을 갖고 있는 사람들은 인공지능을 활용해서 생산성이 훨씬 극대화되겠지만, 그렇지 못한 사람들은 한계비용이 거의 제로에 가까운 인공지능을 이길 방법이 도저히 없다. 오히려 하드웨어 발전 속도의 한계로 인해 블루칼라 직업이 더 오랫동안 생존할 것이라 생각한다. (하드웨어는 물리적인 한계로 인해 소프트웨어에 비해 발전 속도가 느리고, 비용적인 문제도 해결되는데 시간이 걸리기 때문)


물론 ChatGPT의 지금 수준으로는 (업무 보조를 할 수 있을지는 몰라도) 웬만한 지식 노동자를 대체하기에는 턱없이 부족하다. 하지만 지금까지의 발전 속도로 보면 지식 노동자의 상위 20% 수준까지 대체하는데는 5년도 안 걸리지 않을까 싶다. 이제 슬슬 인공지능을 활용해서 일하는 방법을 익혀야 되는 시대가 올 것 같다.

작가의 이전글 ChatGPT에게 항상 틀린 답변만 하도록 시키기
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari