문제 정의 능력, 디테일 파악 능력, 의사결정 능력
1.
최근 스타트업, IT 분야에서 연일 Chat GPT가 엄청난 화제를 몰고 온다. GPT-4의 등장부터, GPT가 적용된 Bing Chat, GPT-Plugin까지. GPT가 어떤 움직임을 보이면 페이스북, 링크드인, 트위터 등의 타임라인이 GPT 소식으로 도배된다.
2.
나 역시도 Chat GPT가 나오자마자 바로 가입해서 써봤고, 그 성능에 대해서 놀라서 이것저것 질문을 던져봤다. 특히 “애플의 성공 요인을 알려줘”, “과르디올라와 무리뉴 전술의 차이를 알려줘” 등의 질문을 해봤을 때 특히나 놀랐다. 사람이 하면 적어도 몇 시간에서 며칠이 걸리는 답변을 순식간에 보여주니까 놀랄 수밖에 없었다. 심지어 “회원가입 코드를 javascript로 짜줘”라는 요청에도 순식간에 대답했다.
3.
사람들이 어느 정도 Chat GPT에 익숙해지자, Chat GPT가 학습모델인 걸 이용해서 끝말잇기를 하거나 소설을 쓰는 식으로 활용을 하기 시작했다. 특히 ‘세종대왕 맥북 던짐 사건‘과 같은 짤은 Chat GPT를 잘못 학습시킨 경우의 정점이라고 볼 수 있다. 끝말잇기와 소설 같은 경우는 유머로 넘길 수 있지만, 사용자에 따라서 Chat GPT를 얼마든지 악의적으로 사용할 수 있다는 것을 보여준 사례다.
4.
여기서는 Chat GPT의 윤리적인 사용 문제를 다루려고 하는 건 아니다. 여기서 중요한 건 사람이 Chat GPT에 최초의 질문을 한다는 것이다. 컴퓨터, 데이터 분야에서는 ‘Garbage in, Garbage out’이라는 유명한 말이 있다. 잘못된 데이터를 아무리 넣고 잘 처리해 봤자 쓸모없는 결과가 나올 뿐이라는 말이다.
5.
이는 Chat GPT에도 그대로 적용된다. 아무리 Chat GPT가 양질의 대답을 사람과 비교할 수 없는 속도로 빠르게 낸다 해도, 질문에 대한 답을 할 뿐이다. 즉, 질문이 제대로 되지 않으면 그에 따라서 자연히 답변도 제대로 되지 않는다. 결국 GPT에게 올바른 질문을 해야 올바른 대답이 나온다.
6.
첫 질문을 하는 건 Chat GPT가 할 수 없다. 첫 질문은 스스로가 머리를 써서 해야 한다. 어떤 질문이 좋을지, 어떻게 질문해야 정확할지 고민해야 한다. Chat GPT에게 ‘특정 주제에 관해 어떤 질문을 해야 할까’ 질문하는 것도 좋은 질문을 하기 위한 노력이다. Chat GPT는 좋은 질문을 도출해 내기 위한 도구다.
7.
그래서 결국 어떤 직무로 일하더라도 ‘어떤 질문을 할 것인가’, 즉 문제 정의 역량이 더 중요해졌다. 정답을 만드는 정보는 쉽게, 빠르게 접할 수 있고, 답을 도출하는 시간 역시 계속해서 비약적으로 빨라지고 있다. 즉, 평범한, 또 어느 정도 괜찮은 정답을 만드는 것으로는 자체적인 경쟁력을 확보할 수 없다. 설령 그런 경쟁력이 있다 하더라도 순식간에 따라 잡힐 수 있다.
8.
문제 정의 역량 이외에도, 디테일한 부분을 잡아내는 역량 역시 중요하다. 위에서 말한 ‘세종대왕 맥북 던짐 사건’처럼 아직까지는 부정확한 답을 내릴 수도 있다. 이건 완전히 틀린 내용이라 누구라도 쉽게 잡아낼 수 있지만, 정말 미묘하게 틀린 부분은 해당 분야의 전문가가 아니면 잡아내기 힘들다.
9.
그래서 어찌 보면 역설적일 수도 있지만 자기 분야에 대한 전문성을 계속해서 길러야 한다. 만약에 Chat GPT를 이용해서 코드를 짰다고 했을 때, Chat GPT가 알려준 코드를 바로 쓸 수 있을까? 백지상태에서는 가능할 수도 있겠지만, 대부분의 경우에서는 불가능할 것이다.
10.
이미 존재하던 코드가 있다면, 그 코드에 맞는 새로운 코드를 짜야하기 때문이다. Chat GPT가 만든 코드는 기존 히스토리를 모른 채 짠 코드다. 따라서 사람이 기존 코드에 맞춰서 변형하고 검수해서 활용해야 한다. 즉, 마지막에는 사람이 디테일하게 기존 코드를 분석하고 새로운 코드를 분석해서 최적의 코드를 찾아야 한다. 코드뿐만 아니라, 모든 분야에 동일하게 적용된다. 정답을 찾고 이를 기존 현황에 맞춰서 해석하고 적용하는 디테일한 능력이 필요하다. 그리고 이런 디테일한 부분을 캐치하는 능력은 전문성으로부터 나온다.
11.
마지막으로, 좋은 의사결정을 하는 능력이 더 중요해질 것이다. Chat GPT는 가치판단에 대한 질문을 할 경우, 정확한 답변을 제공하지 않고 ‘더 많은 요소를 고려해야 한다’, ‘신중하게 선택해야 한다’ 등의 답변을 한다. 나중에는 가치 판단에 대한 답변을 제공할 수도 있겠지만. 그렇다고 해도, 최종 결정은 사람이 해야 할 것이다. Chat GPT가 추천하는 대로 의사결정을 내렸다가 실패한다면 Open AI 한테 가서 책임을 물을 것도 아니고, 샘 알트만한테 따질 수도 없으니.
12.
정보를 많이 아는 것과 의사결정을 잘하는 것은 전혀 다르다. 정보가 아무리 많아도 좋은 정보가 아니어서 좋지 않은 의사결정이 나올 수도 있고, 좋은 정보가 많아도 제대로 해석하거나 활용하지 못해 좋지 않은 의사결정이 나올 수도 있다. 좋은 의사결정을 하기 위해서는 ‘의사결정에 필요한 정보가 무엇인가’, ‘해당 정보가 좋은 의사결정을 위해 필요한 정보인가’, ‘정보를 정확하게 해석했는지’ 등의 질문을 스스로 할 수 있어야 한다.
13.
중간 과정은 Chat GPT가, AI 툴이, 다양한 도구가 도와줄 수 있지만, 올바른 최초의 질문을 던질 수 있는 ‘문제 정의 능력’, 아주 미묘하고 사소한 부분을 캐치할 수 있는 ‘전문성에 기반한 디테일 파악 능력’, 모든 정보를 종합해 최선의 판단을 내리는 ‘의사결정 능력’은 점점 더 중요해질 것이고, 이 능력들이 모든 직군에서의 핵심 경쟁력이 될 것이다.
ASH 님의 브런치에 게재한 글을 편집한 뒤 모비인사이드에서 한 번 더 소개합니다.