brunch

You can make anything
by writing

C.S.Lewis

by 청블리쌤 Jul 01. 2023

AI와 맞짱 뜰 수 있는 인간 교사의 경쟁력 2

GPT 제너레이션, 진짜 챗 GPT 활용법

최근 챗 GPT 관련 도서를 여러 권 읽었다. 모두 각기 다른 장점이 있었지만, 난 특히 이 책의 명확한 설명이 마음에 들었다. 책 내용 중 몇 부분만 발췌하여 소개하려 한다. 사실적 묘사에 저자의 예측이나 의견이 담겨 있지만, 전문가가 아닌 나로서는 그 내용에 대해 덧붙일 말이 없다. 자세한 이야기는 직접 확인해보시길.

 

<Chat GPT란?>  

    Chat : Chatting 대화하는 AI  

    GPT : Generative Pre-trained Transformer 사전훈련생성변환기  

    Generative – 기계 스스로 학습한 알고리즘으로 새로운 글, 이미지, 영상 등을 생성하는 기술  

    Transformer – AI가 동작하는 방법. 기존의 AI는 이미지의 라벨을 달고 통째로 인식하는 방식으로 학습했다면, 트랜스포머는 요소들 사이의 패턴을 수학적으로 찾아냄.  

 

<Chat GPT 특성>  

    글쓰기, 대화에 특화된 생성 AI.  

    새로운 정보가 생성되니 새로운 데이터도 만들어 내고, 딥러닝을 통해 스스로 언어를 생성하고 추론하는 능력도 가짐.  

    예전 AI는 사용자가 원하는 것과 가장 비슷한 것을 찾아 제시했지만 생성하는 AI는 그림을 말로 설명하면 그림을 새로 그려줌.  

 

<파라미터(매개변수)란?>  

    x, y, t 같은 것을 매개변수, 그 안에 2, 4, 6과 같은 값이 들어가는 것이 인수(파라미터 안에 들어가는 변수). 파라미터값이 클수록 더 많은 정보를 받아들일 수 있음.  

    GPT-2 15억 개 파라미터, GPT-3 1,750억 개, GPT-4 1-100조 개  

 

<Chat GPT의 차별성>  

    알파고는 바둑분야. GPT는 범용적 활용.  

    구글 – 검색페이지마다 광고삽입 가능(수익모델). 검색 결과가 너무 많음.  

    GPT – 바로 원하는 답변(광고 삽입 여지 없음). 원하는 결과 알고리즘으로 추천. 앞에서 한 대화의 맥락 기억. 검색의 패턴이 달라짐.  

    구글, 페이스북, 네이버 - 필드형 플랫폼(자기 플랫폼 밖에 나가지 못하도록 하는 정책)  

    GPT – 게이트형 플랫폼(확장 연결형 유사 플랫폼) - 개인의 범용적 활용 가능  

 

<대학 교육에 미칠 영향>  

    대학 교육현장 리포트 대체? AI 저작물 판별 AI 적발 성공률 26% 정도  

    리포트 대신 발표 중심이나, 현장에서 직접 손으로 쓰는 방향으로 바뀔 수도  

    학생개인에게 맞는 개별 맞춤 강의 가능.  

    학교 선생님 역할 변화 – 학생 자신의 흥미, 수준에 맞춰 학습 컨텐츠 커스터마이징(Customizing)한다고 했지만, 대부분의 학생들은 자신이 좋아하는 것이나 해야 하는 것에 대한 뚜렷한 자의식 없음. 그래서 학습계획을 짜고, 학생들의 생활을 코칭하는 것, 그러니까 학생들을 케어하는 것이 핵심이 될 것임. 개인이 관심 있는 영역을 찾아 개인 맞춤형 커리큘럼을 짜주는 공부 컨설턴트 역할이나 학습이 힘들거나 잘 안 풀릴 때 멘탈을 관리해주는 상담사 역할.  

 

<GPT 교육 방향>  

    교육은 지식이 아닌 지혜와 통찰을 얻는 방법에 대해 같이 찾아가는 과정.  

    통찰에 다다르는 법은 개인마다 다를 것이기 때문에, 한 사람의 통찰을 지식적으로 가르칠 수는 없음.   

    지혜에 다다르는 개인들의 각기 다른 루트를 찾아주고, 설정하고, 그것에 이르는 과정을 지원해주는 것이 교육이 될 것임.  

    지식에 천착해서는 GPT가 있는 세상에서 살아남지 못함.   

    출판은 편집의 중요성이 커지고, 코딩은 방향설계, 검증, 개선, 리뷰하는 능력의 중요성이 커지게 됨. 예전의 방식으로 경쟁력을 발휘할 수 없음.  

 

<AI 인간다움의 함정>  

    기계가 손님과 대화를 하고 교감을 나눈다면? 그런데 또 너무 사람 같으면 징그럽기도 할 것 같음.   

    전문용어로 불쾌한 골짜기(Uncanny Valley) - 인간이 인간이 아닌 존재를 볼 때 해당 존재가 인간과 많이 닮을수록 호감도가 높아지다가 일정 수준에 다다르면 오히려 불쾌감을 느낀다.  

 

<공존의 방법>

1) 일자리 대체? 안전지대가 없어짐.

마케터 예 : 카드뉴스 작성, 디자인, 문구 작성, 업로드 GPT가 할 수 있음. 그러나 실제 올라가는 내용을 검증하고, 전체적인 방향을 기획하고, 언제 올릴 것인가 타이밍을 정하는 것은 여전히 사람의 ‘판단’이 필요한 부분. 인력 감축은 피할 수 없겠지만, 완전 대체는 되지 않을 것이며, 개별 능력이 더 중요해짐.

 

2) 할루시네이션(hallucination) 그럴듯함의 오류

AI가 정확한 예측값을 내놓았다고 해서 인간의 편향과 변수까지도 정확하게 알 수 없음. AI 자체의 오류도 배제할 수 없음.

 

3) 양극화 – AI 디바이드

활용가능한 자와 그렇지 않은 자의 격차는 점점 더 벌어질 것임. 저자의 제안 용어.

 

<인간의 생존법>

PROMPT

모니터에서 반짝이는 빈칸. 챗 GPT에서 입력하는 값.

저자가 제시하는 생존법  

    P : Planning & Prospect 질문과 문답의 디자인에 대해 전반적인 프로세스를 설정하는 기획력과 예측력  

    R : Reconstruction 나온 대답을 적절하게 구성하고 편집하는 구성력  

    O : Organize 파편적으로 나온 정보를 연결해서 의미를 찾아내는 연결의 힘  

    M : Make a question 핵심을 파악해서 좋은 질문을 생각할 수 있는 질문력  

    P : Persuasion 리더십과 나온 정보를 효과적으로 설득력 있게 전달하는 능력  

    T : Together & Touching 결과물을 사람에게 적용할 때 약간의 휴먼터치를 넣어 공감을 자아내는 능력  

 

교육을 통해 배우는 것은 ‘학력’이 아닌 ‘능력’

아무리 빨리 달려봐야 자동차를 이길 수는 없습니다. 이제 한강은 그만 뛰고, 어서 운전을 배우세요.



성균관대 공대를 졸업한 전문가들이 쓴 활용서로 교양수준의 챗 GPT 책보다는 심화된 내용을 다루고 있다. 그중 챗 GPT의 오해와 한계 부분만 소개하려 한다.


GPT의 오해와 한계(2023년 2월 기준)

1. 실시간 학습능력

대화 안에서만큼은 마치 실시간 학습 하는 것처럼 보임 - 인컨텍스트 러닝(In-context learning).

답변할 때마다 이전 질문과 대화를 고려하여 답변하는 것으로, 영구적으로 기억하는 학습과는 엄연히 다르기 때문에 추후에 다시 접속한 후 사용할 때를 대비해 현재 챗 GPT에게 미리 교육하는 행동은 의미가 없음.


2. 챗 GPT가 알고 있는 지식의 기간

2021년까지. 2022년 사실을 물으면 잘못된 정보 대답 가능성 있음.


3. 챗 GPT는 정보를 검색하지 않음

2021년까지 데이터를 학습했을 뿐, 기존 검색 엔진과 같이 원문을 그대로 가져오는 구조가 아님. 충분히 검증할 수 없는 상황이라면, 사실성(진실성)이 중요한 질문을 챗 GPT에게 하는 것은 적절하지 않음.


4. 챗 GPT는 추가 학습이 제공되지 않음


5. 챗 GPT는 숫자에 약함

언어 모델을 기본적으로 다음에 올 확률이 가장 높은 단어를 선택하며 텍스트를 작성하는 모델이며, 언어 모델은 숫자와 관련된 문제를 푸는 데 약함. 수치정보가 틀렸음을 염두에 두고 사용해야 함.


6. 거짓말 주의 : Hallucination

언어 모델은 가장 확률이 높은 답변을 완성하지만, 그 답변의 진실, 거짓 여부를 판단하는 능력은 없음. 언어 모델이 문맥적으로는 그럴 듯하지만, 거짓된 사실을 섞어서 생성하는 현상을 할루시네이션이라고 함. 사실 여부가 중요한 경우 사용 주의. 보고서 작성, 논문 작성, 법령, 의사의 진단 등을 챗 GPT에 완전히 의존해서는 안 됨.


7. 이미지를 그리는 인공지능

이미지를 인식하거나 생성할 수 있는 능력은 현재 없음. 이미지 생성은 달리(DALL-E)나 미드저니(Midjourney), 스테이블 디퓨전(Stable Diffusion) 사용 권장.


8. 챗 GPT는 사고하는 능력이 없음

인공지능 언어 모델일 뿐, 인간이 하는 방식으로 생각하는 능력은 없음. 의식이나 주관적인 경험도 없으며, 언어 모델로서 방대한 양의 정보를 처리한 후 인간의 대화를 시뮬레이션하는 방식으로 입력에 응답하게 설계 됨. 철학적이거나 논쟁이 많은 질문, 미래 예측 질문을 했을 때 인간의 지식을 벗어난 특별한 방향성 제안 기대는 부적절함.


9. 챗 GPT의 한글과 영어의 성능 차이

영어에 비해 한글의 답변 속도, 답변의 정확도, 텍스트의 질이 많이 떨어짐. 번역기 등 활용의 필요성.

작가의 이전글 AI와 맞짱 뜰 수 있는 인간 교사의 경쟁력 1
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari