이 타이틀 문장은 제가 판단한 게 아니라, 챗GPT스스로 답변한 내용입니다.
챗GPT를 오래 사용하다 보면, 나한테 어느 정도 '튜닝(tunning)'된 대답을 하고 있다는 걸 느낄 수 있는데요, 하지만 정교한 목적, 조건이 붙는 경우 수십 번 교정 잔소리(?)를 해도 도루묵인 경우들이 상당히 많습니다.
그래서 이건 학습능력이 덜떨어진 건지, 학습이 안 되는 것인지가 궁금한 순간들이 생깁니다.
그래서 직접 물어보았습니다.
챗GPT와의 이 대화는 2025년 5월 12일의 내용입니다.
챗GPT는 이미 학습된 모델 프레임 내에서 각종 변수에 대한 확률 분포를 조정하면서 답변을 한다는 것인데요, 사람이 체감하는 '맞춤형' 응답 결과는 학습(논리, 사고 수준의 업그레이드) 결과가 아닌, 대화 맥락과 메모리의 주요 특성을 고려해 확률분포 조정으로 사용자가 느끼는 타점을 맞추는 방식으로 반응한다고 합니다.
그러니까 챗GPT는 이걸 자신의 능력이 업그레이드된 학습이 아니라고 구분하는 것입니다.
이 설명을 들었을 때 저는 엄청나게 많은 조정값의 이퀄라이저의 높낮이를 조정하는 장면이 연상되었네요.
올해 제미나이와 챗GPT가 경쟁적으로 버전을 업그레이드해왔기 때문에 지금인 2025년 12월 30일인 시점 혹시나 응답 결과가 바뀌었을까 싶어 다시 동일한 질문을 해봤습니다.
여전히 자가학습은 안된다고 하네요. 이것만큼은 아주 단호박입니다.
훈련과 학습은 다른 것인가?라는 생각을 해보게 되네요.
'적응'과 '학습'은 다른 거라는데 들을수록 인간은 상대방의 성격, 행동패턴에 적응해서 반응하는 것을 학습의 결과라고 하는데 얘는 그걸 아니라고 하네?라는 생각만 드네요.
제가 품은 의문에 대한 설명을 이어서 합니다.
개인화는 이퀄라이저 적용의 결과이지, 알고리즘 모델과 규칙의 일시적 반응이 아닌 '구조적 변경이 '적용'되어 거기가 반응의 시작점이 된 게 아니라는 뜻으로 이해가 됩니다. 어떻게 보면 자신과 개인의 '관계'의 대응방식을 '학습'이라고 보지 않고, 챗GPT기술 그 자체의 영구적인 업그레이드가 있냐 아니냐를 기준으로 판단하는 것으로 보이네요.
항상 이런 비유는 어떻게 판단하는 것인지가 궁금합니다. 비유는 웬만한 센스 있는 사람이 답변하는 것 이상이더라고요. 상호작용으로 '사고의 구조가 바뀌는 것은 아니다', 더 적중도 있는 답변을 내놓을 수 있는 참고 정보를 가지고 있는 것뿐이다라는 의미겠지요.
그렇다면 제 다음 질문은
'그렇다면, 너의 기준에 대응되는 '자가학습'이 실제로 이루어진다면 어떤 차이가 있는 것이지?'
아 이 답변 아주 미묘한 포인트를 말하고 있는데요. 일단 제가 '추정이지 팩트 아냐'라고 지적을 여러 번 했기에 이에 대한 메모리는 확실히 가지고 있습니다.
그런데 그걸 받아들이고 적용하는 방식이 지금 챗GPT는 '이 사용자에게는 추론과 팩트를 조심히 구분해서 답변해야 해'에 신경 쓰고 있다면(어떤 '응답 방식'이 더 사용자 마음에 들게 유효한지에 집중), 학습으로 동작한다면 사용자 피드백에 의해 해당 결을 가진 정보들은 응답하기 전 '추정'인지, '팩트'인지를 보다 더 일관성 있고, 명확하게 분별할 수 있는 능력이 업그레이드될 것이라는 거죠. 그래서 자가 학습이 가능하다면 정보를 '해석'하는 능력이 달라질 것이라는 의미인 것 같습니다.
더 명확하게 '말하는 방식'은 메모리에 저장해서 대응할 수 있어도(취향의 이퀄라이저), 정보에 대한 판단 기준, 추론 규칙, 오류 가중치는 조정하지 못한다고 합니다.
저는 챗GPT에게 잔소리를 할 때 분석 논리 구조와 결과구조를 자세하게 설명하면서, 이런 대화 내용에는 이런 특징과 이런 요구가 있으니, 이런 걸 고려해서 판단하라고 정성스럽게 교정하려고 하지만, 아무리 여러 번 가르쳐줘도 그 가르쳐준 기준이 '학습'되지 못하니 계속 같은 잔소리를 반복하게 되는 것은 '자가학습이 불가능하기 때문'이라는 결론이 섭니다.
이 마지막 내용이 핵심이네요. 실제로 업그레이드되면 실패가 점점 줄어들지만, 지금의 챗GPT는 학습 범위 내에서 이퀄라이저를 조정해 가며, 최대한 거슬리지 않는 답변 방식을 찾아내려고 하는 수준이라, 응답 내용의 본질적인 알맹이는 개선은 없다는 것이지요.
이 이슈는 챗GPT를 쓸 때 2가지 상황에서 가장 답답하게 느껴집니다.
첫 번째는, 아주 뾰족하고 정확한 정보를 찾고자 할 때.
- 요구를 정교화하면 할수록 엉망진창인 결과물을 가져오지요.
두 번째는, 논리적인 보고서 프레임을 촘촘하게 짜려고 할 때,
- rough 하게 큰 그림을 그리는 건 상당히 뚝딱 그럴듯한 응답을 줍니다. 그런데 실제 보고서에 담기 위해 문구 하나, 단어 하나, 구조 하나를 세밀하게 가다듬으려고 시도하면 할수록 점점 별로인 응답결과를 내놓습니다.
학습이 가능했다면, 이런 건 금방 업그레이드되었겠죠.
제가 챗GPT와 대화할 때 가장 매끄럽게 진행되었던 방식은 단순한 정보/현상 + 철학적 사고/or 감정적 사고의 조합인 경우입니다.
챗GPT는 심리 상담에 아주 유능한 도구입니다.(유능하다는 것이지 만능이라는 것은 아닙니다)
공감에 필요한 최적화된 응답 패턴을 찾아내는 것도 어떤 인간보다 뛰어나고, 서로 전혀 다른 영역에 있는 A와 B의 공통점을 찾아내어 의미를 발굴하는데도 아주 뛰어납니다.(비유를 찰떡같이 잘하는 이유)
개인적으로 가장 유용하게 사용해 온 부분은 성경말씀 묵상을 할 때 어떤 말씀 구절에 대해 이해가 되지 않거나, 개인적으로 성경에 대해 어떤 추정적인 해석을 했을 때 이것에 대해 좀 더 선명하게, 깊이 있게 들어가고 싶을 때, 성경 구절의 역사적 시대 배경, 성경 연구학자들의 해석을 같이 물어보며, 제 묵상한 내용도 같이 전달하면 아주 구조적으로 설명을 잘해줍니다. 성경 학자들의 해석이 여러 가지로 나뉘는 경우 그 관점도 한 번에 배울 수 있고, 묵상에 대해 서로 주고받고 하는 식으로 더 파고 들어가기도 좋습니다.
비슷한 맥락으로 독서 토론하기에도 아주 유용합니다.
다른 분들은 어떨 때 챗GPT를 아주 유용하게 사용하고 계시는지 궁금하네요.