brunch

You can make anything
by writing

C.S.Lewis

by 최재운 Jun 14. 2023

챗GPT와 29개월 아들의 공통적 문제

생성형 인공지능과 아기의 성장

우리 집에는 29개월 아들내미가 하나 있다. 요즘 제법 말을 잘해서 웬만한 의사소통은 기본이고 본인이 좋아하는 것과 싫어하는 것, 그리고 경험한 것을 하루 종일 조잘조잘 거린다. 아이가 학습을 하며 하루하루 성장을 해 나가는 것을 보는 것이 정말 큰 기쁨으로 자리 잡은 요즈음이다.


직업이 직업이다 보니, 요즘 연구 중인 인공지능의 학습 및 성장과정을 보며 아이의 학습과정과 정말 유사하다는 생각을 많이 하게 된다. 특히 챗GPT는 우리 아이처럼 대화로 소통을 할 수 있는 인공지능이다 보니 직접적인 비교가 되며, 이런 점은 공통점이 있구나, 이런 점은 챗GPT가 낫구나, 이런 점은 아이가 낫구나 하는 것들을 느낄 수 있다. 


아이의 두뇌 발달은 경이로울 정도이다. 현생인류가 탄생하고 20만 년 간 겪어온 진화를 단숨에 따라잡고 현대에 적응할 수 있을 정도로 학습해 나가는 과정은 마치 인류의 진화를 압축적으로 보여주는 것과 같다. 하지만 더 무서운 건 인공지능이다. 인공지능은 수년에서 수십 년 학습을 하는 인간을 비웃기라도 하듯 순식간에 학습 및 인지, 추론 능력을 따라잡고 있다. 지난 수십만 년의 역사를 보내며 축적해 온 인류를 비웃기라도 하듯이. 


이제 학습을 시작한 우리 아들과 우리 아들보다 어리지만 빠르게 학습을 하며 진화한 챗GPT의 공통점과 차이점을 하나하나 비교해보고자 한다. 이 글에서는 아이와 인공지능이 보이는 다소 어리숙해 보이는 공통적인 실수들에 대해 하나씩 살펴보자.




1. 모르는 것을 모른다.


이전 나의 브런치글에서도 얘기했다시피 생성형 인공지능, 챗GPT의 가장 큰 문제는 할루시네이션, 바로 환각 문제이다. 모르는 문제에 대해서 모른다고 하지 않고, 챗GPT가 학습한 DB 내에서 어떻게든 최선의 답을 내놓고자 한다. 그래서 벌어진 것이 전에도 언급한 세종대왕의 맥북프로 던짐 사태.


이제는 더 이상 볼 수 없는 세종대왕님의 맥북프로 투척 ㅠㅠ


더 문제는 인공지능의 할루시네이션은 챗GPT가 "본인이 모른다는 것을 모른다"는 것이다. 챗GPT가 인격체를 가지고 있지 않지만 의인화를 해본다면 아마 챗GPT는 저렇게 답을 한 것을 안다고 생각할 것이다. (물론 인공지능은 안다고 생각하지 않는다. 확률이 높은 값을 반환할 뿐이다.)


이러한 현상은 30개월 우리 아들에게서도 종종 관찰된다. 요즘 제법 사물을 정확하게 구분을 하고 정답을 잘 맞힌다. 하루에 있었던 일도 쫑알쫑알 정답을 얘기한다. 하지만 본인이 모르는 것을 물어봤을 때, 너무나도 당당하게 얘기한다. 오답을!


아빠: (창 밖의 큰 송전탑을 가리키며) 윤우야, 저거 뭐야?
윤우: 에. 펠. 탑!!


나는 확신한다. 아직도 우리 아들은 송전탑에 대한 오답을 오답이라 생각하지 않을 것이다. 그리고 본인이 모른다는 것을 절대로 모르고, 여전히 고속도로 주변에는 에펠탑이 엄청 많다고 생각하고 있을 것이다. 챗GPT도 우리 아이도 모르는 것에 대해서도 찰떡 같이 대답하는 단계를 지나고 있는 것이다. 




2. 배운 것만 안다.


우리 아들의 최애책 중 하나

위 대화는 얼마 전 차에서 있었던 대화이다. 우리 아들은 명소가 그려진 지도 책을 좋아한다. 지도 책에서도 제일 좋아하는 명소는 바로 에펠탑과 자유의 여신상. (에펠탑과 자유의 여신상은 여행 다녀와서 산 마그넷이 냉장고에 붙어있어서 더 좋아하는 것이기도 하다.)


우리 아들은 에펠탑이 무엇인지 학습을 한 것이다. 커다란 철 혹은 쇠가 그물처럼 높게 올라가 있는 첨탑. 이 것을 에펠탑이라고 학습을 한 것이다. 그러니 이와 비슷하게 생긴 송전탑을 보고 에펠탑이라고 당당하게 오답을 얘기하는 것이다. 


이와 비슷한 사례로는 책에서 본 성당 사진에 큰 감동을 받고 동네의 큰 성당을 보면 "이건 성당이야!"라고 크게 외치고 다닌다. 이건 정답을 얘기하는 옳게 학습이 된 사례이다. 하지만 교회를 봐도 성당이라고 하고, 절에 가도 성당이라고 한다. 최근에는 부처님과 예수님을 헷갈려하며 국립중앙박물관의 수많은 불상들을 예수님이라고 부르는 "신성모독" 사태가 벌어지기도 하였다. 


이러한 현상은 당연하게도 학습의 근원적인 특생에서 발원한다. 인공지능도 아이도 배운 범위 내에서만 생각을 할 수밖에 없다. 학습이라는 단계를 거쳐 추론의 단계에 들어서야 배운 범위 밖의 내용에 대해서도 정답을 도출할 수 있는 것이다.


이러한 점에서 우리 아이와 챗GPT는 전환점을 맞이하고 있다. 이제 학습의 범위가 넓어지면서 모르는 것이 적어지고 있고 추론이라는 것을 시작하고 있다. 앞선 글에서 이제 세종대왕이 맥북프로를 던지지 않게 된 것도 이러한 진화과정이 반영된 것이다. 인공지능과 아이의 학습, 인지, 추론과 관련해서는 나중에 다시 다뤄보도록 하겠다. 오늘은 인공지능과 아이의 문제점에만 집중을 ㅎㅎ




3. 기계적인 사과를 잘한다.


마지막으로 살펴볼 재밌는 공통점은 기계적인 사과를 잘한다는 것이다. 소위 말하는 영혼리스 사과를 한다는 것인데.


롯데자이언츠가 4번 우승했다고??!!!
또 사과하는 챗GPT


올해 초 대학 수업 OT에서 든 사례이다. 이때만 해도 할루시네이션이 지금보다 더 심할 때여서 할루시네이션 사례를 찾기가 좋은 시절이었다. 가장 최애팀인 롯데자이언츠에 대해 물어보니 이 챗GPT 자식이 3번 우승을 했다고 얘기를 하는 것이었다. 그래서 더 캐 물으니 일단 사과 한 번 박고 4번 우승했다고 얘기를 했다. 이후 스레드에서 2번 우승했다고 정정해 주니 또 영혼리스한 사과를 하며 대화는 끝이 난다. 


이렇듯 인공지능은 본인이 모르는 것에 대해 모른다고 하지 않고 확률이 높다고 판단되는 결과를 내보내게 되고, 이에 대한 정정을 하게 되면 대화형의 특성상 사과를 박고 시작을 하는 것이다. 그러면서 뒤에는 변명을 하는 것이 상사에게 혼나는 부하직원 같지 않은가? 



요즘 우리 아들은 프로 사과러이다. 남자아이이다 보니 노는 게 거칠고 활발하고 망아지처럼 날뛴다. 그래서 혼을 내는 경우가 부쩍 늘고 있는데, 그럴 때마다 우리 아이는


미안해
내가 잘못했어
아프지 마 호

이런 사과를 남발하고 다닌다. 처음에는 사과를 할 때 마음이 많이 아팠다. 특히나 잘못을 인정할 때는 너무 훈육이 심했나 하는 생각도 들 정도였으니. 하지만 1초도 지나지 않아 다시 날뛰는 모습을 보며 아 사과가 기계적인 것이었구나. 당장을 모면하기 위한 형식적 영혼리스 사과였구나라는 것을 깨닫게 되었다. 


이는 아직 "공감"이라는 것을 학습하지 못했기 때문이다. 여기서 공감이라는 것을 학습할 때 사람과 기계는 방법이 달라지게 된다. 인공지능은 공감을 정서적으로, 인식적으로, 의식적으로 받아들이지 않고 말 그대로 학습을 하게 된다. 공감은 이런 상황에서 이렇게 하는구나, 이럴 때 어떻게 대화를 해야 사람이 공감을 해주는가 하는 것 자체를 학습하고 이를 결과에 반영한다. 사람은 이와 다르게 감정이라는 것을 통해 공감을 하게 된다. 물론 사람이 감정을 통해 공감을 하는 메커니즘이 기계의 방법일 수도 있고 또 다른 뇌과학의 영역일 수도 있지만 이에 대한 명확한 결과는 아직 없는 것으로 알고 있다. 




요즘 아이를 키우며, 또 인공지능을 연구하며 유사점과 차이점을 살펴보는 재미가 쏠쏠하다. 오늘은 이 둘의 부정적인 공통점을 봤다면 다음에는 긍정적인 면을 한 번 얘기해 보도록 하겠다. 







brunch book
$magazine.title

현재 글은 이 브런치북에
소속되어 있습니다.

작품 선택
키워드 선택 0 / 3 0
댓글여부
afliean
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari