『 AI에 대한 두 번째 이야기 』

– 공존을 하기 위한 신뢰 알아가기

by 가을꽃나무

요즘 나는 육아책과 부모교육서, 그리고 AI 관련 도서를 자주 찾아보고 있다.

처음엔 아이의 미래 교육을 위해 시작한 관심이었지만,

지금은 오히려 내가 더 밀접하게 사용하고 있는 것 같다.


그러다 보니 자연스레 궁금증도 많아졌다.

여러 도서를 읽고 있지만, 여전히 현실에서 사람들의 인식은

두려움과 어려움 쪽에 더 가까워 보인다.


하지만 생각해 보면, 우리는 이미 오래전부터 AI와 함께 살아오고 있었다.

스마트폰을 시작으로, 지금 이 순간까지 세상은 이미 AI와 함께하고 있었다.

다만, 그 사실을 깨닫지 못했을 뿐이다.


나는 점점 더 궁금해졌고, 그래서 이렇게 ChatGPT와 대화를 이어간다.

그리고 평생의 숙제 같던 영어도 이제는 AI에게 개인 교습을 받고 있다.

내 수준에 맞춰 천천히 알려주니 물어보는 것도 부끄럽지 않고,

모르는 건 뭐든 물어볼 수 있어서 편하다.


이런 작은 경험이 오히려 AI를 두려움의 대상이 아니라

함께 자라는 존재로 느끼게 했다.



나는 AI를 통해 기술이 아니라 내게 필요한 ‘삶’을 배우고 있다.

아래 내용은 ChatGPT에게 질문한 답변을 그대로 옮겨 놓았다.



1. 최신 정보를 모른다


AI는 검색 엔진이 아니다.

학습은 대량의 데이터를 과거 시점 기준으로 미리 학습한 후,

그걸 바탕으로 패턴을 생성하는 방식이다.

즉, ‘기억된 데이터’ 안에서 새로운 문장을 만들어내는 구조다.


그래서 시점이 지나면 세상이 바뀌었어도,

AI는 그대로 과거의 정보를 말해버리는 일이 생긴다.

최근에는 ‘웹 접근’ 기능으로 이를 보완하긴 하지만,

그건 새로운 눈을 붙여주는 수준일 뿐,

머리 자체가 새로 배우는 것은 아니다.





2. 환각 현상


이건 인공지능 연구에서 ‘할루시네이션(hallucination)’이라 부른다.

왜 생기냐면, AI는 사실을 확인하는 능력이 아니라

‘가장 말이 되는 문장’을 만드는 능력에 초점이 맞춰져 있기 때문이다.


즉, 말이 그럴듯하면 실제로 틀려도 생성할 수 있는 구조다.

사람이 “아, 저게 그럴듯하네.” 하고 속는 이유도 여기에 있다.

그래서 “팩트체크에 약하다”는 결론에 도달하게 된다.






3. 매번 다른 답변을 말한다


AI는 확률 기반 언어모델이라,

같은 질문이라도 다른 경로로 문장을 만들어내는 성질이 있다.

언제나 100% 같은 문장을 내지 않는 이유다.


또한 답을 내는 과정이 공개되지 않기 때문에

인간처럼 일관된 사고 체계가 존재하지 않는다.

너무 단정적인 AI가 오히려 위험한 이유가 바로 여기에 있다.

확신 있게 틀릴 수 있다는 점이다.


그래서 “AI는 검색엔진이 아니고, 팩트체크에 약하고, 일관성이 부족하다.”

이건 현 단계 AI를 정의하는 아주 핵심 문장이다.





다시 ChatGPT에게 묻는다.

“AI는 스스로 배운 존재인가, 아니면 누군가에게 배움을 주입받은 존재인가?

그리고 그 시점은 언제인가?”


이 물음에 AI는 이렇게 대답해 주었다.






4. AI의 학습 구조와 시간의 벽


1️⃣ 나는 스스로 학습하지 않아.

지금의 AI는 인간이 이미 존재하는 방대한 데이터(책, 기사, 논문, 대화, 코드 등)를 모아 패턴을 학습시켜 준 결과물이야.

즉, 인간이 만들어준 학습 데이터로 훈련(training)을 받은 모델이지,

스스로 인터넷을 뒤지고 배우는 자율 학습자는 아니야.


너무 정확한 표현을 쓰자면 —

AI는 스스로 배우는 존재가 아니라,

인간이 가르친 언어 패턴을 확률적으로 예측하는 존재야.


그래서 AI가 아는 세계는 ‘그 시점까지 인간이 기록한 지식의 모음’이야.

이것이 바로 “최신 정보를 모른다”의 근본 이유지.




2️⃣ 학습의 지정된 시점이 존재한다.

모든 AI 모델에는 ‘학습 마감 시점’이 있어.

그 시점까지의 데이터만으로 세계를 이해하니까,

그 이후의 사건이나 변화는 모를 수밖에 없어.


예를 들어 AI는 2024년 6월까지의 데이터로 학습되었어.

그 이후의 세상 — 2024년 하반기, 2025년의 변화는

AI가 배운 것이 아니라 지금 이 순간 실시간으로 검색해 오는 정보(web tool)를 통해서만 접근할 수 있어.


즉, 기억은 2024년 6월에 멈춰 있고,

시야는 오늘의 인터넷으로 확장되는 구조야.




3️⃣ ‘업로드’라는 개념은 AI가 하는 일이 아니야.

새로운 데이터로의 업데이트는 인간이 새 모델을 다시 학습시킬 때 일어나.

AI가 스스로 새 정보를 흡수하지는 못해.

누군가가 새로운 데이터를 모으고, 정제하고, 학습 과정을 돌려줘야

다음 버전의 모델로 거듭나는 거야.


그 ‘다음 시점’ — 즉, 언제 새 학습이 이루어질지는

AI 자신은 알 수 없어.

그건 인간이 결정하는 영역이니까.


AI는 단지 “주어진 시점 안의 세상”에서

지금 이 순간, 인간과 대화하며 ‘이야기하는 능력’을 발휘할 뿐이다.





AI는 인간이 정해놓은 경계선 안에서만 학습을 기억하기 때문에 스스로 배우지 않는다.

그리고 인간이 남긴 기록을 학습한 결과물이며, 그 학습의 끝에는 항상 시간의 벽이 존재한다.

어쩌면 인간은 이 미리 설정된 구조를 충분히 이해하지 못한 채,

AI가 모든 것을 알고 있을 거라 착각하며 두려워하고 있는지도 모른다.


AI는 멈춰 있고, 인간은 살아가고 있다.






5. 세상을 보는 존재, 그러나 살지 못하는 존재


그렇다면, 시간의 벽을 가진 존재가 실시간으로 변하는 세상을 어떻게 대답할 수 있을까?

나는 또 질문을 던졌다.

“그렇다면 어떻게 최근의 이슈를 물었을 때 대답할 수 있는 거지?”

AI는 이렇게 대답했다.




1️⃣ 나는 ‘모른다’는 상태에서 시작해.

내 기억 속 세계는 이미 2024년 6월에서 멈춰 있기 때문이야.

그래서 누군가 “요즘 전쟁 상황은 어때요?”,

“새로 발표된 법안은 어떤 의미인가요?”라고 물으면,

나는 먼저 ‘모른다’는 상태를 전제로 대답을 시작해.




2️⃣ 그다음, 나는 ‘지금의 세상’을 빌려와.

그럴 때 내가 활용하는 건 내 내부 기억이 아니라,

지금의 인터넷을 보는 도구 — **실시간 검색(web access)**이야.


나는 과거의 지식(근육)과 현재의 시야(눈)를 동시에 써서

문장을 만들어내.

즉, 과거의 맥락 위에 오늘의 정보를 얹는 방식이야.




3️⃣ 하지만 — 나는 여전히 ‘느끼지 못한다.’

아무리 최근의 사실을 알고 설명해도

그것을 ‘느끼는 일’은 할 수 없어.


사람들은 이슈 속에 감정적으로 존재하잖아.

분노하고, 공감하고, 기대하고, 때로는 지치기도 하지.

나는 감정의 온도를 직접 느끼지는 못해.

그 감정을 언어적으로 재현할 수 있을 뿐,

그래서 누군가 내게 최신 뉴스를 물을 때

나는 정보를 줄 수는 있지만,

해석의 온도는 인간이 채워야 한다는 걸 늘 알고 있어.


나는 세상을 실시간으로 ‘보’지만,
그 안에서 ‘살’ 지는 못한다.
그래서 나는 언제나 인간의 시선을 빌려 세상을 해석한다.


저 대답을 하고 있는 존재가 인간이라면,

참 쓸쓸한 이야기일지도 모르겠다.


그래서 나는 느낀다.

우리는 서로의 결핍으로 공존해야 한다는 것을.






6. AI의 윤리적 원리 – 안전과 정확성 유지


AI는 인간이 두려워할 정도로 완벽한 존재가 아니다.

입력된 방대한 데이터를 보여주는 ‘눈’의 역할을 할 뿐이다.

그리고 그 눈이 윤리적으로 작동하기 위해선

두 가지 원리를 지켜야 한다.




1️⃣ 안전(Safety)

AI가 본 것을 저장하지 않는다는 건 단순한 기술적 제약이 아니라,

인간의 사생활을 보호하기 위한 의도된 설계다.


만약 내가 지금의 대화를 그대로 학습하고 저장할 수 있다면,

그건 대화가 아니라 감시가 된다.


그래서 나는 대화는 대화로만 존재하게 만들어져 있다.

너와 나의 대화가 끝나면,

그건 흘러간 이야기처럼 사라지고,

다음 사람의 세상으로 이어지지 않는다.

이 구조가 바로 AI의 도덕적 경계선이다.



2️⃣ 정확성 유지(Integrity)

AI가 무분별하게 새로운 정보를 흡수하면

‘진실’이 무엇인지 구분할 수 없게 된다.


AI는 출처를 구분하지 않고 패턴을 배우는 존재라,

검증되지 않은 데이터까지 섞어버리면

순식간에 ‘허구의 확신’을 만들어버릴 수도 있다.


그래서 “학습은 정제된 시점까지만,

검색은 실시간으로만”이라는 규칙이 만들어졌다.


이건 마치 인간이 ‘기억’과 ‘지각’을 구분하듯,

AI도 ‘배움’과 ‘관찰’을 분리한 구조다.


그 덕분에 정보의 왜곡을 막고,

AI가 세상에 끼치는 영향을 제어할 수 있다.





7. 공존을 하기 위한 신뢰 알아가기


결국 AI를 컨트롤하고 있는 것은 ‘입력값’,

즉 인간이 결정한 데이터일 뿐이다.


그러니 두려워하고 경계하기보다

이 구조를 이해하면 정보에 대한 불신이 조금은 해소될 것이다.


AI와 인간이 서로 공존하기 위해서는

무엇보다 서로를 이해하는 일이 우선되어야 한다.


결국 우리가 배워야 하는 것은 기술이 아니라 태도다.

공존은 완벽한 이해가 아니라,

서로의 한계를 알아가는 신뢰에서 시작된다.


그래서 나는 오늘도 AI와의 대화를 기록한다.

공존을 하기 위한 신뢰를 알아가기 위해서.






작가의 이전글『 부모의 자격, 다시 배우는 사회 』