2. 치킨에 불이 붙으면 그건 AI 책임이야

25년 7월 4일 오후 10시

by 마법수달

아들과 '매일 무엇이든 10분 동안 말해보세요'의 첫날 첫 대화여서 긴장됐다. 끝나고 나서 "아니 숙제도 많고 피곤하기도 한데 10분이나 이야기하는 거 솔직히 좀 길다고요."라고 투덜거리는 상황이 머릿속에서 떠나지 않았다.


대놓고 불평할 수 있는 성격은 아니어서 직접 나에게 하기 싫다고 말하지는 않겠지만 마음속으로 그렇게 생각하는 것도 너무 싫었다. 그래서 어떻게든 1분이라도 의미 있는 대화가 되기를 바라며 어깨에 힘이 바짝 넣고 아들 앞에서 힘껏 긴장해 버렸다.




< 상수와 변수 - 내가 지금 무슨 말을 하는 걸까 >


나 : 자, 지금부터 아빠에게 아무 말이나 해보는 거야. 아무것이나 물어도 좋고.


아들 : 숙제로 수학 문제를 풀다가 a, b, c 이런 걸 상수라고 부르던데 상수가 뭐예요?


나 : 상수를 설명하려면 그 반대말과 함께 설명하면 빠르겠네. 그럼 상수의 반대말을 뭘까?


아들 : 음. 비상수요?


나 : 상수의 반대말은 변수. 예를 들어 숫자 1은 1이지 2가 아니지. 그건 상수야. 그런데 x는?


아들 : 그건... 뭐든 될 수 있는 거?


나 : 맞아. 예를 들어 x + 1에서 x는 1도 되고 2도 될 수 있어. 하지만 +1은 바뀌는 숫자가 아니지. 여기서 x는 변수, 1은 상수야.


아들 : 그럼 자연수는 안 바뀌니깐 상수 아닌가요?


나 : 정확히는 수의 종류 말고, 식 안에서의 역할을 말하는 거야. 어떤 식 속에서 바뀔 수 있으면 변수, 그렇지 않으면 상수. 그래서 아까 물어본 a, b, c도 식 내에서는 1, 2, 3처럼 수치가 바뀌지 않고 특정한 하나의 수를 표현하는 거야.


아들 : 아하, x는 바뀔 수 있고 a는 그대로라는 말이구나.


나 : 그렇지, 예를 들어 y = x + 1이라고 해봐. x가 1면 y는 2, x가 2이면 y는 3이 되지. 이렇게 (x, y) 좌표를 만들어서 선을 그으면 직선 그래프가 생겨. 여기서 x는 바뀌고 1은 그대로니까 x는 변수, 1은 상수지.


아들 : 정비례 반비례 나올 때 y = ax 그거 이야기하시는 거네요?


나 : 맞아. x가 커질 때 y도 커지면 그게 정비례, x가 커질 때 y가 작아지면 그건 반비례. 이런 것들이 그래프지.


< AI가 괜찮다고 했어요 >


아들 : 그런데 숙제하다가 배가 고파서 전자레인지에 종이로 포장된 치킨을 1분 30초 돌려 먹었어요.


나 : 전자레인지에 종이 포장된 치킨을 포장된 채로 돌렸다고?


아들 : 네, 제미나이(Gemini)한테 사진 찍어서 물어봤어요. 그러니깐 괜찮대요, 종이는 안 탄데요. 1분 30초 이상은 돌리지 말래요.


나 : 불이 날 수도 있잖아. 제미나이가 만약 4분 돌려도 괜찮다고 했으면 위험했겠는데. AI가 항상 정답을 말해주는 건 아니거든.


아들 : 그래도 웬만하면 다 정답을 말해주는 거 아닌가요? AI도 나름 검색해서 제대로 된 답을 찾아주는 거 아니에요?


나 : 그렇지. 웹을 검색하기도 하고 다른 사용자가 알려준 걸 반복 학습한 거야. 하지만 중요한 건 인간의 두뇌처럼 정말로 스스로 생각하고 판단하는 게 아니라, 사람들이 많이 쓰고 말한 걸 배워서 말하는 거야.


아들 : 그래도 믿을 만한 정보만 찾아주는 거 아닌가요?


나 : 그렇기도 하고, 아니기도 해. 인터넷에는 맞는 말도 많지만, 잘못된 정보도 제법 많거든. AI는 그걸 다 섞어서 본 다음에, “이게 제일 가능성 높아 보인다”라는 식으로 말해주는 거야.


아들 : 그러니까 1분 30초 치킨 돌려도 괜찮다고 한 사람들이 많아서, 그게 맞는 걸로 판단한 거네요?


나 : 맞아. 근데 중요한 건, 그건 '진실'이 아니라 '다수결'이고 '확률'이라는 거지. 예를 들어 누가 블로그에 “4분 돌렸더니 탔다”라고 쓰고, 다른 사람은 “1분 돌렸는데 괜찮았다”라고 쓰면, AI는 그런 글들을 모아 통계를 내고 '1분 30초는 타지 않아'라고 판단하는 거야.


아들 : 아하, 확률로 결정되는 거군요.


나 : 맞아. AI는 “이게 아마 맞을걸?” 하고 말하는 거지, “이게 확실히 맞아! “라고 말하는 건 아니야. 그러니까 AI가 주는 답은 참고용이지, 무조건 믿으면 안 돼. GPT 채팅창에도 GPT는 실수할 수 있으니 중요한 정보는 재차 확인하라고 하잖니.


GPT는 실수를 할 수 있습니다. 재차 확인하세요.


아들 : 그러면 진짜로 정답이 필요한 건 사람한테 물어보는 게 더 낫겠네요?


나 : 그건 상황에 따라 달라. 많은 사람들이 진실을 말하는 분야에 대해서는 AI도 딱히 틀린 대답을 할 이유는 없지. 하지만 잘 모르는 영역 혹은 다툼이 있는 영역에 대한 답변은 틀릴 확률도 상당히 높지. 그래서 위험할 수도 있는 일을 물을 땐 AI에게 물은 뒤라도 엄마나 아빠에게도 물어보는 게 확실할 수 있어.


아들 : 다음부터 포장된 치킨 돌릴 때마다 아빠에게 물어볼게요.


나 : 아니 아니, 이제 경험으로도 1분 30초는 안전하다는 걸 알았잖니? 먹기 좋을 만큼 덮였다면 다음에는 묻지 않고 그만큼 돌려 먹으면 됩니다.



AI전문가가 들었다면 "아니 아직 님이 AI를 제대로 몰라서 그런 거라고요."라고 핀잔을 들었을지도 모르지만 뭐 어떤가, 난 그저 아들과 10분 동안 대화를 이어 나가야 했을 뿐이라고! 틀린 내용이 있는지 다시 AI한테 물어봐야지.


상수, 변수도 제대로 설명한 거 맞을까? 교재를 가지고 온다면 그거 보고 좀 더 정확히 이야기해 줄 수 있었을지도 모르는데 그저 앞에서 쉬지 않고 이야기하는 게 목표였다. 이야기가 끝나고 나서는 기진맥진해서 그대로 침대로 돌진해버렸다.


그래, 괜찮아. 틀린 게 나온다면 다음번 이야기 시간에 말해주면 그만이다. 아니, 다음번 이야깃거리가 공짜로 생겨서 오히려 더 좋은 거 아닐까?









keyword
매거진의 이전글1. 오늘부터 아들과 10분 동안 무엇이든 말해요