안녕하세요, 자녀교육에 진심인 쌍둥이아빠 양원주입니다.
그런데 AI가 우리의 삶에 스며든 지도 꽤 오랜 시간이 흘렀습니다. 장점들도 많이 있지만 심각한 문제들도 속속 드러나고 있는 상황이어서 그 대책도 중요해졌습니다.
프롬프트를 넣고 그림을 그려달라고 할 때 잘못 나와서 답답할 때가 많습니다. 원숭이를 그린 뒤 토끼를 그려달라고 했더니 아무렇지도 않게 토끼 꼬리를 원숭이처럼 그렸더군요.
이 정도는 약과입니다.
제가 얼마 전 작성한 글을 검토하는 과정에서 그런 일이 있었죠. 최종 확인을 하는 과정에서 -2점의 감점이 있길래 물어봤습니다. 완벽하게 고쳐서 마무리하고 싶어서였죠.
그런데 AI가 하는 답변을 읽고 깜짝 놀랐습니다.
잘못된 부분이 없는데 형식적인 감점을 했다며 답을 해서였죠. 그야말로 AI에게 농락을 당한 느낌이었습니다. 글의 마지막에는 솔직하지 못했다며 사과까지 하더군요.
게다가 잘못된 정보로 혼돈을 경우는 아직도 비일비재하죠. 쿠팡 사태와 관련된 글을 쓰는 과정에는 아예 사실과 다른 엉뚱한 내용을 알려주기도 했습니다. 이제는 초창기에 비해 신뢰도가 높아져서 어느 정도는 믿어도 되겠거니 했는데 AI를 다시 불신하게 만드는 대표적인 경험이었죠.
제가 예전에 썼던 황태계란국 글에 대한 분석을 요청했을 때도 어이가 없을 정도의 내용을 내놓기도 했습니다.
생성형 AI로 인해 생기는 문제는 이뿐만이 아닙니다.
작년 11월에 대학가에서는 일명 SKY 학생들의 커닝 사태로 큰 홍역을 치렀습니다. 연대 신촌캠퍼스의 3학년 대상 2학기 수업 ‘자연어 처리(NLP)와 챗GPT’ 중간고사 과정에서 600명의 수강생 중 일부 학생이 AI를 활용해 문제를 푼 정황이 담당 교수에 의해 적발되었습니다.
담당 교수는 중간고사 직후 “학생들의 부정행위가 다수 발견됐다”라며 해당 학생의 중간고사 점수를 모두 0점 처리하겠다고 밝히기도 했죠. 실제 부정행위를 저지른 학생 수는 정확히 확인되지 않았습니다. 다만 대학생 커뮤니티 게시판에서 한 수강생이 양심껏 투표해 보자며 투표를 올렸는데, 응답자 중 커닝했다는 응답이 절반을 넘어서 큰 충격을 줬죠.
고려대 교양과목 ‘고령사회에 대한 다학제적 이해’ 중간고사에서도 비슷한 일이 있었습니다. 일부 학생들이 AI로 만든 정답을 한 채팅방 안에서도 여러 소규모 그룹이 문제 화면과 정답을 주고받는 방식으로 공유한 사실이 드러나 해당 중간고사는 전면 무효 처리되었죠.
시험 당일 일부 학생이 시험에 응시하던 도중 오픈채팅방에서 문제 화면을 공유하며 부정행위를 했고, 같은 채팅방에 있던 학생들의 제보로 이 사실이 교수진에게 알려졌습니다. 해당 채팅방은 시험 전부터 수강생 간 정보 공유를 하던 용도의 커뮤니티로 운영되던 것으로 확인되었죠.
서울대도 교양과목 ‘통계학실험’ 중간고사에서 몇몇 학생이 AI를 이용해 문제를 푼 정황이 포착되었습니다. 해당 시험은 PC에 내장된 프로그램으로 코드를 작성하는 시험이었는데 일부 학생이 챗GPT 등 AI를 활용해 답안을 작성했다고 합니다.
이들의 부정행위는 시험이 끝난 뒤 한 학생이 ‘AI를 이용해 답안이 작성된 정황이 있다’고 조교에게 신고하며 발각되었습니다. 서울대는 일부 학생의 AI를 활용한 부정행위를 적발하였고 재시험을 결정했으나 집단적인 부정행위 정황은 없다고 밝혔습니다. 하지만 부끄러운 기록은 이렇게 남을 수밖에 없게 되었습니다.
하지만 커닝을 넘어 AI를 훨씬 더 나쁜 쪽으로 활용하는 경우도 있었습니다.
얼마 전 캐나다 산골지역에서 총기 난사 사건이 바로 그러한데요. 피의자인 18살 제시 반 루트셀라르는 집에서 어머니와 이복 남동생을 살해하고, 학교로 가서 교직원 1명과 학생 5명을 숨지게 했습니다. 그리고 스스로 목숨을 끊는 비극적인 사건이었죠.
그런데 범행을 저지른 루트셀라르가 범행 8개월 전부터 챗GPT를 이용해 총기 난사 시나리오를 계획했다는 사실이 알려지면서 논란이 커졌습니다. 더 큰 논란은 운영사인 오픈 AI도 이를 포착했고 내부적으로 회의도 했지만 신고를 따로 하지 않았던 점인데요. 일부 언론에서는 챗GPT가 총기난사범의 공범이라는 소리까지 나오고 있습니다.
이번 사건으로 인해 인공지능을 통해서 얻을 수 있는 자료에 대한 검열과 통제가 있어야 한다는 점이 이슈로 떠올랐습니다.
최근 생성형 AI로 인해 일어나는 일련의 일들을 보면 무조건적인 발전이 미치는 문제가 생각보다 적지 않음을 느낄 수 있었습니다. 무조건적으로 신뢰해서는 안 된다는 점을 넘어 도덕적으로 활용해야 하며 범죄와 관련될 수 있는 방향으로는 쓰이지 않도록 해야 한다는 미디어리터러시 교육이 절대적으로 부족하다는 부분이죠.
사실 AI는 잘못이 없습니다. 제대로 개발하고 올바르게 사용하지 못하는 인간에게 문제를 찾아야 합니다. 그런 점에서 이런 문제들에 대한 관리감독이 지금부터 엄격하게 논의되고 이루어져야 합니다. 그렇지 않다면 미래는 희망보다는 불행한 소식들이 더 많아지지 않을까 걱정스럽습니다. 훌륭한 시스템이라고 해도 사용하는 사람에 따라 얼마든지 보물이 될 수도 있고 무기가 되어 우리를 겨눌 수도 있을 테니까요.
#생성형AI #챗GPT #미디어리터러시 #AI부정행위 #대학커닝 #AI윤리 #AI관리감독 #캐나다총기난사 #자녀교육 #부모교육