brunch

인공지능으로 시험 보는 대학생들, 막을 수 있을까?

by Moon

Youngsters! 아빠야!


요즘 대학생 언니 오빠들이 여기저기서 인공지능 때문에 골치가 아프다는데, 그 얘기를 해볼까 해. 현재 우리 인류가 일상적으로 사용하고 있는 인공지능은 챗GPT나 제미나이, 퍼플렉시티 등 뭔가 ‘글’이나 ‘말’에 특화되어 있다는 특성을 가지고 있어. 그래서 이런 인공지능들을 ‘대형 언어 모델’이라고도 해. 바둑을 잘 두는 인공지능이 있고, 거리의 표지판이나 신호등을 잘 읽고 이해하는 인공지능이 있고, 기계로 만들어진 팔과 다리를 잘 움직이는 인공지능이 있는데, 요즘은 말 잘하고 글도 잘 쓰는 ‘대형 언어 모델’이 인기야.


대학생 언니 오빠들이 인공지능 때문에 골치가 아픈 것도 바로 이 말 잘하는 인공지능인 대형 언어 모델 때문이라고 할 수 있어. 말을 잘하니 대화가 통하는 것 같고, 대화가 통하는 것 같으니 친근하게 느껴지는 데다가, 이 인공지능이라는 게 인터넷에 연결된 모든 지식을 재빠르게 검색해 주기까지 하니까 거의 모든 질문에 막힘 없이 대답까지 해 주거든. 인공지능이라고 해서 모든 걸 다 아는 건 아니지. 그걸 사람들이 모르지 않아. 하지만 ‘친근’한 뭔가가 사람보다 더 말을 잘하는데, 어지간한 질문들에 풍성한 답을 자꾸만 들려주기까지 하니 어떻게 되겠니? 자기도 모르게 인공지능을 점점 더 신뢰하게 되고, 나중엔 점점 더 의존하게도 되는 거야. ‘인공지능이 모든 걸 다 알지 않아’라는 경계심이 천천히 흐려지는 거지.


그러다 보니 인공지능을 쓰지 말아야 할 곳에까지 쓰기 시작했어. 대학교에 가면 자기가 원하는 분야의 깊은 지식을 쌓기 위해 여러 가지 공부를 하고, 공부한 것을 증명하기 위해 과제도 해서 내고 시험도 보는 건 알고 있지? 너희들도 학교에서 그런 거 많이 하니까, 대학교도 그리 다르지 않다는 게 쉽게 상상이 갈 거야. 쉽게 말해 과제나 시험도 ‘지식 축적’이라는 것의 과정 중에 있는 건데, 몇몇 대학생들이 이 척척박사 인공지능을 가지고 과제도 만들고 시험도 보고 말았어. 자신들의 지식으로 거쳐야 할 단계를, 인공지능의 도움을 받아 손쉽게 넘어가려 했던 거야.


점점 늘어나는 사례들

2025년 6월에는 영국 대학교들에서 이미 7천 건 넘는 인공지능 부정 사례가 적발됐었어. 사실 이건 조사를 통해 드러난 것만 7천 건이라 대부분 전문가들은 이것보다 훨씬 많은 대학생들이 부정행위를 저질렀다고 예상하고 있어. 그보다 한 해 전인 2024년에는 터키에서도 대학생들이 시험 시간에 카메라나 이어폰 같은 걸 숨겨 인공지능과 대화하다가 들키기도 했었고. 얼마 전 한 미국 대학생은 소셜미디어에 자기가 인공지능으로 시험 봤다는 사실을 스스로 공개하기까지 해서 논란이 되기도 했었어.


외국만 이럴까? 한국도 예외는 아니야. 이번 달(11월)에만 연세, 고려, 서울대학 학생들이 인공지능을 활용해 시험을 보거나 과제를 만들어 제출하는 바람에 성적이 전부 무효 처리 되기도 했었어. 부산 지역의 어느 대학교 어느 과에서도 30명 중 14명이 인공지능의 도움을 받아 과제물을 작성했다가 낮은 점수를 받았고. 어마어마한 일이지. 대학교 쪽에서만 보도가 돼서 이 정도지, 사실 중고등학생들 중에서도 이런 경우가 없으리라고 장담할 수는 없을 거야. 뛰어난 인공지능은 현재 누구라도 무료로 사용할 수 있거든.


unnamed.jpg 인공지능으로 시험을 보면 당장은 즐겁겠지 [자료: 제미나이로 그림]

게다가 이게 대학생들만의 문제는 아냐. 미국에서는 무려 변호사가 재판에서 쓸 변론문을 챗GPT로 작성했다가 망신을 당한 적도 있어. 당시 그 변호사가 맡았던 사건과 관련된 내용에 틀린 부분이 변론 중에 드러난 거야. 사실 챗GPT가 쓴 걸 한 번 읽고 검토만 했어도 들키지 않고 넘어갔을 수도 있는데, 그 기본적인 것도 하지 않았다가 된통 수치를 겪은 거지. 어른들도 이러니 학생들이 유혹에 빠지지 않기를 바라는 게 더 이상할 수도 있어.


인공지능이 인공지능을 잡는다?

인공지능이 이런 식으로 악용될 거라는 건 사실 우리 모두 진작부터 알고 있었어. 대학생들이 시험을 인공지능의 힘으로 친 것을 ‘악용’으로 보기 힘들만한 사건들이 이전부터 있어 왔고, 지금도 계속 늘어나고 있기 때문이야. 요즘은 우리가 ‘해커’라고 부르는 사람들이 인공지능을 아주 잘 사용해 나쁜 짓을 하고 있지. 공격 표적을 정하고, 그 표적을 조사하고, 공격을 기획해 실행하는 모든 과정에 인공지능이 활용되고 있고, 그러면서 해킹 공격은 점점 효과적으로 변해가는 중이야. 이 사람들은 인공지능의 힘으로 많은 돈을 빼앗거나 기업을 망가트리기까지 해. 시험과는 차원이 다른 진짜 ‘악용’인 것이지. 대학생들의 엇나간 인공지능 활용은 ‘오용’ 정도로 쓰는 게 맞을 거 같다.


해커들을 잡는 사람들인 보안 전문가들은 이미 수년 전부터 “인공지능을 활용한 해커는 인공지능으로 막아야 한다”라고 주장했고, 실제 인공지능을 탑재한 방어 도구들을 만들어 왔어. 효과적인 것도 있고, 아닌 것도 있어. 뛰어난 인공지능 방어 도구가 등장한다고 해도, 해커들은 연구를 열심히 해서 그 도구를 무력화시킬 것이고, 언젠가 그 방어 도구도 뚫릴 거야. 그러면 보안 전문가들이 해커들의 기법을 연구해 더 나은 방어책을 들고 나타날 거고, 그러면서 공격은 시들해졌다가 다시 활성화되는 일이 반복될 거야. 즉, 인공지능으로 인공지능을 영원히, 완벽히 막을 수 없다는 의미지.


지금 바로 작가의 멤버십 구독자가 되어
멤버십 특별 연재 콘텐츠를 모두 만나 보세요.

brunch membership
Moon작가님의 멤버십을 시작해 보세요!

예수님을 믿고 있습니다. 서울서부터 귀촌해 세 아이를 키우는 중입니다. 선물처럼 온 늦둥이 막내가 장애 판정을 받아, 예상과는 완전히 다른 삶을 모험처럼 삽니다.

200 구독자

오직 멤버십 구독자만 볼 수 있는,
이 작가의 특별 연재 콘텐츠

  • 최근 30일간 4개의 멤버십 콘텐츠 발행
  • 총 4개의 혜택 콘텐츠
최신 발행글 더보기