우문에 현답이 불가능한 시대

대학생들의 ChatGPT 시험 부정행위에 덧붙여

by 박 스테파노

정답이 없는 시험장 ― 영화 <배드 지니어스>


태국의 명문 고등학교에 다니는 린(추티몬 추엥차로엔수키잉)은 탁월한 수학 실력을 지닌 장학생이다. 가난하지만 정직한 아버지의 기대 속에서, 그녀는 ‘정답이 존재하는 세계’ 안에서 자랐다. 그러나 그 정답의 체계는 이미 불공정하게 기울어 있었다. 학교는 부유한 학생에게 특혜를 주었고, 성적은 성실이 아니라 금전으로 거래되었다. 린은 그 모순의 틈에서 지식이 더 이상 윤리의 영역이 아님을 깨닫는다.


첫 번째 부정은 사소했다. 친구 팟(티라돈 수파펀핀요)을 위해 시험 답안을 몰래 알려준 일이었다. 그러나 그 순간, 린은 시스템의 허점을 발견한다. 시험은 ‘문제 풀이의 장’이 아니라 ‘자본의 전시장’이었다. 린은 구조의 결함을 활용해 부정행위 네트워크를 설계하고, 뱅크(차논 산티네톤쿨)는 그 반대편에서 등장한다. 가난하지만 정직한 그는 린처럼 장학금을 목표로 하지만, 윤리의 좌표는 달랐다. 린이 제도의 모순을 기술적으로 전복하려 했다면, 뱅크는 성실로 견디며 그 모순을 통과하려 했다.


그러나 구조는 성실을 구제하지 않는다. 두 사람은 결국 같은 판 위에 서게 된다. 국제 입학시험 ‘STIC’의 부정행위를 위해 호주로 향한 그들의 작전은 시간대의 차이를 이용한 정답 전달이었다. 이 사건은 지식의 탈맥락화와 윤리의 상품화를 극명히 드러낸다. 린의 천재적 기억력은 학문적 재능이 아니라 시장에서 거래되는 ‘상품 코드’로 전락한다.


영화 <배드 지니어스>의 한 장면. GDH559 제공


시험장으로 돌아오던 린은 뱅크가 대사관 직원에게 조사를 받는 장면을 목격한다. 그 순간, 자신이 만든 체계의 잔혹함이 현실이 된다. 공항으로 향하던 그녀는 휴대폰 속의 사진을 하나씩 삭제했다. 시드니의 햇빛 아래 웃던 뱅크의 얼굴도, 그들의 공모와 청춘의 잔재도 사라졌다. 남은 것은 침묵뿐이었다.


린은 혐의를 벗었지만 시험 성적은 무효 처리되었다. 뱅크는 모든 책임을 홀로 감당했다. 귀국 후, 팟(티라돈 수파펀핀요)과 그레이스(에이사야 호수완)의 축하 인사를 받으며 린은 그들의 말이 공허하게 울리는 것을 느꼈다. “학교는 사지선다형이 아니야. 나는 나의 길을 갈게.” 그녀는 그렇게 말하고 돌아섰다. 저녁의 공항 대합실에서 린은 아버지의 품에 안겨 울었다. 그 눈물은 참회의 언어였고, 부정의 그림자는 그제야 무너졌다.


이후 린은 교사가 되기로 결심한다. 누군가의 답안을 베끼는 대신, 누군가의 삶을 비추는 사람이 되고 싶었다. 면접을 마친 어느 날, 뱅크에게서 메시지가 왔다. “오늘 우리 집에서 파티하자.” 잠시 망설였지만 미안함이 그녀를 이끌었다. 그러나 세탁소 앞에 선 린이 마주한 것은 더 이상 예전의 뱅크가 아니었다. ‘미스터 뱅크의 세탁소’라는 새 간판이 번쩍였고, 내부에는 부정행위로 얻은 돈이 만든 번쩍임이 가득했다. 그는 함께했던 학생들의 이름이 적힌 티셔츠를 현관 매트로 깔아두었다. 린은 그 위를 조심스레 밟으며 들어섰다.


방 안의 뱅크는 변해 있었다. 한때 정의로웠던 그의 눈빛은 냉소로 변했고, 손끝에는 돈 냄새가 배어 있었다. 그는 린의 아버지마저 협박했다. 린은 침묵했다. 그가 무너진 이유를 알고 있었기 때문이다. 장학금 하나에 모든 희망을 걸었던 소년이었고, 불의의 사건으로 시험조차 보지 못한 채 퇴학당했다. 사회는 그에게 두 번째 기회를 주지 않았다. 그는 피해자이자, 동시에 가장 어두운 가해자가 되어 있었다.


그러나 린은 달랐다. 이미 모든 것을 내려놓았다. 유학의 꿈도, 명예도, 과거의 영광도. 자신의 잘못을 인정하고 다시 시작할 용기를 품었다. 뱅크의 협박은 더 이상 그녀를 흔들 수 없었다. 린은 세탁소를 떠나며 스스로를 증언의 자리로 향하게 했다. 영화는 그녀의 자수로 끝난다. 그러나 현실이라면 이야기는 그렇게 단순하지 않았을 것이다. 부정행위에 참여했던 수많은 학생들, 돈으로 세상을 움직인 자들은 그녀를 배신자로 여겼을 것이고, 린과 아버지의 안전은 위협받았을 것이다.


그럼에도 린은 멈추지 않았다. 잘못을 고백한다는 것은 단지 처벌을 받겠다는 뜻이 아니라, 다시 인간으로 서겠다는 선언이었다. 뱅크는 세탁소 안에서 여전히 돈의 기계음을 들었고, 린은 바깥 공기 속에서 자신의 숨을 되찾았다. 영화의 마지막 장면에서 그녀의 얼굴은 고요했다. 죄의 무게와 용서의 가능성이 교차하는 얼굴이었다. 그녀가 택한 길은 고독했으나, 오직 그 길만이 인간의 존엄을 회복할 수 있는 유일한 답안이었다.


영화 〈배드 지니어스〉(2017)는 범죄극의 외피를 두르고 있지만, 실은 태국 사회의 교육·계급·도덕의 불평등을 정밀하게 해부한다. 시험은 제도의 은유이며, 정답은 권력의 상징이고, 부정은 왜곡된 저항의 형식이다. 린과 뱅크의 궤적은 ‘윤리의 경제학’ 속에서 인간이 어떻게 타락하고 다시 서는지를 보여준다. 영화는 마지막에 묻는다. 정답이 존재하지 않는 시험장에서, 인간은 무엇으로 옳음을 증명할 수 있는가.


영화 <배드 지니어스>의 한 장면. GDH559 제공


이 영화의 서사는 취재의 기록처럼 생생하다. 시험으로 인생의 출발점을 재설정하려는 욕망은 경쟁사회에서 너무 익숙한 장면이다. 입시와 취업의 문턱에서 마주하는 ‘테스트’는 인고의 시간이 아니라 허술한 통과의례가 되어버렸다. 그래서 정공법의 돌파가 미덕으로 남은 자리에서, 편법과 불법의 유혹은 끊임없이 고개를 든다.


부정행위는 이미 우리 사회에 만연한 일상의 사건이 되었다. 교실의 쪽지 시험에서 시작된 엿보기는 내신 시험지 유출로, 다시 입시 부정으로 이어졌다. 대학의 강의실에서는 ‘컨닝’이 더 이상 숨길 일도 아닌 듯 만연하다. 오래된 이야기가 오늘 다시 새롭게 들리는 이유는, 정답보다 옳음을 배우는 법을 잃었기 때문일지도 모른다.



화면 속 정답과 윤리의 흔적


비대면 강의가 일상이 된 뒤, 대학의 시험장은 더 이상 교실의 네모난 공간에 머물지 않는다. 카메라 렌즈 너머, 화면 아래 숨은 또 하나의 세계가 있다. 그곳에서는 손끝의 신호와 채팅창의 속삭임이 정답이 되고, 질문은 이미 공유된 문장으로 되돌아온다. ‘커닝’이라는 오래된 단어가 기술의 얼굴을 쓰고 돌아온 셈이다.


서울의 한 대학 경영학과 학생 김모 씨는 시험 중 친구들의 단톡방에서 부정행위 방법이 공유되는 것을 목격했다. “하지 않으면 나만 손해인 것 같았다.” 그의 말에는 시대의 공기 같은 체념이 묻어 있었다. 팬데믹 이후 자리 잡은 비대면 시험 환경은 학문의 윤리를 시험하기보다, 양심의 경계를 실험하는 무대로 변했다. 감독관의 눈은 카메라를 통해 존재하지만, 그 시선은 너무 멀었고, 너무 쉽게 속일 수 있었다.


오픈채팅방을 이용한 부정행위는 이미 대학가의 공공연한 비밀이다. 2020년 한국외대에서 700명이 넘는 학생이 채팅방을 통해 시험 문제를 주고받았고, 최근 고려대에서는 ‘고령사회에 대한 다학제적 이해’ 과목에서 500명 규모의 채팅방이 적발됐다. 구조는 달라도 반복은 같다. 기술의 발전과 함께 부정은 점점 정교해졌다. 2022년 말 챗GPT의 등장 이후, 대학의 커닝은 단순한 복사와 공유를 넘어 ‘AI 커닝’이라는 새로운 얼굴로 진화했다.


연세대 ‘자연어 처리와 챗지피티’ 과목에서 벌어진 사건은 이를 상징한다. 교수는 시험 동안 응시자의 얼굴과 손, 화면을 모두 촬영하도록 했지만, 영상 속에서도 부정의 흔적은 곳곳에 남았다. 문제는 이런 일이 ‘한 대학만의 일’로 치부되며 쉽게 잊힌다는 점이다. “우리 학교도 그랬지만 아무 조치가 없었다.” 학생들의 증언은 대학이 얼마나 오래 윤리적 대응을 미뤄왔는지를 드러낸다.


챗GPT를 이용해 답안을 작성하고도 제재 없이 넘어가는 분위기, 강의평가에 ‘AI가 대신 써줬다’는 문장이 버젓이 남는 현실. 이는 단순한 규정 위반이 아니다. ‘학문의 진실성’이라는 오래된 가치가 평가의 형식 속에서 점점 희미해지고 있음을 보여주는 징후다. 교수자의 지침이 “AI 활용 여부는 자율에 맡긴다”는 문장으로 끝나고, 학생들은 그 자율을 편의로 오해한다.


여러 대학에서 일상이 된 부정행위. 연합뉴스 제공


이제 대학은 시험의 방식을 새로 설계해야 한다. 기술이 인간의 지성을 대신하는 시대, 지식의 윤리 또한 다시 물어야 한다. 연세대는 AI 윤리에 관한 공청회를 예고했고, 서울대는 ‘챗GPT로 숙제해도 될까요’라는 질문을 내건 워크숍을 준비 중이다. 이 질문은 단지 과제의 방식이 아니라, 배움의 의미 자체를 묻는 물음으로 읽힌다.


화면 속 학생들은 여전히 답안을 입력한다. 그러나 정작 필요한 것은 정답이 아니라, ‘정직함이 여전히 배움의 전제인가’를 되묻는 일이다. 팬데믹이 바꾼 것은 시험의 형식만이 아니다. 한 사회가 진실을 대하는 태도, 그리고 그 태도를 교육이 어떻게 복원할 것인가의 문제까지 포함된다.


다만 이 문제의 핵심에 ‘쯧쯧, 요즘 아이들’이라는 비판을 두는 것은 무책임하다. 공정과 형평에 분노하는 20대의 이율배반적 행태는 단지 세대의 나약함에서 비롯된 일탈이 아니다. 이 문제를 그렇게 단순히 치부하는 순간, 우리는 구조적 재앙을 마주할 수 있다. 사건의 중심에는 그들을 평가하고 품평하려는 어른들의 책임이 훨씬 더 무겁다.



데이터, 함수, 그리고 AI 윤리


IBM에서의 마지막 커리어는 소프트웨어 비즈니스 그룹에서 데이터 거버넌스(Data Governance) 사업개발담당(BDE)으로의 임무였다. 이후 모바일 혁신의 시작과 함께 MobileFirst 신규 론칭을 담당하기도 했지만, ICT 영역에서 나의 관심은 여전히 ‘데이터’였다. 기술적·비즈니스적 인사이트는 어느 정도 확립되었고, 그 관심은 쉽게 사그라지지 않았다.


빅데이터의 1세대로서, 기업과 공공, 학교를 대상으로 수많은 제안과 검토를 함께하던 시절이 가끔 그리워진다. 당시 적어놓은 노트를 들추면, 기술의 유용성은 진일보했지만, 핵심으로의 접근은 여전히 요원함을 느낀다. 특히 ChatGPT와 같은 최신 AI에 쏠린 관심을 보면, 기술의 본질보다는 결과물의 마술적 측면만 주목하는 현실이 우려스럽다.


ChatGPT란 단어에서 많은 이들은 ‘대화’에만 주목한다. 그러나 진짜 핵심은 ‘사전 학습된 생성 변환 장치(Generative Pre-trained Transformer)’다. 수많은 정보와 데이터가 흐르는 빅데이터 환경에서, 최초 요청자가 요구하는 고유한 값은 정확하고 적요하게 매칭되어야 한다. 이를 위해 함수, 곧 맵핑(mapping)의 개념은 필수적이다. 요즘 말하는 데이터 라벨링 역시 맵핑을 위한 사전 작업이라는 점에서 이해가 쉽다.


결국 빅데이터 환경에서 중요한 것은 함수(Function)의 통로다. 값을 도출하고 변용하는 매핑의 엔진, 즉 데이터 인지 시스템(Data Cognition System)이다. ChatGPT 역시 20년 전 데이터 분석 시스템(Data Analytic System)의 고도화 버전으로 볼 수 있다.


하지만 안타깝게도, 일부 ‘AI 전문가’나 연구자들은 이 함수적 사고를 간과한다. 앞단의 X값과 최종 Y값만 놓고 마술처럼 이야기할 뿐, 기본적 풀이 능력은 부족하다. ChatGPT는 단순 연산에서도 오류를 보였고, 사용자가 바로잡으려 해도 잘못된 결과를 반복적으로 제시했다. 결국 AI를 올바르고 적확하게 활용하려면, 사용자가 충분한 인사이트와 학습을 갖추어야 한다.


AI의 사용에 인문학적 기준이 필요하다. AI Sora


IT 환경은 의외로 인문학적·사회과학적 요소를 많이 담고 있다. 그러나 그 결과를 귀납하고 연역하는 근본 방법은 기초과학, 특히 수학적 알고리즘과 함수적 고찰에 기초한다. 빅데이터 환경에서 표면적 기술만 제공하는 업체와 난립하는 시스템은, 제대로 된 인프라를 구축하지 못한다는 점에서 우려스럽다.


ChatGPT가 애플과 구글의 혁신을 뛰어넘는 기술로 평가되기도 하지만, 본질적으로 혁신을 주도할 기술 상품이 되기에는 한계가 있다. 구글링을 대신하는 수준이라면 의미는 제한적이다. 데이터 서비스를 총괄하는 주체가 된다면, 규제와 관리 문제는 또 다른 도전이 될 것이다. 실질적으로 이 기술은 이미 기성화된 시스템 위에 세련된 인터페이스를 덧입힌 수준일 뿐이다.


최근 국내외에서는 AI 일상화가 가져오는 인문학적·사회과학적 쟁점을 연구하는 활동이 활발하다. 인간만이 수행하던 일자리에서 AI가 역할을 대체하며 실업을 초래할 수 있다는 두려움과, 반대로 비루한 노동에서 인간이 해방될 수 있다는 희망이 공존한다. 예술과 창작, 스포츠와 유희 영역에서도 동일한 고민이 얽혀 있다.


결국 이 논의의 끝에는 ‘윤리(ethics)’가 놓인다. AI의 활용과 그 영향은 단순 기술적 문제가 아니라, 인간과 사회가 함께 다루어야 할 윤리적 질문이다. 국제적으로도 OECD는 AI 윤리 원칙(AI ethical principles)을 제정했고, 유네스코 역시 AI 윤리를 주요 연구 분야로 정립했다.



AI 윤리, 산출물, 그리고 인간의 몫


전기전자공학자 단체인 IEEE는 ‘AI’라는 용어 자체를 배제하자고 주장하기도 한다. ‘인공 지능’이라는 단어가 마치 의인화된 로봇을 떠올리게 하므로, 대신 ‘자동 지능 시스템(Autonomous Intelligent System, A/IS)’이라는 표현을 선호한다. 단순한 용어 바꾸기에 그치지 않는다. IEEE는 A/IS의 설계 단계에서부터 ‘윤리원칙에 일치하는 설계(Ethically Aligned Design)’를 강조하며, 관련 국제 표준 마련을 추진한다.


한국에서는 ‘AI 윤리’라는 용어조차 낯설고, 어색하며 때로 불편하게 여겨진다. 동양 윤리와 서양의 Ethics가 갖는 의미 차이 때문이다. 특히 과학은 윤리와 무관하다는 인식이 깊다. 자료 조작이나 연구 부정행위가 발생해도, 이를 과학 자체의 문제라기보다는 사회 규범과 법제도의 문제로 판단하는 경향이 있다. 과학 기술은 본질적으로 가치중립적이라는 믿음이 강하게 작용한다.


대부분 사람들은 윤리의 대상을 AI 자체가 아니라, 기술을 적용하거나 사용하는 개인의 행동으로 여긴다. 따라서 AI 윤리 논의를 기술 발전을 방해하는 ‘비생산적’ 논의로 치부하기도 한다. 정부 관료들의 시각도 대체로 이렇다. 과학 기술 진흥과 효율성을 저해한다는 이유에서, 일부는 선진국들이 주도하는 AI 윤리 논의를 ‘사다리 걷어차기’라고까지 표현한다.


AI의 실효성을 판단하려면 한 가지 오해에서 벗어나야 한다. ‘인공지능’이라는 이름 때문에 AI가 지각이나 의식을 가진다는 통념이다. AI는 기계일 뿐, 자신의 활동이 윤리적인지 아닌지 판단할 수 없다. 차별적 언어를 산출한다고 해서 AI가 차별적 생각을 하는 것은 아니다. 이해하지 못한 채, 학습된 프로세스를 따라 결과물을 생성할 뿐이다. 즉, 실효성 문제는 AI 자체가 아니라, AI가 만들어낸 산출물의 ‘실효성’에 귀결된다. 하지만 여기만 바라보면, 인간 사회의 핵심 가치—공정과 정의—를 놓치게 된다.


현재 AI는 공정이라는 개념을 이해하지 못한다. 사전적 풀이만 가능할 뿐, 가치 판단은 할 수 없다. 공정과 관련한 복잡한 의미, 사회적·윤리적 관계를 따지는 ‘의식’이나 ‘마음’도 갖지 못한다. 따라서 AI가 사람보다 더 혹은 덜 공정한가라는 질문은 의미가 다소 왜곡된다. AI 산출물이 사람이 수행한 것과 비교했을 때, 동일한 일을 얼마나 ‘공정하게’ 수행하는지의 문제일 뿐, 불공정한 행위는 모두 인간의 ‘의도’로 귀결된다.


AI는 인간 활동의 과거 패턴을 인식하고 학습한다. 따라서 산출물은 현 세상의 모습을 반영한다. 지금의 세상이 불공정하다면, AI에게 공정한 결과를 기대하는 것은 모순이다. 도덕적 기준에 맞춰 AI를 설계한다 해도, 결국 그 산출물의 활용과 책임은 인간에게 돌아간다. 공정성의 담보 역시, AI 자체가 아니라 제작 목적과 설계 방식에 달려 있다.


AI윤리와 효율. AI Sora


질문을 바꾸어 보자. AI를 활용한 창작이나 과제물은 ‘최적’일까? 판단 기준이 잘못 설정되어 있다. 우선 창작자의 의도가 중요하다. 역량 부족이나 결핍을 AI로 보완하는 것은 창작자의 책임이며, 표절·도용·무단 복제는 AI의 문제가 아니라 인간의 윤리적 판단 영역이다.


AI 사용을 허용하거나, 기여도가 제한된 AI를 설계·사용하도록 규정할 수 있다. 기준에 맞는 사용 환경과 문화적 공감대가 조성된다면, 산출물은 ‘최선’으로 인정될 수 있다. 핵심은 AI가 아니라 인간의 몫이다.


한국 IT 시장은 경쟁적으로 고도화되어 있지만, 기술과 인프라의 근본적 향상은 아직 선진국 수준에 미치지 못한다. 이는 민간 기업뿐 아니라 정부와 지자체가 심각하게 고찰하고 대안을 마련해야 하는 영역이다.


최근 정부는 다시 ‘경쟁력’을 강조하며 AI를 언급한다. 그러나 단순한 센터 설립이나 시설 구축보다, 사람에게 힘을 쏟는 것이 우선이다. 가장 중요한 기능요소(Function), 즉 데이터를 다루는 수학자와 사회과학자를 육성하고 지원하는 것이 그 출발점이 될 것이다.



AI 시대, 시험과 윤리(법)의 간극


앞서 언급된 부정행위 사건의 시험 유형을 살펴보면, 이는 전형적인 ‘비대면 객관식’ 시험이었다. 문제의 출발점은 바로 여기에서 비롯된다. 출제자와 교육자의 나태, 기만적 태도가 도드라진 지점이다. 코로나 팬데믹의 잔재로 비대면 시험이 지속되는 이유는 오로지 시간 대비 효율 외에는 설명되지 않는다. 그 효율성만을 내세운 교육 방식에 대한 비판이 우선이다.


학문의 깊이를 탐구해야 할 대학 클래스에서 사지선다 객관식이라니, 학생들의 잠시 환호를 이끌 수는 있으나 교육자의 성의는 땅에 떨어진다. 최근 교수들의 SNS를 살펴보면 AI 예찬의 글들이 넘쳐난다. 연구 효율을 높인다는 호언이 가득하지만, 그 어디에도 사용자의 윤리와 도구의 한계에 대한 성찰은 보이지 않는다. 연세대의 ‘자연어 처리와 챗지피티’ 과목을 예로 들면, 거대 언어 모델을 다루는 기초 과목임에도 도구와 장치의 윤리가 선행되지 않은 교과 구성 자체가 실책이다. 600명 규모의 강의를 비대면으로 처리하는 이유도 여기에 있다. 학교는 장소와 인건비를 줄이고, 학생들은 등교 부담을 피할 수 있다. 그 결과, 사지선다 객관식으로 수백 명의 학업 수준을 평가하는 참담한 구조가 만들어진다.


해결의 출발점은 근본적 윤리의 재정립이다. 교육기관의 학사행정 대전환이 필요하다. 학생들이 편히 학점을 이수하는 중간기관으로 등록금을 챙기는 곳이라면, 그것은 교육기관의 자격을 상실한 셈이다. 불가피한 경우를 제외하고 비대면 수업은 최소화해야 한다. 수백 명 규모의 대형 강의가 필수 과목으로 운영되는 현실은 교육의 본질과 거리가 멀다.


태국의 커닝 방지 시험의 한 장면. 대학뉴스 제공


교육자이자 학자인 교수들의 태도도 중요하다. AI와 거대언어모델의 장치적 한계를 인지하고, 그 맹점을 시험 평가에 반영할 지식과 통찰을 길러야 한다. GPT의 교차 의미 연산 오류나 서술적 한계 등을 이해하고, 평가 기준으로 삼을 줄 아는 능력이 필요하다. 시험이 단순한 답안 평가를 넘어 학습에 대한 피드백이라면, 더 고도화된 문제 설계와 평가에 시간을 들이는 ‘현문’을 만드는 노력이 요구된다. 더 이상 우문에 현답을 내놓는 시대가 아니다.


정부의 역할 또한 중요하다. AI 강국을 천명한 이상, 책임을 져야 한다. 과학기술정보통신부는 내년 시행될 ‘인공지능 기본법’의 세부 이행 방안을 담은 시행령을 마련하며, 기술 발전과 산업 안전을 제도적 언어로 규율하려 한다. 산업 도약과 안전 보장을 병행하겠다는 의지가 담긴 이 법은 균형을 약속하지만, 저울은 한쪽으로 치우쳐 있다.


시행령의 구조는 명확하다. 첫째, 산업 성장 기반 강화. 연구개발, 데이터 구축, 창업 지원, AI 집적단지 지정이 핵심이다. 둘째, 정책 수행 조직화로 안전과 국제 규범의 틀 마련. 인공지능안전연구소와 정책센터가 이를 대표한다. 셋째, 안전성과 투명성 제도화. 연산량 10의 26승 FLOPs를 초과하는 AI를 ‘고영향 인공지능’으로 규정하고, 생성형 AI 사용 사실을 반드시 고지하도록 의무화했다.


하지만 이 정연한 구조 속에서 빠진 것은 기술의 윤리적 주체, 즉 사용자와 공급자의 ‘책임감’이다. 시행령은 시스템 신뢰와 산업 효율을 강조하지만, 인간의 판단과 선택이 어떻게 변화해야 하는지에 대한 언급은 거의 없다. AI 위험은 계산 능력의 크기에서 비롯되지 않는다. ‘누가, 무엇을 위해, 어떻게 사용하는가’의 문제에서 생겨난다. 아무리 세련된 규제라도, 인간 윤리가 부재하면 기술적 방파제에 불과하다.


생성형 AI가 만들어내는 언어와 이미지가 인간의 것과 구별되지 않는 지금, “AI 결과물임을 명확히 고지하라”는 조항은 너무 늦게 찾아온 상식처럼 들린다. 그러나 이 상식도 표면적이다. 진짜 질문은 “AI가 만든 세계를 우리는 얼마나 자각하며 사용하는가”이다. 기술이 단순 도구를 넘어 세계 해석자의 역할을 맡기 시작했을 때, 법은 그 도구를 감시하는 수준에 머물러서는 안 된다.


과태료 부과 전 1년 계도기간과 지원 플랫폼 ‘이음터’ 운영은 제도의 현실적 완충장치로 보인다. 그러나 이는 기업 행정 적응을 위한 장치일 뿐, 사회 전체의 인식 변화를 이끄는 장치는 아니다. 산업 윤리를 시장 논리에만 맡긴다면, AI의 미래는 또 다른 불평등 구조를 복제할 것이다.


과학기술정보통신부 장관은 시행령을 “대한민국이 AI 3대 강국으로 도약하기 위한 초석”이라 말했다. 그러나 강국이라는 이름보다 시급한 것은 ‘책임 있는 나라’라는 정체성이다. 인공지능 법이 인간의 존엄과 함께 작동하지 않는다면, 기술 진보는 곧 인간 퇴보를 의미할 수도 있다. 법은 산업을 위한 장치가 아니라, 인간을 위한 울타리로 작동해야 한다. 그것이 이 시대 진짜 기본법이 되어야 한다.


AI 기본법은 온통 '산업'이 가득. AI Sora


기술이 인간의 판단을 대체하거나 세상을 재단하는 시대에도, 궁극적 책임은 여전히 인간에게 있다. 시험장에서 카메라를 피해 부정행위를 저지르는 학생과, AI가 만들어낸 결과물을 맹목적으로 받아들이는 사용자 모두에게 요구되는 것은 기술을 향한 인식과 윤리적 성찰이다. 사회는 기술을 단순한 도구로 환원하기보다, 그것을 매개로 드러나는 인간의 선택과 행동을 점검할 장치를 마련해야 한다. 공정과 정의, 신뢰와 존엄이라는 가치들은 기계가 스스로 구현할 수 없기에, 인간의 공동체가 지속적으로 다져야 할 토대가 된다.


더 나아가, 기술 발전과 사회 제도의 효율 사이에서 균형을 잡는 일은 단지 정책과 법률의 문제가 아니다. 그것은 사회적 상상력과 철학적 성찰의 문제이며, 우리가 만드는 제도와 교육, 공동체의 규범 속에 체화되어야 한다. AI가 산출하는 세계가 우리의 현실과 맞닿는 순간, 그 결과물에 담긴 책임과 의미를 재단하는 주체는 오직 인간이다. 기술이 가능성을 열어주는 만큼, 인간은 선택과 성찰을 통해 사회적 도덕을 구현해야 하며, 그것이 바로 AI 시대에 인간 사회가 지켜야 할 최소한의 윤리적 조건이다.


keyword
매거진의 이전글피지컬 AI, 젠슨 황, 그리고 선택의 경로