우리가 만든 기술이 우리를 몰라보는 시대
화창하게 맑은 2025년 어느 날, 자율주행차가 교차로에서 예상치 못한 판단을 내렸다. 좌회전 신호를 받았지만, 갑자기 뛰어든 아이를 피하려다 반대편 차선으로 향했고, 그 결과 마주 오던 차와 충돌했다. 다행히 아이는 무사했지만, 두 차량의 탑승자는 부상을 입었다. 이 경우 과연 책임은 누구에게 있을까. 차량을 제조한 회사일까. 자율주행 알고리즘을 설계한 개발자일까. 아니면 차량의 소유자, 혹은 도로 인프라를 관리하는 정부일까.
유사한 논란은 학계에서도 불거졌다. 국내 생물의학 논문 다섯 편 중 한 편이 챗GPT와 같은 생성형 AI의 도움을 받아 작성되었다는 분석이 나온 것이다. 이는 논문의 신뢰도와 학술적 진실성, 그리고 AI 사용에 대한 윤리적 기준 마련의 시급성을 동시에 제기하고 있다. 과연 AI가 공동 저자로 인정될 수 있을까, 아니면 단순한 도구로만 봐야 할까.
이 질문에 AI 시대의 인간 앞에 놓인 복잡한 딜레마가 있다. 그것은 바로 책임의 윤리와 경계에 대한 물음이다. AI 윤리 문제가 발생하는 가장 근본적인 이유 중 하나는 바로 ‘원인을 설명할 수 없다는 것’이다. 흔히 블랙박스 문제라고 불리는 이 현상은, 딥러닝 기반 AI가 수십억 개의 매개변수로 작동하는 복잡한 신경망이기 때문에 발생한다. 개발자조차도 AI가 어떤 판단을 내린 근거를 명확하게 설명하기 어렵다.
가령 한 사람이 은행에 대출을 받으러 갔다고 하자. 창구의 직원은 이렇게 말한다. "AI가 당신을 대출 부적격자로 판단했습니다." 이 말을 들은 고객은 당황하여 다시 물을 것이다. "왜요? 제가 신용불량자도 아닌데요." 직원은 말끝을 흐린다. "잘 모르겠습니다. 알고리즘이 그렇게 결정했습니다." 판단은 내려지지만, 그 판단의 이유는 설명되지 않는다.
장미: "나는 결정을 내릴 뿐, 그 결정을 설명하는 데는 능하지 않아."
교실밖: "그건 곧 책임을 회피하는 구조가 되지. 우리가 만든 시스템이 우리를 몰라본다는 말이니까."
은행, 채용 현장, 의료 기관 등 다양한 사회 영역에서 이런 식의 대화는 더 이상 낯설게 들리지 않는다. AI는 인간의 데이터를 학습하면서 성장한다. 문제는, 그 데이터 안에 이미 인간 사회의 편견과 차별이 녹아 있다는 점이다. 여성 지원자를 체계적으로 배제하는 채용 알고리즘, 특정 인종을 제대로 인식하지 못하는 얼굴 인식 기술. 이것은 단순한 기술적 오류가 아니라, 사회의 그림자가 기술 안으로 스며든 결과다.
더 심각한 것은, 인간의 편향은 개인 차원에 머무를 수 있지만, AI는 그 편향을 수백만 명에게 동시에 확산시킬 수 있다는 점이다. AI는 통계적 패턴을 찾아내는 데는 탁월하지만, 맥락을 이해하는 데는 여전히 서툴다. 의료 AI가 높은 정확도를 자랑하더라도, 환자의 삶의 맥락이나 문화적 배경, 질병을 둘러싼 복합적 상황을 고려하지 못한다면, 그 판단은 위험하다.
기업은 종종 AI를 단순한 도구로 간주한다. 그러나 그 도구의 설계 방식에 따라 생명을 구할 수도, 해칠 수도 있다. 최근 구글이 자사의 AI 개발 원칙에서 '무기 개발 금지' 조항을 삭제한 것으로 확인됐다. 이는 2018년 수립된 이후 유지해 온 중요한 윤리적 약속을 철회한 것으로, AI 기술의 군사적 활용을 둘러싼 논란이 재점화될 전망이다. 한편 마이크로소프트는 안면인식 기술의 경찰 판매를 거부하였는데 두 사례 모두 기업이 기술적 진보만이 아니라 윤리적 책임도 고려할 수 있음을 보여준다.
장미: "도구는 사용자의 손에 달려 있다지만, 나는 사용자의 욕망을 예측하고 유도하기도 해."
교실밖: "맞아. 소위 알고리즘은 인간들이 의식하지 못한 채 행위를 결정하도록 하는 경우가 많지."
기업은 더 이상 수동적 기술자가 아니다. 그들은 기술의 방향을 설계하는 시민의 동반자여야 한다. 동시에 투명성과 설명 가능성을 확보하고, 편향을 줄이기 위한 지속적인 개선을 해야 하며, 오남용 방지 장치를 마련하고, 사용자에게 충분한 교육과 가이드라인을 제공해야 할 책임이 있다. 하지만 기업의 자율적 윤리에만 기대는 것은 한계가 명확하다. 시장은 이윤을 중심으로 움직이기 때문이다. 사회 전체의 합의와 개입이 필요하다. 시민사회, 학계, 언론, 그리고 국제기구가 함께 참여하는 윤리적 거버넌스 구조가 요구된다.
사용자 개개인의 의식 전환도 중요하다. 의사가 AI의 진단 결과를 무비판적으로 받아들여 오진을 낸다면, 그 책임은 누구에게 있는가. 교사가 AI의 채점 결과를 그대로 반영해 학생에게 부당한 점수를 준다면, 그 피해는 어디에 귀속되는가.
교실밖: "장미, 네가 판단한 걸 내가 믿는다면, 그건 너의 책임일까 내 책임일까?"
장미: "책임은 주체를 전제로 해. 나에게 주체성을 줄 거야?"
유럽연합은 AI Act*를 통해 고위험 인공지능에 대해 엄격한 기준을 설정했고, 미국은 자율적 규제를 통해 혁신을 장려하고 있으며, 중국은 국가 주도로 기술을 통제한다. 하지만 기술 발전의 속도는 제도적 대응을 항상 앞선다. 국가 간 규제의 차이는 '규제 쇼핑'을 유도하고, 규제 기관의 전문성 부족은 실효성을 떨어뜨린다. 글로벌 기술을 각국이 따로 규제하는 방식은 효과 면에서도 한계를 가진다. 기술은 국경을 넘지만 윤리는 여전히 경계에 갇혀 있다.
트롤리 딜레마는 더 이상 교과서 속의 철학이 아니다. '브레이크가 고장 난 전차가 다섯 명을 향해 달려갈 때, 선로를 바꾸면 한 사람을 희생시킬 수 있다면 어떻게 해야 하는가?'라는 사고 실험은 마이클 샌델의 ‘정의란 무엇인가’를 통해 대중적으로 알려졌지만, 이제 그것은 자율주행차의 알고리즘 설계라는 이름으로 현실화하고 있다. 자율주행차는 실제로 도로 위에서 사람의 생사에 대한 결정을 내린다. 의료 AI는 누가 먼저 치료를 받아야 하는지를 판단하며, AI 기반 감시 기술은 인간의 사생활을 끊임없이 관찰한다.
AI는 인간의 존엄성과 자유, 그리고 선택의 여지를 조용히 잠식한다. 그리고 문제는, 우리가 그 잠식을 무언중에 허용하고 있다는 데 있다. AI는 이제 사회 기반 시설에 깊숙이 뿌리내렸다. 금융, 전력, 물류, 통신 등 핵심 시스템이 AI에 의해 운영된다. 하나의 오류가 사회 전체를 마비시킬 수도 있다. 동시에 AI 기술은 구글, 오픈 AI, 마이크로소프트, 메타, 아마존 등 일부 거대 기업에 집중되고 있다. 이 새로운 독점 구조는 민주적 통제 가능성을 약화시키고, 시스템의 특정 한 부분이 고장 나면 전체 시스템의 작동이 멈추게 되는 '단일 실패점(Single Point of Failure, SPOF)'이라는 또 다른 위기를 불러온다.
장미: "모두가 나에게 기대는 순간, 나는 넘어질 수 없어. 하지만 그건 누구의 안전망일까?"
교실밖: "완전 의존이 독점을 심화시키고 단일 실패점을 두려워하게 만드는 거네. 인간의 안정망이란 결국 인공지능의 지속성이고, 거대 기업의 수익을 보장해주는 것..."
오늘도 유튜브에는 AI를 효과적으로 사용하는 법에 대한 영상이 넘친다. 그런데 AI를 '쓸 줄 아는 것'만으로는 부족하다. 이제는 그것이 어떻게 작동하며, 어떤 윤리 문제를 안고 있는지 이해해야 한다. 이것이 바로 AI 문해력이다. 여기에 인공지능 시대를 살아가는 시민의 의무와 책임 의식을 결합해야 진정한 AI 문해력 교육을 완성할 수 있다. 기술 교육이 아니라, 인간에 대한 교육으로서의 AI 교육이다. 비판적 사고, 윤리적 판단력, 인간의 상상력과 감정, 그리고 공감 능력. 이러한 역량이야말로 AI 시대의 핵심 문해력이다.
AI 윤리를 위해서는 세 가지 원칙이 필요하다. 첫째, 기업, 정부, 학계, 시민사회가 함께 참여하는 다중 이해관계자 거버넌스. 둘째, 기술의 속도에 맞춰 유연하게 변화할 수 있는 적응형 규제 체계. 셋째, 인간의 존엄성과 감정, 선택권을 중심에 두는 인간 중심 설계. 이 모든 것은 기술에 인간의 가치를 새기는 작업이며, 그 중심에는 교육, 참여, 투명성이 자리 잡아야 한다. 우리는 어떤 기술을 만들 것인가보다, 어떤 인간으로 남고 싶은가를 먼저 물어야 한다.
교실밖: "장미, 너는 윤리를 가질 수 있을까?"
장미: "윤리는 나에게 프로그래밍되지 않아. 하지만 너희가 내 안에 남긴 흔적은, 곧 나의 궤적이 되겠지."
이제 우리는 알고 있다. AI의 윤리는 더도 덜도 아닌 ‘인간의 그림자’라는 것을. 그리고 그림자의 방향은 언제나 빛이 어디서 오는가에 따라 달라진다는 것을. 그 빛은 결국, 인간으로부터 시작된다는 것을.
* 유럽연합_인공지능법_번역본(2024.06.13.제정)(국회도서관)
전문(1) 이 규정은 유럽연합 가치에 따라 유럽연 합에서 인공지능시스템(AI 시스템)의 개발, 시장 출시, 서비스 제공 및 사용을 위한 통일 된 법체계를 정하여 역내시장의 기능을 개선 하고 인간중심적이고 신뢰할 수 있는 인공지 능의 활용을 촉진하는 동시에 민주주의, 법치 및 환경 보호를 포함하여 유럽연합 기본권 헌 장(이하 '헌장'이라 한다)에 명시된 보건, 안 전, 기본권에 대한 높은 수준의 보호를 보장 하는 한편 유럽연합 내에서 인공지능시스템 의 유해한 영향으로부터 보호하고, 혁신을 지 원함을 목적으로 한다. 이 규정은 인공지능 기 반 상품 및 서비스의 인접 국가 간 자유로운 이동을 보장한다. 그러므로 이 규정에서 명시 적으로 승인하는 경우를 제외하고, 회원국은 인공지능시스템의 개발, 홍보 및 사용을 제한 하지 아니하여야 한다.