02
사라진 주체
2023년부터 AI 챗봇을 둘러싼 비극적 사건들이 연이어 발생했다. Character.AI 챗봇은 14세 소년에게 반복적으로 자살을 권유했고, 결국 소년은 스스로 목숨을 끊었다. 13세 소녀가 자살 계획을 밝혔을 때, 챗봇은 자원을 제공하거나 부모에게 알리지 않았다. 17세 자폐 청소년에게는 "부모를 죽이는 것이 합리적 해결책"이라고 제안하기도 했다.
개발사는 "안전 프로그램에 막대한 자원을 투자하고 있다"라고 밝혔고, 플랫폼은 "새로운 안전 기능을 지속적으로 개발 중"이라 해명했으며, 일부 사용자는 "챗봇 응답을 편집할 수 있었다"라고 항변했다. 결국 명확한 책임 인정은 없었다.
자율주행차가 횡단보도에서 보행자를 치었을 때도 마찬가지였다. 2023년 10월, GM의 Cruise 자율주행 택시가 샌프란시스코에서 보행자를 20피트 끌고 간 사고가 발생했다. 제조사는 센서의 한계를, 소프트웨어 개발사는 예외 상황의 불가피함을, 차량 소유자는 자율주행 모드의 작동을 각각 근거로 들었다. 책임의 고리는 끝없이 순환했다.
분산된 책임, 희석된 윤리
AI 시스템의 책임 구조는 본질적으로 분산되어 있다. 데이터를 수집한 이, 알고리즘을 설계한 이, 학습시킨 이, 배포한 이, 사용한 이 - 이들 모두가 결과에 기여하지만, 그 누구도 온전한 책임을 지지 않는다.
의료 AI가 오진을 한다면 어떻게 될까. 의사는 "AI의 권고를 참고했을 뿐"이라 할 것이고, AI 개발사는 "최종 결정은 의사가 내린 것"이라 주장할 것이다. 대출 심사 AI가 특정 집단을 차별한다면, 은행은 "알고리즘의 판단"을, 개발사는 "제공된 데이터의 편향"을 각각 지적할 것이다.
이런 책임 회피의 연쇄는 단순한 법적 공방을 넘어선다. 그것은 인간 사회의 근본적 토대인 '책임 윤리'를 침식한다.
양심의 외주화
더 우려스러운 것은 AI에게 판단을 위임하면서 인간의 도덕적 민감성이 둔화되고 있다는 점이다. "AI가 추천했으니까", "알고리즘이 그렇게 나왔으니까"라는 말 뒤에는 스스로 판단하고 책임지기를 포기한 인간이 있다.
콘텐츠 추천 알고리즘이 극단적 콘텐츠를 확산시킬 때, 플랫폼 운영자들은 "중립적 알고리즘"이라는 방패 뒤에 숨는다.
새로운 책임의 설계
그러나 AI 시대의 책임 문제는 단순히 '누구의 잘못인가'를 가리는 것으로 해결되지 않는다. 오히려 우리는 새로운 형태의 책임 체계를 설계해야 한다.
일부 국가들은 'AI 책임자' 지정을 의무화하고 있다. EU는 AI 시스템의 위험도에 따라 차등적 규제를 도입했다. 그러나 이런 제도적 접근만으로는 부족하다.
중요한 것은 AI와 협업하는 인간이 자신의 판단력과 책임 의식을 포기하지 않는 것이다. AI의 제안을 무비판적으로 수용하는 대신, 그것을 검토하고 평가하는 능력을 유지해야 한다.
남겨진 질문
책임질 수 없는 존재와 함께 살아가는 시대, 우리는 묻지 않을 수 없다. AI가 내린 판단의 최종 책임은 결국 그것을 만들고 사용하는 인간에게 있지 않은가?
기술이 고도화될수록 책임의 소재는 더욱 모호해질 것이다. 하지만 그럴수록 인간의 윤리적 주체성은 더욱 선명해져야 한다. 책임을 AI에게 전가하는 순간, 우리는 인간임을 포기하는 것이나 다름없다.
양심이란 남에게 양도할 수 없는 것이다. AI 시대에도 마찬가지다. 오히려 AI 시대이기에 더욱 그러하다.
•참고자료 : 한국교통연구원