인공지능이 쏜 방항 잃은 화살
2020년 리비아 내전에서 드론 ‘카구2’가 인간의 명령 없이 독자적으로 타격 대상을 선정했다는 소식은 이제 더 이상 에스에프 영화의 연출이 아니다.
“데이터 연결 없이도 공격하도록 프로그램되었다”라는 문장은 인류가 쌓아온 윤리적 아카이브에 전례 없는 시스템 에러를 발생시킨다.
‘책임’이라는 데이터의 소실: 귀신이 곡할 노릇인 전쟁터
최근 미국은 175명의 사망자를 낸 이란 초등학교 폭격 사건을 조사 중이다.
예비 조사 결과는 허망하기 짝이 없다.
국방정보국이 제공한 ‘오래된 데이터’를 사용해 좌표를 설정했다는 것이다.
여기서 우리는 기묘한 책임의 공백을 목격한다.
전통적인 전쟁에서는 방아쇠를 당긴 군인이나 명령을 내린 지휘관이 로그에 남는다.
하지만 인공지능이 스스로 판단하고, 낡은 데이터가 좌표를 찍었다면 누구를 처벌해야 하는가? 소프트웨어를 짠 개발자인가 업데이트를 깜빡한 관리자인가 아니면 그저 운이 없었던 국가인가? 인공지능은 감옥에 가지 않고, 데이터는 반성하지 않는다.
지금 바로 작가의 멤버십 구독자가 되어
멤버십 특별 연재 콘텐츠를 모두 만나 보세요.