brunch

You can make anything
by writing

C.S.Lewis

by 김홍열 Apr 22. 2024

AI 규제의 현실적 딜레마

김홍열의 디지털 콘서트

얼마 전 AI 이용에 관한 두 개의 기사가 보도됐다. 하나는 AI 기술이 급속도로 발전해 그로 인한 부작용에 대한 우려가 커져 유엔이 AI 개발과 규제를 위한 결의안을 채택했다는 기사다. 국제사회가 유엔 총회 차원에서 AI 규제 관련 결의를 공식적으로 채택한 것은 이번이 처음이다. 이 결의안은 국제법상 구속력이 없지만, 향후 국제사회에서 AI 관련 규제나 거버넌스 구성을 논의할 때 기준이 될 것으로 보인다. 결의안의 내용 중 관심을 끄는 것은 국제법과 국내법을 준수해서 AI 사용할 것, 적절한 안전장치 없이 AI 사용 금지, 부적절한 설계·개발·배포·사용 금지 등이다. 


유엔 결의안이 의미하는 것은 분명하다. AI 발전 속도가 생각보다 빠르고 발전 방향 또한 예측하기 힘들어 글로벌 차원의 규제가 필요하다는 것이다. 어느 정도 동의할 수 있는 내용이다. 이제 AI 이용에 관한 두 번째 기사를 보자. 영국 일간지 가디언은 지난 3일 이스라엘군이 하마스와의 지난 6개월간 전쟁에서 정보부대인 ‘8200부대’가 개발한 ‘라벤더’라는 AI 시스템을 활용했다고 보도했다. 라벤더는 드론 영상, 통신 감청, 데이터 해킹, 개인과 대규모 그룹의 움직임과 행동 패턴을 모니터링하여 얻은 정보 등을 분석, 특정인을 판별해 의사 결정에 필요한 정보를 제공하는 AI 기반 업무 지원 시스템이다. 


연합뉴스 TV 보도 화면 갈무리


이스라엘군은 라벤더 분석 결과에 따라 반이스라엘 무장 단체와 관련 있는 팔레스타인 사람 37,000명을 식별했고, 식별된 팔레스타인 사람이 있다고 판단된 특정 구역, 특정 장소에 폭탄을 투하했다. 가디언은 민간인이 있는 경우에도 폭탄 투하 지시는 내려졌다는 정보소식통의 말을 인용, 보도했다. 이런 보도에 대해 이스라엘 방위군(IDF)은 반박하고 있다. IDF는 성명서를 통해 “IDF는 테러리스트 요원을 식별하거나 테러리스트인지 여부를 예측하는 인공지능 시스템을 사용하지 않는다”고 말하면서, "정보 시스템은 단지 분석가가 표적 식별 과정을 수행하는 도구일 뿐”이라고 주장하고 있다.


IDF의 주장은 AI 사용과 규제의 현실적 딜레마를 보여주고 있다. 라벤더를 이용하고 있지만, 판단은 사람이 한다는 IDF 주장은 AI 사용에 대한 규제가 현실적으로 불가능하다는 것을 보여주고 있다. 이스라엘 야전 장교들은 하마스와의 전쟁을 빨리 끝내라는 총리 베냐민 네타냐후의 압력을 받고 있다. 이런 상태에서 라벤더는 무척 효율적 솔루션이다. 이스라엘군이 전쟁 초기 90% 정확도에 도달했다는 결론을 내리고 라벤더 사용을 개시한 것으로 전해진다. 라벤더를 쓰지 않을 이유가 없다. 문제가 생기면 즉, 판단이 잘못되어 오폭하게 되는 경우에도 라벤더에 책임을 전가하면 된다. 


물론 이스라엘 라벤더의 경우 전쟁이라는 극단적 상황에서의 예외적인 경우라고 볼 수 있지만, 비전쟁시에도 적절한 안전장치 없이 AI를 사용하는 경우는 도처에 있다. 대표적인 것이 중국의 안면인식기술이다. 중국은 2019년부터 휴대전화 개통 시 얼굴 정보 등록을 의무화하는 '휴대전화 가입자 실명등록관리제'를 시행하고 있다. 모든 얼굴 데이터는 국가 소유로 필요할 때마다 임의로 사용할 수 있다. 안면인식기술의 수준 또한 매우 높다. 14억 인구 중 한 사람을 식별하는 데 소요되는 시간이 대략 3초 정도 걸리고 인식 정확도는 약 99%에 이른다. 안면인식기술의 발달은 당연히 개인 인권 신장에 반비례할 수밖에 없다. 


이미지 출처=Pixabay.com


더구나 중국이 특별히 예외적인 사례라고 볼 수는 없다. 시장경제를 채택하고 있는 중국은 정치적으로 공산당 일당 지배 시스템에 따라 결정과 집행이 쉬울 뿐, 대부분 민주주의 국가의 지도자들 역시 효율적 국정 운영과 인권 보호 사이에서 판단의 어려움을 겪고 있다. 이런 판단의 어려움은 예외적 상황일 때 확연히 드러난다. 일반적 상황일 때는 그나마 언론의 감시와 여론의 반대 등을 고려해 신중한 척 하지만, 코로나19와 같은 예외적 상황이 발생하면 인권보다는 신속한 지원 정책 등이 더 선호되고 그 과정에서 적절한 안전장치 없이 AI 사용 금지, 부적절한 설계 개발 배포 사용 금지 등에 대한 고민은 슬그머니 사라지게 된다. 


다시 처음 질문으로 돌아가 보자. AI 규제는 가능한가. 위 여러 사례에서 알 수 있는 것처럼 이 질문에 대한 답은 일단 부정적이다. 글로벌 네트워크 환경 속에서 살고 있지만, 여전히 국민국가의 경계 안에서 살고 있는 상태에서는 국가의 생존과 타국가에 대한 상대적 우위가 중요하고, 이런 상태를 유지하기 위해서 어느 정도 희생이 불가피할 수도 있다. 이런 상황에서는 질문을 재구성하는 것도 한 방법이다. AI는 인류 진보에 어떤 영향을 미칠 수 있을까, 이런 질문을 통해 AI의 적극적 활용을 유도하고 폐해를 최소화하는 방안을 강구하는 것이 더 바람직해 보인다. 어차피 기술의 진보를 인위적으로 제어할 수는 없다. ++

매거진의 이전글 로봇심판 이전으로 돌아갈 수 있을까

작품 선택

키워드 선택 0 / 3 0

댓글여부

afliean
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari