brunch

AI가 우리를 공격한다면?

기술의 책임은 기술 바깥에 있다.

by 김의겸

강연을 다니다 보면 비슷한 질문을 듣는다. “AI가 인간을 지배하게 되지 않을까요?” 아마 매트릭스 같은 영화가 사랑을 받으며 생겨난 디스토피아적 상상력이 만든 두려움일 것이다. 내 대답은 언제나 같다.

“충분히 가능합니다. 그러나…”


눈부신 발전이 부른 커다란 질문

AI의 발전은 눈부시다. 사진·그림·영상은 실제와 구분이 어려워졌고, 광고·홍보 현장엔 이제 AI가 빠지는 것이 더 어색할 정도다. 그러나 더 주목할 것은 알고리즘의 성숙이다. AI는 질문에 가장 신뢰도 높은 답을 찾고, 스스로 학습하며 새로운 논리를 탐색한다. 막대한 데이터를 학습한 AI는 이제 얼마나 더 친숙하게 답변을 할 지를 고민하고 있다. 사람이 명령하지 않아도 스스로 학습하고 고민하면서 사람보다도 더 정확하고 더 믿음직한 답변을 내놓을 수준까지 왔다.

그래서 셀 수 없이 많은 분야에서 이미 AI는 사람을 대체하고 있다. AI 챗봇 상담, 미디어 편집, 제조업의 결함 탐지, 대형 펀드의 투자 의사결정까지. AI는 이미 수많은 과업을 대체‧보조하며 매일 더 정교해지고 있다. 1분도 안되는 시간에 내가 몇 시간을 씨름한 것보다 더 훌륭한 결과를 만들어낼 때 문득 두려움을 느낄 때도 있다. AI의 눈부신 발전을 가까이서 체감할수록, 문득 이런 생각이 든다. 이 기술이 인간을 해치면 어떻게 막을 수 있을까.


“AI가 사람을 해치면 안 되잖아요”

사실 AI는 이미 사람을 해치는 데 이용되고 있다. AI로 만들어낸 이미지나 음성, 텍스트는 타인을 빙자한 사기 범죄로 이어지기도 하고, 딥페이크 등 성범죄로 이어지기도 한다.

범죄는 아니어도 국방 분야에서도 AI는 중요하게 다뤄지고 있다.

폭격 목표를 정하는 상황을 떠올려 보자. 과학자는 폭탄의 위력과 탄착의 정확도를 가장 잘 알고 있고, 폭격의 전략적 목적와 효과는 군인이 가장 잘 알고 있을 것이다. 그리고 최종적인 결정을 내리는 정치인은 민간인 사상자 발생 여부와 국내외 지탄을 받지는 않을지, 폭격을 어떻게 공익적인 결정으로 포장할지 고민해야 한다. 돌이킬 수 없는 결과를 낳는 군사적 결정은 단순히 한 분야의 전문가가 결정할 수는 없는 일이다. 그래서 다양한 데이터와 확률, 그리고 사람들의 인식과 사회 분위기까지 복합적으로 고려한 AI의 결정이 가장 합리적일 것으로 기대되기도 한다.

AI가 사람을 해치는 기술로 쓰일 수도 있다. 그런데 그 기술은 결국 사람이 승인하고 사람이 명령하는 대로 움직인다. 결국 사람이 중요한 것이다.


AI의 통제 : 스카이넷 뒤에는 정부가?!

중국에서는 AI를 기반으로 한 얼굴인식 기술을 활용해 공공장소 등에서 국민의 얼굴을 인식하고, 이동 동선이나 행동을 실시간으로 포착하는 시스템을 갖추고 있다. 인식 기술은 세계 최고 수준이라, 신분증이 필요없을 수준이다. 그런데 이 기술을 통해 개인에게 사회 신용점수를 매긴다. 공공요금 체불이나 범죄를 저지른 이들에게는 감점을, 봉사활동이나 헌혈 등 행위에는 가점을 부여한다. 그리고 이 점수는 대출이나 취업, 자녀 교육까지도 영향을 주고, 일부 기관의 출입을 정지하는 요소가 되기도 한다.

우리가 두려워하던 스카이넷, 빅브라더와 다름없다. 내가 움직이는 장소, 만나는 사람은 물론 내가 했던 크고 작은 행위가 모두 기록으로 남고, 이를 기반으로 내 행동과 결정이 제약된다. 그러나 겉으로는 AI 기술이 사람을 지배하는 것처럼 보이지만 결국 정부와 권력을 쥔 사람들이 AI를 통해 사람을 통제하는 것이다. 문제는 사람이다.


도구와 흉기 사이

강연에서 자주 드는 비유가 있다. 칼이다. 칼은 요리와 예술을 가능케 한 위대한 도구다. 그러나 같은 칼이 사람을 향하는 순간 흉기가 된다. AI도 마찬가지다. 우리의 일과 삶을 넓혀주는 도구이지만, 잘못 쓰이면 가장 날카로운 무기가 된다.

그래서 필요한 것은 AI 자체를 막는 것이 아니라, AI를 쓰는 이들의 의도를 막는 일이다. AI 입법은 기술과 산업의 발전은 보장하되, 나쁜 의도를 걸러내는 방향으로 이뤄져야 한다. 불법을 목적으로 AI 프로그램을 개발·배포하는 이들을 처벌하고, AI를 활용한 범죄에는 기존 범죄보다 더 무거운 형량을 부과하는 것도 고려할 만하다. 더 나아가 상상력을 확장해본다면, 개발 의도와 달리 프로그램이 불법적으로 쓰인 경우 범죄자에게 개발자가 배상을 청구할 수 있도록 하는 제도적 장치도 논의해볼 수 있다.

또한 AI를 권력이 통제의 수단으로 활용하지 못하도록 시민들이 깨어 있어야 한다. 치안과 산업 발전을 명분 삼아 국민의 권리를 침해하지 못하도록 감시해야 하며, 무엇보다 권력이 AI 기술을 국민 감시·통제 목적으로 활용하는 입법이 추진되지 않도록 주의해야 한다.


알아야 당하지 않는다

AI는 어디까지나 도구다. 우리가 그 도구를 사람을 향해 휘두를 때, 도구는 흉기가 된다. 그렇기에 더 잘 알아야 한다. AI를 두려워하기보다, 더 깊이 이해하고 현명하게 활용할 줄 알아야 한다. 기술의 책임은 언제나 기술 바깥에 있다. 악한 의도가 그 손에 쥐어지지 않도록 지켜내는 것, 그것이 우리의 몫이다.


keyword
작가의 이전글무당은 죄가 없다.