국민과 경찰의 인권을 지키는 AI, 서로 다른 사람이 이해하고 돕는 태도
(이 글은 경찰청 인권보호센터에서 발간하는 소식지 '인권으로' 3월호에 기고한 글이다)
이야기를 시작하며
경찰대학 치안정책연구소 과학기술연구부 스마트치안지능센터장, 긴 직책명이다.
내가 일하고 있는 곳이다. <치안정책연구소>를 모르는 이가 많은데, 그 안에 <과학기술연구부>가 있다는 건 더 낯설다. 경찰도 과학기술연구를 해야 한다고 경찰법을 바꾸고, 2015년 공학 연구자들을 채용했다. 지금은 30명이 넘는 이공계 연구자, 경찰관들과 함께 일한다. 그 중 스마트치안지능센터는 10명의 동료들과 경찰데이터로 경찰과 시민에게 도움이 되는 기술을 연구하는 곳이다.
2018년부터 햇수로 6년째, 우여곡절이 꽤 있었지만, 만족한다. 처음엔 예산, 장비, 데이터가 충분하지 않아 우리가 여기서 뭘 하나 함께 고생했다. 누가 정해주지 않는 일을 주체적으로 하는 것은 불편하지만 재미가 있다.
.
경찰은 대부분 정해진 일을 잘 하는 것이 본령이다. 모든 부서들은 전국 표준이 있다. 갈등이 있어도 비교 대상이 있고, 의사소통할 공통 기반에서 대화한다. 그에 비해, 우리 부서는 경찰 내부와도 의사소통할 때 ‘너넨 누구?’ ‘인공지능, 빅데이터? 그게 뭔데?’, ‘그걸 왜 하는데?’, ‘그래서 나보고 어쩌라고?’라는 문턱들을 넘어야 한다. 서로 다른 사람들끼리 이해하고 친해지고 돕는 건 사람이 살아가는데 가장 바탕이 되는 일상이다. 어려움도 있지만, 경찰, 연구전문가 들과 지지고 볶는 5년을 지나 인원은 2배 이상, 예사는 20배 이상 성장했다. 앞날도 기대하고 있다.
그렇게 해왔던 이야기들을 ‘경찰과 인권’이라는 소재와 함께, 얘기해보려 한다.
.
.
인공지능 시대의 경찰
인공지능으로 경찰 업무가 편해질까? 인공지능이 오히려 세상을 위험하게 하는게 아닐까? 애당초, 이런 질문이 내게 무슨 상관이나 있는 것인가?
유행하는 ‘CHAT-GPT’에게 ‘경찰이 시민의 인권을 위해 주의할 점은 무엇이니?’라고 물었다. 답변은 A4 절반 정도의 깔끔한 답변인데 요약하면, ‘경찰의 역할과 책임을 명확히 이해하고 준수하라. 기본적 인권을 존중해 학대하거나 억압하지 마라. 인종, 성별, 종교, 출신 국가 등 어떠한 이유로든 차별하지 않고 공정하라. 합법적인 권한 내에서만 행동하라. 행동과 결정은 투명하게 하라. 교육으로 인권을 지키는 방법을 배우라’고 답했다. ‘경찰관들이 마음의 상처를 받지 않고 인권을 지키려면 어떻게 해야 할까?’도 물어봤다. ‘상담실이나 심리치료 전문가와 같은 치유 환경, 스트레스 관리 교육, 업무 부담을 줄이고 상호 지원 체계 구축, 보상 및 인센티브 제도’ 등을 답했다.
.
나도 한때 인권부서에 일해봤지만 이 정도 답할 수 있는 경찰관은 많지 않을 것이다. 경찰의 인권을 위해 챗-GPT가 조언한 내용을 인공지능으로 도움을 줄 수 있을까? ‘경찰을 상담하는 AI’, ‘스트레스를 측정하고 관리를 돕는 AI’, ‘업무부담을 줄이고 도와주는 AI’는 그럴 듯하다. 과연 그만큼 도움을 될만한 똘똘한 AI가 있을지가 관건이다. 빅데이터, 인공지능이 유행하며 실은 그간 각 수사-112-과학수사 등 분야별로 AI 개발을 해왔다. 하지만 일선의 눈높이에 못 미치고 있기에 회의론도 상당하다.
.
.
인공지능로 경찰업무를 돕는 가능성
경찰은 발로 뛰는 직업이고, 정말 필요한 정보는 인공지능에 의존할 수 없다. 경찰 일은 비밀스럽고 첨예하다. 최종 판단을 인공지능에 의존해선 안된다. 하지만, 이런 사건이 예전에 어떤 유형이 있었는지, 그땐 어떤 수사를 했는지는 알아볼 수 있지 않을까? 초임 경찰이 출동할 때 알아보는 AI가 있으면 좋지 않을까? 베테랑이라도 처음 겪는 사고가 있다. 큰 실수를 하지 않으려면 절대 놓쳐서는 안되는 점은 무엇인지 스마트폰에 물어보면 좋지 않을까?
112신고 때부터 수사결과보고 때까지 여러 부서의 사람들이 반복해서 입력하는 같은 내용을 자동화해주는 것, 수 백페이지의 내용을 최대한 효율적으로 요약해주는 인공지능은 충분히 해볼만한 일이다.
.
.
오늘까지 경찰 AI의 한계
CHAT-GPT에게 정답이 있는 질문을 하면 신기할 정도로 그럴듯한 답을 한다. 미국 변호사 시험, 의사 시험을 통과했다지 않는가? 그런데 경찰 업무는 모호하다. 누가 범인일지, 어떤 범죄가 위험한지, 사람들도 모른다. 경찰도 모르는 걸 어찌 컴퓨터에게 답을 구할 수 있나?
CHAT-GPT에 ‘다세대 주택 창문으로 들어가 드라이버로 금고를 뜯어간 범인은 어떤 사람일까?’라고 물었다. ‘난 수사전문가가 아니다. CCTV 등 증거를 수집해야 한다’라 답하더라. 게다가 CHAT-GPT을 위한 학습데이터는 인터넷 공간의 공개 데이터이다. 112시스템, 수사(KICS), 교통(TCS), 과학수사(SCAS)에 있는 데이터가 아니다. 경찰 업무를 쉽게 하려면 경찰 업무 데이터로 학습을 해야 한다. 경찰데이터로 학습을 하지 않으면 경찰 업무를 돕는 AI는 신통치 않을 것이다.
.
.
첨단 기업들이 만들어주지 않을까?
IT 강국 대한민국에서 그걸 못 만들것인가? 삼성전자가, 카카오가 네이버가 해주지 않을까?
그렇지 않다. 경찰이 만들어내야 한다. 세 가지 이유에서 그렇다.
.
첫째, 경찰 업무는 경찰이 알고 있다. 무엇을 찾고 싶은지, 어떤 데이터에서 무슨 정답을 찾을지 경찰이 궁리해야 한다. ‘알아서 잘 해주겠지’라고 맡기는 호구의 대접은 어디서나 같다. 물건을 쓸 사람이 원하는 것을 알려줄 수 없다면 개발할 수 없다. 기본 구조를 경찰이 만들고, 기술연구자들이 살을 붙이도록 해야 한다. 법률, 의료 등 각 분야별 AI 연구도 같은 식이다.
.
둘째, 경찰데이터를 학습하려면 경찰 스스로 해야 한다. AI연구에 데이터는 절대적이다. 오죽하면 ‘AI 연구에 중요한 것이 세 가지가 있다. 첫째는 데이터, 둘째는 더 좋은 데이터, 셋째는 더 많은 데이터이다.’ 하지 않나? 경찰데이터는 범죄와 수사에 대한 정보를 담고 있다. 그대로 기업에 넘길 수 없다. 개인정보보호법, 형사사법전자화촉진법(속칭 KICS법) 위반이다.
.
셋째, 경찰과 국민의 데이터 주권의 문제이기도 하다.
성과를 내고 싶은 욕심에 해당 부서들이 비밀리에 기업에 데이터를 넘겼다 치자. 그렇게 넘겨서 만든 ai 데이터가 경찰 것일까? 아니다. 기업의 자산이 되어 버린다. 경찰이 돌려달라고 해도 받을 수 없다. 법규가 그렇다. 경찰이 해석할 수 없는 형태로 만든다. 민간의 이해 관계로 당연하다. 데이터 주권을 기업과 다른 기관에 뺏기는 것이다.
.
.
현장경찰과 국민의 데이터 인권
경찰의 여러 시스템 데이터는 운영 부서의 사유 재산이 아니다. 현장 경찰관들이 입력한 정보들이고 사건 사고의 주체인 국민들의 것이다. 국민들과 경찰관들에게 더 안전한 치안을, 더 편리한 기능을 만들어줘야 할 의무가 있다. 국민과 현장경찰을 정보의 입력자, 데이터의 등장인물 정도로 소외시켜서는 안된다. 결정자들은 문제가 생길 때마다 통제하는 절차를 새로 만든다. 체크리스트, 보고의무, 당사자 통보... 이런 절차들은 대개 전산 입력하고 있다.
AI 시대에 국민과 현장경찰관들을 소외시켜서는 안된다. 국민의 안전을 위해, 현장 경찰이 데이터를 입력한 수고만큼 더 좋은 근무 여건에서 일할 수 있도록 해야 한다.
.
.
경찰과 국민의 인권을 지키는 경찰 AI 를 만들려면
초거대 AI, ‘AI 순경’부터
GPT는 AI의 기술적 표현으로는 ‘초거대 AI’(Hyper Scale AI)라는 종류다. 이전 단계의 AI는 특정 목적을 위해 그 분야 데이터를 모으고 그 업무 규칙을 학습했다. ‘초거대 AI’는 업무를 나눌 것 없이 모든 데이터를 어마어마한 장비에 입력해 학습한 전 분야에 적용하는 방식이다.
GPT는 전 세계에 공개해 있는 3.7조원을 들여 5조개의 문서를 학습했다.
경찰에 비교하자면 ‘AI 수사관’, ‘AI 민원상담관’, ‘AI 프로파일러’, ‘AI 사이버캅’을 따로 따로 만들게 아니라, 우선 ‘AI 순경’부터 만들자는 접근법이다. 3조원, 5조개 문서는 아니라도 우선 300억원 개발비를 얻어, 500억개 경찰 문서를 학습시키면 AI순경을 만들 수 있다.
.
인공지능의 위험을 대비하기 위해서도 경찰의 노력이 필요
인공지능이 경찰과 국민의 인권을 침해할 수 있다. 언젠가 다가올 미래에 잘못된 결과를 도출해 수사 방향을 혼선을 빚게 할 수 있다. 인종별 편향에 근거해서 순찰이나 정책 우선순위를 추천해 차별적 경찰행정을 강화하게끔 할 수도 있다. 이런 위험 때문에 인공지능의 한계와 위험을 지적하고 경계해야 한다는 염려도 많다.
이런 우려는 지당하지만 왜소하다. 경찰 스스로 여러 시스템 안에 이미 적용한 여러 AI 프로그램의 원리, 모델, 사용데이터를 알고 있나? 편향되어 있는지 검증할 능력이 있나? 능력이 없이 훈수만 둬서는 다가올 위험을 대응할 수 없다. 그 역할을 과연 누구한테 맡길 것인가? 자체 검증 능력 없다면 지켜야 할 규범을 내세워도 실효성 없는 방구석 여포에 불과하다.
.
.
서로 다른 역할의 인정, 정보를 나누고 돕는 태도
CHAT-GPT를 만든 회사의 이름은 Open-AI이다. 전기 자동차 테슬라의 CEO 엘론 머스크가 투자한 회사로도 유명하다. 회사 이름이 의미하듯, ‘AI 기술을 많은 이들이 공유하고, 위험성도 대비할 수 있도록 해야 한다’는 취지를 강조한다.
경찰용 CHAT-GPT를 만들고자 한다면 그 이념을 받아들여야 한다. 현장 경찰이 수고해서 만든 데이터를 시스템안에만 가둬주지 않고, 다른 부서에 공유해서, 경찰관이 아닌 일반직이라도 경찰청이 아닌 멀리 아산의 연구소에라도 공유하고, 역할을 인정해줘야 한다. 예의바르고 친절하며 겸손한 사람이 좋은 성과를 낸다는 건, 개인이나 조직이나 같다.
서로의 권리를 존중하고 역할을 인정하는 것이 인권 이념이다. 여러 주체들이 사이좋게, 서로를 존중하며 도우면서 일해야 한다. 경찰에게 진짜 도움이 되고, 국민의 안전 보호에 기여하는 ‘AI’를 위해, 기술 연구가 아니라 조직과 개인의 존중 의식 함양이 필요한 이유이다.