― 심리검사에 인공지능을 도입하겠다는 군의 실험 앞에서
군이 인공지능(AI)을 활용해 장병들의 심리검사를 분석하겠다고 한다.
고위험군을 조기에 탐지하고, 사고를 예방하겠다는 취지다.
듣기에는 그럴듯하다.
매년 수십만 명을 대상으로 실시되는 병역판정검사와 복무 중 심리검사,
한정된 인력으로는 모든 위험 신호를 놓치지 않기 어렵다는 현실도 분명하다.
하지만 질문은 여기에 있다.
군은 과연 ‘마음’을 데이터로 다룰 준비가 되어 있는가.
최근 한국국방연구원(KIDA)은
「군 심리검사 체계 AI 기술 적용에 대한 제언」이라는 보고서를 통해
AI 도입의 가능성과 동시에 분명한 경고를 던졌다.
AI는 ‘결정의 주체’가 아니라 ‘보조 도구’로 제한돼야 한다는 것이다.
이 경고는 결코 기술에 대한 보수적 태도가 아니다.
군이라는 조직의 특수성에 대한 냉정한 인식이다.
군의 심리검사는 민간과 다르다
군 심리검사는 민간 기업이나 학교에서 실시하는 검사와 본질적으로 다르다.
군은 선택권이 제한된 조직이다.
검사를 거부할 자유도, 결과에 이의를 제기할 통로도 매우 제한적이다.
더 중요한 점은
심리검사 결과가 단순 참고자료에 그치지 않는다는 사실이다.
복무 적합성, 보직, 전출, 심지어는 인사상 불이익으로까지
간접적인 영향을 미칠 수 있다. 이런 환경에서
AI가 ‘패턴’을 근거로 특정 병과, 특정 계급, 특정 연령대를
‘위험 집단’으로 분류한다면 어떤 일이 벌어질까.
데이터는 거짓말을 하지 않는다고들 말하지만,
데이터를 해석하는 구조는 언제든 편향될 수 있다.
AI가 놓치는 것들
지금 바로 작가의 멤버십 구독자가 되어
멤버십 특별 연재 콘텐츠를 모두 만나 보세요.
오직 멤버십 구독자만 볼 수 있는,
이 작가의 특별 연재 콘텐츠