기계가 인간의 크고 작은 결정을 대신하여 수행하는 것은 인류의 오랜 꿈이었다. 지난한 연구 끝에 오늘날 인공지능은 빅데이터, 스마트 그리드와 같은 저변기술의 발전으로 그 꿈을 현실화시키고 있다.
인공지능의 명암(明暗)이 거론되는 가운데 우리는 알고리즘으로 인한 위험을 우려한다. 개인정보 보호, 프라이버시, 차별 등이 법적 쟁점으로 제시되고 있지만, 인공지능의 위험의 핵심은 인공지능이 의사결정의 주체인 인간을 객체로 보고, 인간의 자기결정을 위협하는 것이 아닐까.
인공지능에 대해서 할 말 좀 있는 사람들은 저마다 인공지능은 인류에게 공리를 가져다주고 인간을 더 인간답게 하는데 구현되어야 한다고 말한다. 당연한 말이다.
문제는 인공지능의 의사결정에 대한 규범적 대응이 글로벌 기업의 인공지능 윤리원칙에 머무르고 있는 가운데, 개인의 권리가 무방비로 노출되고 있다는 점이다. 지난 몇 년간 제시된 글로벌 기업의 윤리원칙은 철학적이고 아름다운 단어들로 가득 차 있다. 그러나 우리가 익히 경험 했듯이 강제력 없는 규범은 약자의 정의를 지켜줄 힘이 없다. 무력한 윤리원칙, 바로 그 뒤에 강대국의 기술패권주의가 은폐될 수 있기 때문이다.
인공지능이 자동화에서 자율화로 진화할 때, 인류의 최후의 통제장치가 되어줄 수 있는 무언가가 필요하다. 이미 많은 입안자들은 서둘러 제이름을 붙여 법안을 발의했다. 수많은 법들이 난무할 때 잊고 있는 것이 있다. 바로 인간존엄을 천명한 헌법의 존재요 약할이다.
기술시대의 위험으로부터 국민을 보호할 의무는 다름아닌, 헌법에 존재한다. 우리나라에서는 헌법상 국민주권, 기본권 보호의무, 제9장 경제조항의 장이 있어서 자국민의 권리 보호와 과학기술 진흥에 따른 경제적 이익구현을 목표로 하는 인공지능 법정책을 마련할 수 있다.
인공지능의 붐이 일어난 2018년 이후 국내에서도 인공지능에 대응해 유럽연합의 일반데이터보호규정(GDPR)에서 프로파일링 대응권 도입, 개인정보자기결정권의 강화, 데이터 3법의 규제 완화를 시도하게 됐다.
그런데 이러한 방식은 하나같이 기존에 개인정보 보호체계 내에서 제반 문제를 해결하려는 방식이어서 다들 입을 모아 ‘위험하다’고 말하는 인공지능이 대신하는 결정의 문제를 해결하는 것에 적중하지는 않는다.
인공지능기술은 기존의 데이터 주도형 기술에서 인공지능 주도형으로 패러다임의 전환을 일으키고 있다고 한다.
인공지능은 인간의 자유와 밀접하게 작동할 것이다.자유의 문제는 개인의 사적, 공적 결정권을 포함하는 개념이다. 물론 인공지능 서비스가 등장하면서 우리의 삶은 풍요로워질 것이고, 선별적으로 시간괴 에너지를 투자할 것이라는 것은 자명하다.
그럼에도 잊지 말아야 할 점은 인공지능의 의사결정은 인간의 존엄과 자유에 기반한 개인의 자기결정을 심각하게 침해할 수 있다는 사실이다.
이 책은 인공지능 의사결정에 대응한 문제의식과 해결이 새로운 기술과 그 위험을 대상으로 설계되어야 한다는 메시지를 전하려고 한다.
글의 구성은 이러하다. 인공지능의 기술적 특성을 소개하고(1장, 2장), 일상에서 만나볼 수 있는 알고리즘과'결정위임'의 위험을 살펴본다(3장). 그리고 AI 결정 vs. 인간의 자기결정의 구도에서 자기결정을 지킬 수 있는 규범들, 이를 테면 과학기술의 중립성/윤리(4장, 5장) 개인정보보호법과 차별 금지법을 말한다.(6장, 7장) 이후 비로소 AI 결정에 대응한 인간의 자기결정에 관한 담론을 펼치고(8장), 개인의 권리 보호의 문제를 헌법의 시각인 자기결정권의 눈으로 접근한후(8장, 9장) 글을 마무리한다(10장).