인공지능은 특별한 기술인 이유

많은 기술들 중 AI만 유독 다를까

인공지능 기술이 특별한 이유, ‘질적 변화’

인공지능시대, 제4차 산업혁명, 이 모든 단어들이 조금은 유난스럽다.

기존의 기술과 뭐가 다르기에? 그래서 현실화된 인공지능의 기술적 환경에의 변화가 무엇인지 생각해봤다.


첫째, 프라이버시로깅 환경과 처리 정보의 광범위성이다.

인공지능서비스에서 개인과 관련된 정보는 스마트 그리드, 사물인터넷(IoT) 등을 통해 무의식적으로 빅데이터 처리된다. 이 같은 현상은 한낱 개인에 불과한 사람들로부터 자기 와 관련한 정보가 어디에 어떻게 쓰였는지 인식하기 어렵게 만든다. 또한 결국 나에게 돌아온 인공지능의 결정이 무엇이며, 어떻게 작동하게 됐는지 도통 알 수 없게 된다. 그렇다보니 개인과 관련된 정보의 처리에 대한 통제권 등 기존에 존재하던 자기정보에 대항 권리 행사가 더이상 작동하지 않을 수 있다. 학술적으로는 이것을 "제도의 실효성"이라는 말로 대신하기도 한다.

둘째, 자동화(automated)에서 자율화(autonomous)로의 진화에 따른 反자기결정성이다.

자동화가 “인간이 구축한 체계 내에서 실행되는 시스템”이라면, 자율화 체계는 “다른 체계와 연계돼 상호작용하고 스스로 판단·결정하는 시스템”이다. 다만 인공지능은 법인격이 부여되지 않는 이상 의사결정에 대한 ‘책임’을 스스로 감당하지 않는다. 법에서 인격이란, 주체의 행위에 대해서 권리와 의무를 갖게 된다. 인공지능에 법인격이 없다는 것은 가령, 인공지능의 결정에 대한 책임이 그들의 사용자에게 배분된다고 하더라도 의사결정에 대한 실행 및 책임이 분산되기에 불법행위 책임을 묻기 어렵고, 인공지능의 의사결정 이전네 자기결정권을 행사하려고 해도 상대방이 모호해진는 의미이다.


셋째, 인공지능에는 특유의 불투명성(opacity)이 있다.

인공지능의 개발은 공개된 오픈소스 라이브러리를 통해서 여러 개발자의 손을 거쳐 진화한다. 따라서 최초 개발자는 완료된 인공지능의 영향력을 예측하기 어렵다. 이러한 기술적 불투명성이 인간의 언어와 다른 언어로 프로그래밍된 알고리즘과 직관이 없이 의사결정을 하는 불가해성( inscrutability)으로부터 가중되고 있다.


인간의 자유가 현상에 대한 인식이 언어로 표현되는 것을 전제한다고 할 때, 언어적으로 이해할 수 없는 과정에 따른 인공지능의 의사결정이 개인의 일상다반사에 결정적 영향을 준다면 개인의 자유와 자기결정은 침해받게 된다.

그래서 알고리즘의 로직에 대한 추적이 가능한 알고리즘 설계상 최초 단계에 규범적 의무를 개발자 등에 부과하는 것이 필요하다는 주장이 나온다. 이로써 기술발전의 가속화에서 발생할 수많은 문제에 실마리를 제공해 줄 수 있을까


넷째, 인공지능의 의사결정에는 인간의 감정이나 직관이 없다.

사람의 유형을 16단계로 구분하는 MBTI 심리 검사 유형에도 '직관'이라는 것이 있는데, 기계는 그 직관이 없다고 한다. 알쏭달쏭하면서도 그렇지 암! 할 만큼 인간을 더 복잡미묘한 존재이면서 능력자로 보이게 하는 것이 바로 이 직관이다. 한편 인공지능은 인적· 장소적·시간적 요소들로부터 구애받지 않아 합리적인 결정에 용이하다. 이러한 인공지능의 의사결정의 효율성은 오히려 인간의 관점에서는 예측곤란성(Unforeseeability)을 초래한다. 근래 인공지능 윤리에서 자주 등장하는 고전적 윤리적 사고 실험(trolley problem)인 ‘철로의 전철수’의 사례는, 인공지능 자동차는 위험 상황에서 양자택일의 순간에 인간의 의사와 다른 선택을 할 수 있다는 점을 문제 삼고 있다.

사람의 유형을 16단계로 구분하는 MBTI 심리 검사 유형에도 '직관'이라는 것이 있는데, 기계는 그 직관이 없다고 한다. 알쏭달쏭하면서도 그렇지 암! 할 만큼 인간을 더 복잡미묘한 존재이면서 능력자로 보이게 하는 것이 바로 이 직관이다.

한편 인공지능은 인적· 장소적·시간적 요소들로부터 구애받지 않아 합리적인 결정에 용이하다. 이러한 인공지능의 의사결정의 효율성은 오히려 인간의 관점에서는 예측곤란성(Unforeseeability)을 초래한다. 근래 인공지능 윤리에서 자주 등장하는 고전적 윤리적 사고 실험(trolley problem)인 ‘철로의 전철수’의 사례는, 인공지능 자동차는 위험 상황에서 양자택일의 순간에 인간의 의사와 다른 선택을 할 수 있다는 점을 문제 삼고 있다.

인공지능은 미래의 바다에서 좋은 항해를 할 수 있을까


참고문헌

Matthew Scherer,“Regulating Artificial Intelligence System: Risks Challenges, Competencies, And Strategies”, Harvard Journal of Law & Technology Vol.29/2(2016).

김연순· 이종관, “제4차 산업혁명의 자동화와 적응형 자동화”, 「인문과학」제65집, 성균관대학교 인문과학연구소(2017), 17.

Matthew Scherer,“Regulating Artificial Intelligence System: Risks Challenges, Competencies, And Strategies”, Harvard Journal of Law & Technology Vol.29/2(2016), 371.

Andrew D. Selbst/ Solon Barocas, “The Intuitive Appeal of Explainable Machines”, Fordham Law Review Vol.87/3(2018), 1094-1096.


keyword
이전 03화인공지능이 걸어온 길, 기술