brunch

You can make anything
by writing

C.S.Lewis

by 건넴의 글 Oct 21. 2021

AI 윤리, 시대적 ‘요청’ 넘어 보편적 ‘원칙’으로

[칼럼] 할말,잇슈(issue)다! 열한 번째 시간

*본 게시글의 원문은 문화예술 플랫폼 '아트인사이트'(artinsight)에서 확인하실 수 있습니다.

(원문 : https://www.artinsight.co.kr/news/view.php?no=55419


 흔히들 21세기를 데이터의 시대라 부른다. ‘정보의 바다’라든지 ‘정보의 홍수’라는 표현이 무색해질 정도로 데이터의 양이 절대적으로 많아졌을 뿐만 아니라 시시각각으로 새로워지고 또 다양해지고 있으니 틀린 말도 아닐 것이다. 우리의 모든 정보가 ‘자본’이 되고, ‘자산’이 되는 그런 시대. 어쩌면 지금 이 순간도 하나의 데이터로서 정의되고 판단되고 있을지도 모르는 그런 시대. 현대 사회가 낳은 최고의 발명품이라고도 할 수 있는 컴퓨터가 우리 곁에 모습을 드러낸 지 불과 반세기 만에 우리는 데이터가 지배하는 사회 속에 살게 된 것이다.


 그리고 그러한 방대한 데이터를 바탕으로 인간이 규정한 목적에 따라 ‘자동화된’ 행동 양식을 보이는 기계 기반의 시스템을 이르는 인공지능 기술(Artificial Intelligence, AI) 분야는 폭발적인 성장을 이뤄냈다. 특히, 구글(Google)이 개발한 인공지능 프로그램 ‘알파고’(AlphaGo)의 등장이 있던 2016년을 기점으로 인공지능 기술은 엄청난 속도의 연산 방식과 빈틈없는 알고리듬 프로그래밍을 앞세워 단순한 ‘도약’이 아닌 어떤 ‘진화’에 가까울 정도로 놀라운 모습을 보여주며 전 세계의 수많은 인공지능 전문가들은 물론, 인공지능에 대해 잘 알지 못하는 대중들에게도 신선한 충격을 안겨주었다. 


 실제로, 올해 4월 소프트웨어 정책 연구소(SPRi)가 발표한 <인공지능 이슈와 국제 표준화 동향> 자료만 보더라도 지난 2018년 전년 대비 30%에서 50%로 급성장했던 글로벌 AI 시장은 2025년에도 평균적으로 36~45%의 성장률을 보여줄 것으로 기대되고 있었으며 적용 범위 역시 제조, 에너지, 금융, 유통, 도시, 홈, 웰니스, 법률, 사무관리, 공공분야, 교육, 문화 관광 등 이전보다 확대되어가고 있음을 확인할 수 있었다. 최근 들어서는 인간 친화형 인공지능 기술 개발을 통해 일회적인 수준의 편의 제공을 넘어 복지 사각지대 해소와 같이 기존의 사회 문제들을 해결할 수 있을 것이라는 전망도 제기되고 있었다. 


 그러나, 지나치게 눈부신 빛은 오히려 가까이 있는 것들을 보지 못하게 하는 법. 인공지능 기술과 점점 가까워질수록 인류는 이전에는 생각지도 못했던 인공지능의 ‘실수’(어쩌면 ‘실패’라는 표현이 더 적합할)에 부딪히기 시작했다. 미국의 전기차 회사 테슬라(Tesla)의 자율주행기능 ‘오토파일럿’의 안전성 논란과 MS(마이크로소프트사)의 채팅 봇 ‘테이’(Tay)의 편향성 논란, 그리고 부지불식간에 일어나는 사용자의 동의 없는 정보 유출과 프라이버시 침해에 이르기까지 우리의 삶을 도와줄 것이라고 여겨졌던 인공지능 기술의 부작용과 폐해는 나날이 심각해졌고 우리의 불안과 걱정은 하염없이 늘어만 갔다. 


 국내에서도 올 1월 IT 스타트업 스캐터랩이 출시한 챗봇 ‘이루다’가 개인정보 유출을 비롯해 미성년자의 민감정보 불법 수집, 소수자 차별 발언 등 각종 논란에 휘말리며 문제가 되기도 했다. 심지어는 20대 여성으로 설정된 프로그램을 향한 성희롱이 있었다는 사실까지 밝혀지면서 논란은 일파만파 커졌다. 결국에는 스캐터랩 측이 이루다 프로그램과 관련 DB를 완전히 폐기할 것을 약속하며 일명 이루다 사태는 일단락되는 듯했으나 보안 전문가들과 시민사회를 중심으로 이를 계기로 ‘인공지능 윤리’(AI Ethics)에 대한 논의를 확장해야 한다는 의견이 제기되면서 그에 대한 관심이 집중되고 있다. 

 

 그렇다면 ‘인공지능 윤리’란 무엇일까? 그리고 우리에게 어떤 의미를 가지는가? 통상적으로 “인공지능 연구 및 개발, 적용, 폐기 등 과정 전반에 걸쳐 발생할 수 있는 각종 규범적 문제와 그에 대한 인식 및 행동 양식(혹은 대응 방식)”을 이르는 인공지능 윤리는 최초의 인공지능 개념이 정립되고 하나의 과학기술 분야로서 정립되었던 다트머스 회의(Dartmouth Conference) 직후인 1960년대부터 관련 학계를 중심으로 이뤄져 왔다. 

 

 인공지능 윤리와 관련된 선행 연구들의 경향성을 분석한 몇몇 국내외 보고서들에 따르면, 초창기까지만 하더라도 인공지능 윤리의 논의는 당시 미국 사회를 지배하고 있던 경험주의의 입장에서 인공지능의 ‘의의’ 다시 말해, “인간은 아니지만 인간을 대신할 수 있는” 도구이자 기술로서의 인공지능에 대한 일종의 ‘존재론적 고민’에 가까웠던 것으로 알려져 있으나 20세기 후반 들어서는 심각한 사회 문제로 급부상한 고도의 자동화와 그로 인한 대량 실업 문제를 중심으로 본격적으로 공공의 영역으로 유입되기에 이르렀다.


 그리고 마침내 2010년대 들어 엄청난 발전 속도에 힘입어 인공지능 기술의 ‘대중화’ 나아가, ‘일상화’와 함께 인공지능 기술의 영향력이 더욱 막강해지면서 (물론 그것이 마냥 긍정적이지만은 아니었음을 우리는 너무나도 잘 알고 있다. 적어도 이번 논의를 통해서라도 말이다.) 인공지능 윤리의 논의는 ‘다각화’라는 새로운 국면을 맞이하게 되었다. 


 그 결과, 오늘날에 이르러서는 개별 사건들이 갖는 ‘특수성’과 ‘구체성’을 담아내는 것은 물론, 이를 바탕으로 방향성과 목표, 실천 방법 등에 있어 어느 정도 수렴된 대원칙을 다질 수 있게 되었다. 특히, 그 과정에서 ‘거버넌스’(governance, 공통의 문제 해결을 위해 다양한 행위자가 네트워크를 구축하는 사회적 조정 방법) 중심으로의 논의 구조를 전환하는 데 성공하며 이전보다 더욱 ‘종합적’이고 ‘체계적’으로 협의를 이어나갈 수 있게 되었다. 


 일례로, 미국과 유럽의 경우 각각 2019년과 2018년 거대 글로벌 기업을 대상으로 인공지능 기술 개발에 대한 강조와 함께 윤리적 측면을 강조하는 행정명령을 발표하거나(미국) 신기술 활용을 장려하고 도덕적 차원의 기본권을 보호하려는 실정법을 시행하는(유럽연합) 등 인공지능 윤리 이슈에 많은 관심을 가지며 법제적 차원에서 적극적인 움직임을 보여주고 있다. 전기전자기술자협회(IEEE)나 인공지능 파트너십(Partnership on AI)과 같은 초국가연합체들 또한 고유한 정당성을 바탕으로 인공지능 윤리와 관련된 다양한 이해관계자들을 연결 짓고 그들에게 광역적인 논의의 장을 제공해줌으로써 인공지능 이 보여주는 파급력에 맞서 대응하려는 노력을 이어가고 있다.  


(출처 : 시사위크)


 그럼에도 불구하고, 여전히 해결해야 할 과제가 상당 부분 남아있다는 것이 전문가들의 주장이다. 그중에서도 인공지능 기술이 자체적으로 갖는 구조적 결함의 문제는 가장 자주 그리고 가장 심각한 문제점으로 여겨지고 있다. 당장 앞서 언급했던 프라이버시 침해 사례들만 보더라도 현실판 ‘빅 브라더’(조지 오웰의 소설 <1984>에 등장하는 초인적 감시 체제)의 출현이라고도 불릴 만큼 개인의 인격권을 훼손하는 심각한 문제임에도 불구하고 인공지능의 작업에 있어 필수적으로 요구되는 과정이라는 이유만으로 아예 공론화되지 않거나 공론화되더라도 별다른 관심을 받지 못하는 경우가 대부분이다.


 그와 함께, 일명 ‘블랙박스’(Black Box)라고도 불리는 현상들을 유발하는 인공지능의 불투명한 판단 과정 역시 문제점으로 꼽힌다. ‘블랙박스’란 인공지능이 데이터를 판단하는 과정에서 입력 데이터와 출력 데이터 간 상관관계 혹은 그로부터 비롯되는 인과관계에 대한 이해가 제대로 이뤄지지 않거나 이해가 이뤄지더라도 판단 과정 이후에야 확인할 수 있는 현상을 이르는 개념으로 데이터 처리 과정에서 문제가 발생할 시 그에 대한 책임 소재의 판단을 어렵게 만든다는 점에서 문제가 되곤 한다. 특히, 최근 들어 기존의 방식보다 더욱 복잡한 판단 과정을 요하는 ‘딥러닝’(Deep-Learning) 기술이 발전하고 그에 따라 적용되는 분야가 늘어나면서 블랙박스에 대한 우려는 더욱 커지고 있다.


 한편, 오늘날 ‘인간에 못지않은’ 수준을 넘어 ‘인간을 능가하는’ 수준의 인공지능 개발이 점차 현실화되고 있는 상황을 들며 기존의 인공지능 윤리가 인공지능을 이용하는 인간의 행위에 초점이 맞춰져 있는 점을 지적하는 이들이 늘어나고 있다는 점 역시 주목할 필요가 있다. 이는 곧 그간 오랫동안 인간 존재에 한정되어있던 ‘책무성’을 인공지능에도 동일하게 그리고 동등하게 부과함으로써 인공지능 윤리의 ‘범위’를 이전보다 더욱 ‘포괄적’인 방향으로 확장해야 함을 역설하는 의견임과 동시에 나아가, 인공지능 윤리의 논의에 있어 ‘사전적’ 정의(“사람으로서 마땅히 행하거나 지켜야 할 도리”)로서의 윤리가 아닌 ‘사회적’으로 재정립된 윤리 개념을 적용해야 함을 우리 모두에게 환기하고 있기 때문이다.  


(출처 : 서울신문)


 이와 관련해 우리는 과학기술과 관련된 또 다른 윤리 중 하나인 ‘로봇 윤리’의 사례를 참고할 만하다. 러시아 태생의 미국 SF 소설 작가이자 화학자이기도 했던 아이작 아시모프(Isaac Asimov)가 1942년 발표한 소설 <런어라운드>(Runaround) 속에서 주장한 이른바 ‘로봇 3원칙’ (이후 1985년 그는 또 다른 자신의 소설을 통해 인류 전체의 안전을 위해 로봇에게 경각심을 심어주기 위해 제0원칙을 추가하면서 총 4개의 원칙으로 재구성되었다)에서 유래한 ‘로봇윤리’는 초창기까지만 하더라도 이 주장은 그저 한 소설 작가가 내세운, 원칙으로서 정당성에 대한 판단을 할 필요가 없는 ‘허무맹랑한’ 의견이라는 비판을 받았다. 


 그러나, 시간이 흐를수록 로봇 공학 기술이 발전하고 관련 산업이 성장함에 따라 로봇 윤리의 논의는 점차 ‘현실적’인 논의로서 탈바꿈되기 시작했다. 2002년 이탈리아의 로봇공학자 지안 마르코 베루지오(Gian Marco Veruggio)에 의해 처음으로 활용된 이후 후쿠오카 세계 로봇 선언(2004년), 유럽로봇연구연합 로봇윤리 로드맵(2007년) 등을 거쳐오면서 로봇 윤리의 논의는 윤리적 의사결정체로서의 로봇 연구 및 개발 강령을 마련함으로써 연구개발자이자 사용자로서의 인간의 책임을 강조하고 그와 동시에 로봇에게도 어느 정도의 자율성을 인정하는 방향으로 굳어지게 되었다. 


 이러한 ‘재구성’의 역사 다시 말해, 과거 인간을 돕는 ‘도구’이자 ‘기술’이었던 존재가 인간의 ‘파트너’이자 ‘동반자’로서 인정을 받게 된 그 일련의 과정들은 과학기술 윤리가 특정한 시점의 과학기술적 수준과 사회적 인식 간 ‘긴장’-‘균열’-‘재결합’의 관계로부터 비롯되는 하나의 ‘순환’이자 ‘상호작용’을 보여준다는 점에서 상당한 의미를 갖는다. 이는 나아가, 과학기술 윤리 논의 역시 논의를 이루어가는 주체들의 적극적인 노력이 동반되어야 함을 보여준다는 점에서도 인공지능 윤리에 대한 고민을 이어가고 있는 우리에게 중요한 의미를 갖는다고 할 수 있다.  


(출처 : 유튜브 채널 EBSCulture 교양)


 이상의 논의를 정리해보자면, 인공지능 윤리는 결국 ‘실천’이라는 전인류적 행동을 통해 우리 스스로를 정당화할 수 있고 또 우리 스스로를 납득시킬 수 있는 하나의 공공 원칙으로서 세워져야만 할 것이다. 인공지능 기술의 혁신에 발맞춰 우리는 인공지능의 종류 혹은 발전 단계와 같이 각각의 특성에 맞는 전문적인 인공지능 윤리를 다듬어내고자 해야 할 것이며 논의 과정에 참여하는 윤리 주체들에게 일방적인 강제력과 구속력을 적용하기보다는 그들의 자율성을 최대한으로 존중하고 또 다른 이들의 그것 역시 철저하게 보장받을 수 있게 해야 할 것이다.


 무엇보다 ‘인공지능 포비아’(AI Phobia)라고도 불리는 인공지능 기술에 대한 막연한 두려움과 끝없는 불신에 사로잡히기보다는 데이터의 시대를 함께 만들어가고 함께 살아가고 있는 공동체의 일원으로서 자신만의 방식으로 인공지능 윤리 자체를 함양하고 어떤 행동으로서의 윤리를 이행하려는 노력을 이어가야 할 것이다. 불행 중 다행으로, 이루다 사태 이후 ICT 관련 기업들에 이어 정부와 시민사회에서도 작지만 소중한 움직임들이 시작되고 있다. 그리고 함께 묵묵히 우리의 길을 걸어갈 당신을 기다리고 있다. 


작가의 이전글 안전문화, ‘필요조건’이 아닌 ‘필수조건’
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari