인간은 컴퓨터와 함께 살고 있다. 스마트폰 알람 소리에 눈을 뜨면 디지탈TV로 뉴스를 보고 인공지능센서 냉장고에 보관했던 음식을 마이크로웨이브에서 데워 아침을 먹고 자동온도조절장치로 샤워를 한 후 출근을 한다. 키보드가 고장 나서 A4용지 반장만 손 글씨로 쓰게 되면 짜증이 나고 영화 한편 보거나 음악 한곡 들으려 해도 컴퓨터 없이는 불가능하다. 보다 더 발전해야만 하는 분야가 과학이고 그 한계는 없는 것처럼 인공지능의 발달은 SF영화에서나 보던 상상의 세계를 현실로 바꾸어 놓았고 아직도 무한에 도전하는 과학은 멈추지 않는 연구가 진행 중이다. 그러나 인공지능이 성차별을 하고 인종차별을 하며 사람의 육안으로 간단하게 구분하는 화면을 구별하지 못한다.
대표적으로 인공지능은 바나나를 인식하지 못하고 판다를 원숭이로, 흑인을 고릴라로 판명하는 오류를 나타내며 지진예측 모델이 범죄예측에도 사용되는데 그 과학적 연관성은 발견하지 못했고 빅데이터는 여러 가지 입력된 자료를 바탕으로 판명을 하지만미세한 오차 때문에 엉뚱한 판정을 한다. 흑인이 범죄의 위험군으로 분류되고 안면인식 프로그램은 백인은 3%의 오차비율을 나타냈지만 흑인은 23%의 오차비율을 나타냈으며 최근까지 의학 분야에 사용되는 AI 프로그램은 백인 남성은 1%의 오차비율을 나타내는 반면 흑인여성의 오차비율은 35%나 된다. 투자를 예측하는 인공지능은 상용화됐고 골드만삭스에서는 투자에 사용되고 있으며 변호사 1명이 10만 시간이 걸리는 서류작업을 36시간에 할 수 있는 현재의 인공지능AI의 문제는 입력된 데이터의 미세한 차이를 인간은 쉽게 분석하는데 반해 인공지능은 오류를 나타내고 그 오류를 해결할 명확한 과학적 해결 시스템은 현재 없는 상태이다. 사원 면접에서 최고의 인공지능 시스템으로 여성이 평가가 절하되어 구글(Google)은 2018년 면접 프로그램을 금지했고 미국 미네아폴리스의 조지 플로이드 사망 사건이후 미국과 전 세계에서 벌어진 반인종 시위와 인종차별 문제가 거대하게 대두되는 현상과 관련하여 인공지능 시장의 선두주자인 IBM은 2020년 6월9일 흑인과 여성에게 편견을 나타내는 안면인식 프로그램을 취소하고 안면인식을 통한 분석 소프트웨어의 제공을 중단하겠다고 발표했다. 우리나라의 경우 사원면접에서 부모의 직업을 묻는 것은 불법이지만 서류심사에 여섯 가지 사항의 입력으로 면접자 부모의 직업을 알아낼 수 있다.
중국에는 ‘톈왕’ 이라는 영상감시 프로그램이 있는데 해석하면 하늘의 그물이라는 뜻으로 도시 곳곳에 그물처럼 연결된 감시 카메라가 2천만대 이상이 설치되어 있고 카메라 화면에서 볼 수 있는 사람들은 성별, 연령, 차량번호까지 개인정보가 자동으로 뜨는 시스템이다. 중국의 경찰들은 동일한 시스템이 내장된 스마트 안경을 쓰고 범인을 잡는다.
그러나 이러한 인공지능 안면인식 프로그램은 공공기관, 은행, 회사, 슈퍼마켓등 여러 분야에서 사용자의 편의를 위해 제공되지만 필요 이상의 부분까지 촬영할 수 있으며 모든 사람의 일거수일투족이 감시되는 것이다. 안면인식만으로 모든 개인정보가 무방비로 노출될 수 있으며 심지어 학교 교실에 장치된 카메라로 학생의 수업태도를 분석해 성적에 반영한다고 한다. 제한 없이 노출되고 축적된 개인정보는 사용자의 의도에 따라 언제라도 악용될 수 있으며 범죄를 예방하고 검거하는 긍정적인 역할보다 첨단기술이 거대한 권력과 결합하면 무차별적인 개인정보와 사생활의 노출과 열람이 가능하고 무한하게 악용될 수 있다는 것이다. 해외 언론에서는 중국이 첨단과학기술을 이용해 중국정부가 과도한 권한을 행사하고 있다는 비판의 목소리를 높이고 인권단체 휴먼 라이츠 워치(Human Rights Watch)는 반인권적인 일반인 감시기능을 중단하라는 메시지를 강력하게 보내지만 세계 최고의 중국의 안면인식 프로그램은 외국에서도 인기가 높아 세계 곳곳에서 도입되고 있으며 계속 증가할 전망이다. 그러나 인공지능의 판단과 예측은 개발된 알고리즘, 입력된 데이터에 의한 것이므로 통계, 확률에 따른 예측과 결과 도출. 자동화 시스템은 가능하지만 인간의 의사결정능력에는 현재 미치지 못하고 연관된 시스템의 오차, 오류에 대한 과학적인 명확한 해결책은 없다.
‘대량살상수학무기’(weapons of Mass destruction)의 저자 캐시 오닐은 그의 저서를 통해 빅데이터 경제의 수학모델 WMD의 위험을 경고한다. 원래 WMD는 핵폭탄, 중장거리미사일, 생화학무기 등의 대량살상무기(weapons of mass destruction)를 지칭하는 용어인데 저자는 대량살상수학무기(weapons of Mass destruction)라는 수학(Mass)적 의미를 강조하고 명명하여 현재의 경제, 교육, 치안, 금융과 노동시장 전반에 광범위하게 사용되는 빅테이터의 수학모형 WMD가 효율성을 목적으로 편향된 차별을 만드는 사회를 경고한다.
객관적인 수치를 입력한 데이터가 공정하지 않고 편향된 결과를 나타내고 대부분의 수학모형 WMD는 효율성과 수익성에만 맞춰져 있어 공통적이고 광범위한 피해를 일으키는데 은행의 대출심사모형이 고객을 예비ㅌ채무불이행자로 분류하게 되는 경우 개인의 모든 심사평가와 연결되어 심각한 불이익을 발생시키고 범죄방지를 위한 범죄자의 재범위험성모델은 죄 없는 사람을 평생 죄인으로 만들 수도 있으며 학생들의 학력을 위해 사용된 가치평가 모델이 유능한 교사를 나쁜 교사로 평가 절하하기도 한다. 경제적 데이터로 효율과 수익에 따르는 알고리즘은 소수의 부자들과 일반 대다수의 사람들을 차별하는 시스템을 확대하고 공정성을 희생시킨다.
그러나 이런 결과의 이유는 WMD의 특성 때문인데 테이터가 어느 항목에 얼마의 가중치가 부가되는지 알 수없는 폐쇄적이고 비공개적인 알고리즘 때문이라고 저자는 설명한다. 알고리즘의 차별은 패배자로 낙인찍힌 사람은 언제까지나 패배자로 만드는 반면 소수의 사람들에게는 빅테이터 통제에 대한 통제력을 확장하고 막대한 부를 축적하는 특혜를 누릴 자격을 부여한다고 지적하면서 데이터과학의 오남용을 경고하며 알고리즘 개발자도 윤리적으로 히포크라테스 선서를 해야 하고 그에 관한 법률이 바꿔야 한다고 주장했다.
그러나 현재의 오차와 오류는 머지않아 해결될 것이고 이대로라면 인공지능은 인간의 상상 이상의 수준으로 발전할 것은 자명한 사실이지만 인류를 위한 인공지능이 조정하는 소수의 권력으로 흡수되어 정치적 무기와 특정계층의 부의 창조의 수단으로 사용돼서는 안 될 것이다. 인터넷 속도가 0.1초라도 빠른 컴퓨터 제품이 출시되기 무섭게 팔려 나가고 공공기관의 인터넷 시스템에 잠시 문제가 생기면 엄청난 혼란이 발생하며 사소한 일에서 업무까지 유비쿼터스로 진행하는 현대 사회에서 컴퓨터 없는 생활은 불가능하고 사이버 테러라도 감행된다면 사회가 마비될 것은 불 보듯 뻔한 사실이다. 이젠 컴퓨터 없이 살수 없는 세상이 되었고 인간이 조정하는 것이 컴퓨터이지만 인간은 이미 컴퓨터의 노예가 되어 가고 있다. 인간만이 할 수 있는 의사결정 능력을 보다 완벽하게 수행하기 위해 인공지능 AI 개발에 천문학적 투자를 하고 시공간을 초월하는 완벽한 시스템을 위해 노력한다는 것은 어찌 보면 완벽하지 못한 것에 인간은 만족 할 수 없고 완벽한 세상에서 살고 싶은 욕망을 실현하기 위한 것인지도 모른다. 그렇다면 멀지 않은 미래에 인간다운 생활마저 컴퓨터에게 맡기는 세상이 도래하고 인간의 역할과 삶의 가치도 컴퓨터 없이는 무의미해질 것이라는 위험한 상상을 하게 된다.
따지고 보면 선진국의 무기산업과 정보시스템, 다국적 기업의 경쟁과 이윤창출을 위한 목적을 과학발전과 미래를 위한 투자라는 명목으로 발전시킨 과학 산업이 인류의 문화를 바꾸어 놓은 것은 사실이다.
구약성경 창세기 11장에는 인간이 신의 영역에 도전하기 위해 높고 거대한 바벨탑을 세웠다가 신의 분노를 사서 인간의 언어가 분리되는 저주를 받았다고 전해진다. 무엇이든 거대한 발전은 그에 따른 폐해 역시 거대한 법이고 모든 생명체는 자기들만의 영역이 있듯 과학이 인간의 영역을 벗어나는 일은 위험한 것이다.
인간의 삶이 윤택하고 과학의 혜택을 받는다는 것은 의심할 여지없이 좋은 것이다. 그러나 최첨단도 좋지만 지금 만큼만 편리해도 충분하다는 판단을 하게 된다.
컴퓨터는 인간을 위해 만든 과학이고 인간이 과학문명의 노예가 되어서는 안 되며 과학이 아무리 발전하고 완벽을 추구해도과학은 인간이 만들고 인간은 신이 아니며 결코 완벽할 수 없다.