인공지능이 인류에 초래할 위험
데일리 임팩트 <세상 돌아보기> 칼럼(2023-10-25)
인공지능 세상은 장밋빛 미래를 보장할까, 심각한 디스토피아를 초래할까? 2016년 세계경제포럼(WEF)은 인공지능이 장차 사람 두뇌를 대체하고, 경제·사회적 진보를 더 확대할 것으로 전망했다. 또한 WEF는 인공지능 기술의 잠재적 위험들에 주목하고, 대응을 권고했다. 인공지능의 잠재적 위험들로는 어떤 것들이 있나?
우선 일치와 통제(alignment and control) 문제가 있다. 일치 문제란 ‘어떻게 인공지능이 인간 의지를 따르게 할 것인가?’라는 문제다. 이는 ‘어떻게 인공지능이 인간과 동일한 가치체계를 가지고 개발자의 의사에 따라 움직이게 할 것인가?’라는 기술적 문제와 ‘인공지능의 핵심 가치판단 기준이 무엇이 되어야 하나?’라는 철학적 문제로 나뉜다.
통제 문제란 ‘사람의 가치기준에 반하는 결과가 나오면, 인공지능이 이를 스스로 제어할 수 있을 것인가?’라는 기술적 문제다. 즉, ‘인공지능이 잘못되었을 때 스스로 “정지 스위치”를 누르게 만들 수 있을까?’라는 문제다. 이를 위한 많은 논의가 있었으나, 인공지능이 그렇게 하지 않으리라는 회의론은 여전하다.
둘째, 편향성과 다양성(bias and variety) 문제가 있다. 편향성은 인간 고유의 것과 데이터 접근성에 기인한 것으로 나눌 수 있다. 인간은 태어난 지역·시간·역사·문화·사회·전통과 관습에 따라 누구나 편견과 고정관념이 있다. 인공지능은 이런 인간이 만든 캡슐화된 데이터를 학습한다. 그러므로 누가 학습 데이터를 생성했느냐에 따라 인공지능이 편향성을 가질 수 있다.
다양성 문제란 ‘인공지능을 누가 만들고 사용할 것인가?’가 사람들에게 상당한 편익의 편차를 조성하는 문제다. 현재 인공지능 연구자들 가운데 여성 및 소수계층(minority) 사람들이 매우 적다. 결국 이 기술로 인한 다양한 편익과 수익이 이들에게 상대적으로 덜 분배되게 할 수 있다.
편향성과 다양성 문제가 크게 주목받는 이유는 이 문제들이 결국 인공지능 발전으로 발생할 기하급수적 성장 수익의 공평 배분을 제약해서 기존 소득분배 편향성을 증폭시킬 수 있어서다. 지금도 시장에는 구글·오픈 AI·MS·페이스북 등 인공지능 관련 슈퍼스타 기업들이 있고, 데이터 접근성과 컴퓨팅 역량이 큰 곳에 인재들이 모여 있다. 이는 결국 인공지능 혜택이 편재될 개연성을 키운다.
셋째, 당면 현안은 개인정보 보호 및 획득 정보 오·남용 문제다. 모니터링, 데이터 플로 관리, 마케팅과 광고에서의 정보 오·남용 및 프라이버시 유출 피해 등은 이미 심각하다. 2016년 MS의 테이봇(Taybot)은 일부 극우 성향 사용자들이 세뇌시키자 부적절한 차별 발언을 쏟아냈다. 또한 페이스북은 같은 해 트럼프에게 유리하고 힐러리에게 불리한 다수 ‘가짜 뉴스’를 방치해서 미국 대통령선거에 영향을 미쳤다. 정치 데이터 분석업체 케임브리지 애널리티카(Cambridge Analytica)는 페이스북 이용자 오천만 명 이상의 성향 정보를 입수·분석해서 트럼프 캠프에 제공해서 선거에 개입했다. 페이스북은 이 논란으로 CEO인 저커버그가 사과했다.
이외에도 거래과정에서 지득한 개인정보를 포함한 다양한 데이터들을 대기업이 중소기업 시장 진입 억제수단으로 이용하고 있다. 또한 이 데이터를 바탕으로 맞춤형 광고를 해서 고객 유인과 행동 조종을 하고 있다. 이러한 개인정보 데이터를 이용하는 기업들은 맞춤가격책정(personalized pricing), 공모 없는 담합 등으로 기존 경쟁정책 프레임을 무력화하고 있기도 하다.
넷째, ‘오웰리안 스테이트(Orwellian State)’ 가능성이 점점 커지고 있다. 컴퓨터가 이미지를 식별하는 컴퓨터 비전(CV: computer vision) 기술의 인식 오류율은 2.3% 이하로 이미 사람(5%)보다 낮아진 지 오래다. 이 기술의 발달은 조지 오웰이 경고했던 전체주의 감시사회로의 이행을 심각하게 가속시키고 있다. 기술 사용 권력의 집중이 심화되는 상태에서 정치 권력이 인공지능을 국민 또는 대중 통제에 이용할 위험성과 유혹을 확대할 것으로 우려되고 있다. 중국·러시아·북한 등 전체주의·권위주의 정권들이 이를 오남용할 가능성은 더욱 심각하다. 또한 팬데믹·기후변화·천재지변 등 불확실성 확대는 민주주의 정부들도 이 불확실성의 완화나 제거를 명분으로 국민생활에 개입하는 수단으로 인공지능 감시기술을 오·남용할 수 있다.
마지막으로 인공지능 무기 개발 문제가 있다. 인공지능 무기화에 반대하는 전 세계 학자·전문가들의 공동성명에도 인공지능 무기 개발 배제는 불가능하다. 다른 무기들과 달리 인공지능 무기는 단일 장애점(single point of failure) 위험을 증폭시키는 문제가 있다. 단일장애점이란 시스템의 핵심 부분으로, 고장 나면 전체 시스템이 고장 나게 만드는 부분을 의미하는데, 이게 더욱 커지고 그래서 위험이 확대된다. 인공지능의 등장으로 위험장소가 더 많아지고, 상호연결도 늘어나기 때문이다.
그러나 위험의 강도는 증가하지만 그 특징은 동일하다. 즉, 인공지능이 킬러봇·드론·생화학무기·핵무기보다 더 위험하다고 볼 수 없고, 마땅한 대응책이 없다는 점에서 공통적이다. 다만 인공지능 무기의 악용은 테러 범죄처럼 감지가 어려울 수 있다. 핵무기는 작동에 상당한 시간과 움직임이 발생해서 감지 시스템 가동이 훨씬 수월하나, 인공지능 무기는 감지가 어렵고 제작·유지비용이 저렴해 극단주의자들도 쉽게 이용할 수 있다.
제기된 문제들에 대한 범인류적 신속 대처는 인공지능의 혜택과 수익을 극대화하고, 인류의 생존 위협 제거를 위해 필수적이다. 그런데 이런 시기에 세계는 춘추전국의 대격랑 속에 있다. 공조는커녕 서로를 겨누는 적대의 칼로 쓰려고 기를 쓰고 있다. 과연 인류는 이 위기를 넘어 또 다른 번영의 길로 향할 수 있을까?