brunch

You can make anything
by writing

C.S.Lewis

by 더굿북 Feb 08. 2017

06. AI·로봇, 더 생각해 볼 만한 것들

자율성 문제

2010년 5월, 단 5분 만에 증시의 1/10, 1조 달러가 사라진 사건이 발생했다. 시장은 폭락과 폭등을 반복했다. 2016년 자율주행차 테슬라의 ‘모델 S’ 운전자가 사망하는 사건이 발생했다. 같은 해 7월 미국 캘리포니아 쇼핑센터에서는 무게 136kg, 152cm의 보안로봇이 아이를 공격해 아이의 오른발을 다치게 하는 사건이 발생했다.

이 사건들의 공통점은 인공지능이 범인이라는 데 있다. 직접적인 원인은 인공지능이 가지게 된 ‘자율판단능력’ 때문이다. 인공지능이 생각하기에 사람에게 최적이라고 생각한 일들이 실제 사람에게는 불편할 수도 있다. 게다가 집안의 사물들끼리 대화를 하는데 서로 다른 의견이 나온다면 그건 누가 처리해야 할까? 인공지능이 가지게 되는 자율성에 어느 정도의 도덕성을 부여할 것인지에 대해 생각하는 것, 먼 미래가 아니라 지금부터 해야 할 일이다. 그래서 이 분야가 발달할수록 오히려 인간에 대한 학문은 더 연구되고 수요도 많을 것이라 예측된다.


일자리 문제

두 번째는 당연히 ‘일자리’의 문제다. 로봇이 노동력을 대체할 경우 부익부는 더 심해지게 된다. 로봇을 소유한 사람들은 더 많은 부를 생산하게 되고, 그렇지 못한 사람들은 경쟁에서 도태될 수밖에 없게 된다. 생산수단을 소유한 자와 그렇지 못한 자에 대한 이야기들은 이미 역사에서 여러 번 거론되었던 이야기다. 하지만 로봇이 주는 여파는 ‘지적 노동’과 ‘육체적 노동’을 가리지 않는다는 것에서 다르다. 영화 <엘리시움>에서는 낙후된 거주민들은 지상에 살고, 부유한 층들은 공중도시 엘리시움에서 생활한다. 언젠가 현실이 될지도 모른다.


살인 로봇의 문제

세 번째는 ‘자아’의 문제다. 우리보다 우수한 존재를 만들어서 지배하지 못하게 될 경우가 많은 책과 영화에서 다루는 디스토피아다. 그래서 SF의 거장 아이작 아시모프는 ‘로봇 3원칙’을 들어 로봇이 인간에게 해를 끼치지 못한다는 것을 이야기했다. 

로봇공학의 삼원칙


하지만 전쟁터에서 쓰이는 ‘로봇’이나 ‘보안 로봇’을 생각해 보라. 인간에게 해를 끼치지 못하게 설계한다는 것은 말이 안 되는 이야기다. 로봇의 형태가 아니더라도 무인 비행기 ‘드론’은 이미 살상 목표를 가지고 활동하고 있다. 이런 이유로 스티븐 호킹과 빌 게이츠를 비롯한 많은 사람들이 인공지능의 연구에 반대를 하고 있다.


애착화의 문제

감당할 수 있는 금액으로 만나게 된 최초의 홈 로봇인 페퍼. 과연 지금 페퍼를 구매한 사람들은 몇 년이 지나 신형이 나왔을 때 쉽게 교체할 수 있을까? 아직 소설에서나 나올 법한 질문에 대해 2015년 현실이 이미 답하고 있다.

1995년 소니가 개발했던 강아지 로봇 ‘아이보(AIBO)’의 이야기다. 소니는 아이보를 사람들이 애완동물로 여기기를 바랐다. 그래서 아이보는 ‘애완동물 코너’를 따로 만들어서 팔았으며, 뼈다귀와 아이보 입양증명서까지 박스에 들어있을 정도였다. 15만 대 이상 팔린 제품이었지만 소니는 2015년 3월 아이보수리서비스를 중단했다. 따라서 고장이 나면 마치 사람처럼 다른 부품을 ‘장기기증’ 받거나 수리하지 못하면 이제 그만 보내줘야 했고, 2015년 1월에는 19마리의 주인들이 절에 모여 장례식을 치렀다. 이 일을 특정한 몇몇 기행이라고만 볼 수 있을까?


로봇의 권리문제

로봇은 왜 만들려고 하는 것일까? 미지의 영역에 대한 호기심에서일 수도 있고 더 큰 번영을 하기 위해서일 수도 있다. 하지만 본질적으로는 ‘노동’에 대한 이야기에서 크게 벗어나지 않는다. 우리가 로봇을 통해 하려는 일은 ‘노예제도’의 부활이다.

노예제도가 아직 존재했을 때 지배계급이 가장 두려워했던 일 중 하나는 노예들이 ‘지혜’를 가지는 일이었다. 주인에 대한 절대복종을 강조했고, 이를 어기는 노예들은 살해됐다.

우리가 로봇을 통해 하려는 일 역시 같다. 온종일 24시간 동안 집에서 일하면서 우리의 이야기를 잘 듣고, 원하는 것을 해주는 것이다. 그리고 당연히 그것에 대해 불평하지 않으며, 감히 주인에게 반기를 일으킬 생각도 하지 않는 완전한 노예를 원한다.

‘스팟’이란 이름의 4족 보행로봇



일례로 구글이 인수했다가 매물로 내놓았던 보스턴 다이너믹스는 2015년 ‘스팟’이란 이름의 4족 보행로봇을 공개했다. 스스로 걷고 균형도 잡을 수 있음을 강조하기 위해 발로 걷어차는 영상을 강조했다. 로봇은 놀랍게도 균형을 잡고 다시 섰는데 이 모습이 마치 개를 발로 차는 모습과 유사해 동물 학대 논란까지 벌어졌다.

로봇 개를 발로 차는 것은 잔인한가?


 로봇 시대를 맞아 로봇의 인권은 계속 생각해야 할 문제 중 하나다.


무엇을 해야 하는가?

우울한 미래다. 무섭도록 정확한 인공지능을 가진 더 힘이 세고 지치지 않는 로봇들이 나온다면 우리는 무엇을 해야 할까? 하지만 이런 미래가 올 것을 알고 있다면 그에 대해 대처하면 된다. 우울한 미래만 있는 것은 아니다. 인공지능과 지속적으로 대화를 하며 일을 해야 하는 삶이 이상하고 끔찍하게 여겨진다면 시계를 과거로 돌려보자.

이미 우리는 ‘인터넷’을 쓰기 시작하며 혼자 생각하고 혹은 직접 몸을 움직여야 만날 수 있는 사람들로 구성된 집단에서 벗어나게 됐다. 혼자 생각하는 것이 아니라 다른 사람의 뇌를 빌려 쓸 수 있는 ‘생각의 아웃소싱’은 오래 전부터 진행되었던 일이다. 스마트폰이 등장하며 24시간 온라인 상태가 되면서 이런 ‘아웃소싱’은 더 빨라지고 더 커졌다. 직접 타이핑을 하기보다 음성으로 명령을 내리면 알아서 찾아주는 것 혹은 내가 주고받은 메일을 분석해 자동으로 일정에 등록해 주거나 알림 서비스를 주는 것, 검색창에 검색어를 입력함과 동시에 비슷한 추천 사이트들이 실시간으로 나타나는 것, 에버노트와 같은 서비스에서 글을 작성하면 예전에 저장했던 관련된 글들을 불러와 볼 수 있게 해주는 것 등 이 모든 것들이 인공지능의 아주 작은 형태이자 기본적으로 도움을 받는 일들이다.

먼 미래에는 어떻게 될까? SF 소설가 존 스칼지의 3부작 중 하나인 <노인의 전쟁>을 보면 흥미로운 프로그램이 하나 나온다. 바로 ‘뇌 도우미’. 나노봇을 통해 뇌 도우미는 사용자의 ‘뇌’에 자리 잡는다. 마치 우리가 끊임없이 머릿속으로 생각하듯 뇌 도우미는 자연스럽게 우리가 생각하고 행동을 할 때 정보를 찾아 업로드해 주고, 최선의 방법을 찾아 제시해 주며 자연스럽게 말을 건다. 뇌에 하나의 뇌를 더 달아 보조수단으로 사용하듯 ‘뇌 도우미’를 통해 사용자는 더 많은 일을 해낼 수 있다. 스마트폰의 최종 형태는 폰의 형태를 벗어나는 일이고, PC의 최종 형태 역시 디바이스의 형태를 벗어나는 일 아닐까?

니콜라스 카와 같은 학자들은 <생각하지 않는 사람들> <유리감옥>과 같은 책을 통해 이런 현상을 경고해왔다. ‘인터넷과 같은 서비스에 의존할수록 사람의 사고방식은 형편없어진다’는 것이 주된 내용이다. 이를 ‘스마트폰’에 대입해도 된다. 스마트폰에 수많은 정보를 저장하고, 나눌수록 사용자는 점점 바보가 되어 검색만 하지 생각하는 힘을 잃어버리게 된다는 이야기다. 물론 이에 대해서는 반발이 많다. 하지만 여기에서 더 나아가 똑똑한 인공지능의 힘을 빌려 쓸 수 있게 될 때 사람은 생각뿐 아니라 ‘사고’까지도 아웃소싱하게 될까? 데카르트가 이야기한 ‘나는 생각한다. 고로 존재한다’를 뒤집는다면 인간은 생각하지 않게 될 때 존재하지도 않게 되는 것 아닐까?

하지만 우리가 우려하고 걱정을 하는 것만큼 나쁜 일들은 쉽게 이루어지지 않을 거라고 생각된다. 핵전쟁이 일어나면 인류가 멸망하리라는 것을 알고 있지만 그럼에도 불구하고 우리는 아직 살아 있지 않은가. 새로운 미래는 아주 가깝게도 아니면 아주 많이 남아있을지도 모른다. 하지만 그때는 분명히 온다. 이제부터 우리가 준비해야 하는 것은, 컴퓨터로 일하는 것이 아니라 로봇과 함께 일을 하는 방법이다.

브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari