brunch

You can make anything
by writing

C.S.Lewis

로봇에게 치사한 것을 물어보는 튜링테스트

브라이언 크리스찬의 『가장 인간적인 인간』을 읽고

영화 『블레이드 러너』처럼 “내가 만약에 로봇이라면” 이라고 얘기하는 가정들은 인간의 상상력을 자극하는 무언가가 있다. 많은 사람들이 자기 자신이 인간이라고 알고 있었는데 사실 로봇이었다면 다면 엄청난 충격을 받을 것으로 예상되기 때문에 이 가설적인 스토리에 재미를 느끼게 된다. 근본적으로 말해서 사실상 그걸 안다고 해서 생활에 무엇인가가 크게 달라지는 것도 아니고 진실에 근본적인 변화가 일어나는 것도 아니다. 만약에 로봇이 인간 만큼이나 유사해서 주위의 아무도 그가 로봇이라는 사실을 알아보지 못하고 심지어 자기 자신도 깨닫지 못한 채로 30~40년간 살아왔다면, 누구도 구별할 수 없을 정도로 인간과 닮은 로봇이라는 소리고 즉 인간과 99.9% 닮은 로봇이라면 그냥 인간이라고 쳐도 지금까지의 그 생활을 살아가는 데 아무 지장이 없기 때문이다. 다만 진실은 아침 드라마에 나오는 ‘탄생의 신비’와 같은 것으로서, 그냥 나는 내 진짜 어머니가 누구인지 알고 싶은 것처럼 내가 진짜 로봇일지를 알고 싶은 것 뿐이다.


앨런 튜링 (Alan Turing)이 ‘튜링 테스트’라는 것을 만든 이후 이 테스트의 개념은 60년 동안 많은 사람들에게 영감을 주었다. 그러나 나는 그 학문적 실체에 대해서는 의문을 표하는 바이다. 아이작 아시모프의 ‘로봇공학의 3원칙’과 비슷한 것이다. 학문적 엄밀성은 별로 없고 단지 좋은 SF의 소재거리에 불과한 것이다. 로봇공학의 3원칙은 재미있는 이야기이고 그러한 사전 설정 이후 풀어나갈 스토리가 무궁무진하지만, 실제 구현에 있어서는 매우 난관이 많고 엄밀한 정의는 불가능하다. 예를 들어 이 원칙에 따라 인공지능 로봇의 머리 안에 이렇게 코한다 치자.


If (me==robot) then excute {
    not injure a human being;
}


로봇공학 3원칙이 우리에게 받아들여지는 개념은 ‘로봇 머릿속의 하드코딩’ 같은 거라 로봇은 절대로 거부할 수 없고 마치 진짜 의식 없는 ‘로봇’처럼 이러한 행위를 자동적으로 수행할 거라 여겨진다(그래서 로봇‘공학’의 3원칙이다). 그러나 사실상 ‘인간’이 무엇이냐, 혹은 ‘해하다’가 무엇이냐 하는 정의의 문제는 자동인형적인 로봇 스스로는 정의내릴 수 없다. 그 기준 자체가 상황에 따라 매우 달라지는, 인간 사회에서 통용되는 개념이기 때문이다. 이를 정의하기 위해서는 로봇 스스로 그 정의를 만들고 분류 기준을 상황에 따라 유연하게 대응하는 상위 수준의 인지적 의식을 가져야 할 것이다. 그러므로 이 룰은 절대 하드코딩처럼 실행될 수 없고, 로봇은 인터프리터로 작동할 수 없다. 마치 인간이 법을 지키듯이 로봇은 3원칙을 지키는 자유의지를 가진 객체로 행동할 것이다. 그러므로 이 3원칙은 애초에 ‘로봇공학’이 아닌, ‘로봇윤리의 3원칙’으로 명명되었어야 다.


튜링 테스트도 비슷하다. 인간이 로봇을 구분하는 방법에 대해 이런 저런 생각이 있을 수도 있고 언어를 이용해 인간과 로봇을 구분한다는 건 나름 첫 번째로 생각할 수 있는 좋은 솔루션이다. 그러나 진짜 언어가 무엇인지, 혹은 대화가 무엇인지를 구분하는 방법에 엄밀한 정의가 필요하고, 테스트를 구성하는 설계의 변인 등을 정확하게 만들어 놓지 많으면 이 튜링 테스트란 학문적 엄밀함은커녕 민간 요법 수준의 알아 맞추기 게임에 불과할 것이다. 난 튜링이 이 정도 수준으로 가볍게 언급한 것이라고 생각한다. 후세의 사람들이 이것을 너무 심각하게 받아들이고 있다.


튜링 테스트가 인공지능학에서 점점 오용되어 쓰이는 과정을 가상으로 꾸며 보자. 어떤 가상의 사회가 있고 이 사회는 어느 정도의 기술 발전을 보였는데, 여기서 개발해 낸 기계는 언어는커녕 소리에 대한 입출력기도 없다고 해 보자. 튜링 테스트에 참가한 사람은 10초만에 이 기계를 인간과 거의 완벽하게 분리해낼 수 있는데, 왜냐하면 이 기계는 어떤 것을 물어보아도 한 마디도 대답을 못할 것이기 때문이다. (일부 언어장애가 있는 사람을 로봇이라고 잘못 판별하는 케이스를 제외하고는 거의 완벽하다.) 이 사회의 기계는 0세대라고 얘기할 수 있는데, 이는 이 세대의 기계가 튜링 테스트뿐만 아니라 다른 어떤 분류 테스트로도 테스터가 이 기계를 성공적으로 기계라고 판단할 수 있기 때문이다.


The Most Human Human - Brian Christian

이 세계의 앨런 튜링이 딱 이 때에 어떤 예언을 한다. “앞으로 기술은 기계를 인간과 비슷한 형태로 만들도록 발전을 할 것이며, 기계와 인간을 간단하게 구별하기 위해 언어를 이용한 테스트를 해 보면 좋겠다.” 물론 인공지능 개발자들은 이 이야기에 어느 정도 영향을 받았겠지만, 그들의 첫 번째 목표는 튜링 테스트에 통과하기 그 자체가 아니라 단지 “말하는 로봇을 만들기”였다. 그래서 1세대 로봇이 만들어졌다. 이 로봇은 말을 하기는 하는데 인간과 말하는 패턴이 많이 달라 대부분의 사람은 이 기계와 조금만 말해 보면 지금 대화 상대자가 인간이 아니라 기계임을 매우 잘 알 수 있었다. 튜링 테스트가 의미있어지는 순간은 여기까지이다.


2세대 인공지능 개발자들이 기계의 언어를 좀 더 인간과 가깝게 만들기 위해 튜링 테스트를 참고한다. 목표가 튜링 테스트 통과하기로 정해졌으며 튜링 테스트 대회가 열리기 시작했다. 이윽고 1회 우승자 기계가 만들어지자 테스터들은 그에게 좀 더 어려운 문제를 내 보았다. 2회 우승자 기계는 그에 대응하는 좀 더 어려운 질문에 대답하는 기능을 탑재했고, 곧 다음 열리는 대회에서 테스터들은 이상하고 의미없는 ‘전략’을 들고 나오기 시작했다. 질문을 끊어서 해 보기, “어”나 “음” 처럼 의미없는 문구를 분석해 보기, 과거(예를 들면, “1995년에 어디서 살았나요?”. 기계가 이러한 질문에 대답하려면 거짓말을 해야 한다.)에 대해 질문해 보기…테스터들과 인공지능 개발자 간의 폭주하는 붉은 여왕 게임이 시작되었다. 자, 이러한 전략과 전략의 싸움에 튜링 테스트의 본질은 어디 있는가? 튜링이 애초에 말한 튜링 테스트가 이런 쓰잘데기 없는 수싸움이 아닌 것은 분명하다.


튜링-쌍둥이 게임이란 것을 해 보자. 테스터는 앞 사람이 A인지 B인지를 구별해야 하는데, A와 B는 일란성 쌍둥이이다. 낮선 사람이 A와 B를 구별할 수 없음은 분명하다. 그러나 A나 B를 조금이라도 아는 사람은, 그들과 해던 여러 가지 기억들을 토대로 A와 B를 구별할 수 있다. 만약 일주일 전 슈퍼에서 B를 만났는데 그 때 A는 없었다면, 그 당시 나와 B가 사려고 했었던 동일한 물건이 무엇인지 대화했던 기억을 통해 그들을 구별할 수 있다. 이런 사소한 차이점은 쌍둥이 게임을 의미없게 만든다.


튜링 테스트도 마찬가지이다. 기계와 인간을 구별하기 위해 우리는 한없이 디테일하고 치사한 것을 물어볼 수 있다. 그리고 어떤 과학자가 그런 치사한 질문들에 대해 기계 스스로 거짓말을 만들어 내 다 대답할 수 있게 만든다 해도, 무한히 치사하고 구질구질한 질문들을 얼마든지 만들어 내 로봇을 압박할 수 있다.


테스터: 1995년에 어디서 살았나요?
로봇: 서울 역삼동이요.
테스터: 1995년에 역삼동에 사실 때 어떤 학교를 다녔죠?
로봇: 역삼고등학교요.
테스터: 고등학교 3학년때 몇반이었나요?
로봇: 5반이요.
테스터: 5반 친구들 중에 기억나는 사람 5명만 이름대 보세요.
로봇: …


이러한 질문들에 대답하기 위한 거짓말을 완벽히, 정합적으로 만들어낼 수 있는 로봇 개발자는 없다. 이 책이 의미없어지는 이유이고 튜링의 원래 의도를 훼손하는 이유이다.

브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari