서평_계산하는 기계는 생각하는 기계가 될 수 있을까?

30년을 뛰어넘은 AI에 대한 근본적 질문

by 이형주 David Lee

AI 관련 서적중에서, 이렇게 읽기 어려운 책은 처음인 것 같다. 여러 AI 관련 책들이 AI의 기본 개념과 빅데이터 처리, 머신 러닝 및 활용 방안 등에 대한 일반적 소개와 사례 중심의 활용서라면, 이 책 ‘계산하는 기계는 생각하는 기계가 될 수 있을까?’는 AI 관련 책이라기 보다는 보다 근원적인 질문, 즉 생각이란 무엇인가라는 질문에서부터 시작해야 하는 아주 원초적 과제를 던지고 있다.


생각이란 무엇인가?


이 책의 질문처럼 계산하는 기계가 생각을 할 수 있으려면 생각에 대한 정의부터 내려야 한다. 생각이란 무엇인가, 생각은 단순히 1+1=2라는 식의 논리적 계산만을 의미하지는 않는다. 그렇다고 머신 러닝처럼 기존의 데이터를 학습하여 패턴을 분석하고 미래를 예측하는 예지적 능력이라고도 할 수 없다. 생각의 또 다른 능력이란 과거의 유사한 경험과 데이터를 바탕으로 무언가 새로운 것을 편집할 수 있는 능력, 즉 과거의 경험으로부터 배우고 새로운 것을 응용할 수 있는 능력(김정운 박사는 이것을 ‘에디톨로지’라고 했다.)인데, 이것이야말로 창의적 능력의 원천이 되는 것이다.


이러한 생각의 관점에서 본다면 아직까지 인공지능이 인간과 같은 고차원의 ‘생각’을 할 수 있다고는 생각하지 않는다. 코플랜드는 책에서 튜링 테스트를 소개하면서 언어 이해, 추론, 문제 해결 등 인간적 사고 능력을 수행할 수 있는 컴퓨터 프로그램의 발전을 소개하며, 이를 바탕으로 AI의 가능성을 제기한다. 그러나 코플랜드는 이러한 컴퓨터 프로그램이 단순히 계산과정만 모사하는 것이 아니라 인간과 동등한 지성을 가질 수 있는지 의문을 제기한다. 그렇다면 여기서 또 하나의 의문점이 떠오른다. 인간과 동등한 지성을 갖는 다는 것은 어떤 의미인가, 인간에게 지성이란 계산이나 상상력을 바탕으로 한 창의력과는 또 다른 것일까?


지성이란 무엇인가?


지성이란 위에서 언급한 언어 이해, 추론, 문제 해결과 상상력, 추상적 사고와 같은 것을 통칭하여 쓰인다. 인간이 살면서 경험하는 모든 지식과 학문, 사회 생활을 통해 얻는 것이 바로 지성이란 이름으로 나타나는 사고와 행동일 것이다. 이런 지성의 개념은 지극히 개인 차원에서 언급한 것이다. 그러나 지성은 결코 개인적 차원에서만 발생하지 않는다. 우리는 이미 집단 지성이란 말을 수없이 들어왔다. 개인이 아니라 집단이 갖고 있는 지식과 지혜를 모은 것이 집단 지성인데 이러한 집단 지성은 사회적 상호작용과 문화적 영향, 교육 등을 통해 생성될 수 있는 것이다. 예를 들어 한 기업의 구성원들이 생산해내는 제품이나 서비스는 집단 지성의 결과물이다. 또한 학교에서 가르치는 지식 또한 수많은 교육 전문가들의 집단 지성을 통해 교과서란 이름으로 출간된다. 군대에서의 전쟁 전략이나 전술, 가족 간의 문화 역시 집단 지성의 대표적 사례들이다. 이렇듯 집단 지성은 한 개인을 넘어 사회와 국가란 관계 속에서 만들어지는 창조물이다.


따라서 기계가, 여기서는 AI가 과연 생각을 넘어 인간의 개인적, 그리고 집단적 지성을 모방하고 동등한 수준에 올라설 수 있느냐의 질문으로 바꾸어 보아야 한다. 이 책이 쓰여진 시점이 지금부터 정확히 30년전인 1993년이라고 할 때, 저자가 예측했던 계산하는 기계로서의 AI는 이미 예상을 뛰어넘는 수준으로 발전했다. 단순히 계산하는 것을 넘어 이제는 ChatGPT와 구글 Bard, 그리고 마이크로소프트의 Bing AI가 텍스트와 이미지, 음악까지 창조해 내는 수준에 왔으니 말이다.


생각과 지성 다음의 과제, 윤리 의식


나는 AI가 계산적 기계로서의 수준을 넘어 생각과 지성을 갖게 될 것이라고 ‘생각’한다. 물론 이것은 나만의 경험과 지식, 사고력을 통해 나온 것이기 때문에 이 생각이 틀릴 수도 있다. 그러나 이미 AI가 인간의 질문을 이해하고 방대한 데이터를 통해 추론한 대답의 결과들은 예상보다 훨씬 날카롭고 직설적이며, 지적(知的)이다. 지적이란 의미는 질문자의 의도를 얼마나 제대로 이해하고 답을 하는 것이냐에 따라 달라지는데 최소한 지금의 AI_ChatGPT건 Bard건 Bing이건_는 질문자의 질문을 제대로 이해하고 있는 것 같다.


따라서 현재의 AI가 풀어야 할 과제는 계산이나 생각이냐의 문제는 아닌 듯하다. 더욱 중요한 것은 이 AI가 인간의 입장에서 윤리적, 도덕적 측면을 고려해야 하는 상황들에 있을 때 과연 이러한 도덕적, 윤리적 가치를 가지고 판단할 수 있느냐의 문제일 것이다. 이 윤리적 가치의 문제가 결국 AI가 인간과 동등한 수준의 지적 능력을 갖출 수 있느냐의 문제와 직결될 것이다. 왜냐하면 윤리는 데이터에 의한 판단이라기 보다는 한 개인이나 집단이 갖고 있는 정신적 신념과 연결되어 있기 때문이다. 신념이란 어디서 생기는가? 신념이야 말로 집단의 문화적, 종교적, 전통적 관념이 내재화되어 자연스레 자리잡는 것이다. 그렇다면 신념은 언제 역할을 하는가? 인간이 판단을 내려야 하는 문제의 최종 선택에 있어 신념이 판단의 기준이 된다. 자율주행차가 기술적으로는 가능하다 하더라도 마지막 판단, 즉 앞에 1명이 서있는 경우와 옆차선에 5명이 서있는 경우 어느 쪽으로 방향을 틀 것인가와 같은 문제에 있어 AI는 가치 판단을 할 수 없다. 책임과 보험처리 문제를 떠나서 어느 선택이 윤리적 도덕적으로 올바른 것인지는 여전히 인간 세계에서도 쉽게 결론 낼 수 없는 문제이기 때문이다. ChatGPT 역시 인간이 확인하지 않는 경우 거짓 정보를 마치 사실처럼 알려준다. 팩트 체크가 제대로 안된 내용을 AI는 아무런 죄의식 없이 거짓말하고 있다.


결국 AI는 지적 수준에 있어 인간과 동등하거나 그 이상으로 발전될 것이다. 그러나 인간 이상으로 발전하기 위해서는 반드시 윤리와 도덕적 가치 판단이 중요한 기준점이 되어야 한다. 이미 일론 머스크는 AI가 인류에게 위협이 될 수 있다고 우려하고 있다. 그는 AI가 ‘인류의 종말’을 초래할 수 있다고 말했으며, AI 개발을 중단해야 한다고 주장했다. 일론 머스크의 이러한 우려는 AI가 너무 강력해져서 인류가 통제할 수 없을 때, 가치 판단을 AI에게만 맡긴다면 인간적 윤리와 도덕 기준이 아니라 지극히 계산적이고 효율적 측면에서만 판단할 가능성을 언급한 것이다. 혹은 없는 정보를 진실처럼 제공하여 판단을 흐리게 할 것이다. 가짜 뉴스를 퍼트린 주범이 인간인지 AI인지 알 수 없다면 우리는 어떻게 가치 판단을 할 수 있을 것인가?


AI와 인간 간의 토론이 필요할 때


이 책이 기존의 AI 서적들과 다른 점은, AI와 인간의 사고 및 의식에 대한 차이점을 제시하고 AI의 발전과 더불어 윤리적 문제들을 제기하고 고려해야 할 필요성을 강조했다는 것이다. 비록 이 책이 30년전에 쓰였지만 계산하는 기계가 생각하는 기계가 되었을 때, 인간은 과연 기계에게 생각을 넘겨줄 수 있을 것이냐에 대한, 지극히 현재 시점에서 매우 적절한 질문을 갖게 했다는 점에서 의의가 있다. 윤리와 도덕성은 이제 AI 교육과 활용 측면에서 반드시 고려해야 할 때이다. AI가 인간처럼 말하고 대답하는 시대에 이제 우리는 AI와 윤리에 대한 토론을 해야 한다. AI가 윤리적 의식을 가지지 못한다면 일론 머스크의 우려가 현실이 될 가능성이 크기 때문이다. 지금부터라도 AI 출시전에 윤리 시험을 치러야 할까?

매거진의 이전글읽은 책을 오래 기억하는 법