울산과학기술원(UNIST) 정보바이오융합대학 소식지 기고문
* 본 글은 2023년에 제가 울산과학기술원(UNIST) 정보바이오융합대학 소식지에 투고한 자유기고문입니다.
ChatGPT를 필두로, 이제는 인공지능 분야 종사자가 아닌 일반 시민들도 인공지능에 대해 높은 접근성을 가지고 있으며, 접근성과 함께 그들의 관심도 함께 커지고 있다. 당장 아무 서점에 가더라도 눈에 띄는 책장에는 온통 인공지능과 관련된 도서, 그중에서도 업무 자동화나 수익 창출에 대한 도서가 잔뜩 나열된 것이 그 방증이라고 볼 수 있다.
돌이켜보면 구글 검색 엔진이 처음 나왔을 때도 유사한 추세가 드러났다. 당시에도 서점에는 검색 활용법을 다루는 도서가 적지 않게 비치되어 있었다. 하지만 2023년 현재, 구글 검색 엔진 활용법은 책을 통해 배우지 않더라도 당연히 갖추고 있는 기본기라는 점을 고려하면, 인공지능에 관련된 활용법도 머지않아 비슷한 상태에 도달할 것으로 보는 사람들도 있다.
하지만 일각에서는 인공지능 기술의 급격한 발전이 인류를 위협할 수 있다는 우려를 표하기도 한다. 실제로 이전부터 우려하던 일자리 대체 문제는 이에 대한 비판과 별개로 일부 산업에서 이미 현실화되고 있다. 또한, 인공지능 개발의 선두에 있는 기업들은 인공지능 생존 경쟁에서 살아남거나 앞서가기 위해 사내 AI 윤리 조직을 축소하거나 해체하고 있다. 따라서 이러한 우려를 그저 기우(杞憂)라고 일소(一笑) 하기 어렵다는 점에도 적지 않은 사람들이 동의할 것이라 믿는다.
이러한 우려를 완화하거나 해소하기 위해 우리가 할 수 있는 일은 무엇이 있을까? 우리에게 주어진 것은 무엇인가? 우리는 당장 마이크로소프트나 구글의 CEO가 되어 AI 윤리 문제를 준수하는 결정을 할 수 없다. 당위성과 별개로, 우리는 인공지능 기술의 발전을 저지할 수도 없다. 나는 우리가 할 수 있는 것으로 ‘인공지능에 대한 이해도를 높이는 것’을 권한다.
인류사에 있어 불의 발견이 매우 중요한 지점이라는 것에 대해 반대할 사람은 거의 없으리라 믿는다. 인류의 문명은 불의 활용과 함께 급격히 발전했다. 하지만 그 이면에는 불의 특성에 대한 ‘이해’가 자리하고 있었다. 이는 현대 사회에서도 마찬가지다. 불은 지금도 우리에게 상당히 많은 도움을 주고 있지만, 불의 특성에 대한 이해를 망각하는 순간 불은 우리를 곧잘 부정적 상황으로 내던진다. 불은 체온을 잃지 않게 도와주는 따듯한 것이면서도, 몸을 불살라버릴 정도로 뜨거운 것이다. 불은 음식을 익힐 정도로 유익한 것이면서도, 집과 도시를 일소(一掃)해버릴 수 있는 재액(災厄)이기도 하다.
그렇다. 불이 인류에게 미치는 영향을 결정하는 것은 인류 스스로다. 인공지능 기술도 마찬가지다. 최근에 나는 Parsons School of Design에서 개설한 ‘Artificial Creativity’라는 강의를 들으며 인공지능의 창의성에 대한 고찰을 한 적이 있다. 창의성이란 무엇이며, 인공지능은 어떻게 창의적일 수 있는가? 결론부터 이야기하자면, 이 역시 인류의 조작에 달려있다.
창의성에 대한 정의는 개인마다 조금씩 다르겠지만, 나는 창의성을 ‘같은 정보를 가지고 있더라도 다른 이가 예상하지 못한 결과(unexpected results)를 도출하는 것’이라고 정의하고 있다. 나는 여기서 ‘정보’에 초점을 두고 생각해 보기를 제안한다. 이 정보는 어디서 온 것인가? 누가 만든 것인가? 당연히 사람이다. 물론 ChatGPT와 같은 인공지능 모델 역시 정보를 생산할 수 있지만, 나는 개인적으로 이는 기존에 있던 정보의 ‘가공’에 가깝다고 보는 입장이다. 즉, 아무리 인공지능이 일순간 창의적인 생산물을 만들었다고 보이더라도 이는 결국 인류의 지식 체계를 바탕으로 한다는 한계를 가지고 있음을 시사한다. 다르게 표현하면, 여전히 통제권은 인류가 가지고 있다는 의미이다.
우리가 가진 통제권을 잘 활용하기 위해서는 인공지능의 활용 이전에 그들의 특성에 대한 이해가 뒷받침되어야 한다고 생각한다. 나는 그 특성 중에서도 ‘논리 구조’에 대한 이해를 제안한다. 왜냐하면 인공지능에게 있어 논리 구조는 곧 그들의 언어 체계이기 때문이다. 우리가 해외에서 의사소통을 원활히 하기 위해 영어와 같은 외국어를 배우고 그들의 문화에 대해 사전 조사를 하듯, 인공지능에 대한 인류의 통제권을 잘 활용하기 위해서는 인공지능과 원활히 의사소통할 수 있는 능력이 필요하고, 나는 이 밑거름이 논리 구조라고 여기기 때문이다.
이러한 논리 구조의 이해가 결여된 상태로 인공지능을 활용했을 때, 가장 많이 겪는 상황이 바로 ‘할루시네이션(hallucination)’이다. 할루시네이션이란, 인공지능이 맥락과 관련 없거나 사실이 아닌 내용을 마치 옳은 답처럼 내놓는 현상을 일컫는다. 우리가 이 현혹에 빠지지 않기 위해서는 인공지능이 결론으로 도출한 내용을 검증하는 절차가 필요하다. 하지만 그 이전에, 그 결론이 할루시네이션인지 확신을 가지지 못하는 경우도 꽤 빈번히 일어난다. 왜냐하면 이러한 종류의 오류는 논증 형식을 통해서 오류임을 알 수 있는 경우가 아닌, ‘비형식적 오류’로서, 잘못된 논증임에도 불구하고 설득력 있는 것처럼 보이기 때문이다.
이러한 비형식적 오류에는 여러 가지 종류가 있는데, 인공지능이 가장 빈번히 범하는 오류 중 하나가 바로 ‘선결문제 가정의 오류(the fallacy of begging the question)’이다. 이는 논증을 통해 확립하고자 하는 결론에 의존하는 전제를 사용하거나, 사용된 전제가 결론만큼 비슷한 이유에서 의심스러울 경우 발생한다. 예컨대 아래와 같은 예문이 이에 해당한다.
‘모든 사람이 자신의 생각을 자유롭게 표현할 수 있도록 허용해야 한다. 왜냐하면 그렇지 않으면 표현의 자유가 침해되기 때문이다.’
이 논증의 전제는 ‘표현의 자유가 침해되어서는 안 된다’는 것이다. 그런데 결론은 이 전제를 다르게 표현한 것(A. 그러므로 A.)에 지나지 않는다. 따라서, 이러한 구조는 자칫 타당해 보일 수 있어도, 연역적 오류를 범한 논증이다.
위의 예문을 읽으며 일부 독자들은 이러한 오류를 가진 논리 구조를 일상생활에서 꽤 빈번히 사용하고 있었음을 인지했을 것이다. 그렇다. 실제로 우리는 ‘엄밀하지 못한’ 말들을 사용하는 것에 꽤 익숙해져 있다. 통계에 따르면, 한글 문장의 70% 정도는 주어가 없다고 한다. 물론 주어가 없어도 우리는 맥락에 기반하여 의미를 이해할 수 있다. 하지만 인공지능은 한국인이 아니다. 그들은 체계적인 술어 논리를 제공하지 않으면 논리적 오류에 빠질 수 있는 위험을 항상 내포하고 있다. 우리가 인공지능의 본격적인 활용 이전에 술어 논리에 대한 이해를 높일 필요가 있는 이유가 바로 이것이며, 분야를 막론하고 과학 기술 분야에 몸 담고 있는 우리 울산과학기술원(UNIST) 구성원이라면 더더욱 함양해야 할 기본 소양이리라 믿는다. 혹여 자세한 내용에 대해 학습을 원한다면 고등수학의 ‘집합과 명제’에서부터 시작하여 철학에서 다루는 논리에 관련한 서적을 참고하기를 권한다.
나 역시 이 글을 쓰는 데 있어 ‘논리적 추론과 증명 (이병덕 저)’를 참고했다. 실제로 이 도서는 다른 대학의 일부 학과 및 대학원에서 철학 강의 교재로도 활용하는 도서이다.