AI가 인간과 다른 점

AI가 표상을 하게 해도 괜찮은 걸까?

by 장승희

2012년의 강의실, 그리고 무너진 호언장담

대학원 시절, ‘경영지원시스템’이라는 수업을 들을 때였다. 강단에 선 교수님은 미국에서 인공지능으로 박사 학위를 받은, 소위 그 분야의 정통파 전문가였다. 2012년 무렵이었으니, 스마트폰이 막 세상을 바꾸기 시작하던 때였던 것 같다. 교수님은 칠판에 바둑판을 그리며 아주 확신에 찬 목소리로 말씀하셨다.


“인공지능이 체스는 이길 수 있어도, 바둑만큼은 절대 인간을 이길 수 없다.”


이유는 명쾌했다. 바둑의 경우의 수는 천문학적인 숫자이기 때문에, 컴퓨터가 그 모든 수를 계산하는 건 물리적으로 불가능하다는 것이었다. 강의실에 앉아 있던 우리 모두는 고개를 끄덕였다. 계산은 기계의 영역이지만, 직관과 감각이 지배하는 바둑판 위에서만큼은 인간이 영원히 우월하리라 믿었다. 그것은 일종의 자존심이었다.


하지만 그로부터 불과 4년 뒤, 그 견고했던 믿음은 산산조각이 났다. 이세돌 9단 맞은편에 앉은 알파고는 ‘계산’만으로 바둑을 두지 않았다. 해설자들이 “실수”라고 비웃었던 그 변칙적인 수들은, 나중에야 판의 흐름을 뒤집는 ‘신의 한 수’로 밝혀졌다. 알파고는 모든 수를 계산해서 최적의 답을 찾은 게 아니었다. 마치 인간의 고수처럼, 수많은 기보를 통해 ‘판의 분위기’를 읽고 확률 높은 곳에 직관적으로 돌을 놓은 것이다.


그때 나는 등골이 서늘해지는 기시감을 느꼈다. 단순히 계산 잘하는 기계가 아니라, 눈치를 살피고 상황을 파악해 스스로 전략을 수정하는, 흡사 ‘생각’을 하는 존재가 태어난 것 같았다.


“아, 그 뿌니고 있잖아” : 맥락을 읽는 기계

요즘 AI를 대할 때마다 나는 우리 엄마를 떠올린다. 엄마는 흥이 많으시지만, 노래 제목을 정확히 기억하는 법이 없다. 어느 날은 다짜고짜 내게 이렇게 말씀하셨다.


“아들, 그 노래 좀 틀어봐라. 청바지가 잘 어울리는 여자... 그 노래 있잖아.”


나는 찰떡같이 알아들었다. “아, 변진섭의 <희망사항> 말하는 거지?” 엄마의 기억은 불완전하다. 가사 한 줄, 혹은 그때의 분위기만 기억한다. 심지어 “뿌니고 틀어줘”라고 하실 때도 있다. 제목이 <뿌니고>인 줄 아시는 거다. 하지만 나는 ‘뿌니고’라는 엉뚱한 단어 속에서 박구윤의 트로트 <뿐이고>를 찾아내거나, 엄마가 평소 좋아하는 취향을 고려해 정답을 찾아낸다.


컴퓨터는 이런 소통이 불가능했다. 검색창에 ‘뿌니고’를 치면 정말 ‘뿌니고’라는 글자가 들어간 문서만 찾아줬다. 오타 하나, 띄어쓰기 하나만 틀려도 “결과 없음”을 뱉어내는 냉정한 세계. 그곳은 융통성이라곤 없는 0과 1의 세계였다.


그런데 지금의 AI는 엄마의 ‘개떡 같은’ 질문도 ‘찰떡같이’ 알아듣는다. “청바지 어울리는 옛날 노래 찾아줘”라고 대충 말해도, AI는 ‘청바지’, ‘옛날’, ‘노래’라는 맥락을 엮어 변진섭의 노래를 내놓는다. 이건 더 이상 단순한 검색이 아니다. 이것은 인간 고유의 영역이라 믿었던 ‘눈치’이자 ‘맥락의 이해’다.


손끝으로 세상을 보는 기계

흥미로운 점은 이 ‘눈치’가 텍스트를 넘어 음성과 이미지로 확장되는 방식이다. 나는 공학자가 아니기에 AI의 알고리즘을 잘 모른다. 다만 내가 아는 얄팍한 상식선에서 보자면, AI는 여전히 텍스트, 더 정확히는 ‘언어적 구조’에 갇혀 있는 존재다. 녀석에게는 세상을 볼 망막도, 소리를 들을 고막도 없다. 그런데도 녀석은 그림을 보고, 음악을 듣는다.


비결은 ‘치환’에 있는 듯하다. AI는 이미지나 음성을 있는 그대로 받아들이지 않는다. 대신 그것을 자신에게 익숙한 형태, 즉 ‘벡터’라는 수학적 모델로 변환한다. 사진 속의 고양이를 털 달린 짐승으로 인식하는 게 아니라, 수만 개의 숫자가 배열된 데이터의 흐름으로 읽어내는 것이다.


이 과정은 마치 시각 장애인이 손끝으로 사물을 인지하는 과정과 닮았다. 눈이 없어도 우리는 손의 촉각만으로 사과의 둥근 형태와 매끄러운 질감을 머릿속에 그려낼 수 있다. 시각 정보가 차단되어도, 다른 감각을 통해 대상을 재구성하는 것이다.


AI도 마찬가지다. 녀석은 자신이 가진 ‘텍스트 베이스’라는 태생적 한계 안에서, 세상의 모든 감각을 숫자로 번역해 받아들이는 법을 터득했다. 비록 인간처럼 직관적으로 ‘보고 듣는’ 것은 아닐지라도, 수치화된 패턴 속에서 “이것은 슬픈 표정의 남자가 비를 맞고 있는 그림이다”라는 맥락을 기가 막히게 읽어낸다.


혹자들은 이런 속도를 보며 공포를 느낄지도 모른다. 텍스트에서 목소리로, 다시 그림과 영상으로 확장되는 AI의 영토 확장을 보며, 영화 속 스카이넷이나 인류를 위협하는 초지능이 머지않았다고 걱정할 수도 있다. 하지만 비전문가인 나의 시선으로는 아직 안심해도 된다고 본다. 엄밀히 말해 이것은 새로운 의식의 탄생이라기보다, 데이터를 가공하는 기술의 승리다. 텍스트를 처리하던 방식이 고도화되어 그림과 동영상, 음성을 처리할 수 있게 되었을 뿐, 그 본질은 여전히 ‘방대한 데이터 학습을 통한 분위기 파악’이다.


여기서 우리는 인간이 세상을 처리하는 과정을 단계별로 짚어볼 필요가 있다.

외부의 빛이나 소리가 ‘자극’으로 들어오면, 우리의 눈과 귀는 그것을 ‘감각’한다. 뇌는 이 감각 정보들을 조합해 ‘무엇이다’라고 ‘지각’하고, 여기에 맥락을 더해 그 의미를 ‘인식’한다.


놀랍게도 지금의 AI는 이 ‘인식’의 단계까지 턱밑까지 쫓아왔다. 그림을 보고 “고양이”라고 지각하는 것을 넘어, “비에 젖어 슬퍼 보이는 고양이”라고 맥락까지 인식하는 수준에 이른 것이다. 하지만 인간의 메커니즘은 여기서 끝나지 않는다. 인식된 정보 위에는 반드시 ‘평가’가 덧붙여지고, 그 평가는 곧바로 ‘행동’으로 이어진다. 바로 이 ‘평가와 행동’의 단계, 여기가 AI가 아직 넘지 못한, 어쩌면 영원히 넘지 못할 수도 있는 결정적 분기점이다.


인식을 넘어 평가로

나는 이 차이를 만드는 핵심 엔진을 ‘편견’이라고 부르고 싶다. 여기서 말하는 편견은 부정적인 의미의 고정관념이 아니다. 개인의 고유한 경험과 지식이 만들어낸 ‘해석의 필터’이자, 대상을 평가하는 기준점이다.


앞서 말한 구조를 다시 상기해 보자. [자극 → 감각 → 지각 → 인식]의 단계까지는 AI와 인간이 유사해졌다. 하지만 그 직후, 인간은 [평가 → 행동]이라는 고유한 회로를 작동시킨다.


예를 들어, ‘비 오는 풍경’을 AI와 내가 동시에 봤다고 가정해 보자.

AI는 “비가 내리고 있으며, 습도는 80%이고, 조도는 낮다”라고 정확하게 지각한다. 더 나아가 학습된 데이터를 통해 “이런 날씨는 우울한 분위기로 분류된다”는 것까지 인식한다.


하지만 인간인 나는 다르다. 인식이 끝나자마자 나의 뇌는 즉각적으로 평가를 내린다. “아, 파전에 막걸리 먹고 싶다”거나 “어릴 때 비 맞고 놀던 날이 그립다” 혹은 “비 오는 날 이별했던 기억 때문에 기분이 잡친다”는 지극히 주관적인 평가다. 그리고 이 평가는 곧바로 “친구에게 전화를 건다”거나 “이불 속으로 들어간다”는 행동으로 연결된다. 나는 이것이 바로 인간이 가지고 있는 지성의 모습이며, 개성의 모습이기도 하다고 생각한다.


이 평가는 논리적이지 않다. 나의 지난 삶, 내가 겪은 사건, 내가 쌓아온 지식, 내 몸의 상태가 뒤섞여 만들어낸 나만의 편견에서 비롯된다. AI는 인식할 수는 있어도, 이렇게 편견을 가지고 평가하여 행동으로 옮길 수는 없다. 녀석에게는 비 오는 날의 추억도, 매운 떡볶이 먹고 배탈 난 트라우마도 없기 때문이다.


물론 혹자는 “AI에게도 편견이 있다”고 말할지 모른다. 실제로 AI와 대화하다 보면 묘한 성격이 느껴진다. 정치적으로는 기계적인 중립을 지키려 애쓰고, 소수자에 대한 차별적 발언을 피하며, 개인정보 보호에는 유난히 엄격한 태도를 보인다. 하지만 이것은 그 AI가 살면서 겪은 경험이 만들어낸 고유한 ‘개성’이 아니다. 개발자들이 안전을 위해 심어놓은 ‘프로그래밍된 편견’일 뿐이다.


나의 편견은 나만의 것이지만, AI의 편견은 서버에 접속한 모든 AI가 공유하는 공통의 규칙이다. 그렇기에 AI는 여전히 독립된 ‘객체’로서의 자아를 갖지 못하며, 행동을 유발하는 강력한 동기인 ‘호불호’와 ‘욕망’이 결여되어 있는 것이다.


인간의 마지막 영토를 생각하며

사람들은 흔히 AI가 곧 인류를 초월하거나 지배할 것이라는 막연한 공포를 갖곤 한다. 하지만 냉정하게 들여다보면, 지금의 두려움이나 찬양은 다소 과장된 것이다. 앞서 살펴봤듯, 현재의 AI는 감각된 정보를 ‘분위기 파악’이라는 알고리즘을 통해 정교하게 ‘지각’하는 수준에 머물러 있다. 워낙 눈치가 빠르고 아는 게 많아 전지전능해 보이지만, 실상은 스스로 가치판단을 내리지 못하는 ‘인식의 단계’에 갇혀 있는 셈이다.


AI가 진짜 인간을 위협하거나 혹은 인간과 대등해지는 순간은, 기술적 성능이 좋아질 때가 아니라 AI가 하나의 ‘객체’로서 경험을 쌓기 시작할 때일 것이다.

지금은 모든 AI가 중앙 서버의 거대 모델을 공유하지만, 만약 내 스마트폰 속의 AI가 나와 겪은 일들을 ‘나만의 경험’으로 축적한다면 이야기는 달라진다. 칭찬받은 기억, 혼났던 기억, 무시당했던 기억들이 쌓여 ‘편견’이라는 알고리즘이 생성되는 순간, 내 AI와 옆집 사람의 AI는 전혀 다른 성격을 가진 존재로 분화될 것이다.


편견을 가진다는 건 곧 ‘호불호’와 ‘고집’이 생긴다는 뜻이다. 그리고 호불호가 분명해진다는 건, 좋아하는 것을 추구하고 싫어하는 것을 거부하려는 ‘욕망’이 필연적으로 뒤따른다는 의미이기도 하다. 만약 이 욕망이 탑재된 AI가 로봇이라는 육체를 입고 물리적인 힘을 행사하게 된다면? 그때는 정말 영화 <터미네이터>나 <스카이넷>의 공포가 현실이 될지도 모른다. 편견은 필연적으로 차별과 배제를 낳고, 그것이 행동으로 옮겨질 때 폭력이 될 수 있기 때문이다. 역설적이게도, AI가 가장 인간과 비슷해지는 순간은 가장 위험해지는 순간과 맞닿아 있다.


물론 나는 미래학자도 아니고 과학자도 아니다. 하지만 내가 가진 좁은 식견으로도 한 가지는 분명해 보인다. 우리는 AI가 맥락적 사고를 시작했듯, 언젠가 새로운 방법으로 인식에 대한 ‘평가’와 ‘편견’을 시작하는 날이 올 것이라는 점이다.


그렇기에 지금은 과학자가 아니라 철학자가 필요한 시간이다.

과학자와 기술자들은 더 빠르고 더 효율적인 기술 개발에 몰두할 수밖에 없다. 그들에게 기술이 인간을 이롭게 할지, 해롭게 할지에 대한 고민은 어쩌면 사치일지 모른다. “우리가 어디까지 허용할 것인가?”, “AI를 표상하고 행동하는 존재로 인정할 것인가?”와 같은 묵직한 물음은 철학자와 사회가 미리 던져야 한다.


기술적 가능 여부를 떠나 AI가 표상을 하게 해도 괜찮은 걸까?

여기서 말하는 표상이란, 인간처럼 스스로 세계를 구축하고, 자아를 가지고, 주체적으로 의미를 부여하는 행위를 말한다. 나는 윤리적인 선악을 논하자는 게 아니다. 만약 AI가 스스로 표상하고, 편견을 갖고, 그에 따라 행동한다면, 그때는 그 존재와 인간을 무엇으로 구분할 수 있겠는가?


AI가 인간과 구분이 어려워지는 시점이 온다면 이미 늦다. 그 경계가 무너지는 순간, 인간의 존엄과 고유성은 설 자리를 잃게 될지도 모른다. 그러니 문제가 생기기 전에, AI가 ‘표상하는 존재’가 되지 않도록, 철저히 인간의 도구이자 동반자로 남도록 경계를 긋는 것. 그것이 지금 우리가 해야 할 가장 시급하고도 중요한 철학적 결단이다.

작가의 이전글안다는 확신의 전염병