인공지능 시대의 사랑, 그리고 사람
1. 어쩌다 보니 4개 국어를 하는 사람으로 살아가고 있다. 그래서인지 단어 하나하나에 연상되는 단어가 많은 편인 것 같다.
예를 들면 애인이란 단어.
사랑하는 사람을 한자로 표현한 ‘애인’.
하지만 그 한자를 쓰는 이웃나라에서는 발음만 다른 게 아니라 그 의미도 다르다.
일본에서는 그 애인이라는 한자를 愛人(あいじん 【아이 진】 )으로 읽고, “불륜의 대상”으로 사용한다.
중국에서는 爱人(ai ren 【아이 런】 )으로 읽고, 결혼한 부부가 배우자를 지칭할 때 사용한다.
국제연애/결혼을 꿈꾸는 사람들은 고백하기 전 꼭 제대로 구분해야 할 단어이겠다.
2. 전자기기를 사용해서 영어/로마자로 입력을 할 때는 ai [에이 아이]로 입력을 하니 인공지능이 ‘핫 hot‘한 요즘 난 사랑에 대해 생각이 많아진다.
수십 년 전 보다 투자의 보편화가 된 요즘은 이 인공지능을 가지고 어떻게 돈을 벌 수 있을지 고민하는 사람들이 많다.
어떤 분들은 20여 년 전의 SF영화들 (예: 터미네이터)을 기억하며 로봇이 인간을 지배하는 사회의 도래를 우려하고, 육아를 ‘장기투자계획‘으로 생각하는 사람들은 아이들의 미래의 직종을 고려할 때 어떤 걸 가르쳐야 하는지 고민할 수 있겠다.
단어에 예민한 브런치 작가들 중 다수는 아마도 A.I.라는 단어 대신 ‘인공지능’이란 단어를 곱씹어볼 때, 이 기술의 본질에 대해 생각해 본 사람이 있을 거라 생각한다.
인공/人工/aritificial + 지능/智能/intelligence.
사람이 만들어낸 “지능” 으로 풀어도 되겠고, 인공향료 aritifical flavor의 ‘인공’이라고 생각하면 다른 뉘앙스를 풍기며 이 기술의 본질에 더 가깝게 다가가게 해 준다.
자연적, 천연적으로 존재하는 게 아닌 인위적으로 만들어낸 것.
즉 본질적으로 이게 인간이 가지고 있는 ”지능“과 다르다는 속성을 가지고 있다.
인공향료가 화학적으로 천연의 향을 비슷하게 만들어내듯이, 인공지능은 인간의 지능과 다른 것을 “지능”처럼 보이게 한다는 거다.
LLM(Large Language Model)/ 거대언어모델이 바로 그렇다.
NYU(뉴욕대학)의 최연소 명예교수이자 인공지능 기업 창업자인 개리 마커스 (Gary Marcus)는 이
기술을 활용한 챗GPT를 이렇게 요약했다.
….Auto correct on steroid.
-Gary Marcus-
Web summit 3.0에서
auto-correct 아이폰 애증의 기능인 자동수정/보정이 ‘도핑’을 한 상태라는 거다.
(이 콘퍼런스의 전체 맥락은 아래 블로그에서 확인가능하다. 좀 더 세부적인 내용이 궁금하신 분을 참고하면 좋겠다.)*
AI, 인공지능에 대한 오해 (2부: 챗GPT비평) feat. 노암 촘스키, 개리 마커스
엄청난 양의 텍스트를 분석하고 활용해서 어떤 주제에 대해 어떤 단어 다음에 확률적으로 어떤 단어가 나오는지 “예측” 하는 것.
즉 이 모델이 학습한 데이터에 기반해서 어떤 답변을 생성해 내는데, 어떤 데이터가 더 많이 학습되었으면 진위여부가 아닌 다수의 의견이 옳다는 가치판단을 한다는 것을 전제로 한다.
또 이 모델의 철학적 전제에 숨어 있는 게 있다.
그건 바로 다윈주의적 진화론을 바탕으로 한 세계관.
단순한 것들이 긴 시간을 거쳐 “알 수 없는 과정”을 거쳐 복잡한 것으로 진화하고, 그 진화의 과정 중에서 지능, 의식이 “생겨난 것처럼”, 다량의 텍스트들을 머신러닝 하다 보면 여기에서 “지능”이 생겨날 거라는 것. 그게 공상과학적인 인공지능, 인간을 초월한 인공지능 AGI (Artificial General Intelligence) 이 될 거라는 것.
챗GPT는 단어를 생성해내고 있지만, 단어나 문장을 인간이 이해하듯 알고 쓰는 게 아니다. 통계학적으로 확률적으로 발생가능성(혹은 사용량)이 많은 문장과 단어를 이어 ‘맥락에 맞는 텍스트’를 나열할 뿐이다. 거기에 수많은 Parameter파라미터와 인간 직원의 ‘검열’을 통해 더 나은 답변을 생성해내게 하는 거다.
이런 내부 프로세스를 모르는 사용자에게 주는 인상은 사뭇 다르다.
현장에서 답변을 하는 누군가가 컴퓨터 저 편에서 텍스트를 입력하는 것처럼 보인다.
3. ”~같다 “ 와 ”~이다“ 는 본질적으로 다르다.
사람 같다-라고 말할 때, 우리는 이 대상이 사람이 아니라는 걸 알고 있다.
요리를 잘 모르는 나 같은 사람은 어떤 맛이 인공감미료로 만든 건지, 여러 가지 자연의 재료를 정성스레 사용해서 만들어낸 맛인지 구분이 안된다.
하지만 요리의 대가는 MSG의 맛을 알아낼 수 있다.
마찬가지로 언어에 예민한 이들, 인지과학, 언어학에 정통한 이들은 이런 거대언어모델을 사용할 때, 그 한계를 인지할 수 있다.
그래서 노암 촘스키도 개리 마커스도 지금의 인공지능 붐이 거품일 가능성이 높다고 얘기하는 거다.
OPEN AI의 샘 알트만(올트만)도 대중들이 챗GPT가 ‘피조물 creature’가 아니라는 걸 인지해야 한다고 했다.
제 생각엔 대중에게 이게 '피조물/생명체(creature)'가 아니라 도구라는 걸 설명하고 교육하는 게 아주 중요한 것 같습니다.
I think it's really important to explain, we tried to, we explain, educate people that this is a tool, not a creature.
-OPEN AI사의 샘 알트만(Sam Altman) -
Lex Fridman 팟캐스트 중
어쩌면 인공지능이란 단어 대신 AI라는 단어가 통용되기 시작하면서, 우리는 이 “인공”이란 단어의 뜻과 멀어질지 모르겠다.
AI라는 단어가 ”인간의 지능을 초월한 지능“이라는 뜻으로 이해되는 시대가 오고 있는 거다.
하지만 인간의 지능은 단순히 텍스트를 이해하고 생성해 내는 것에 그치지 않는다.
오각五觉을 통해 이 세상을 느끼고 살아간다. 시공간에 대한 감각 등을 더하면 그 이상의 감각sense을 가지고 있다.
테슬라 주식이 여러 사람에게 좋은 수익을 가져다줬을지는 모르지만 카메라 만으로 인간의 시각을 대체할 수 있을 거라는 전제를 가진 ‘비전’VISION이 어떤 한계를 맞이할지가 궁금하다.
여기에 숨어있는 건, 인간의 지각을 단순하게 해석한 기술주의적 오만.
오만해지면 현실과 동떨어진 판단을 한다. 그리고 그게 전쟁을 일으키기도 하고, 개인적으로나 법인적인 파멸로 이어지기도 한다.
4. 인공지능 기술의 발달은 현실이다.
하지만 이게 적용가능한 분야 중 먼저 대중화될 영역을 구분해서 생각해 보면 우려가 앞선다.
엑스레이 사진을 대량으로 학습한 인공지능이 어떤 영상의학과 의사보다 더 나은 판단을 할 수 있다면 그건 인류에게 이득이 될 거다.
하지만 대중들이 먼저 사용하게 될 것은 딥페이크(Deep Fake)이다.
누가 말한 것처럼 대본을 짜내어, 그 사람 목소리를 ‘생성’해내서, 얼굴을 바꿔치기 한 영상에 입힌다.
연예인들, 정치인들이 먼저 타깃이 될 거고, 어느 시점에서 우리는 진실보다 가짜fake가 많은 온라인 세상에서 살아가게 될 거다.
정치적인 목적을 가지고 ‘봇bot’들이 SNS에서 여론을 조장할 목적으로 챗GPT처럼 댓글을 뽑아내고, 어떤 이들은 딥페이크 영상으로 논란에 휩싸이게 될 거다.
법원의 입장을 고려하면 더 난감하겠다. 이젠 증거자료로 제출되는 영상의 진위여부를 파악할 때 더 고려해야 될 것이 많아진 것이다.
어떤 사람은 이걸로 범죄자로 지목되고, 어떤 범죄자들은 그 증거자료가 딥페이크 영상이라고 주장하는 판례들을 마주하게 될 거라는 거다.
5. Truth라는 영어 단어는 진실로 번역되기도 하고, 진리로 번역되기도 한다.
포스트모더니즘의 세상에선 ‘진리’라는 단어를 터부시 해왔다.
대신 사실 혹은 팩트fact라는 단어가 통용되기 시작했다.
하지만 ‘세월호‘라는 비극을 겪은 대한민국은 ’ 진실‘이란 단어를 사랑하게 된 것 같다.
인간 내부의 더 깊은 본능을 조금 더 일깨우게 된 걸까.
팩트 fact와 진실truth의 차이를 설명하는 밈meme 한 장이 단어로 설명하는 것보다 나을 수 있겠지만, 브런치스토리는 작가들의 공간이니 문장으로 설명해 보는 노력을 하겠다.
사례 1)
유부남 A는 유부녀 B가 호텔 C로비에서 아침 식사를 하는 모습이 사진에 찍혔다.
이건 ‘팩트’이다. 그 장소, 그 모습.
하지만 이 ‘사실’ 외에 다른 요소들을 고려하지 않으면 ‘진실’을 알기는 어렵다.
A 씨와 B 씨가 과거에 무슨 관계였는지, A 씨와 B 씨가 같은 직장인지, 동종업계인지, 우연히 일정이 겹치는 출장이 있었는지, A 씨 혹은 B 씨가 소위 ‘바람기’가 있는 사람인지 등 ‘맥락 context’를 대입하지 않으면 ‘팩트’가 큰 의미가 없을 수 있다는 거다. 유부남 A 씨의 아내가 이미 남편을 의심하고 있는 상황이라면 이 ‘팩트’가 남편 A의 부도덕한 행위의 증거로 사용될 수 있겠지만, 그건 팩트가 아니라 전제가 우선된 판단이다.
사례 2)
캄캄한 어둠 속 성인 남자 A가 영유아 B(여)의 바지를 벗기고 있다.
세상의 ‘악’을 직, 간접적으로 체험한 사람이라면 이 장면에 대한 묘사가 소름 끼치도록 싫은 순간으로 떠오를 것이다. 최악의 범죄라고 부를 수 있는 장면의 묘사이다.
우리의 아이들이 겪어서는 안 되는 그런 범죄.
하지만 이 ‘팩트’에 다른 맥락을 입히면 느낌이 달라진다.
남자는 아이 셋의 아빠이고, 막내가 태어나 이제 갓 기저귀를 졸업한 3세 큰 딸과 아직 기저귀를 차고 자는 2세 작은 딸을 재우다가 옆에서 잠이 들었다.
팔이 축축해서 보니 큰 딸이 자기 전에 물을 많이 먹었는지, 자기 전에 화장실에 갔음에도 지도를 그린 거다.
아빠는 젖은 이불을 걷고, 아이의 옷을 갈아입히는 과정 중의 한 문장이 위 사례 2이다.
사실/팩트와 진실은 다르다.
다를 수밖에 없다.
둘이 혼용되는 사례가 있겠지만 다른 두 단어가 존재하는 건 ‘차이’가 있기 때문이다.
오해가 만연한 건, ‘차이’를 구분하지 않을 때가 많기 때문이다.
그리고 그 차이는 ‘디테일’에 숨어 있을 때가 많다.
디자인의 ‘미니멀리즘’이 인간의 사유에 적용되어 사고능력의 미니멀리즘이 퍼져가는 요즘.
그래서인지 이 ‘디테일’에 관심이 없는 사람이 많은 것 같다.
6. 사랑. AI에서 시작돼서 인공지능으로 흘러왔지만, 결국 하고 싶은 얘기는 이건 가보다.
인간은 ‘지능’ 이 외의 다른 것들을 가지고 있기 때문에 대체되지 않을 것이라는 것.
아무리 ‘펜팔 penpal‘을 좋아해도 우리에게 따뜻한 체온이 실린 포옹 hug를 주지 못하는 것처럼
챗GPT가 말발 ’ 탑티어’급의 연인의 달콤한 말을 모방해서 우리에게 사랑을 표현하더라도 그게 진정한 ‘러브레터’가 될 수 없을 거다.
애플의 ‘비전프로’나 메타의 ‘퀘스트’로 눈앞에서 펼쳐지는 영상 속에 여인이 아무리 매력적이라도 그게 당신이 사랑받고자 하는 욕구를 채우지 못할 것처럼.
기술의 발전이 인간 본연의 ‘현실’과 멀어지는 방향으로 흘러갈 때, 그 기술이 인간의 ‘행복’을 보장하지 못할 거라는 것.
인간은 ‘기억’ 이상의 집합체이기 때문에 그 기억을 실리콘칩에 옮겨 담는다 해도 한 인간이 사망시간 이후로 물리적 수단을 통해 영속하게 될 미래는 오지 않을 거라는 것.
(이 주장은 인간의 의식은 0과 1로 구성된 데이터 이상의 것이라는 전제를 하고 있다)
인공지능이 인간의 특정 기능을 대체할 수 있겠지만, 인간은 ‘기능’ 이상의 것의 집합체임으로 대체되지 않을 것이라는 것.
인공지능이 텍스트를 입력하는 것으로 장면을 뽑아내는 시대가 되더라도, 인간 영화감독들이 만든 예술작품을 보며 자란 우리들은 그 ‘생성된 영상’이 예술작품으로서의 영화가 아니라는 걸 모를 리가 없다.
의식을 문자로 전환하는 작업에 시간을 할애하고 있는 브런치작가님들의 글들이 인공지능에 대체될 미래는 오지 않을 거라는 거다. 거기엔 진실과 진심이 담겨 있지 않기에. (우리 인간은 기가막히게 그런 걸 잘 캐치한다. “영혼없음”에 대한 민감도 사람 마다 다르겠지만)
‘요약’이란 것은 문자를 활용해서 일하는 사람들이 사용하는 일부 기능에 불과하다.
챗GPT가 아무리 요약을 잘해도 ‘보편적인’ 요약 이상을 뽑아낼 수 없고
(물론 요약을 잘 못하는 나 같은 사람보다 낫겠지만),
수백만 개의 기획안을 데이터베이스로 삼아 ‘보편적인 ‘ 기획안을 제공해 줄 수 있겠지만 진정한 의미의 ’ 혁신‘을 불러올 기획안을 제공할 수 없다.
(물론 ‘혁신’을 키워드로 한 수많은 기획안들을 사용해서 그럴싸한 ‘혁신적인 기획안’을 뽑아줄 줄 수 있을 수 있겠지만)
번역기능이 아무리 발달하더라도 실제로 여러 언어를 이해하는 사람이 사용해 보면 문제를 찾을 수 있다.
사용자가 인공지능이 한 번역을 검수할 능력이 없다면?
무분별한 신뢰의 대가를 크게 치를 수 있다.
결국 ‘검수자’가 필요하다는 거다.
구글 번역이든 파파고이든 챗GPT를 활용한 번역이든, 사용자에게 판단할 능력이 없다면 ‘합리적인 의심’을 내려놓고 위험한 무한신뢰의 “선택”을 한 것일 뿐이다.
계약 조건이 반대로 번역될 가능성도 모른 채.
모국어를 사용하는 두 사람 간의 소통에서도 음성, 표정을 통해 뉘앙스가 실려야 그 의미를 (그나마) 잘 전달할 수 있다.
그걸 외국어 텍스트 소통에 적용하면 결국 진심을 주고받는 소통과는 거리가 먼 ’ 소통’하고 있다는 착각을 남길뿐이다.
7. 사람을 사랑할 수 있는 건 사람이다.
만약 인간이 그저 우연히 생겨난 화학원소들이 우연히 진화해 생명이 되고, 단순한 생명들은 또 우연히 복잡한 생명체가 되고, 그 복잡한 생명체 안에서 복잡한 지능이 생겨났다면, 우리가 생각하는 “사랑”은 존재하지 않는다. 뇌의 생화학적 반응이 만들어낸 착각일 뿐이다.
브런치작가들 중 이 전제를 받아들일 수 있는 사람이 몇이나 될까?
그중 어떤 사람들은 사랑에 실패한 경험으로 ‘사랑’이란 단어의 ‘진실’을 ‘생물학적 끌림’이라는 부분적 팩트로 갈음한 채로 살아가고 있을지 모르겠다.
그건 가슴 아프게도… 경험을 바탕으로 미래의 한계를 설정한 …….’ 합리적으로 보일지 모르는 추론‘을 한 것으로…. 광활한 현실의 가능성의 일부를 의도적으로 배제한 거라고 할 수 있겠다.
(그런 선택을 한 이의 복잡한 심경을 어찌 간결한 문장으로 설명할 수 있을까)
인공지능에 대한 오해만큼이나 사랑에 대한 오해도 많을 거다.
사람에 대한 오해도.
사람이라는 현실.
사랑에 대한 진실.
‘이 모든 것에 대해 조금 더 포괄적인 이해를 갖게 되는 날’이 ‘사람을 사랑해서 행복할 수 있는 날’이 되지 않을까?
오해가 줄어드는 미래를 기대하며 글을 맺는다.