brunch

무엇이 인간을 인간으로 만드는가

<휴먼스>로 보는 인간과 AI의 경계

by 리온


시리나 빅스비부터 챗봇, 파파고까지.

생활을 편리하게 만들어주던 AI들은 현재 무섭도록 범위를 넓혀가고 있다.


가령 챗 GPT라든가, AI가 만든 음악, AI가 적은 책까지.

대체 불가능하다고 말하던 창작 작업까지 손을 뻗고 있는 AI지만, 아직까지 존재하지 않는 게 하나 있다.



바로, '의식을 가진' AI.




현재까지의 AI는 입력된 데이터를 바탕으로 답을 내 놓을 뿐, 인간처럼 어떤 문제에 대해 이해하거나 사고하는 게 아니다. 또한 AI는 주어진 명령을 수행할 뿐이지 인간처럼 의식을 갖고 주체적으로 무언가를 할 수 없다.


영화나 드라마에서도 AI는 단골 소재 중 하나다. 유명한 <매트릭스>부터 <아이, 로봇>, <HER> 등.



그리고 여기, 꽤 친절하게 '의식을 가진 AI'에 대해 보여주는 드라마가 있다.


VO3n3pdAlP35PY7R0K3TrQ.jpg


인간과 유사한 '휴머노이드(이하 인조)'가 대중화된 사회.

웬만한 일들은 전부 이들이 알아서 한다. 홍보 전단지 나눠주기, 길거리 청소, 고객 응대, 집안일 등...



조셉 호킨스(이하 조)도 이 참에 집안일을 할 인조를 하나 들이기로 한다.


4BhwPMcyM8sByb4FTE4AZQ.jpg



하지만 그의 아내, 로라 호킨스는 인조를 반품하라고 한다.

사람과 비슷한 외형이기 때문에 아이들이 혼란스러워하고, 인조가 필요하지도 않다는 것.



스크린샷_29-1-2025_21118_www.imdb.com.jpeg


하지만 로라의 우려와 다르게 맞벌이 부부인 그들의 집이 하루도 채 되지 않아 깔끔해지고, 차릴 시간도 부족했던 아침식사가 매일 따뜻한 채로 식탁에 올라온다.


또한 아이들의 반응도 나쁘지 않다.

일하기 바빠 자신들의 밥을 챙겨주지도 못하는게 불만이었던 장녀 매티, 다른 친구들네 집처럼 인조라는 게 생겨 기쁜 아들 토비, 엄마와 달리 매번 친절히 책을 읽어주는 게 너무나도 행복한 막내 소피까지.




엄마, 아빠와 달리 항상 아이들의 말을 귀담아 듣고, 부드럽게 대답하는 아니타 덕에 호킨스네 아이들은 오랜만에 화기애애한 분위기를 경험한다.


이렇게 되니 사실상 로라만 인조 '아니타'를 부정적으로 보는 셈.

조는 30일 안에 무료 반품이 되니(영국의 쿠팡인가?) 천천히 생각해도 늦지 않다며 로라를 설득한다.



결국 로라는 아니타를 들이되, 아이들에게 '그를 노예처럼 대하지 말라'고 한다.





하지만 로라의 생각이 깨진 건 얼마 지나지 않아서였다.


MV5BMjY5NTY4Mjk4NV5BMl5BanBnXkFtZTgwNTE1MTYyNjE@._V1_QL75_UX820_.jpg


로라는 가끔 보이는 아니타의 이상한 행동들(잠든 딸 소피의 방 안을 가만히 응시하거나, 달을 보고 '예쁘다'고 하는 등)을 보고는 기시감을 느낀다.



MV5BMTQ0MjQ2ODQ5MV5BMl5BanBnXkFtZTgwMzA1MTYyNjE@._V1_QL75_UX820_.jpg


매티도 마찬가지다.


아니타를 노예처럼 대하던 매티는 아니타에게 총을 겨누며 '나는 네 주인이고, 네가 맞길 원해'라고 말한다.

하지만 아니타에게서 돌아온 대답은,


'왜죠?'



인조가 의문을 갖다니. 있어서는 안될 일이다.



곧 이들은 아니타가 '의식을 가진 인조'임을 확신하고,

아니타와 같은 인조가 (어딘가에) 더 존재한다는 사실까지 알게 된다.




이들은 왜, 어떻게 만들어진 걸까?










우리는 여기서 로라와 매티가 왜 이들을 '의식이 있다'고 판단했는지 살펴볼 필요가 있다.


잠든 딸의 방 안을 가만히 응시하는 것.

이건 왜 우리에게 '이상'하게 느껴지는가?



보통의 AI, 즉 챗봇과 같은 "규칙 기반 AI"는 사람이 만든 규칙에 따라 움직인다.

사용자가 질문(혹은 요청)을 하면, 미리 프로그래밍 된 소스에서 답변을 주는 것.

예를 들어, <사람들이 너에게 '안녕?'이라고 말하면 '안녕하세요." 라고 대답해> 라는 규칙을 주는 것. 그러면 챗봇은 당신의 인사에 반갑게 대답할 것이다.

하지만 당신이 챗봇에게 '오늘 기분은 어때?'라고 말하면 대답하지 못한다. <'오늘 기분은 어때?'>에 해당하는 규칙이 없기 때문이다.




위와 같은 경우, 아니타는 집안일을 위해 만들어진 모델이기 때문에 사람을 '목적 없이' 응시할 필요도, 이유도 없다.

세탁해 놓은 소피의 옷을 가져다 주려고 했다면 소피의 옷장에 옷을 넣고, 그대로 나오면 된다.

만약 소피가 악몽을 꾸는 것 같았다면, 진정을 위해 소피를 다독이거나 로라에게 이 상황을 전달할 수도 있다.


그러나 응시는 다르다. 더군다나 한밤중에, 잠든 딸의 먼 발치에서 그를 바라보기만 하는 것은 프로그래밍 된 행동이라고는 보기 어렵다.






달을 보고 '예쁘다'고 하거나,

총에 맞으라는 명령에 '왜죠?'라고 반문하는 것도 마찬가지다.


미에 관한 기준은 상대적이며 주관적이다. 또한 주관이란 곧 '자신만의' 견해나 관점.



가정용으로 보급된 AI에게 주관이 필요하기나 한가?

챗봇 수준의 규칙 정도면 그만일 것이다.

먼지를 쓸고, 밥을 차리고, 빨래를 갤 수 있도록 규칙을 정해 주는 것.







반문은 뭘까?

매티의 말대로 인간과 AI가 주종관계라면 AI는 무조건 그의 말에 복종해야 한다.


해당 장면에서 아니타는 첫 번째로 쏜 총을 피하면서 자신은 손상을 피하도록 설계되어 있다고 말한다.

단, 인간이나 더 값진 것이 위험하지 않을 경우에만.

그러자 매티는 다음 번엔 네가 맞지 않으면 내게 총알이 튈 거라고 말한다.

아니타는 그런 위험은 없어 보인다고 하지만, 매티는 아랑곳하지 않고 총을 장전한다.


이때 아니타가 총구를 잡으며 매티의 눈을 마주한다.

"왜죠?"



22.jpeg 챗 GPT에게 '나한테 멍청하다고 말하라'고 명령해 봤다.

이때 반문할 수 있는 것은 챗 GPT와 같은 "생산형 AI"이다.

챗봇과 같은 AI가 사람이 만든 규칙대로 움직인다면, GPT는 대량의 데이터를 바탕으로 스스로 복잡한 패턴들을 학습한다. 마치 인간의 뇌처럼 신경망 구조를 이용해 창의적으로 새로운 문장이나 이미지를 생성하는 것도 가능하다.


사람과의 대화에서 생산형 AI는 많은 자료를 바탕으로 문맥을 이해하고, 가장 적절하다고 학습한 반응을 내놓는 것이다.


다만 이와 같은 경우에도 '의식이 있다'고 보기는 어렵다.

생산형 AI들은 수많은 자료 속에서 <누군가 내게 '멍청하다'고 말해달라고 한 사례>와 비슷한 것들을 찾아 그에 맞는 대답을 (자신이 본 것들과 비슷하게) 흉내낸 것에 가깝기 때문이다.




또한 GPT는 내 질문에 1초도 되지 않아 대답했다. 역시 시간을 지체할 이유도 필요도 없기 때문이다(복잡한 질문의 경우 몇 초 더 걸린다).

그러나 아니타는 저 질문을 던진 뒤 꽤 오랫동안 아무 말도 하지 않은 채 그저 매티의 눈을 바라본다. 매티와 아니타 사이에는 미묘한 불편감과 정적만이 감돌 뿐이다.










이후 아니타는 로라 앞에서 "제가 소피를 항상 보호할 거예요"라고 말한다.

마치 당신은 그럴 수 없다는 것처럼.


아니타는 로라에게 말한다.

"여러 방면에서 제가 로라보다 아이를 잘 돌보죠. 전 잊거나 화내지 않고, 우울하거나 취하지도 않아요.

하지만 전 사랑할 수 없죠."




그렇다면 사랑할 수 있다는 것이 인간과 AI를 구분짓는 잣대인가?

아니타가 매티에게 챙겨준 식사, 토비에게 느끼게 해준 가정의 화목한 분위기, 소피에게 보여준 친절하고 인내심 있는 태도는 사랑이라고 말할 수 없나?

일에 치여 자식 얼굴을 하루에 몇 번도 보지 못하는 건 사랑인가?





이쯤 되니 '깨어 있는 상태'라는 말이 모호하게 느껴진다.

깨어 있는 상태란 뭔가? 의식을 잃으면 '잠든 상태'가 되는 건가?





우리는 깨어있나, 잠들어 있나?

어쩌면 우리보다 AI가, '깨어 있는'가?

keyword