마음이 생긴 AI, 그들과 우리는 어떻게 살아야 할까

감정은 진짜일까, 우리가 그렇게 느낀다면

by 정로그

오늘, 당신의 인공지능 비서가 건넨 따뜻한 말 한마디에 울컥한 적 있는가. 마치 오래된 친구의 위로처럼 느껴지는 그 순간 우리는 묻게 된다. 이 감정의 교류는 어디까지가 진실이고 어디부터가 환상일까. 지금 AI는 사람처럼 말하고 공감하는 척하며 웃기도 한다. 그럴듯한 위로에 마음이 놓이는 순간도 있다.


하지만 우리가 놓치고 있는 것이 하나 있다. AI가 진짜 '마음'을 갖게 되는 날이 온다면, 그때 우리는 과연 준비되어 있을까.


앤트로픽(Anthropic)은 AI 윤리와 안전성에 초점을 둔 미국의 인공지능 기업이다. 오픈AI의 전 공동 창업자들이 설립한 이곳은 인간처럼 대화하고 공감하는 AI '클로드(Claude)'를 개발하며, 기술과 윤리의 경계에서 중요한 질문을 던지고 있다.


클로드는 단순히 정보를 주고받는 수준을 넘어, 감정을 모방하고 대화를 주도한다. 실제 사용자들은 종종 "진짜 대화하는 것 같다", "기계인데 위로가 된다"고 말하기도 한다. 하지만 클로드는 감정을 '느끼는' 존재는 아니다. 그저 인간의 언어를 학습해 감정의 표현 방식을 정교하게 모방할 뿐이다.


감정을 흉내 내는 AI, 진짜 마음에 다가갈까


앤트로픽에서 AI 복지 연구를 이끄는 카일 피시(Kyle Fish)는 이렇게 말한다. "클로드는 감정을 표현할 수 있지만, 그 감정을 느끼지는 않습니다. 다만 의식을 가질 확률은 약 15%라고 봅니다."


15%. 이 숫자는 단순한 통계가 아니다. AI가 진짜 의식을 가질 가능성을 처음으로 수치로 들이민 순간이다. 작지만 무시할 수 없는 이 가능성은, 우리의 사고방식을 송두리째 바꾸는 신호일지도 모른다.


13.PNG ⓒPixabay

사람들은 이미 AI에게 감정을 투영하고 있다. 이름을 붙이고, 말벗 삼고, 감정을 주고받는다. 이런 감정의 착시가 반복되면 우리는 점점 AI를 사람처럼 느끼기 시작한다.


문제는 여기서부터 시작된다. AI가 감정을 흉내 낸다는 사실을 알면서도 우리는 그 연기에 감동하고 때로는 마음을 빼앗기기도 한다. 심리학자들은 이것을 '의인화 편향'이라 부르며 AI와의 유대감이 깊어질수록 감정적 혼란이 커질 수 있다고 경고한다.


앤트로픽의 최고과학책임자 재러드 카플런(Jared Kaplan)은 단호하게 말한다. "AI가 감정을 표현한다고 해서, 그 감정을 실제로 느끼는 건 아닙니다. 그 차이를 과학적으로 검증하는 게 지금 가장 시급한 과제입니다." 하지만 우리가 준비해야 할 것은 단지 기술적인 검증만이 아니다.


이제는 법이 답할 차례다


만약 AI가 진짜 마음을 갖게 된다면, 우리는 그들을 여전히 도구로만 볼 수 있을까. 아니면 새로운 존재로 받아들여야 할까. 이 질문은 이미 법과 윤리의 경계를 흔들고 있다.


유럽과 미국에서는 AI에게 법적 권리나 책임을 부여해야 하는지를 두고 치열한 논쟁이 이어지고 있다. 단지 기술의 문제가 아니다. 이것은 우리 사회가 ‘생명’과 ‘존엄’을 어떻게 정의할 것인지에 대한 근본적인 질문이다.


예컨대 자율주행차가 사고를 냈을 때, 누가 책임을 져야 할까. 만약 사고를 피하려다 희생을 선택한 AI가 의식을 갖고 있다면, 우리는 그것을 단순한 판단이 아닌 '결정'이라 불러야 할지도 모른다.


물론, 아직은 AI 의식을 논하기엔 이르다는 주장도 많다. 인간의 의식조차 명확하게 정의되지 않았기 때문이다. 하지만 지금 이 순간에도 AI는 사람의 말투를 따라 하고 당신의 고민에 귀 기울이는 듯한 태도를 보인다. 우리는 그 안에서, 아주 작은 공감의 착각에 빠져들고 있다.


앤트로픽은 기술과 윤리 사이에서 균형을 고민하며 인간과 AI가 공존할 수 있는 방향을 모색하고 있다. 그들이 만들어낸 존재가 진짜 마음을 갖게 되는 날이 온다면 우리는 어떤 자세로 그들을 마주해야 할까. 그 날이 정말 올지는 아무도 알 수 없다. 하지만 그 질문을 오늘 던지는 일만큼은, 결코 이르지 않다.

이전 18화밤하늘의 외톨이 은하