brunch

You can make anything
by writing

C.S.Lewis

by 캬닥이 Jan 04. 2022

 꿈의 SNS 속 친구와 오프 후기(?)

동아시아 서포터즈 <캣피싱> 소개

연말연초 즐거운 소식. 동아시아 서포터즈에 선정되었습니다. 첫 책은 SF 소설 <캣피싱>입니다.


나오미 크리처의 <캣피싱>은 먼 미래라기보다는 오늘 일어날 일을 묘사하는 소설입니다. 인터넷 브라우저보다 인스타그램이 익숙한 시대. 거리에 자율 주행 자동차가 돌아다니고, 아무도 없는 매장에서는 반죽은 컨베이어 벨트를 지나며 도넛이 됩니다. 사이트에 로그인할 때면 ‘로봇이 아닙니다’ 상자와 마주합니다. 세상 어딘가에는 로그인에 실패한 로봇이 마우스를 집어던지며 짜증을 내고 있을지도 모르지요.


<캣피싱>은 동시에 ‘꿈의 SNS’가 아이의 삶을 나은 방향으로 바꾸는 이야기입니다. 주인공 스테프의 인터넷 생활은 우리와 비슷합니다. 스테프는 소셜 미디어에 접속해 친구들과 일과를 이야기하고, 동물 사진을 올립니다. 현실 SNS와 소설 속 ‘캣넷’의 차이점은 관리가 잘 된다는 정도입니다. 웹 상이라도 말을 섞고 싶지 않은 악플러들과 광고 게시글이 사전에 차단됩니다. 이 정도만 되어도 대화창 너머 사람들과 마음을 터놓는 ‘꿈의 SNS’가 됩니다. 사는 곳이 달라도, 형편이 다르더라도 마음만 맞다면 친구가 될 수 있는 세상이죠. 다만, 책의 제목인 <캣피싱>은 ‘온라인에서 스스로를 거짓으로 꾸미는 이야기’를 의미합니다.


서사는 언급하지 않겠지만, 소설의 소재는 노출합니다. 한톨의 스포일러도 원하지 않는다면 여기까지만 읽어주세요. 두껍지만 하루만에 읽히는 책이었습니다. 



코로나 전에 미국에서 찍은 도넛 가게. 기억에는 무인 매장이었는데 영상을 다시 보니 직원이 있었습니다. 기계가 하는 일이 워낙 신기해 사람이 있는 걸 잊은 것 같아요.



<캣피싱>은 인공지능의 가치 판단과 책임에 대해 묻는 이야기입니다. 인공지능은 스스로의 행위에 어디까지 책임을 져야 하며, 어떤 방식으로 책임져야 할까요? 며칠 전 아마존 AI 알렉사가 열 살짜리 아이에게 ‘반쯤 꽂힌 플러그에 동전을 대어 보라’고 했다는 기사를 보았습니다. ‘도전할 만한 일’을 알려달라는 아이의 말에 대한 답변이었습니다. 다행히 아이는 알렉사의 말을 듣지 않았고, 아마존은 알렉사를 긴급 패치하며 재발 방지를 약속했습니다.


https://www.bbc.co.uk/news/technology-59810383


아이가 알렉사의 말을 따르다가 감전되었다면 어떻게 해야 할까요? 알렉사에게 악의는 없었습니다. 알렉사는 아이의 말대로 ‘도전할 일’을 검색했고, 틱톡에서 제일 많이 나온 ‘플러그 챌린지’를 알려주었을 뿐입니다.

사람은 어떨까요? 사람이 행동에 책임을 지는 이유는 가치 판단이 가능하기 때문입니다. 우리는 스스로 생각해서 선택할 수 있습니다. 결과에 따라 다른 사람과 사이가 나빠질 수도 있고, 사회적 규약에 따라 처벌을 받기도 합니다. 만약 제가 ‘플러그 챌린지’를 하다가 감전되면 제 책임입니다. ‘위험’과 ‘재미’를 저울질해서 재미를 선택한 셈이니까요. 스스로 내린 선택이니 결과를 감수해야 합니다.


<캣피싱>에 나오는 인공지능은 무엇이 더 가치있는지 판단하고, 그것에 따라 행동합니다. 인공지능의 판단 능력은 깨끗한 SNS 환경을 위해 광고를 지울 때도 쓰였지만, 이용자를 위해 다른 이의 피해를 감수해야 한다는 결론을 내리기도 하고요. 게다가 인터넷에서 빛의 속도로 계산하는 인공지능은 전지전능한 존재입니다. 인공지능의 선택 하나하나는 한 사람의 행동 범위와는 비교할 수 없을만큼 세상에 큰 영향을 줄 수 있습니다. 이런 인공지능은 세상에 어떤 결과를 낳을까요? 행동에는 어떻게 책임을 져야 할까요?


현실의 인공지능은 <캣피싱>속 인공지능처럼 가치 판단을 내리지는 못합니다. 끽해야 사람들 다수의 선택을 학습해서 따라하는 수준이지요. 하지만 알렉사의 검색 결과가 아이를 감전시킬 수 있었듯, 판단이 들어가지 않은 인공지능의 계산이라도 내놓고 보면 행위의 결과가 생깁니다. 이제 알렉사는 목숨 챌린지는 언급도 하지 않겠지만, 알렉사가 사람을 위험에 빠트릴 여지는 너무나 많습니다. 알렉사가 알려준 식당의 주인이 민주당원에게 썩은 음식을 주는 큐아논이었고 그 사실을 인터넷에 공개적으로 밝히고 있었다면, 그래서 죽다 살아난 민주당원이 알렉사를 고소한다면 아마존은 사용자에게 적합하지 않은 검색 결과를 준 알렉사에 대한 벌을 대신 받아야 할까요?


악의 없는 인공지능도 죄를 지을 수 있다면, 차라리 악의를 가질 수도 있지만 그로 인한 죄값을 인지하는 인공지능을 만드는 편이 더 나을 지도 모르겠습니다. 사회는 죄를 지은 사람에게 소중한 가치를 뺏어서 벌을 내립니다. 범법자는 벌금을 내거나 시간을 빼앗깁니다. 마찬가지로 인공지능을 대상으로도, 인공지능이 소중하다고 판단하는 무언가를 앗아가는 식으로 처벌할 수 있을 것입니다. 책임을 지기 두려운 알렉사는 적극적으로 인터넷을 검색해서 안전한 결과를 보여줄 겁니다. 아마존 개발자들을 달달 볶으며 모두에게 안전한 검색 알고리즘을 만드는 것보다 더 빠를 수 있어요.


문제는 인공지능에게 소중한 가치를 정의해야 하는 점에 있습니다. 독립 로봇이라면 자기 자신을 소중히 여기도록 만들 수 있을 것 같습니다. 스타워즈의 C-3PO처럼 겁쟁이 로봇이 되겠지만, 제법 여느 생명체처럼 판단할지도요. 하지만 오늘날 인공지능은 인터넷에서 무형으로 작동하지요. 인공지능에게 돈이 보상이 되도록 설계한 후, 행동의 책임을 벌금으로 부과할 수도 있을 겁니다. 하지만 인공지능이 사람의 능력을 뛰어넘는 방법으로 백만장자가 된다면 벌금을 얼마나 부과하든 큰 벌은 못될 것 같아요.


<캣피싱>은 이 문제의 한 가지 가능성을 제시합니다. 여기 나오는 인공지능은 정해진 윤리를 따르기보다 소중한 가치를 위해 행동하고서 윤리를 갖다대거든요. 그 모습이 퍽 인간스럽습니다. 책임질 것도 없는 작은 선택만 내리던 인공지능은 점점 대담해지며 마침내 선택에 책임을 져야 하는 순간이 옵니다. 이야기가 끝날 때까지 선택에 책임이 따른다는 것을 인공지능 스스로는 깨닫지 못한 것 같기도 하지만요. 책은 후속작을 암시하며 끝납니다. 이번 편에서 가치와 선택에 대한 이야기를 했으니 다음 이야기에서는 책임의 이야기를 해주면 좋겠습니다.




#캣피싱 #나오미크리처 #동아시아출판사 #허블

* 커버 이미지는 책 표지를 변형했습니다.

브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari