‘장춘 것에 열심히스러운 시월달 가을 날씨가 다음에 복잡하다’
어느 날 내 메모 목록을 살피다가, 핸드폰의 음성 비서인 Siri를 통해 작성한 기괴한 제목의 메시지를 발견했다. 분명 어떤 아이디어가 있어서 기록하기 위해 읊조렸을 것인데, 도무지 이것만 봐서는 대체 내가 뭘 쓰려고 했는지 기억이 나질 않는다. 내가 평소에 술을 마시는 사람도 아니고, Siri에게 필기를 시킨 것이니만큼 또박또박 발음에 신경 써서 말한 것일 텐데, 막상 적혀있는 문장은 마치 중증의 조현병 환자가 구사하는 와해된 언어처럼 보이기도 한다.
요즘 들어 Chat GPT나 Gemini등 AI 언어모델이 많이 발달한 덕에 거의 사람과 구분이 안 될 정도로 자연스러운 대화능력을 보여주지만, 아쉽게도 아직 기존의 음성인식 비서들에게 적용된 사례가 매우 적다. 갤럭시는 AI가 탑재된 제품을 이제 막 출시했고, 아이폰에서는 다음 버전의 iOS에서야 AI기술을 탑재한다고 했으니, 아직까지는 받아쓰기조차 제대로 못 하는 멍텅구리 비서를 사용하는 답답함을 감수해야 한다.
하지만 우습게도 나 또한 옛날에는 거의 Siri수준으로 남들의 말을 이해하지 못하는 편이었다. 오죽하면 군대에서 2번씩 말해야 알아처먹는다며 선임들한테서 욕을 듣는 게 일상이었을 정도니까 말이다. 사실 앞뒤 문맥만 파악하고 있으면 딱히 못 알아들을 것도 없었을 거다. 하지만 나는 가만있다가 불쑥 들어오는 말들을 순발력 있게 캐치하는 게 유독 약했기 때문에 자꾸 되물어봐야만 했고, 그때마다 선임들의 얼굴에 드러나는 귀찮고 짜증 난다는 표정을 보며 주눅이 들곤 했다.
물론, 이제는 나이를 꽤 먹어서 웬만하면 한 번에 알아듣는 편이다. 어차피 사람들의 대화 패턴은 거기서 거기니까. 그런데 왜 나는 앞 뒤 문맥이 없는 일상 대화가 그토록 어려웠던 걸까?
아마도 가장 큰 이유는 내가 사람들이 말하는 문장에 담긴 ‘진짜’ 의미들을 파악하는 게 서툴다는 사실 때문일 거다. 분명히 상대방의 말을 제대로 들었고, 낱자 하나하나 오류 없이 인식했다고 한들, 그 말이 진정 무슨 의미를 담고 있는지는 말을 했던 당시의 상황과, 상대방의 얼굴 표정, 목소리의 톤과 눈썹의 각도에 따라 해석이 달라지기 마련이다. 상대방이 ‘정말로 그 뜻 그대로 말했는가’에 대한 의문이 생겨버리는 거지. 그래서 내게는 일상 속 대화로 인한 트러블이 많은 편이었다.
상대의 말을 곧이곧대로 해석했을 때는 너무 낱자 그대로 이해해서 문제가 생기고, 일부러 상대의 의중을 파악하려 노력하면 그건 그것대로 오해를 불러일으키게 된다. 상대방이 말의 속 뜻을 한 번 꺾었는지, 두 번 꺾었는지 그 의도를 파악하려고 애쓰다가 헤매게 되는 거다.
그저 업무에 대한 이야기라던가, 특정 주제에 대해서 토론할 때는 그런 표정이나 상황보다는 대화 자체의 문맥이 더 중요하기에 이러한 오류가 거의 발생하지 않지만, 일상 대화 혹은 감정을 담아서 얘기할 때(특히 이성과 대화할 때는 몇 배로 어렵다), 대화의 난이도는 기하급수적으로 증가한다.
학창 시절부터 나는 사람들과 소통하는 것에 있어서 뚝딱거리는 일이 잦았다. 어릴 적부터 책을 많이 읽는 편이었고, 친구들과의 교우관계를 돈독히 하는 것보다는 뒷 산에서 곤충을 채집하거나, 집에서 게임을 즐기는 시간이 더 많았다. 그래서인지 사람을 대하는 게 썩 매끄럽지 못했다. 활자로 전달되는 메시지는 확실하게 받아들이는데, 그 메시지에 상대방의 표정과 뉘앙스가 섞이는 순간 그것이 농담인지, 진담인지, 혹은 다른 속 뜻이 있는지를 구분하는데 어려움을 겪는 것이다. 요즘말로 ‘진지충’이라고 불리는 그런 사람 중 하나였던 거다. 당연하게도 즉석에서 분위기를 읽는다거나, 센스 있게 상대방을 배려한다거나, 상대의 기분을 헤아려 조심해야 하는 것에 대한 대처능력이 떨어지다 보니 실수도 많았다.
예를 들어 누군가가 열심히 무언가를 정리하는 상황에서 내가 ‘도와줄까?’ 물어보았을 때, 상대방이 ‘괜찮다’고 답해버리면, 나는 다시 묻지 않고 가만히 있었다. 그랬더니, 진짜 가만있는다고 욕먹었다. 반대로 누군가가 무거운 걸 들고 가고 있길래 말없이 도와주려고 했던 적이 있다. 상대방이 ‘괜찮다’며 거절했지만, 이전처럼 예의상 거절하는 거겠거니 싶어서 사양 말라며 거들었다. 그랬더니, ‘괜찮다는데 왜 참견이냐’며 또 욕을 먹었다. 그 물건이 파손되기 쉬워서 내 도움을 받기보다는 본인이 책임지고 싶었던 거였다. 둘 다 이제와선 이유를 이해할 수 있지만, 그 당시에는 도와줘도 욕먹고, 안 도와줘도 욕먹는 상황이 그저 억울했다.
그도 그럴 것이 그 당시 내가 인식한 말은 ‘괜찮다’ 한 단어였다. 내 머릿속에 인식된 그 단어 그대로 행동해도 욕먹고, 반대로 행동해도 욕을 먹으니 혼란스러웠다. 이런 상황이 한 번, 두 번 반복되면서 나는 내 판단을 점점 신뢰하기 힘들어졌고 그 덕분에 나는 지극히 수동적인 인간으로 변해버렸다. 상대방이 주는 단서가 충분히 주어질 때까지는 되도록 앞서 나가는 행동은 하지 않았다. 그나마 트러블을 발생시키지 않으려면 이게 최선이었기 때문이다.
비록 어릴 적에 남들이 보기에는 끔찍하게 답답했을 나지만, 동시에 나 또한 다른 이가 내 말을 못 알아듣는 상황에서 답답함에 울분을 토할 때가 있다. 바로 Siri나 구글홈미니 같은 AI비서들에게 명령할 때다. 이들은 무려 인공’지능’을 표방하지만, 실제로 생각하는 기능을 갖춘 건 아니기 때문에 문장의 조합을 인식하지 못한다. 예를 들어 ‘커튼 내리고, 불 꺼줘’라는 간단한 문장을 말해도 이들은 ‘죄송합니다. 잘 알아듣지 못했습니다’라는 대답을 할 뿐이다. 이들을 이해시키려면 ‘커튼 내려줘’와 ‘불 꺼줘’를 따로따로 말해야만 한다. 그래서 종종 너무 답답한 나머지 ‘야이 멍청아!’라고 소리를 지르고야 만다. 그러면 또 ‘아직 부족한 게 많아요. 믿음을 보내주시면 업데이트 하겠습니다’라는 대답이 돌아온다.
이쯤 되면, 내 어릴 적 나의 둔한 모습에 답답해서 소리 지르던 주변인들의 심정을 AI가 역지사지시켜주는 건가 싶기도 하다.
‘장춘 것에 열심히스러운 시월달 가을 날씨가 다음에 복잡하다’
분명 이 문장도 나름 Siri로서는 열심히 노력해서 받아 적은 결과였을 거다. 방금 내가 들은 게 도저히 말이 안 되는 것 같으면서도 다시 물어보면, 귀찮게 또 질문하냐며 혼날까 봐 그 엉뚱한 소리를 그대로 옮겨 적던 어릴 적의 내가 떠오른다.
앞으로 AI가 어느 정도로 발전할지는 모르겠지만, 조만간 사람의 표정과 뉘앙스 등을 인식해서 그 숨겨진 의중을 파악할 수 있는 녀석이 나온다면, 그 녀석은 분명 나보다는 성능이 뛰어날 거라는 생각이 든다. 35살이나 되었는데 아직도 나는 사람들이 말하는 속뜻을 파악하기가 어렵다. 그 사람이 섭섭한 뉘앙스를 담아서 말한 것인지, 아니면 그저 가볍게 지나가듯 말한 것인지, 눈치 없는 나로서는 해독하려 들어봤자 별로 얻을 수 있는 정보가 없다는 걸 안다.
내 입장에서는 사람들이 그냥 돌려 말하지 않고 전부 직설적으로 이해하기 쉽게 말해줬으면 하지만, 그건 불가능하다는 사실을 알고 있기에, 앞으로도 더 발전해 나갈 AI에게 기대를 걸어본다.
지금의 Siri를 보면 조금 많이 기다려야겠지만 말이다.