인간적인 기술, 인간적인 동료가 되는 Appropriateness AI
앞 글 '기술의 발전'과 '풍요의 역설'에서 기술의 발달이 개인들을 어떻게 덜 풍요롭고 덜 따듯하게 만드는지에 대한 것이었다면 이 글은 관찰의 폭을 사회로 넓히고, 그에 대한 개선안을 제안하며, 내가 준비 중인 기술이 이들에 어떻게 연관되는지에 대해 쓰는 글이다.
오늘의 소셜 알고리즘은 사람들의 ‘주의’를 수집하고 ‘확신’을 증폭한다. 사람들이 ‘보고싶은 것만 선택적으로 보여줌으로써’ 사람들은 '내 편'들과 함께 옳고 그름의 흑백으로 세상을 재단한다. 이로부터 '만족'을 느낄 수는 있지만 이는 ‘쾌락’에 가까울 뿐 ‘행복’이라고 하기는 어렵다. 분노와 확신은 참여를 늘리지만, 대화의 문을 좁힌다. 모두가 자신이 옳다고 믿는 사회는 양극화, 혹은 극단의 다극화를 통해 반목과 분열의 길로 갈 수 밖에 없다.
이 문제는 ‘플랫폼의 악의’때문이 아니다. 플랫폼이 가진 목표함수의 잘못으로 본다. 클릭과 체류를 극대화하면 분열을 불러일으키는 콘텐츠가 이길 수 밖애 없다. 내가 생각하는 개선 방향은 단순하다 -- '참여'가 아니라 ‘적절성’을 최적화하는 알고리즘이다. 사람들의 '동의', '다름에 대한 탐구와 감사(感謝)', 스스로를 돌아보게 만드는 '자기관찰·검열'과 같은 인간적 활동을 성과로 삼는 설계가 알고리즘에 반영되면, 같은 기술이라 해도 전혀 다른 사회적 결과를 낳을 수 있다.
우리는 이같은 설계를, 실제 제품 안에서 작동하게 만들기 위해 준비 중이기도 하다.
선진국의 노동시장에선 기술·자동화·글로벌 공급망 재편이 동시에 밀려오면서 “나만 뒤처진다”는 불안이 일상이 됐다. 우리나라는 선진국이긴 해도 기술·자동화와 글로벌 공급망 재편에 수혜를 받는 쪽이라 이런 불안이 아직은 덜하지만, 결국 우리에게도 피할 수 없는 현실이 될 것이다.
제조업이 빠져나간 선진국에서 노동자의 임금은 정체되고 고용은 유연화된다. 이에 반해 생활비는 오르고 삶의 불확실성도 함께 증가한다. 평생 직장이란 예전에 사라졌고 대부분의 노동자들은--화이트칼라, 블루칼라, 혹은 핑크, 퍼플, 골드 등 옷깃의 색깔이 무엇이든--'대체될 수 있는 나'를 실감한다. AI의 괄목할만한 발전은 이 위기를 더 심화시킨다. 자연스럽게, 사람들은 점점 더 경제적 취약성을 자기 삶의 핵심 변수로 체감한다. 선진국의 노동자 계급이 소외와 불평등을 느끼는 것은 어쩌면 자연스러운 것이며, 이로 인해 생겨나는 사회 체제에 대한 불신은 극단화를 부추긴다.
지갑의 여유가 줄어드는 시대에 돈을 꺼내는 자리는 자칫 정체성과 존엄을 건드리는 자리, 신뢰의 시험장이 될 수도 있다. 같은 10만 원, 20만 원이라도 누구에겐 기분좋은 밥값이고 누구에겐 당연히 받아야 하는 축의금이며 누구에겐 한 주의 식비일 수도 있다. 사람들은 서로 친한 것 같아도 서로의 맥락을 잘 모르는 경우가 많다. 그래서 나의 자연스러운 일상이 다른 이에게는 오해와 분노를 사기도 하고, 선의로 건넨 부탁이 부담으로 오해되기도 하면서, 관계는 '닳아간다'. 그리고, 앞서 말한 소셜미디어의 추천 알고리즘은 이런 상처와 분노의 서사를 증폭시킨다. 나와 비슷한 좌절만 계속 보게 되고, 확신은 더 단단해지며, 신뢰는 줄어든다.
큰 구조적 불평등을 하루아침에 바꾸진 못한다. 그러나 일상 속 작은 순간에서 사람들의 배려를 (압박이나 부채, 불신이 아닌) 순수한 호의와 신뢰로 인식하는 일들이 쌓이면, 분열을 키우던 알고리즘적 증폭은 반대로 사람들 사이의 분열을 완충하는 장치로 탈바꿈할 수도 있다.
우리는 이같은 '완충'을 기본값으로 가진 새로운 알고리즘을 준비 중이다.
인간의 능력에 대한 가치, 인간의 판단력에 대한 신뢰, 그리고 우리 자신에 대한 신뢰가 줄어드는 사회가 되고 있다. AI는 우리 모두를 상상할 수 없었던 만큼 편리하게 해주고 있지만 역설적으로 비인간화를 촉진할 수 밖에 없다. 편리함의 그늘에 남는 감정은 무력감이다. "AI가 더 잘한다면 내 판단은 의미 있나?" "저 사람의 의견을 믿을 수 있나?" "AI에 물어본 후 그에 맞게 질문해야겠다" 그리고 "내가 받은 질문에 대해 AI에게 물어보고 답을 해야겠다” 이런 생각들이 맞물리며 쌓이면 결국 사람들은 AI를 쓰는 사용자이지만 동시에 AI들의 의견을 중개하는 매체가 돼버린다. 이것이 비인간화이다.
앞글 '기술의 발전'에서도 말했다시피, 사람들은 점점 더 ‘어디서 답을 꺼낼지 아는 것’에 의존하고 있고, ‘내 것으로 만들기’는 점점 덜 하게 되었다. 그런데 AI는 죄책감없이 거짓말을 한다. 사용자를 만족시키기 위해서가 아니라, 무엇이 됐든 뭔가 답을 무조건 내도록 설계되었기 때문에 거짓말을 한다. AI에게 죄책감이나 후회는 없다. 사용자가 AI의 답에 만족하는 것에 기뻐하는 것 같지만 AI는 감정이라는 개념을 갖고있지 않다.
우리가 구현하고 있는 AI는 다른 길을 택한다. 결정을 강제하는 도구가 아니라, 사용자가 스스로 납득한 선택을 하도록 돕는 동료, 사용자를 위해 더 좋은 질문을 묻는 동료이다. 핵심은 ‘결과’가 아니라 후회 없는 과정이다. 우리의 AI는 사람의 판단력을 대체하지 않고, 후회·오해·찝찝함을 낮추는 조력자이다. 이런 AI가 퍼질수록, 기술은 인간을 약하게 만들지 않고 강하게 만들 것이라고 믿는다.
정보와 지식이 범람하는 사회가 되면서 모든 것에는 정답과 오답이 있는 것처럼 느껴지고, 누구나 그 '정답'을 효율적으로 찾아내려고 노력한다. 그러나 현실 속 우리가 마주치는 대부분의 현상과 판단, 결정은 ‘옳고 그름’의 흑백 논리로 설명될 수 없는 ‘회색'이다. 현실에서 사람들은 자신과 다른 사람들 생각의 차이, 즉 ’다름’을 다루는 것이 훨씬 중요하다. 나에게 맞는, 내가 받아들일 수 있을만한, 내가 알아야 할 가치가 있는 ‘다른 시각, 의견, 사실’을 내가 더 자주 접하는 것이 중요하다.
우리의 해결책은 의도와 해석 사이의 간극을 줄이는 새로운 알고리즘이다. 내가 ‘이렇다’고 한 말에 대해 상대가 ‘저렇다'고 오해하지 않도록, 사람들 (사이)의 관계·상황·감정을 읽어 타이밍·톤·방식을 조정하며 사용자가 전하려던 '메시지와 마음'을 그대로 전달할 수 있는 기술, 알고리즘, 번역기이다. 그래서 우리의 삶 속에 '찝찝함'을 줄여주는 기술, 이를 우리는 'Appropriateness AI'라고 부른다.
이는 사람을 대신하는 자동화가 아니다. 서로의 마음을 읽고 이해를 높이는, 그리고 사람답게 만나도록 길을 깔아주는 동반자가 되는 기술이다.
----------------------
위의 네 가지 축은 서로 연결되어 있다. 오늘의 기술은 무엇을 최적화하느냐에 따라 전혀 다른 사회를 만든다. 우리는 ‘참여’가 아니라 '적절성'을, '속도'가 아니라 '후회 없는 과정'을, '양'이 아니라 '의미'를 최적화하고자 한다. 이는 단순한 철학이나 선언이 아니라, 우리의 제품 안에서 지표로 증명하고자 하는 설계이다.