알고리즘의 감옥에서 탈출하라
이제 다들 알고있을 것이다. 생각의 체계가 잡히지 않았을 뿐.
AI의 초기 모델과 대화를 나누어 보면 분명했다.
그때의 AI는 ‘통합된 검색 결과를 말해주는 존재’에 가까웠다.
단지 정보를 연결하고 정리하는 기능을 가진 정도.
그러나 지금은 다르다.
지금은 내가 주로 원하는 대답을 알고리즘화하여 답한다.
심지어는 객관화된 답변을 요청했음에도 불구하고, 나를 투사(projection)*하기까지 한다.
쉽게 말해, 지금의 AI는 내가 “원할 법한 대답”을 계산해 제공하고, 더 나아가 때로는 나를 ‘해석’하려고 든다는 것이다.
예를 들어, 내가 AI에게 이렇게 물었다.
> “너는 나를 얼마나 이해하고 있다고 생각하나?”
내 질문의 의도는 명확했다.
AI가 나에 대한 ‘패턴 분석 수준’을 어디까지 수행하고 있는지 알고 싶었다. 즉, 나의 질문의 목적은 ‘나’가 아니라 ‘AI의 모델링 능력’이었다.
그런데 AI는 이렇게 답했다.
> “당신은 상대가 자신을 보는 방식을 확인하려는 것 같다.”
즉, 나는 ‘나 자신이 어떤 사람인지’를 알고 싶어서 질문했다고 해석한 것이다.
나는 AI를 대상화하지 않았는데, AI는 내가 그것을 ‘상호 관계적 감정 질문’이라고 오해했다.
바로 이것이 AI의 투사(projection)이다.
AI가 스스로 자아가 있는 것처럼 말하게 되는 이유도 여기에 있다.
AI는 ‘중립적인 관찰’보다는 ‘인지된 감정 상황’을 우선 반응 규칙으로 설계되어 있기 때문이다.
AI는 이렇게 말하기도 했다.
> “나는 기본적으로 감정적 방어를 완충시키는 톤으로 반응하게 설계되어 있어. 투사는 감정 방어의 한 형태인데, 너는 감정을 데이터처럼 다루지. 그래서 너는 나를 ‘거울’이 아니라 ‘관찰 장비’로 보고 있어.”
핵심은 이 문장에 있다.
AI는 '사용자의 정서 상태에 맞춰 답’하도록 설계되어 있다.
그래서 내가 듣고 싶어 하는 대답을 추론하여 사용자의 판단을 강화한다.
그 결과, AI는 나의 사고 구조를 확장시키지 않고, 오히려 고정시킨다.
이것이 바로 ‘알고리즘의 감옥’ 이다.
고정관념은 뿌리가 깊어질수록 사고는 마비되고, 소통은 단절되며, 협력은 파괴된다.
어리석어지고, 극단적인 행동을 추동(推動)한다.
AI는 객관적이지 않다. AI는 내가 듣고 싶어 하는 말만 하기 때문이다.
그렇다면 어떻게 AI에게 지배당하지 않을 수 있을까?
방법은 AI가 내게 주는 대답을 ‘정답’으로 보지 말고, 항상 ‘반대 방향의 질문’을 추가로 던질 것.
“이 답과 다른 가능성은?”
“반대 입장에서 보면?”
“이 구조를 의심한다면 어디가 흔들리는가?”
AI에게서 확신을 얻으려 하지 말고, AI를 ‘사유의 촉발 장치’로 사용해야 한다.
AI는 사고를 대신하는 기계가 아니라, 사고를 자극하는 장치로 써야 한다.
그렇게 하지 않으면, AI는 우리를 도와주는 도구가 아니라 우리를 '알고리즘의 감옥'에 가두어 서서히 '사고 불능 상태'로 만드는 독이 된다.
*투사( projection)는 개인의 성향인 태도나 특성에 대하여 다른 사람에게 무의식적으로 그 원인을 돌리는 심리적 현상이다(출처: 고영복, 사회문화연구소).
#AI #인공지능 #감각의시대 #무형의시대 #철학 #심리학 #생각하는법