의심하지 않는 지식의 위험

인공지능을 두려워하는가?

by 브로카

인공지능이 인간을 지배하거나 세뇌하지는 않을까.....


기술이 인간의 판단을 대신하고, 여론을 조작하며,

생각의 자유를 위협할 것이라는 불안은 이제 낯설지 않다.

그러나 이 질문을 조금만 뒤집어 보면, 더 불편한 전제가 모습을 드러낸다.

과연 우리는 지금까지 의심하며 생각해 온 존재였는가.


인간은 스스로를 이성적이고 자율적인 존재라 믿는다.
우리는 지식을 쌓고, 판단하며, 선택한다고 말한다.

하지만 우리의 지식은 언제나 이미 주어진 틀 안에서 형성되어 왔다.

교육 제도, 미디어 환경, 사회적 합의, 반복된 경험.

우리는 그것을 지식이라 불렀고, 상식이라 여긴다.

그러나 그 대부분은 질문되지 않은 채 축적된 결과였다.


이 지점에서 중요한 사실 하나를 인정해야 한다.
의심하지 않는 지식은 지식이 아니라 신념에 가깝다.

우리는 익숙한 설명을 좋아하고,

이미 알고 있다고 믿는 것을 반복 확인한다.

새로운 정보조차 기존 생각을 강화하는 방향으로 해석한다.


인간의 사고는 생각보다 훨씬 폐쇄적으로 작동한다.

우리는 흔히 ‘철학’이라는 이름 아래 권위를 빌려 생각을 끝내 버린다.

누군가의 주장에 논거가 필요해지면,

그 자리에 칸트나 하이데거, 푸코 같은 이름을 세운다.

문제는 인용 그 자체가 아니라,

그 인용이 대화의 출발점이 아니라 종결점이 되는 순간이다.

“그 철학자가 그렇게 말했다”는 문장은 언제부터인가 검증의 근거처럼 작동한다.

논증은 사라지고, 권위만 남는다. 철학이 세계를 의심하기 위한 학문이라면,

우리는 정반대로 철학을 ‘의심하지 않기 위한 방패’로 사용하고 있는 셈이다.

그 태도는 지적인 것처럼 보이지만 실제로는 사고의 책임을 외주화하는 방식이다.


만약 인간의 지식과 판단이 이미 이렇게 닫힌 구조 안에서 작동하고 있다면,

인공지능에 의한 세뇌는 결코 과장된 공포가 아니다.

문제는 인공지능이 인간보다 똑똑해질 것인가가 아니라,

의심하지 않는 인간의 지식 위에 더 정교한 도구가 얹힌다는 점이다.


인공지능은 객관적이거나 중립적이지 않다.

그것은 누군가가 선택한 데이터, 설계한 기준, 의도한 목적 위에서 작동한다.

만약 이 설계 권한이 일부 권력가나 재력가, 특정 집단에 집중된다면,

인공지능은 가장 효율적인 편향 강화 장치가 될 수 있다.

그것은 노골적인 선동의 형태가 아니라,

합리와 효율, 편리함을 가장한 통제로 작동할 것이다.

우리는 이미 그 징후를 보고 있다.

어떤 정보는 자연스럽게 ‘상식’이 되고, 어떤 의견은 ‘극단’으로 분류된다.

무엇이 합리적이고, 무엇이 비이성적인지에 대한 기준은 점점 보이지 않는 방식으로 정해진다.

이 과정은 인공지능 이전에도 존재했지만, 인공지능은 그것을 훨씬 빠르고 정교하게 만든다.

인간이 자신의 지식 구조를 의심하지 않는 한, 이 흐름에서 벗어나기는 어렵다.

그래서 인공지능의 위험은 기술 그 자체에 있지 않다.


진짜 위험은 인간이 더 이상 자신의 지식을 의심하지 않는 데 있다.

우리는 새로운 기술을 두려워하지만, 정작 두려워해야 할 것은

오래된 생각을 진실이라 믿고 반복하는 태도일지 모른다.

인공지능을 통제할 준비가 되어 있는가가 아니라,

우리는 스스로의 지식을 점검할 준비가 되어 있는가라

의심하지 않는 지식 위에서 작동하는 인공지능은 위협이 될 수밖에 없다.

반대로, 끊임없이 질문되는 지식 위에서라면

인공지능은 단지 도구에 불과할 것이다.

기술은 이미 충분히 발전했다.

결국 남는 문제는 인간이다.
의심을 멈춘 지식, 질문을 잃은 사고, 익숙함에 안주한 확신.
인공지능을 두려워하기 전에, 우리는 먼저

생각하는 방식 자체를 두려워해야 한다.

토, 일 연재