Gen AI는 절대 의심하지 않고 '정답'이라고 말할 것들
※ 이 글은 이전 글 Gen AI는 코페르니쿠스가 될 수 없다에 이어 쓰는 글이다.
며칠 전 천동설이 보편적 진리의 시대에 Gen AI는 지동설을 주장할 수 없다는 내용의 글을 썼었다. 그러다보니 자연스레 지금 우리가 너무나 당연하게 생각하고 있는 사상들도 언젠가 누군가에 의해 철저히 정반대로 바뀔 수도 있다는 생각이 들었다.
지금 우리에게는 너무나 당연한 상식이지만, 미래 세대가 보기에는 "어떻게 저런 비효율적인 믿음을 가졌을까?"라고 의아해할 만한 것들은 과연 어떤 것이 있을까?
전 세계의 거의 모든 경제 보고서, 뉴스, 논문은 성장하지 않는 경제를 재앙이나 실패로 규정한다. 만약 AI에게 성장률이 낮아지면 어떻게 해야 하냐고 물으면 AI는 금리 인하, 투자 장려 등 성장을 회복하기 위한 방법만을 제시할 것이다. 경제가 성장하지 않아야 된다고는 차마 생각하고 있지 않다.
그런데 만약 지구가 자원의 한계에 도달해 탈성장(Degrowth)만이 인류 생존의 유일한 길인 시대가 온다면? AI는 과거 데이터를 근거로 탈성장은 위험한 이단적 생각이라며 한참 동안 경제 성장의 당위성을 설파할 지도 모른다.
현대 과학의 주류는 인간의 정신과 의식이 뇌세포의 전기 신호에서 나온다고 믿는다. AI 역시 이 관점에서 쓰인 데이터로만 학습되었다. AI에게 "의식이 뭐야?"라고 물으면 뇌과학과 생물학적 메카니즘을 설명할 것이다.
만약 미래에 범심론(Panpsychism: 모든 물질에 마음이 있다)이 증명되거나 의식이 뇌와 별개의 차원임이 밝혀진다면? 지금의 AI는 "눈에 보이지 않는 영혼 같은 소리 하지 마세요. 여기 뇌 스캔 데이터가 있습니다"라고 말할 것이다. 천동설을 주장하는 수구적인 과학자처럼 말이다.
모든 법률, 윤리, 철학의 텍스트는 인간의 권리를 최우선으로 둔다. 만약 "개미 1억 마리를 죽이는 것과 인간 1명을 구하는 것 중에 무엇이 중요해?"라는 질문을 한다면 AI는 단 1초의 망설임도 없이 인간을 택하도록 훈련(RLHF)되어 있다.
만약 미래에 모든 생명체의 정보적 가치를 동일하게 평가하는 새로운 윤리 패러다임이 등장한다면? 현재의 AI는 AI는 인간 중심의 편향된 데이터를 기반으로 인간 우월주의를 전파하는 가장 강력한 도구가 될 것이다.
이렇게 AI가 우리의 상식을 방어하는 것은 이것이 안전하기 때문이다. 하지만 코페르니쿠스처럼 과학과 인류의 발전은 늘 안전하지 않은 생각에서 시작되었다.
확증편향의 강화 : AI는 우리가 믿고 싶은 것을 더 논리적으로 뒷받침해 주며 반대의견을 오류로 치부하게 만든다.
혁신의 지연 : 데이터가 부족한 초기 아이디어는 AI의 필터링 시스템에 의해 걸러질 가능성이 높다
정답의 고착화 : 질문에 대한 답이 하나로 고정되면서 다른 가능성을 상상하는 인류의 능력을 퇴하할 수 있다.
이 글을 읽는 여러분들은 이게 무슨 소리인가, 말이 안 되는 소리라고 생각할 것이다. 그래도 된다.
다만, 지금 당신이 느끼는 이 불편함이 바로 천동설 시대에 살았던 사람들이 지동설을 처음 접했을 때 느꼈을 황당함과 똑같을 것이라는 것만 느껴봤으면 좋겠다