AI는 사유하지 않는다.

by 염홍철



마크 그레이엄 옥스퍼트대학교 교수 등을 중심으로 한 비판적 AI 연구자들이 <AI는 인간을 먹고 자란다.>라는 저서를 출간하였습니다. AI는 단순한 기술을 넘어 이제 사회 전반의 구조를 바꾸고 있는 이때, AI에 대한 비판적 연구는 꼭 필요한 작업이기 때문에 오늘은 이들의 주장을 소개하고 싶습니다.


‘AI는 사유하지 않는다.’라는 것이 이들 연구 핵심 요지입니다. 첫째로 AI는 ‘이해’ 하지 않고 ‘패턴을 모방’합니다. AI는 의미를 이해하지 못하고 그들이 수행하는 모든 작업은 통계적 상관관계의 계산일 뿐입니다. 문장을 쓰는데도 ‘아는 것’이 아니라 어떤 단어 다음에 어떤 단어가 올 확률이 높은 지를 계산할 뿐입니다. 따라서 AI의 언어능력은 사유의 결과가 아니라 계산의 부산물입니다.


둘째로 AI는 지능처럼 보이지만 지능 그 자체는 아닙니다. AI가 언어를 유창하게 구사하는 것 같지만, 사실은 내부 사고 과정의 증거가 아니라 출력이 세련될 뿐입니다. ‘그럴듯함’이 곧 진리는 아니기 때문입니다.


셋째로 AI는 맥락·의도·책임을 이해하지 못합니다. 사유는 단순 계산이 아니라, 왜 말하는가? (의도), 어떤 상황에서 말하는가? (맥락), 그 결과에 대해 누가 책임지는가? (윤리)가 포함되어야 하나, AI는 목적을 스스로 설정하지 못하고, 상황의 도덕적 무게를 판단하지 못하며, 결과에 대해 책임질 수도 없습니다. 그래서 이 책을 쓴 저자들은 AI는 판단하지 않고, 선택하지 않으며, 책임지지 않는다고 단언하고 있습니다.


넷째로 AI의 오류는 기술 문제가 아니라 사회 문제인 것입니다. AI가 잘못된 판단을 하는 것은 기계가 실수해서가 아니라 그것은 인간 사회의 편향·불평등·차별이 데이터로 인식된 결과입니다. 즉, AI는 생각하지 않기 때문에 비판도, 반성도, 수정의 동기도 가질 수 없습니다. 따라서 문제의 책임은 언제나 AI를 설계하고 배제하고 사용하는 인간에게 있습니다.


마지막으로 우리는 ‘사유하지 않는 존재’에게 판단을 맡기는 위험을 떠안고 있습니다. 그러나 AI를 사유하는 존재로 오해하기 때문에 그 결과, 결정은 자동화되고 책임은 흐려지며 인간은 ‘기계가 그렇게 말했다.’라는 이유로 도덕적 판단을 포기하게 됩니다.


이렇게 사유하지 않는 존재에게 판단을 맡길수록, 책임은 흐려지고 인간의 도덕적 긴장은 느슨해집니다. AI가 위험한 것이 아니라, 사고를 외주화 한 인간 사회가 위험해지는 것입니다.

작가의 이전글한국의 지방자치와 대전. 충남 통합