기술 알고리즘은 결코 중립적일 수 없다
간절히 바라던 대기업 공고에 서류 합격했다는 문자를 받았다. 기쁨도 잠시, 다음 관문이 나를 기다리고 있었다. 바로 AI 면접이었다. 안내에 따라 노트북에 생소한 프로그램을 설치하고 응시 환경을 테스트하는 번거로운 절차를 끝냈다. 사전 안내문에는 카메라를 통해 지원자의 미세한 표정 변화, 목소리의 떨림, 답변의 키워드, 그리고 인성 검사 데이터를 실시간으로 수집해 나의 직무 적격성을 평가한다는 내용이었다.
화면 속 지시에 따라 문장을 읽고 답했다. 결과는 불합격이었다. 기업에서는 사람 면접관처럼 지연이나 학벌에 휘둘리지 않는 편견 없는 공정한 평가였다고 강조하며, 모든 것은 인공지능 시스템의 판단이라고 설명했다.
공학적 사고란 무엇일까. 흔히 제한된 자원 속에서 최적의 해답을 찾아 문제를 해결하는 과정을 의미한다. 이 과정에서 알고리즘은 공학적 사고를 가장 완벽하게 구현하는 도구로 소환된다. 문제를 해결하기 위한 명확하고 단계적인 절차(Step-by-Step)로서의 알고리즘은 현대 문명을 지탱하는 가장 거대한 논리 구조이다.
하지만 무엇을 문제로 정의하고, 무엇을 해답으로 간주하는가에 대해서는 명확하지 않다. 알고리즘은 주어진 목표를 가장 효율적으로 달성할 뿐이지만, 그 과정 자체는 결코 중립적으로 주어지지 않는다. 문제의 정의, 최적화 기준, 제약 조건의 설정은 모두 과거 데이터와 제어하는 인간의 판단의 산물이다. 따라서 알고리즘은 단순한 계산 절차가 아니라, 과거 성공한 사례를 전제로 작동한다. 이 과정에서 공학자들의 생각은 더욱 크게 반영된다.
기술의 비중립성은 알고리즘에만 국한된 문제가 아니다. 기술은 흔히 효율성과 정확성을 기준으로 평가되며, 그 과정에서 객관적 도구처럼 인식되곤 한다. 기술에는 특정 가치와 이익에 대한 판단이 없다고 오해하고 있다. 실제로 기술은 철저히 사회적 맥락 속에서 설계된다. 기술은 그 시대를 지배하는 사회적 선택이 응축된 결과물이기 때문이다. 문제 또한 시대 환경에서 발생한 결과물이다.
전구조차 보지 못한 고려시대 사람이
와이파이 연결이 안된다고 불평하지 않을 것이다.
기술이 비중립적이라는 사실은 설계의 첫 단추에서부터 드러난다. 어떤 문제를 해결할 것인지, 누구를 표준 사용자로 상정할 것인지, 무엇을 성능의 척도로 삼을 것인지는 모두 설계자의 선택이다. 예를 들어 효율성을 최우선 가치로 설정할 경우, 시스템은 다수를 차지하는 평균적인 사용자를 중심으로 최적화된다. 이 과정에서 소수자나 예외적인 상황은 비효율이라는 명목 아래 자연스럽게 배제된다.
만약 기존 고성과자의 데이터를 학습하는 경우에는 이러한 차별이 극명하게 드러난다. 지난 10년간 특정 성향이나 배경을 가진 사람들이 고성과자로 인정받았다면, AI는 그 표준에서 벗어난 개성이나 창의성을 부적합으로 처리한다. 외모, 말투, 조명 환경 등 본질과 무관한 요소를 분석해 점수를 매기는 기술적 오류는 공정성을 강화하기보다 차별을 고착화한다. 실제로 미국 아마존에서의 여성 차별이나 중국의 iTutor 그룹의 노령자 차별은 실제로 논란이되었고, 막대한 금액을 배상함과 동시에 폐기되었다.
과거의 불평등이 담긴 데이터를 학습한 알고리즘은 그 불평등을 객관적인 사실로 받아들이고 재생산하며, 기계적 객관성이라는 외피를 쓰고 오히려 더 강력한 정당성을 획득한다. 수학적 공식과 방대한 데이터에 기반하기 때문에 공정하다는 착각을 불러일으킨다. 하지만 AI는 스스로 목표를 설정하지 않는다. 학습 데이터의 선택과 가중치 부여는 모두 설계자에 의해서 결정된다. 그러나 더 큰 문제는 모든 AI의 결정 과정이 그렇겠지만 정확한 확인이 불가능하다.
때문에, 가장 위험한 지점은 기술이 행사하는 권력이 점점 투명성을 잃고 비가시화된다는 점이다. 알고리즘의 판단 과정은 고도로 복잡한 블랙박스와 같아서, 결과에 이의를 제기하거나 불합격 사유를 구체적으로 알기 어렵다. 결정은 사람이 아닌 시스템의 판단으로 제시되고, 책임의 주체는 가려진다. 이는 중요한 결정을 기계에 위임하여 인간의 도덕적 책임을 떠넘기는 도덕적 외주(Moral Outsourcing) 문제로 이어진다. 시스템이 내린 결정이라는 이유로 우리는 불합리한 결과에 순응하게 된다.
브런치 작가나 유튜버 등 창작을 하는 이들에게 알고리즘은 신비로운 고대의 시험과 같다. 알고리즘을 잘 타면 조회수가 폭발하고 삶이 바뀐다는 것은 알고 있다. 그래서 사람들은 알고리즘의 선택을 받는 방법과 주제를 공부하고, 그 비법을 팔기도 한다. 이때 알고리즘은 자연법칙처럼 실체는 없지만 분명히 존재한다는 것처럼 인식되곤 한다.
하지만 알고리즘은 자연적으로 발생하는 법칙이 아니라, 엔지니어가 제한된 자원 속에서 특정한 목표를 달성하기 위해 설계한 의도적인 선택의 산물이다. 유트브의 조회수가 터지는 알고리즘 뒤에는 체류 시간 극대화나 광고 노출 최적화라는 공학적 목표가 숨어 있다. 엔지니어가 설정한 이 최적화의 기준은 결코 가치 중립적이지 않다. 조회수가 높은 자극적인 콘텐츠가 우선시되거나 특정 의견이 고립되는 현상이 발생한다.
기술의 비중립성을 인식한다는 것은 기술 발전을 거부하자는 뜻이 아니다. 오히려 기술 역시 엄연한 비판과 책임의 대상임을 인정하고, 설계 단계에서부터 공학자의 윤리적 개입이 시작되어야 한다. 기술이 가진 압도적인 사회적 영향력을 성찰하지 않은 채 그 결과를 기계적인 수치로만 받아들이면 안된다. 그렇지 못하다면, 공학기술은 사회적 책임을 외면한 채 편향을 자동화하는 도구로 전락하고 만다.
따라서 엔지니어는 자신이 만드는 시스템이 어떤 가치를 전제하고 있는지, 그 최적화가 누군가에게는 소외나 차별의 벽이 되지는 않는지 끊임없이 자각해야 한다. 결국 기술은 무엇을 할 수 있는가를 넘어, 그 기술을 통해 우리가 어떤 사회를 만들고 있는가라는 윤리적 질문을 끊임없이 상기시켜야 한다. 기술이 사회 구조를 재편하고 인간의 삶을 규정하는 강력한 권력이 된 지금, 공학자들의 인문학적 고민은 필수적이다.
결국 기술과 알고리즘은 인간의 선택과 욕망을 반영하는 거울이다. 그 거울 속에 비친 모습이 편향되어 있다면, 그것은 기술의 오류가 아니라 우리 사회의 가치관이 투영된 결과다. 기술의 완성도는 성능뿐만 아니라 그 기술이 세상에 미치는 선한 영향력으로 측정되어야 한다.
공학 엔지니어가 인간을 읽어내는 인문학적 시선을 가질 때, 기술은 비로소 공정한 문제를 해결하는 도구가 될 수 있다.