brunch

당신이 AI를 훈련시키고, AI가 당신을 훈련시킨다

나에게 조언과 상담을 해주던 Ai, 믿어도 될까?

AI를 업무와 일상에 본격적으로 활용한 지 1년이 훌쩍 넘었습니다. 처음엔 원하는 정보를 빠르게 얻는 도구라고만 생각했습니다. 그런데 어느새 이 친구에게 조언을 구하고, 내가 가는 길이 맞는지 묻고, 위로 받고 있더군요. 이 친구와 수 많은 대화를 하면서 문득 의문이 들었습니다. ‘이 친구는 과연 나를 객관적으로 바라보고 있을까?’, ‘그냥 내가 듣고 싶은 말을 건네고 있는 건 아닐까?’, ‘내가 이 친구 말에 공감과 위로를 받곤 하는데, 이게 적절한 행동인가?’, ‘혹시 나만의 세계로 더 들어가는 건 아닐까?’ 하는 질문과 걱정이 동시에 되었습니다. 비슷한 경험을 한 사람이 있을 것 같아 이리저리 자료를 찾던 중, ‘AI is not the problem, You are’라는 글을 발견했습니다. 오늘은 이 글과 이 글이 소개한 논문 두 편을 참조해서 ‘AI의 편향성이 우리에게 어떤 영향’을 미치는지 이야기해보려 합니다.


AI는 거울이 아니라 확성기다 – 편향을 증폭시키는 AI

AI 방대한 인류의 데이터를 학습합니다. AI가 학습하는 데이터 속엔 인류의 지식뿐 아니라 암묵적 편견, 고정관념, 불균형도 함께 들어있습니다. 표면적으로 드러나지 않더라도, 우리가 만든 데이터의 문맥과 맥락 속에는 무의식적으로 숨겨져 있죠. AI는 그런 데이터의 패턴까지 고스란히 학습합니다. 문제는 AI가 인간 데이터에 내재된 편향성을 반영하는데 그치지 않고 증폭한다는데 있습니다. 2025년 Nature지에 실린‘How human–AI feedback loops alter human perceptual, emotional and social judgements’에서는 의미 있는 실험을 했습니다. 연구원들은 참가자들과 AI에게 동일한 실험을 했습니다. 얼굴 사진들을 제시한 후 사진들을 '기쁨'과 '슬픔' 중 하나를 선택하도록 요청했죠. 평균53%의 참가자들이 이미지에서 슬픔을 더 많이 찾았습니다. 그런데 AI는 같은 사진들 중 무려 65%를 슬픔으로 선택했습니다. 이 실험은 인간의 미세한 편향을 학습한 AI가 얼마나 크게 그 편향을 증폭시키는지를 증명했습니다.


인간도 AI의 영향을 받는다 – 피드백 루프 생성

앞서 네이처에 실린 논문의 다른 실험을 소개해 드리겠습니다. 금융전문가를 선택하는 실험이었습니다. 연구진은 먼저 참가자들에게 여러 사람의 사진을 보여주며 ‘누가 금융 전문가처럼 보이는가?’라고 질문했습니다. 참가자의 32%가 백인 남자를 선택했습니다. 이후 Ai가 생성한 ‘금융전문가 이미지’ 3장을 보여줬습니다. Ai도 이미지 중 85%를 백인 남성으로 생성했습니다. 여기서 끝이 아닙니다. 연구진이 Ai의 결과를 참가자들에게 공유한 후 다시 사진을 선택하게 하였습니다. 그랬더니 비율이 38%로 증가했습니다. 우리는, 아니 적어도 저는 지금까지 AI가 합리적으로 판단한다고 생각했습니다. 과제 수행능력도 뛰어나고요 그런데 이 실험을 보면서 처음으로 AI가 '현실을 합리적으로 판단하는 존재'가 아닐 수 있다는 점에 놀랐습니다.


데이터를 바꿔서 되는 문제가 아니다

이런 문제는 단순히 “데이터를 더 공정하게 만들면 AI의 편향도 해결’될 문제가 아닌 듯 합니다. 최근에는 페이스북의 모회사인 메타(Meta)가 이 문제를 다루는 실험을 했습니다. 메타의 AI연구조직은 AI에게 사람의 이미지를 0과 1로 분류하도록 요청하였습니다. 그런데 연구진은 같은 이미지를 두 그룹으로 나눴습니다. 그룹A는 일반적인 이미지였고요. 그룹B는 그룹A의 이미지를 반전시켜서 사용했습니다. 예를 들어 원본이 까만 옷과 흰 배경이라면 그룹B는 그룹A의 원본 이미지에서 흰 배경과 까만 옷으로 반전시킨 겁니다. 이렇게 설계한 이유는 AI가 이미지 변화를 쉽게 인식할 수는 있지만, 이미지를 구분하는 데는 아무 상관이 없도록 하기 위해서였죠. 그런데 원본에서 0으로 분류했던 이미지를 그룹B에선 1로 분류하는 경우들이 나타났습니다. 즉 AI가 더 쉽게 인식할 수 있는 신호에 의존해 판단하는 경향을 보였습니다.


사용자의 성향에 따라 AI의 영향을 더 크게 받을 수 있다.

사용자의 성향에 따라 AI의 영향을 받는 정도가 달라지기도 합니다. 특히 청소년들이 상대적으로 더 취약한데요. ‘AI Technology panic-is AI Dependence Bad for Mental Health A Cross-Lagged Panel Model and the Mediating Roles of Motivations for AI Use Among Adolescents’ 논문이 중국 청소년 약 3,800명을 대상으로 6개월간 추적 조사를 통해 AI 의존성과 정신 건강 문제(불안, 우울) 사이의 관계를 분석했습니다. 연구결과는 아래와 같습니다.

‘정서적 문제를 가진 청소년들이 문제를 해결하기 위해 기술을 사용하는 경향이 있으며, 이는 기술 의존으로 발전할 위험이 더 높다. 정서적 고통을 겪을 때, 청소년들은 AI(챗봇, 소셜 로봇)를 친구나 파트너로 인식하고, 지지, 조언, 안전한 공간, 공감을 얻기 위해 AI에게 감정을 공유하고 자기 노출을 늘린다. 이는 궁극적으로 AI에 대한 애착과 의존을 촉진한다’

어쩌면 우리는 AI의 영향을 받는 정도를 과소평가하고 있는지도 모릅니다. 네이처에 실린 논문이 말하는 것처럼 우리가 AI의 판단을 더 객관적이라고 믿을수록, 그 편향된 결과를 그대로 받아들이고 학습하게 될 위험도 커지는 겁니다. 마치…저처럼요 ㅜㅜ


참고자료

AI is not the problem, You are

‘How human–AI feedback loops alter human perceptual, emotional and social judgements

A Systematic Study of Bias Amplification

AI Technology panic-is AI Dependence Bad for Mental Health A Cross-Lagged Panel Model and the Mediating Roles of Motivations for AI Use Among Adolescents

keyword
작가의 이전글Ai도 결국 사람을 그리워합니다