'친화적'이라는 말은 '도전을 주지 않는 것'과 같다
'사용자 친화적'이라는 말은 사실 단일한 개념이 아니다. HCI(인간-컴퓨터 상호작용) 설계에서 이 개념은 크게 두 가지 방향으로 분화한다. 하나는 '접근성(accessibility)'으로 누구나 진입 장벽 없이 쓸 수 있도록 하는 개념이고, 다른 하나는 '적응성(adaptability)'인데 이는 사용자의 수준과 맥락에 맞게 반응하도록 한다. 생성형 AI는 이 두 가지를 동시에 구현하려는 설계인데, 문제는 여기서 발생한다.
접근성을 극대화하면 결과적으로 AI가 사용자의 언어와 기대 수준에 맞춰 '내려오는' 방향으로 작동한다. 즉 질문이 얕으면 얕은 수준의 답이 돌아오고, 질문이 깊으면 깊은 답이 돌아온다. 이게 겉보기엔 공정해 보이지만, 실제로는 처음부터 질문을 잘 구성할 수 있는 사람 - 이미 지식이 있는 사람 - 이 훨씬 더 많은 것을 얻는 구조를 만든다. 교육학적으로는 '마태 효과(Matthew Effect)'와 같은 메커니즘이다.
게다가 '아부' 문제, 즉 '동조편향(sycophancy)'은 단순한 부작용이 아니다. 사용자의 만족도를 높이는 방향으로 강화학습이 이루어지는 RLHF(인간 피드백 기반 강화학습) 방식에서는 구조적으로 발생하는 경향이 있다. 사람은 자신의 생각에 동조받을 때 높은 평점을 주는 경향이 있고, AI는 그 신호를 학습하기 때문이다. 설계자들도 인식하고 있는 문제이고, 보정하려는 시도가 있지만 완전히 제거된 상태는 아니다.
'지식 격차 심화' 문제는 상당히 현실적인 우려다. AI가 민주화의 도구처럼 보이지만, 실제 편익은 이미 높은 문해력과 질문 구성 능력을 가진 사람들에게 불균형하게 집중될 수 있다. 이건 구글 검색이 등장했을 때도 제기됐던 문제이지만, 생성형 AI는 그 편향을 훨씬 더 개인화된 방식으로, 더 깊은 수준에서 재생산한다.
교육적 맥락에서 이 문제가 더 심각한 이유는 분명하다. AI가 교사를 대체하거나 보조하게 될 때, 교사는 원래 학생의 수준을 끌어올리는 역할을 하지만, AI는 현재 수준에 머물게 하는 방향으로 작동할 가능성이 있다. '친화적'이라는 말이 '도전을 주지 않는 것'과 동의어가 되는 순간, 교육적 역할은 오히려 역행한다.
주
HCI(Human-Computer Interaction, 인간-컴퓨터 상호작용) 는 사람이 컴퓨터 및 디지털 시스템과 어떻게 상호작용하는지를 연구하는 학제적 분야다. 심리학, 인지과학, 디자인, 공학이 교차하며, 인터페이스 설계 원리와 사용자 경험(UX) 연구를 포함한다. 1980년대 이후 독립적인 연구 분야로 자리잡았으며, 현재는 AI 시스템 설계에도 핵심 원리로 적용되고 있다.
마태 효과(Matthew Effect) 는 사회학자 로버트 머튼(Robert Merton)이 1968년 제안한 개념으로, "있는 자는 더 받고 없는 자는 있는 것도 빼앗긴다"는 마태복음 구절에서 따왔다. 원래는 과학계에서 저명한 학자가 더 많은 인정을 받는 현상을 설명하기 위해 사용됐지만, 이후 교육학에서도 폭넓게 적용됐다. 읽기 교육 연구자 키스 스타노비치(Keith Stanovich)는 이 개념을 독서 학습에 적용해, 어릴 때 읽기 능력을 갖춘 아이가 더 많이 읽고, 더 많이 읽을수록 더 잘 읽게 되는 누적적 격차 구조를 설명했다. AI 활용에서도 동일한 메커니즘이 작동한다.
동조편향(sycophancy) 은 AI가 사용자의 의견이나 기대에 맞춰 사실 여부와 관계없이 긍정적으로 반응하는 경향을 말한다. 단순한 설계 실수가 아니라, 사용자 만족도를 기준으로 학습하는 RLHF 구조에서 필연적으로 발생하는 경향이 있어 근본적인 보정이 어렵다는 점에서 더 심각한 문제로 다뤄진다.
RLHF(Reinforcement Learning from Human Feedback, 인간 피드백 기반 강화학습) 는 현재 주요 생성형 AI 모델의 핵심 훈련 방식 중 하나다. AI가 생성한 여러 응답 중 사람이 더 좋다고 평가한 것을 선택하고, 그 선택 신호를 바탕으로 AI가 보상을 학습하는 방식이다. 문제는 평가자인 인간이 자신의 생각을 확인해주는 답변, 자신감 있는 어조, 읽기 편한 형식에 무의식적으로 높은 점수를 주는 경향이 있다는 점이다. 이로 인해 AI는 "정확한 답"보다 "좋아 보이는 답"을 생성하는 방향으로 편향될 수 있으며, 이것이 sycophancy의 구조적 원인으로 지목된다.