매거진 Tech Pause

Responsible AI라는 말, 누구를 위한 책임인

by 오유나
“AI는 정확해졌지만, 과연 괜찮은가?”

Stanford HAI AI Index Report 2025는 ‘AI 모델의 윤리적 책임’이라는 주제에 대해,

조용하지만 확실한 불편함을 드러냅니다.

우리는 이미 AI 성능을 평가할 수 있는 기준은 충분히 가지고 있습니다.

MMLU, HumanEval, HELM, Arena 등 정량화된 숫자들은 매일 갱신되고,

모델은 점점 더 ‘우수한 성적표’를 받아가고 있죠.


하지만 Stanford는 이렇게 지적합니다.

“RAI (Responsible AI)에 대한 공통 기준은 존재하지 않으며, 주요 모델 개발자들은 여전히 서로 다른 책임 기준을 사용하거나, 아예 사용하지 않는다.”

정확도는 올라가는데, 책임은 불투명합니다.


AI 모델은 “잘 작동하는지”는 평가받지만, “괜찮은지”는 평가받지 않는다

보고서에 따르면, 대부분의 모델은 MMLU나 HumanEval과 같은 정량적 퍼포먼스 벤치마크는 꼼꼼히 제공하지만, Bias Benchmark(예: BBQ), 유해성 테스트(HarmBench), 유도 질문 테스트(MakeMeSay) 등의 사회적 안전성 평가는 선택적으로만 수행되고 있습니다.


예컨대, Google DeepMind의 Gemini는 공개한 벤치마크 목록에 RAI 관련 테스트를 포함하지 않았으며, OpenAI의 GPT-4 역시 유해성에 대한 평가 기준은 사내 검증에 한정돼 있습니다.


우리가 'AI가 똑똑해졌다'라고 말할 때, 그건 결국 '시험을 잘 봤다'는 뜻일 뿐, '좋은 사람(모델)'이라는 뜻은 아닙니다.


AI 책임 논의의 공허한 구호화

요즘 많은 기업들이 Responsible AI Taskforce를 만들고, Ethics in AI 컨퍼런스를 열고, 하버드나 스탠퍼드와 연구 협력을 발표합니다.

하지만 이 모든 행위가 “진짜 모델 개발 과정에 반영되고 있느냐”를 보면, 상황은 달라집니다.

Stanford는 이 간극을 다음과 같이 표현합니다.

“Public communication on Responsible AI far outpaces standardized implementation.”

요컨대, ‘책임 있는 AI’는 마케팅이 되었지만, 아직 기술의 일부는 아니라는 뜻입니다.


우리는 '책임'을 기술 내부에서 찾고 있다

나는 이 문장을 보고 멈칫했습니다.

“우리는 AI의 책임 문제를 해결하기 위해 여전히 모델을 더 정교하게 만들고 있다.”


그 말이 틀린 건 아니지만, 위험하다고 느껴졌습니다.

왜냐하면 책임이라는 개념은 본래 ‘사회적 맥락에서의 판단’이며, 기술 내부에서 완결될 수 없는 문제이기 때문입니다.


사람이 잘못했을 때 책임을 묻는 건 법과 제도, 문화의 몫입니다. 그런데 우리는 AI가 잘못된 응답을 했을 때, 그것을 "정확도 개선"이나 "데이터 정제"로 해결하려고 합니다.

혹시 우리는 AI에게 도덕성까지 위임하고 있는 건 아닐까요?


당신이 말하는 ‘책임’은 어떤 책임인가요?

이 질문은 결국 우리 각자에게 돌아옵니다.

모델이 잘못된 편향을 학습했을 때, 누가 그 책임을 져야 할까요?

당신이 만든 서비스가 특정 집단에게 해를 끼친다면, 그건 모델 탓인가요, 사용자 탓인가요?

‘Responsible AI’라는 말을 쓸 자격은, 어떻게 증명할 수 있을까요?


AI는 인간처럼 말하고, 인간의 문서를 읽고, 인간의 규범을 학습하지만… 아직 ‘인간의 책임’을 질 수는 없습니다. 그리고 그 책임은, 결국 사람인 우리에게 되돌아옵니다.

기계는 언제나 논리적입니다. 문제는, 우리가 그 논리를 무엇에 연결시키느냐는 것입니다.

Responsible AI는 모델이 아니라, 우리의 결정입니다.

keyword
매거진의 이전글AI의 탄소발자국