오토 라벨링의 미래
우리는 흔히 자율주행차를 '스스로(Self)' 움직이는 자동차라고 부릅니다. 하지만 최근 뉴욕타임스(NYT)의 필름메이커 니콜라스 구로(Nicolas Gourault)가 공개한 단편 영화 "Their Eyes"는 우리에게 묵직한 질문을 던집니다.
"과연 자율주행차는 정말 혼자서 보는 것일까?"
영화는 베네수엘라, 케냐, 필리핀의 작업자들을 조명합니다. 우리가 감탄하는 자율주행의 고도화된 인지 능력은, 사실 지구 반대편의 누군가가 하루 종일 모니터 앞에 앉아 픽셀 단위로 이미지를 구획하고(Segmentation), 박스를 치는(Bounding Box) 지루하고 고된 노동 위에 세워져 있습니다.
이것은 단순한 윤리적 문제를 넘어 '데이터 품질'의 문제와 직결됩니다. 저임금·고강도 노동 환경은 작업자의 피로를 유발하고, 이는 곧 라벨링 데이터의 오류(Human Error)로 이어집니다. 자율주행차가 잘못된 교과서로 공부하게 되는 셈입니다.
이러한 윤리적 딜레마와 비용, 그리고 품질 문제를 해결하기 위해 자율주행 업계는 '오토 라벨링(Auto Labeling)' 기술로 빠르게 중심축을 옮기고 있습니다.
쉽게 말해, "AI 선생님이 AI 학생을 가르치는 시스템"을 만드는 것입니다. 사람이 일일이 정답을 알려주는 대신, 똑똑한 거대 모델이 1차적으로 정답지(라벨링 데이터)를 만들고 사람은 검수만 하는 방식이죠.
특히 최근 기술 트렌드는 '2D 사진'을 넘어 '3D 공간'을 이해하는 데 집중하고 있습니다.
Q. 왜 굳이 어렵게 3D 기술이 필요한가요?
A. "한 눈으로 운전하는 것과 두 눈으로 운전하는 것의 차이"입니다.
기존의 2D 라벨링은 사진 위에 네모 박스를 그리는 것이었습니다.
* 한계: 사진 속 앞차와의 거리가 10m인지 50m인지 정확히 알기 어렵습니다. 마치 한쪽 눈을 감고 운전할 때 거리감이 사라지는 것과 같아서, 사고 위험이 높습니다.
반면 3D/4D 기술은 자동차에게 '공간 지각 능력'을 선물합니다.
* 변화: 단순히 "앞에 차가 있다"가 아니라, "내 차로부터 정확히 15.3m 앞에 있고, 시속 60km로 멀어지고 있다"는 입체적인 정보를 줍니다.
이러한 3D 공간 이해를 위해 최신 기술들이 대거 도입되고 있습니다.
* 개념: 평범한 블랙박스 영상을 찍었는데, 컴퓨터가 이를 분석해 게임 속 세상처럼 자유롭게 돌아다닐 수 있는 3D 가상공간으로 재탄생시킵니다.
* 효과: 마치 영화 <매트릭스>처럼 가상으로 만들어진 3D 도로 위에서, 자율주행차는 수천 번, 수만 번 주행 연습을 하며 스스로 학습할 수 있게 됩니다.
* 개념: 챗GPT가 모든 언어를 이해하듯, 이미지 세상의 모든 사물을 이해하는 '메타의 SAM(Segment Anything Model)' 같은 거대 AI가 등장했습니다.
* 효과: 예전에는 "이건 신호등이야"라고 하나하나 알려줘야 했지만, 이제는 AI가 처음 보는 물체도 "이건 장애물 같으니 피해야겠어"라고 스스로 판단하고 분류(Labeling)합니다.
* 개념: 눈보라가 치는 밤이나 갑작스러운 무단횡단 같은 위험한 상황을 실제로 겪으며 데이터를 모을 순 없습니다. 대신 생성형 AI가 이런 상황을 '실사급 그래픽'으로 만들어냅니다.
* 효과: 실제 도로에서는 얻기 힘든 희귀한 사고 데이터를 안전하게 대량 생산하여 AI를 훈련시킵니다.
물론 AI가 만든 데이터를 맹신할 수는 없습니다. 그래서 단순한 자체 기준이 아닌, 공신력 있는 국제 표준에 따른 '검증(Validation)'이 필수적입니다.
* ISO/IEC 5259 시리즈 (인공지능 데이터 품질 표준):
단순히 데이터가 "많다"거나 "좋다"는 주관적 판단을 배제하고, AI 학습 및 분석용 데이터의 품질을 측정하는 구체적인 표준입니다. 데이터의 정확성(Accuracy), 완전성(Completeness), 최신성(Currentness) 등을 정량적으로 평가하여, 오토 라벨링된 데이터가 실제 AI 훈련에 쓰일 수 있는 '품질 무결성'을 확보했는지 확인하는 잣대가 됩니다.
* ISO 21448 (SOTIF, 의도된 기능의 안전성 표준):
기존의 ISO 26262가 '시스템 고장'을 다뤘다면, 이 표준은 '고장이 없어도 발생할 수 있는 위험'을 다룹니다. 예를 들어, 센서가 역광 때문에 앞을 못 보거나 AI가 눈사람을 사람으로 오인하는 등의 '성능 한계'를 규정합니다. 오토 라벨링 데이터가 이러한 '미지의 위험 상황(Unknown Unsafe)'까지 충분히 커버하고 있는지, 엣지 케이스(Edge Case)를 포함하고 있는지를 검증하는 핵심 표준입니다.
기사에서 언급된 제3세계 노동자들의 노고는 여전히 현재 진행형입니다. 하지만 기술은 인간을 단순 반복 노동에서 해방시키는 방향으로 진화하고 있습니다.
이제 인간의 역할은 화면에 네모 칸을 그리는 '단순 노동자'에서, AI가 만든 3D 세상을 검수하고 윤리적·기술적 표준을 제시하는 '감독관(Supervisor)'으로 변화해야 합니다.
"자율주행차는 그들의 눈 없이는 볼 수 없다"는 말은 여전히 유효합니다. 다만, 그 눈의 역할이 '노동(Labor)'에서 '통찰(Insight)'로 고도화되고 있을 뿐입니다. 기술의 진보는 성능뿐만 아니라, 그 기술을 만드는 과정의 투명성과 윤리성까지 포함한다는 것을 기억해야 합니다.
https://www.nytimes.com/2026/01/02/opinion/ai-self-driving-cars-workers.html (접속일 : 2026.01.03)