brunch

You can make anything
by writing

C.S.Lewis

by 이정원 Jul 19. 2023

사람을 대신해서 주변을 인지하는 센서들

3-1 사람의 눈을 대체하는 일이 쉽지 않다.

운전을 하고 있다고 상상해 보자. 교차로에서 멈추었다가 다시 출발하기 전 그 찰나의 순간에 우리는 도로의 방향과 그 위에 차들의 움직임을 살피고, 신호등과 표지판에 나온 정보를 체크한다. 그리고 진행에 영향을 줄 수 있는 횡단보도의 위치와 보행자의 움직임, 저 멀리 갑작스레 다가오는 오토바이까지 모두 시야에 두고 안전하다고 상황이 확인되면 출발한다.  


매틀랩 딥러닝 자료 - 학습을 통해 눈으로 보는 사물들을 기계도 인식하게 된다.


이런 상황 판단은 대부분 눈을 통한 시각적인 정보를 통해 이루어진다. 뇌의 일부가 나와서 눈이 되었다는 학설처럼 눈은 뇌와 밀접하게 연계되어 축적된 경험을 통해 대상을 인지하고 움직임을 파악하고 잠시 뒤에 일어날 수 있는 상황을 예측한다.  

자율 주행 차량에 쓰이는 다양한 센서들

자율 주행에서 가장 기본이 되는 것이 이렇든 주변 상황을 인지하는 기능이다. 안전을 위해서는 날씨가 좋지 않은 상황에서도 확실한 인식이 필요하기 때문에 카메라, 레이다, 라이다와 같은 다양한 센서들이 필요하다. 각 센서들마다 장단점이 있기 때문에 대부분의 자율 주행 시스템은 두 개 이상 종류의 센서들을 복합적으로 활용되고 있다.  

영상은 픽셀 단위로 수치화되고 형태와 특징에 따라서 분류된다.

특히 사물을 직접 측정하는 레이더나 라이다와 달리 카메라로 획득하는 영상은 정보 그 자체로는 바로 활용할 수 없다. 사람도 눈을 통해 보는 세상에 대해서 어떤 특징들이 있는지 배우는 학습의 과정이 필요하듯이 자율 주행 시스템도 영상 자체를 수치화하고, 수치적으로 나타나는 특징들을 통해 주행에 영향을 주는 대상의 타입을 분류하고 기억한다. 동시에 다른 센서들로부터 측정한 데이터와 비교 분석해서 인식의 판단이 적합한지를 검증 확인하는 작업을 반복함으로써 인식률을 높이는 학습의 과정을 겪어야 한다. 두 눈이면 되는 인식의 과정을 모사하는데 수많은 센서들이 필요한 이유가 여기에 있다.  

브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari