brunch

You can make anything
by writing

C.S.Lewis

by 키르히아이스 Dec 30. 2023

테슬라가 자율주행을 카메라만으로 하는 이유

 바야흐로 자율주행의 시대가 열리고 있다. 각 회사마다 자율주행이라는 말만 안 하지 거의 비슷한 서비스를 제공하고 있고 사람들의 반응도 이제는 익숙해진 것 같다. 그런데 유독 테슬라만 다른 길을 가고 있어서 눈여겨보게 되었는데 최근 테슬라의 자율주행 청사진이 어느 정도 드러나는 뉴스들이 있어서 이를 분석해 보겠다.


 테슬라 자율주행의 특징은 크게 3가지이다. 하나는 라이다, 레이다 센서를 제외하고 오로지 카메라에만 의존하는 비전 기술. 또 하나는 슈퍼컴퓨터가 개입하는 인공지능기술. 세 번째는 네트워크에 결합된 자동차이다.

 다른 회사들은 자율주행이라는 겉모습만 따라가려고 그저 그때그때 기술만 붙이고 있는데 테슬라는 기술이 완벽히 조화된 미래 청사진을 가지고 있어 발전의 경로가 아예 다르게 가고 있다.


특징을 하나하나 분석하면서 테슬라 자율주행의 차이점과 지향점을 알아보겠다.


먼저 비전기술인데 테슬라는 카메라만 이용하여 사물을 인식하고 여기서 얻은 데이터로 자율주행을 구현하고 있다. 언듯 봤을 때는 당연히 라이다, 레이더 센서들이 있으면 더 안전할 텐데 굳이 그럴 필요가 있나 싶다. 여기서 미래 청사진 없이 기술로만 해결하려는 기술자 마인드의 한계가 보인다. 


 기존 자동차 업체들은 이미 라이다, 레이다 센서를 운용하고 있었다. 자율주행은 아니지만 주차나 안전보조를 위해서 장착해 사용했고 익숙한 부품이었다. 따라서 자율주행이라는 주제가 나왔을 때도 기존의 기술을 이용해 편하게 이동하고자 했다. 뿐만 아니라 깊게 생각해보지 않으면 엔지니어나 일반인 모두 센서가 많으면 더 안전할 거라고 생각할 수밖에 없다. 나도 처음엔 그랬다. 2022년 발행된 국내 굴지의 모 금융기관의 보고서에도 이런 시각이 나타나 있다.


 이 보고서는 2022년 말에 레벨 3가 상용화되고 본격적으로 자율주행 시장이 개화될 것으로 예상했으나 1년이 지난 지금도 그런 모습은 나오지 않았다. 실제 기술을 평가하지 않고 오로지 제조사들의 발표만 믿은 결과이다. 이 보고서가 10월에 나왔는데 불과 두 달 뒤 전혀 상반된 기사가 나왔다. 포드와 폭스바겐의 자율주행 합작사업이 폐업됐고 여러 회사의 자율주행 연구가 지연되고 있다는 것이다. 언론들은 여기에 테슬라까지 끼워 넣으며 자율주행을 포기하고 있고 현대차만 추진한다고 찬양을 늘어놓는다(출처: 머니투데이, 2022.12.13, https://news.mt.co.kr/mtview.php?no=2022121311121494556). 1년이 지난 지금 테슬라가 자율주행을 포기했는가? 기술이 정체되기라도 했는가?.

일부 기사들에 따르면 저속에서 레벨 3는 가능하지만 고속에서는 어려움이 있다는 얘기도 있다(출처: 브릿지경제, 2023.11.10, http://m.viva100.com/view.php?key=20231109010002703). 여기까지만 봐도 보고서 내용이 별로 현실과 맞지가 않다. 이런 걸 보면 특히 금융권에서 나오는 보고서가 무슨 의미가 있나 싶다. 전문성은 물론이고 내용 자체도 별로 안 맞는다. 


 이 보고서는 각 회사의 자율주행 기술이 평준화되었다고 하는데 이것도 전혀 사실과 다르다. 현재 가장 앞서있는 기업은 테슬라이고 나머지 기업들이 쫓아가는 양상이다. 이것은 단순히 레벨 몇을 달성했느냐로 판단할 수 있는 게 아니라 상용화가 가능한가, 제조사가 책임질 수 있는가 등 현실적인 문제들까지 봐야 한다.


 왜냐하면 레벨 3는 제한된 조건에서 돌발상황이 없을 때 자동차 스스로 주행하는 것인데 이 정도는 인공지능 없이 센서만 주렁주렁 달아놓으면 기계적으로 얼마든지 가능하다. 앞에 차가 있으면 속도를 줄이고 도로의 선을 따라 정속주행하면 된다. 아무리 테슬라에 선수를 빼앗겼어도 100년 역사의 자동차업체들이 이 정도도 못할 수준은 아니다. 중요한 것은 레벨 4, 궁극적으로 레벨 5까지 갈 수 있는 로드맵을 갖고 있느냐이다.


 이 보고서에는 레이더, 라이다, 카메라 등 센서를 중복활용해서 서로 단점을 보완하고 정확도와 안정성을 크게 높일 수 있다고 쓰고 있다. 일반인이 보기에도 그럴 것 같다. 당연히 센서가 많으면 더 안전하겠지. 그런데 실제로 그럴까?


틀린 말은 아니지만 이건 아주 1차원적인 생각이다. 여기서 간과하고 있는 것이 있다. 여러 개의 센서를 중복활용해서 데이터를 종합적으로 처리하는 것을 센서퓨전(Sensor Fusion)이라고 하는데 전투기에서 많이 활용되는 기술이다. 전투기는 사방에서 오는 다양한 공격과 안전을 보장해야 하므로 각종 센서가 달려있고 이 데이터를 한 번에 처리할 필요가 있다. 그래서 각기 다른 종류의 센서가 달려있고 내부에서 종합적으로 이것을 처리한다.


 이것을 차량에서도 비슷하게 처리한다고 보면 되는데 문제는 각기 다른 센서는 각기 다른 형식의 데이터를 생산하고 도로환경에서 이것을 거의 실시간으로 통합하고 판단하는 것이 엄청난 일이 된다는 것이다. 예를 들어 라이다는 2차원 데이터이고 레이더는 3차원데이터, 카메라는 2차원데이터+색깔+명암이라고 해보자. 이걸 어떻게 합칠 것인가?(예를 들은 것이니 실제로 데이터 형식은 다를 수도 있다). 


앞에 차가 있냐 없냐 그것만 알고 싶은데 이렇게 복잡한 데이터를 통합해야만 결과를 알 수 있다면 도대체 이걸로 시시각각 변하는 도로에 어떻게 다닐 것인가. 각 센서의 단점을 상호 보완해 준다고 하지만 뒤집어 말하면 어느 센서도 제대로 책임지지 못한다는 얘기일 수도 있다. 반면에 테슬라는 카메라만 써서 오로지 화상으로 분석하고 최근엔 사물과 공간을 아예 3D로 재구성하는 수준까지 왔다. 그냥 앞에 차가 있어서 피한다가 아니라 앞에 있는 차는 트럭이고 길이가 어느 정도이고 속도는 어느 정도인지 다 나온다는 것이다. 그것도 실시간으로.

 이게 가능한 이유는 카메라 데이터만 분석하면 되니 데이터 종류와 형식이 한 가지이고 따라서 연산의 난이도와 복잡도가 훨씬 줄어들기 때문이다. 기성차 업체들은 당장 구현에 급급해 예전에 하던 엔지니어 마인드로 그저 센서만 주렁주렁 달고 있다. 더 정확하게 처리하는 게 중요한 게 아니고 간단하게 처리하는 게 중요하다. 정확도는 그 후에 높여가면 된다. 처음에 높은 정확도를 얻으려고 수십 개의 센서를 달면 초기 결과는 좋을지 몰라도 높은 복잡도로 인해 개선이 매우 어렵기 때문에 상용화하기가 무척 어렵다. 


 앞의 보고서에 따르면 차량에 탑재한 평균 센서 개수는 카메라 11개, 레이저 12개, 라이더 6대라고 한다. 현대차 홈페이지에 공개된 아이오닉 5 로보택시의 센서개수는 도합 30개나 된다. 30개의 각기 다른 센서 데이터를 조합해서 하나의 결론을 낸다고 생각해 보라. 어렵겠는가 쉽겠는가? 


 테슬라는 원래 카메라, 레이더, 초음파 등 3가지 센서가 달려있다가 2021년에 레이더를 없앴고 2022년 10월에는 초음파 센서까지 없앴다. 카메라 8대만 가지고 자율 주행을 하겠다는 것이다. 일론 머스크는 앞에서 말한 센서퓨전의 복잡도 문제를 미리 견지하고 애초에 방향을 카메라 하나로 잡은 것이라고 본다. 더 놀라운 건 이것이 로봇까지 이어진다는 것이다. 테슬라는 옵티머스 2 로봇을 공개했는데 이 로봇은 오로지 카메라로만 모든 것을 인지하고 판단/행동한다. 테슬라의 자율주행 기술이 여기서 그대로 사용되고 있다.

 하나의 기술개발을 하고 있지만 이미 두 가지 사업이 진화하고 있는 것이다. 다른 업체들이 로봇을 만들려면 또 30개의 센서(그보다 적을 수도 있다)를 융합하는 짓을 해야 한다. 이것은 개발자 용어로 생노가다이다. 게다가 여기에 인공지능까지 끼어들면 그야말로 환장파티가 벌어질게 눈에 선하다. 로봇처럼 작은 몸체에 그 많은 센서를 어디다 달 것이며 각각의 제어는 어떻게 할 것인가? 자동차는 큰 배터리라도 있지 로봇은 서있기만 해도 배터리가 나가는데 이 많은 센서 전력소모는 어떻게 감당할 것인가? 문제가 한두 가지가 아니다. 머스크는 여기까지도 내다본 것이다.


 여기에는 돈 문제도 걸려있다. 3가지 센서를 개발하고 센서 퓨전하는 기술을 개발하는데 얼마나 많은 돈이 들겠는가? 아웃소싱 한다고 해도 어쨌든 각기 다른 센서를 사들여야 하니 비용이 들 것이다. 테슬라는 카메라만 대량 생산/도입하면 된다. 그리고 화상을 분석하는 비전 기술에만 연구비를 투자하면 된다. 이건 3차원 방정식을 푸는 사람과 1차원 방정식을 푸는 사람 중 누가 더 쉽냐고 묻는 것과 같다. 현 상황에서 기성차 업체는 계속 3차원 방정식을 풀어야 하고 나중에 가면 되돌리지도 못해 족쇄가 되고 말 것이다.


 게다가 센서는 예민해서 잘 고장 나는 데 센서가 30개나 달려있으면 그 유지비는 어떻게 감당할 것인가? 차는 고속으로 이동하고 야외에서 사용하므로 고장 날 가능성도 더 높다. 예전에 독일차를 몰 기회가 있었는데 명성에 비해 센서가 금방 고장 났다. 무상보증기간이라 부담 없이 교체했지만 부품가격은 90만 원 정도가 나왔던 것으로 기억한다. 그때보다야 가격이 내렸겠지만 알아보니 최근 라이다 센서가 혁신적으로 내린 가격이 개당 500달러(출처: 조선일보, 2023.02.28, https://www.chosun.com/economy/auto/2023/02/28/4IWVDCUVKBFNFHZCIWWLD7DANY/)라고 한다. 레이더 센서는 라이더보다 싼 편이다. 앞으로 가격이 내려간다고 해도 그 많은 센서에 대한 유지비는 적지 않을 것이다. 카메라 같은 경우 이미 오래전부터 대량 생산되고 있어서 훨씬 유리하다.


보고서는 테슬라방식의 장점을 이미 개발되어 있는 카메라 기술이라서 개발이 용이하고 비용도 절감된다고 단순히 요약하고 단점은 악천후, 야간에서 판단능력이 떨어진다는 것으로 언급하고 있다. 같은 결론이지만 내가 말한 이유와는 다르다. 단점에 관해서는 나도 동의하며 초기에는 분명히 겪을 수밖에 없다고 생각한다. 유지보수나 상용화 생각 안 하고 눈을 수십 개 달면 당연히 더 안전한 것처럼 보이겠지만 상용화라는 커트라인을 긋고 보면 센서퓨전은 분명한 한계가 있다. 

 비전기술은 지금도 계속 발전해 악천후/ 야간에도 잘 볼 수 있도록 변화해 갈 것이다. 이미 그런 기술들이 나오고 있다. 야간비전시스템(출처: 연합뉴스, 2023.07.27, https://www.yna.co.kr/view/AKR20230725081200518), 저조도 영상변환기술(출처: AI 타임즈, 2021.09.01, https://www.aitimes.com/news/articleView.html?idxno=140424). 테슬라 외부의 기술개발이 이 정도이니 테슬라 내부에서 거액의 투자를 받은 연구그룹은 훨씬 좋은 성과를 가지고 있을 것으로 예상된다. 적어도 인간 수준의 인식능력을 가지는 데까지는 큰 무리가 없을 것으로 보인다. 카메라의 특성상 그보다 나으면 나았지 못할 이유는 없기 때문이다. 


개발 시 복잡도 문제는 아무래도 소프트웨어적인 부분이라 개발자를 했던 사람이 지적할 수 있는 문제이다. 예전에 내가 개발자였을 때 이미지 여러 개를 처리하기 위해 동일한 크기의 2차원 배열로 처리를 했었다. 근데 만약 서로 다른 크기의 배열이 들어온다든가 심지어 3차원 배열이 섞여 들어온다면 그걸 처리하기 위한 난이도는 기하급수적으로 높아졌을 것이다. 난이도가 높아지면 자연히 오류도 많아지게 되어있다. SDV(Software Defined Vehicel)라고 내세우지만 진짜 SDV는 테슬라처럼 자동차를 거의 컴퓨터로 보는 시각이 우선이다. 개발자 마인드가 없이 기계공학적 마인드로만 보니까 계속 센서만 늘리는 것이다.


 전투기와 자동차는 다르다. 전투기는 애초에 높은 고도에서 시각적인 것이 큰 도움이 안 되고 주로 먼 거리에서 위협이 다가오기 때문에 높은 비용에도 다양한 센서를 달아 센서퓨전을 하고 있는 것이다. 전투기 자체가 고가이고 이를 지불할 의사가 있기 때문에 비용이나 유지보수는 큰 문제가 안된다. 하지만 2천만 원짜리 차에도 들어가야 할 자율주행은 이렇게 구축될 수가 없다.


 테슬라 자율주행의 두 번째 특징은 인공지능이다. 요즘엔 아무나 인공지능을 떠들어대니 심지어 온도에 맞춰서 가전제품이 꺼지는 기능까지 인공지능이라고 홍보한다. 차라리 현관 번호키를 인공지능이라고 하지. 어이가 없다. 자율주행이 진정한 의미의 인공지능으로 되기 위해서는 연산이 들어가야 한다. 거리가 가까우니 멈추고 거리가 머니까 속도를 높이고 이런 건 인공지능이 아니다. 그냥 기계다.

 까놓고 말해 인공지능을 안 쓸려고 하니까 센서수가 늘어나는 것이다. 멀리 보기 위해서 레이더를 달고 정확하게 보기 위해 라이다를 달고 그것도 부족하니 카메라를 단다. 이건 인공지능도 뭐도 아니다. 이건 마치 로봇을 만들었는데 요리하기 위한 팔(Arm)과 공장에서 일하기 위한 팔, 뜨개질을 하기 위한 팔을 따로 갖고 있는 것과 같다. 이래 가지고는 멋진 괴물밖에 안 된다.


 테슬라는 엔비디아 칩을 사용한 슈퍼컴퓨터를 운용하고 있는데 테슬라가 모은 주행데이터로 자율주행 AI학습을 하는데 활용되고 있다. 여기서 나온 자율주행 소프트웨어가 테슬라 차에 탑재되는 것이다. 그런데 이것도 모자라 2023년부터 자체 전용칩을 활용한 슈퍼컴퓨터 도조의 생산을 시작했다. 이것으로 더 발달된 자율주행 소프트웨어가 나오는 것이다. 이것이 진짜 인공지능인 것이다. 학습은 1도 없이 센서에 따라 이리가고 저리 가는 건 인공지능이 아니고 자율주행도 아니다. 그런 건 차라리 자동주행이란 말이 어울릴 것이다.


 지금 다른 자동차 회사들은 좌충우돌의 연속이다. 개발기간을 늘렸다 줄였다 회사를 인수했다가 포기했다가 한다. 왜냐하면 애초에 이런 청사진을 그리지 않고 그저 자동으로 가는 자동차만 만들려고 했기 때문이다. 


 테슬라 자율주행의 마지막 차이점은 네트워크 기반의 자율주행이다. 이 부분은 아직 부각되지 않았는데 차량이 망에 연결되어 각종 정보를 실시간으로 교환하면서 움직이는 것이다. 홍보용으로 많은 회사들이 주장하긴 하지만 실제 구현은 그리 간단치 않다. 이것은 나 혼자 자율주행에서 한 걸음 더 나아간 것으로 예를 들면 앞차에서 얻은 도로정보가 뒤차로 전달되는 것이다. 이건 상상력에 따라 얼마든지 확장될 수 있는 기능인데 예를 들어 초행길이라고 해도 예전에 왔던 차량이 있다면 훨씬 원활하게 자율주행이 가능할 것이다. 

 사실 이 시작이 바로 OTA인데 이것도 차량을 컴퓨터로 보기 때문에 들어간 혁신적인 기능이다. 마치 휴대폰을 업데이트하듯이 차량을 업데이트할 수 있는데 차량에 네트워크 통신기능을 넣은 것은 이것만을 위한 것이 아니었다. 궁극적으로 슈퍼컴퓨터, 다른 차량과 실시간 통신할 수 있게 된다면 더욱 완성도 높은 자율주행이 가능할 것이고 그게 안 되는 차량과 비교하면 하늘과 땅 차이가 될 것이다.


 여기에는 스타링크가 역할을 하게 될 텐데 여기까지 가면 자율주행이 3차원으로 변하게 된다. 스타링크를 통해 차량의 위치를 정확히 알 수 있게 되고 교통량, 도로사정, 날씨까지 정보를 종합해서 자율주행을 할 수 있게 된다. 아무리 낯선 곳이나 외진 곳을 가더라도 자율주행에 문제가 없는 것이다. 스타링크가 가세하면 항시 네트워크가 가능해지므로 다른 차들은 범접할 수 없는 수준의 정보를 가질 수 있다. 


 일부에서는 도로가 자율주행 데이터 생산/공급의 주체가 되어서 지나가는 차량들에게 전송해 주는 게 어떠냐는 아이디어를 낸다. 급한 대로 쓸 수 있는 기능이긴 하다. 근데 만약 그렇게 했다가 도로가 잘못된 정보를 주면 대형 사고가 일어날 것이다. 전국에 그런 시설이 깔려있으면 고장도 잦을 텐데 그때마다 도로가 마비된다고 생각해 보라. 신호등은 고장 날 일이 별로 없다. 하지만 센서와 컴퓨터가 붙어있는 시스템은 다르다. 이런 시스템을 산간벽지까지 다 설치할 것인가? 그래야 할 이유는 있는가.


 스타링크와 자율주행이 결합된 모습이 궁극적인 자율주행의 모습이 아닐까 하는데 아무튼 소비자가 자율주행을 볼 때는 몇 레벨인지만 볼 것이 아니라 이런 점까지 봐야 호구가 되지 않을 수 있다.


 아이폰이 나왔을 때도 그랬고 도요타 하이브리드가 나왔을 때도 그랬다. 비슷한 건 만들 수 있지만 그 정도로 심오한 것은 만들 수 없다.

매거진의 이전글 생성형 인공지능 전쟁에 애플도 뛰어들었다.
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari