brunch

우리가 바라보는 것들에 대한 의심?

삐뚤어진 시각이 아닌 Critique

by 원진

어떤 식으로 시작하면 좋을지 고민하다가 어렵게 꺼낸 주제이다.

뉴스에 등장한 한 성공한 청년의 이야기들을 들으면서

나도 모르게 그의 지적인 모습과 성공한 모습을 열망하는 마음이 생겼다.

그러다 보니 또 궁금해져서 그를 좀 파보았다... 그러자 새로운 결론에 도달했다.

알렉산더 왕(Alexander Wang)은 Scale AI의 창립자이자 CEO

그의 회사 Scale AI는 AI 응용을 위한 엄청난 학습 데이터를 제공하는 것으로 유명하다.

데이터 라벨링과 관리 작업을 통해

자율주행 차량, 로봇 등 다양한 산업에서 Machine Learning Model의 성능을 향상하는 데 사용되고 있다.

자율주행차의 데이터 라벨링은 이미지와 영상에서 보행자, 교통 표지판, 차량 등의 객체를 식별하는 작업이다.

여기까지는 정말 우리 삶의 필요한 기술을 개발하고 그가 그에 걸맞은 부를 얻었다고 생각했다.

그의 프로필을 찾아보던 와중

알렉산더 왕이 미국 국방부와 계약을 체결했다는 소식은 찾았다.

갑자기 두려움이 확 몰려들면서

정말 위험하다는 신호를 느꼈다.


그의 기술은 나쁜 기술이라고

단순하게 바라볼 수는 없다.

그러나 지금 이야기하는 부분은

AI가 미친 듯이 발전하게 되고

자율 주행 기술이 이렇게 까지 주목받고 돈을 축적하는과정은 필시 엄청난 수요가 (돈 많은 누군가의 지원?)

있어서가 아닐까 하는 생각이 들었다.


이것들이 위험하다고 이야기하는 이유는

역사를 돌아보면, 인류는 자원과 권력을 둘러싼 갈등을 반복해 왔다.


그러나 전례에 없고 특별하고도

위험한 도구가 될 수 있는

AI 시스템이 군사화될 경우

자율주행차를 위해 설계된 객체 식별 기술이

전쟁에서 인간 목표를 식별하는 데 사용될 수 있다.

AI 기술의 선두주자인 미국의 입장에서 이러한 시스템을 효과적인 승리를 위해 목표를 더 정밀하게 식별하는전략적 이점을 제공할 수 있다고 생각했다.

이는 미래 전쟁의 성격에 대한 심각한 우려를 불러일으킨다.

그저 나는 이 기술이 참 동전 앞 뒷면처럼 아름답기도 하고

또 누군가를 죽일 수도 있겠다는 생각을 하게 되었다.

실제로 이미 가자지구와 같은 군사적 맥락에서 자율 로봇이 사용되고 있다는 증거가 증가하고 있다.

이러한 로봇은 정찰 및 공격적 목적을 위해 배치된 것으로 알려져 있다.

AI의 군사화는 중대한 윤리적, 안보적 딜레마를 제기한다.

그러나 이런 딜레마를 해결할 수 있는 법적인 제한이 있는가에 우리는 집중해야 된다.


현재 유엔은 치명적인 자율 무기의 사용을 제한하는 논의를 진행 중이나,


유엔이라는 존재 자체가

2차 세계대전 이후 평화 유지를 하기 위한 국제적 약속이 모인 기관이지만

미국의 참여가 아니라면 유엔의 존재는 태어나지도 않은 셈이다.

결국 부모님 중 하나를 견제할 수 있냐는 것인데

그렇다면 우리가 Veto Power를 생각하지 않을 수가 없다.

Veto Power은 거부권 즉, 특정 나라가 국제적인 결정을 막을 수 있는 권한이다.

유엔 안전보장이사회(UN Security Council)에서 중요한데,

여기엔 5개 상임이사국이 있다.

미국, 영국, 프랑스, 러시아, 중국

이 나라들은 어떤 안건이 나와도,

한 나라라도 반대하면 그 안건은 자동으로 무효가 된다.
→ 즉, 4개 나라가 찬성해도, 1개 나라가 "NO" 하면 끝이다.


전투에서 독립적으로 결정을 내릴 수 있는

자율 로봇은

우리 사회에 깊은 윤리적 문제를 야기한다.

생사 결정을 기계에 위임하는 것은

국제 인도법을 위반할 위험이 있으며,

갈등의 예측 불가능한 확산으로 이어질 수 있다.

일부 국가는 윤리적, 인도주의적 이유로 엄격한 규제를지지하지만, 전략적, 경제적 이익을 이유로 이를 반대하는 국가도 있다.


인공지능의 민간 분야에서는 의료나 교통 등 산업별로 보다 명확한 안전 기준과 규제가 존재하지만,

전 세계적으로 자율 시스템에 대한 규제 체계는 여전히 단편적이고 불완전하다.


인공지능의 관련해서는 단순하게 알렉산더 왕만 존재하는 것이 아닌

보스턴 다이내믹스(Boston Dynamics)

팔란티어 테크놀로지스(Palantir Technologies)

제너럴 다이내믹스(General Dynamics)

록히드 마틴(Lockheed Martin)

그리고 Scale AI가 있다.

Scale AI는 로봇을 직접 제작하지는 않지만,

이러한 자율 시스템의 작동에 필수적인 학습 데이터를 제공하는 핵심적인 역할을 한다.


이스라엘은 가자지구에서 자율 로봇, AI 기반 무기 및 정찰 시스템을 이미 사용하고 있다.

이스라엘의 로보팀(Roboteam)은 미 해병대에 전술 로봇 약 200대를 공급한 바 있다.

이러한 상황은 자율 로봇의 사용을 규율하는 포괄적인 윤리적 가이드라인의 부재를 명확히 드러낸다.

마치 분쟁 지역을 실험 장소로 삼는 것은 결국 이 갈등의 해결보다는 더 찢어져서

영원히 봉합할 수 없는 상황을 만들고 있고

그 속에서 민간인들의 생명은 아무도 생각하지 않는다.

이 점에서 나는 강력한 국제적 규제와 관심이 필요하다고 생각했다.

아름다운 칼을 만들었으면 그걸 아무나 아무렇게나 휘둘러서는 안 된다.


결국 정부들이 자율 시스템의 규제를 꺼리고 고려하지 않는 듯한 이면에는 엄청난 경제적, 전략적 이익이 존재한다.

이 기술은 국가의 수익을 증가시키고 군사적 우위를 강화할 수 있는 귀중한 자산이다.

그러나 이윤을 우선시하는 접근은 오남용, 확산, 갈등의 격화를 초래할 수 있다.

혁신과 윤리적 책임 사이의 균형을 맞추는 잘 규제된 체계가 재앙적 결과를 방지하는 데 필수적이다.


결론적으로 첨단 군사 기술 개발과 폭력 의존의 순환은 갈등을 지속시키며, 이스라엘과 가자지구의 상황에서 보듯 해결 가능성을 더 멀어지게 만든다.

진정한 해결책은 군사화가 아닌 정치적, 사회적, 경제적 불평등의 근본 원인을 대화와 협력을 통해 해결하는 것이다.

알렉산더 왕과 같은 새로운 AI 시대의 등장하면서

새로운 부의 축적 방식에 걱정 어린 마음이 든다.

그들이 만든 혁신의 광범위한 영향을 비판적으로 검토해야 한다.

우리는 단순한 존경을 넘어서서

이 발전이 어떤 대가를 치르고 있으며,

결국 그 부담을 누가 지고 있는지 질문해야 한다.


우리는 이 기술의 미래를 지켜볼 것인가, 아니면 방향을 제시할 것인가?

keyword