마침내, 로봇이 온다 #06
하 은 작가님, 딜레마가 뭔지 아시죠?
은 '두 가지 중 하나를 골라야 하는 상황'을 말하는 거 아닌가요?
하 네 맞습니다. 어원을 따지자면, 'di(두 번) + lemma(제안, 명제)' 두 가지 의미가 합쳐져서 만들어진 말이지요. 오늘은 딜레마 이야기로 시작을 해보려고요. 혹시 '트롤리 딜레마'라는 단어를 들어보셨나요? ( 은 아니요. 못 들어봤습니다. ) 인공지능 분야에서는 꼭 나오는 얘기인데 원래 미국의 정치철학자 마이클 샌델이 그의 책에서 소개한 내용입니다. 작가님도 한 번 생각해 보세요. 열차가 막 다가오고 있는데, 주인공은 레버를 당겨 선로를 바꿀 수가 있습니다. 한쪽으로 가면 5명의 인부를 덮치고, 다른 쪽으로 가면 1명의 인부를 덮치게 됩니다. 그런 상황에서 작가님은 어떤 선택을 하실 건가요?
은 그거야, 1명 쪽으로 가게 레버를 당겨야 하는 거 아닌가요?
하 언뜻 생각하면 그럴 것 같은데, 만약 그 한 명이 작가님이 사랑하는 연인이라도 그렇게 하시겠어요? ( 은 네? ) 죄송합니다. 딜레마 상황이라는 게 원래 그래요. 어느 쪽을 선택하는 게 옳은지 쉽게 단언하기가 어려운 그런 문제입니다. 왜 이 '트롤리 딜레마' 상황이 자주 연급되냐면 자율주행차가 실제로 맞닥뜨릴 수 있는, 다시 말해서 현실에서 곧 발생할 수 있는 문제이기 때문일 겁니다.
은 그렇겠네요. 운전자가 손을 뗀 자율주행 상황에서 전방에 갑자기 아이를 안은 여성이 길에 뛰어들었는데 헨들을 꺾으면 운전자가 다치고 그러지 않으면 여성과 아이가 사망하게 될 상황이라면... 참 쉽지 않은 문제입니다. 자율주행 AI의 결정 책임이 될 텐데, 이런 문제를 어떻게 해결하고 있는지 궁금합니다.
하 네, 아주 잘 보셨네요. 그런데 제가 지금 얘기하려는 건 결론부터 말씀드리면 자율주행차의 문제보다 새 로봇이 발생시킬 딜레마 문제가 훨씬 더 어렵고 복잡할 거라는 점입니다.
'새 로봇'은 훨씬 더 복잡한 윤리적·법적 문제를 초래할 것이다.
은 왜 그렇죠?
하 아까 자율주행에서 발생하는 '트롤리 딜레마' 얘기를 다시 한번 생각해 보죠. 자율주행 기능을 갖고 있는 자동차가 있다고 칩시다. (1) 자율주행 기능이 있어도 만약 그 기능을 켜지 않고 인간이 운전하는 상황이라면 핸들을 어느 방향으로 꺾던지 결과에 대한 책임은 인간에게 있습니다. 당연한 얘기죠. 행위자, 즉 결정을 내린 주체가 인간이기 때문입니다. (2) 만약 인간이 핸들에서 손을 떼고 자율주행차의 AI가 핸들을 돌린 것이라면, 행위자는 AI입니다. 따라서 그 결과에 대한 책임은 AI(또는 AI 제조사)에 있습니다. 100%는 아니라도 말이죠. 행위자가 누구인지가 비교적 분명합니다. (물론 이런 문제를 피하기 위해서 '자율주행이라도 인간에게 책임이 있다.'이런 식의 문구를 약관에 넣겠지만 말입니다.)
그런데 말입니다, '새 로봇'은 자동차의 문제와는 약간 다른 점이 있습니다. 바로 위에서 본 것처럼 자동차의 경우는 인간이 핸들을 쥐거나, AI가 핸들을 쥐거나 둘 중의 하나이고 중간은 없습니다. 그런데 로봇은 좀 애매합니다. 로봇은 '행위자'임에는 틀림없는데, 이 로봇의 행위는 대개 인간이 '무엇을, 어떻게 지시했는지'에 의해서 촉발되는 것이기 때문입니다.
은 잘 이해가 안 가는데 예를 들어 설명해 주시면 감사하겠습니다.
하 실험정신이 충만한 제가 테슬라의 옵티머스를 샀다고 가정하겠습니다. 공상과학 같은 얘기가 아닌 게 일론 머스크는 옵티머스를 2025년에 출시한다고 말했습니다. 두 가지 사례를 들어볼게요.
(1) 하리리 소장이 새로 산 옵티머스를 자랑하려고 여자친구를 집에 초대했다. 그는 아무 거나 로봇에게 시켜보라고 우쭐해했다. 여자친구는 '망고를 깎아오라'라고 지시했다. 옵티머스는 잠시 후 피투성이가 된 강아지를 쟁반에 담아 가져왔다. 그 강아지 이름이 '망고'였다. 하 소장의 여자 친구는 강아지 이름을 몰랐고, 마침 냉장고에 남았을 거라고 하 소장이 얘기했던 망고는 떨어지고 없었던 거다.
(2) 옵티머스를 사는 데 재산을 탕진하고 가난해진 하 소장은 사흘을 내리 굶었지만 자존심 탓에 아무에게도 도와달라는 얘기를 하지 못했다. 하 소장은 옵티머스와 함께 범죄를 저지르기로 했다. '계산은 내가 할 테니, 편의점에서 내가 장바구니에 담은 물건을 들고나가라'라고 옵티머스에게 지시했다.
은 말도 안 됩니다. 절대로 소설가 같은 건 할 생각 하지 마세요.
하 네. 그럼요. 저도 압니다. 둘 다 과장된 이야기인 건 맞습니다. 그런데 제가 보기엔 실제로 그런 일이 일어나지 말라는 보장도 없습니다. 강조하고 싶은 건 아까 말씀드렸듯이 자율주행 자동차와는 달리, 로봇의 경우는 행위자가 로봇이라도 그 행위를 촉발시킨 인간의 문제가 끼어든다는 점입니다.
(1)의 경우는 인간의 의도가 로봇에게 잘못 전달될 경우 벌어질 수 있는 극단적인 사례를 든 겁니다. 강아지 망고는 비참한 최후를 맞게 되었는데 그게 누구 잘못일까요? 그게 100% 옵티머스의 잘못이라고 할 수 있을까요?
(2)의 경우는 인간이 악한 의도를 가지고 여러 가지 제한사항(예를 들면 프로그램상의 제약이나 약관 등등)을 교묘하게 회피해서 나쁜 짓을 로봇에게 시킬 경우 그 결과를 누가 책임질 수 있을까요? 지금도 대규모 언어모델 중 하나인 GPT는 여러 가지 제한이 걸려있는데, 그 제한을 풀고 이상한 질문을 하려고 노력하는 사람이 수도 없이 많습니다. 'GPT 탈옥'이라는 키워드를 넣으면 친절하게 그 방법을 알려주는 콘텐츠가 주르륵 나옵니다. 일종의 해킹이죠.
일론 머스크의 옵티머스는 굉장히 빠른 속도로 발전하고 있습니다. 가장 최신의 동영상을 보면 걸음걸이가 사람의 움직임을 뺨칠 정도로 부드러워졌습니다. 이 동영상을 본 사람들의 반응에 '두려움'이 나타나고 있습니다.
은 저는 아무래도 실감이 잘 안 나는데... 다른 독자님들은 어떠신지 모르겠네요.
하 그런데 더 큰 문제는 뭔지 아십니까?
은 더 큰 문제가 있습니까?
하 혹시 요즘 '온라인 플랫폼 공정화법(온플법)'을 둘러싼 논란을 들어보셨는지 모르겠네요. 아, 작가님 미디어스크랩 매일 하시니까 당연히 아시겠네요. ( 은 네 그렇죠. ) 그 내용은 지금 주제와 전혀 관계가 없으니까 그냥 넘어가고요, 제가 하고 싶은 말은 어떤 법제도가 만들어지는 과정이 결코 간단하지 않고 시간도 굉장히 많이 걸린다는 겁니다. 유럽연합 같은 경우가 그런 대응(페이스북의 개인정보 문제, 애플 충전단자 통일 문제 등)을 몹시 강력하게 하는 편인데도, 새로 등장한 기술이 초기에 침입하고 확산하는 상황을 아주 효과적으로 사전에 차단하지는 못하는 것 같습니다. 결론만 얘기하면, 만약 테슬라의 옵티머스라는 로봇이 2025년 정말 출시가 된다고 하면 분명히 우리나라에서 살 사람이 있을 텐데, (1) 제품의 수입을 막을 수 있는 방법이 없고 (2) 수입되었을 때 발생하는 문제에 대해 처리할 법적 제도적 장치는 그 시점에 마련되었을 리 없다는 게 제 생각입니다. 그러면 매우 혼란스러운 상황이 벌어지겠죠.
은 글쎄요, 저는 하리리 소장님의 그 생각이 굉장히 한가하게 들리는데요?
하 그건, 무슨 말씀이시죠?
은 하다못해 키오스크가 들어온 뒤로 알바 자리 구하기가 진짜 어려워졌는데, 이런 '새 로봇'이 대량생산되기 시작하면 그야말로 전 세계적으로 큰 문제가 발생하지 않을까요?
(다음 회에 계속됩니다.)
로봇과 인공지능 머신러닝 시대에서 '트롤리 딜레마'는 어떻게 해결해야 되는가! < 칼럼 < 오피니언 < 기사본문 - 테크데일리(TechDaily)
Musk's Optimism for Tesla's Optimus Rollout Might Be Misplaced (businessinsider.com)
https://www.youtube.com/watch?v=4gy6ptYOv8Uhttps://www.dailymail.co.uk/sciencetech/article-13032129/Elon-Musk-Teslas-Optimus-robot-walk.html
공정위, 플랫폼법-온플법 서로 다르다는데…업계 또 '악몽' - ZDNet korea
“대비 안 하면 인류 끝난다”…전 세계 ‘AI 규제’ 비상 걸린 이유는?[박민기의 월드버스] - 매일경제 (mk.co.kr)