brunch

You can make anything
by writing

C.S.Lewis

by Pen 잡은 루이스 Oct 11. 2023

인공지능 따위가 감히 세상을 판단해?

이 세상에 존재하는 일들을 AI의 판단에 맡길 수 있을까? 


"라면 어떻게 끓여 드시나요?"

"저는 파, 마늘, 양파, 고추, 깻잎, 콩나물, 버섯 등 각종 야채를 마구 넣어서 끓입니다. 면보다 야채에서 우러나오는 시원함과 깔끔함이 더 좋아서요"

어떤 기업에서는 '셰프봇'이라는 것을 제작해 제공하고 있습니다. 라면 하나를 주문했다고 가정합시다. 라면에 들어가는 물부터 면과 스프 그리고 각종 재료와 그릇만 준비해 두면 수분 내에 라면 한 그릇을 끓일 수 있습니다. 라면이라는 것은 저처럼 개인의 취향 따라 조리법이 달라지긴 합니다. 물을 많게 혹은 적게 하기도 하고 파나 고추 따위를 썰어 넣거나 김치나 치즈를 넣어서 먹기도 하죠. 그럼에도 불구하고 라면을 만드는 식품 제조사의 가이드대로 하면 더하거나 뺄 것도 없이 충분히 맛있는 결과물을 얻을 수 있다고 말합니다. 그러니 정해진 양만큼 정해진 시간대로 그리고 정해진 순서대로 이를 수행한다는 기준이라면 셰프봇만 한 것도 없겠죠. 사실 로봇이 라면 봉지에 적힌 조리법을 그대로 읽고 따라 하진 않습니다. 정해진 가이드대로 로봇에 입력하면 알고리즘에 따라 기계가 작동하는 것이죠. 식당 안에서 홀 서빙을 하는 로봇들도 있습니다. 각 테이블 사이사이를 누비면서 (사람이 만든) 음식을 제공하죠. 보통 이러한 로봇은 장애물을 회피하거나 장애물 앞에서 멈추는 등 센서에 의한 '자율주행'을 합니다. 물론 정해진 테이블까지 앞뒤좌우로 작동할 수 있습니다. 당연히 물류 배송도 가능하겠죠. 실제로도 필요한 산업 현장에 투입된 것이라 분명히 한 번쯤 목격했을 수도 있습니다. 처음에는 신기하기도 했지만 이제는 딱히 어색하지 않은 듯합니다. 


LG전자가 만든 배송로봇은 자율주행을 합니다.  출처 : lge.com


라면을 끓이고 물류를 배송하는 로봇에 '인공지능'이라는 타이틀을 붙일 수도 있겠지만 결국 기계공학과 로봇공학에 덧붙이는 부가적 요소일 수 있습니다. 공장에서도 사람을 대신하면서 반복적이고 단순한 업무를 위해 작동하는 기계들이 있을 테지만 굳이 인공지능이라고 표현하진 않습니다. 물론 스마트팩토리로 변화하고 있는 지금 산업 현장에서는 '인공지능'이 투입되고 있는 것도 사실이긴 하죠. 앞서 서빙로봇은 자율주행을 한다고 언급했습니다. 테슬라나 볼보 등 자동차 제조사들 역시 자율주행을 위한 연구를 멈추지 않고 있습니다. 통상 5단계에 이르는 자율주행 레벨을 두고 '완벽한 수준(완전자동화 : Full Automation)'이라고 말합니다. 사람이 손 하나 까딱하지 않아도 알아서 움직이는 자율주행 자동차 레벨입니다. 레이저를 어떤 피사체에 비춰 거리를 예측하는 라이다센서(LiDAR)는 기본이 되었고 장애물이나 주변 환경까지 파악할 수 있는 그래픽 요소까지 모두 갖출 수 있어야 합니다. 여기에 인공지능이 포함됩니다. 신호등의 색깔을 구분할 수 있어야 하고 우회전을 하면서 직진하는 차량은 없는지, 비보호에서 좌회전하는 방법 등 수만 가지 요소들을 확인하고 판단하면서 주행할 수 있어야 합니다. 그런데 자율주행 이슈에는 생명과 직결되는 요소가 있습니다. 자율주행과 인공지능에 대한 이슈에서는 '트롤리 딜레마(trolley dilemma)'가 빠지지 않고 언급됩니다. 저 멀리서 열차가 달려오고 있습니다. 선로 하나가 두 갈래로 나뉘는데 위쪽 선로에는 5명의 사람이 묶여있고 아래 선로에는 단 한 사람이 묶여 오도 가도 못하고 있는 상황입니다. 어느 쪽을 선택해도 누군가는 죽음을 맞이하게 됩니다. 더구나 저기 묶여있는 사람이 내 소중한 가족이거나 친구라면 더욱 '잔인한 조건'이 될 것입니다. 달려오는 열차에 사람이 만든 인공지능이 탑재되었다면 과연 어느 쪽을 선택하게 될까요? 여기서 인공지능이 할 수 있는 '최선의 선택과 판단'은 무엇일까요? 정상적이라면 저렇게 잔인한 조건도 내세우지 않겠지만 두 갈래로 나뉘기 이전에 제동장치가 잘 작동할 수 있어야겠죠. 


   

잔인한 트롤리 딜레마, "아니 뭐 말도 안 되는 소리야?"  출처 : 위키피디아


  

물론 트롤리 딜레마라는 것은 '제동장치가 고장 난 트롤리'를 기준으로 하고 있습니다. 사실 트롤리 딜레마는 어디에 중점을 두느냐에 대한 문제입니다. 말하자면 차량에 탑승하고 있는 운전자를 희생시킬 것인가 아니면 횡단보도를 건너가고 있는 보행자 즉 타인을 희생시킬 것인가 하는 문제죠. 모두가 웃을 수 있는 절대 만족의 조건은 없습니다. 사실상 불가능한 이야기죠. 어느 쪽에 중점을 두고 가치를 부여하느냐에 따라 인공지능 알고리즘이 만들어지게 될 텐데 윤리적 판단이라는 것을 결코 피해 갈 수 없을 것입니다. 


익히 알려진 사실 하나를 덧붙여봅니다. GPT3.5가 미국 변호사 시험을 본 적이 있다고 하죠. 이 시험은 모의시험이었으며 아쉽게도(?) 하위권을 기록했다고 합니다. 이후로 오픈 AI는 GPT3.5를 GPT4로 성장시켰고 급기야 상위 레벨 수준의 성적을 취득했다고 했습니다. 어찌 놀랍지 아니한가요? 무엇을 어떻게 학습했느냐에 따라 이야기는 달라집니다. 통상 매개변수라고 하는 학습 데이터를 얼마나 확보했는지 역시 매우 중요한 부분으로 여겨집니다. GPT2의 경우 약 15억 개, GPT3가 대략 1천750억여 개를 가졌다고 했고 그보다 업그레이드된 GPT4는 대략 10조 개 이상으로 보고 있다고 합니다. 인공지능 분야에서 매개변수라 함은 함수, 알고리즘 등에서 사용하는 변수를 말하고 계산 방식이라던가 결과물을 추출하는 데 있어 굉장히 직접적인 영향을 미치게 됩니다. 학습량 자체가 월등하니 한번 실패했던 변호사 시험에서도 상위 성적을 받게 된 셈이죠. 이렇게 미국 변호사 시험에서 놀라운 성적을 기록한 GPT4가 진짜 변호사 라이선스를 부여받아 인간처럼 근거를 제시하고 상황을 설명하는 등 다른 사람들의 '변호'를 수행할 수 있을까요? 법률에 기록된 수많은 법 조항들을 상황에 맞게 반영하고 적용하면서 솔로몬이라도 된 것처럼 명쾌한 판단을 내릴 수 있을까요? 팩트를 근거로 하더라도 이를 명확하게 선을 긋고 판단하기엔 이 세상에 돌아가는 상황들이 너무나 다양합니다. 더구나 비현실적인 결과가 나오는 경우들도 다수 존재하는 것 같습니다. 법률 인공지능이라고 하는 것이 법률에 나온 조항은 물론 기존의 판례와 선례 등 모든 케이스들을 데이터 삼아 학습했다고 하면 사람이 하는 것보다 확률적으로 유의미한 결과를 내놓을 수도 있을 것입니다. 물론 형량을 선고하고 누군가의 죗값을 묻는 것 혹은 잘잘못을 따지는 행위들이 포함되기에 단순히 '유의미한 것'으로는 부족하겠죠. 법정에서 나올법한 첨예한 이슈들은 법률이 정한 테두리 안에서 각 상황에 맞게 이성적이고 정교한 판단을 요구할 것입니다. 개개인에게 정당한 몫을 부여하는 것 그리고 근거 없는 차별을 제거하는 것과 적정한 균형을 확립하는 것이 '정의'이고 '법의 상징'이라는 정의의 여신상이 눈을 가린 이유를 인공지능 따위가 무시할 순 없을 테니까요.  


정의의 여신상.  출처 : 위키피디아


※ 정의의 여신상은 미디어를 통해서도 자주 등장한 바 있습니다. 저울과 칼을 각각 손에 쥐고 있습니다. 개인 간의 다툼을 해결하는 것 그리고 사회 질서를 파괴하는 자에 대한 제재를 의미한다고 하죠. 정의 구현에 있어 어느 쪽에도 기울지 않는 공평무사한 자세를 위해 두 눈을 가리고 있습니다. 보통 '정의'라는 단어를 영어로는 Justice라고 하는데요. 정의의 여신상 이름 유스티치아(Justitia)에서 따온 것이라고 합니다. 


현시대를 주름잡고 있는 생성형 인공지능은 유저들의 다양한 쿼리를 받습니다. 질문 자체가 구체적이라면 그게 아무리 복잡하다고 해도 충분히 답을 낼 수 있는 수준에 이릅니다. 위에서 언급했듯 매개변수 자체가 놀라운 수준이니까요. 인공지능이 학습한 데이터는 방대하지만 무엇인가 상황에 맞게 판단해야 할 때 오히려 '바보'가 될 수도 있습니다. 인공지능의 '판단'에 맡긴다는 것은 인공지능에 대한 신뢰의 문제로 이어지게 됩니다.  기존의 데이터를 왜곡. 조합하고 오답을 제시하는 것과 또 다릅니다. 물론 엉터리 같은 답을 결과물로 내뱉는 것 역시 인공지능을 만들어내는 기업 입장에서는 매우 크리티컬 한 이슈가 될 순 있겠죠. 자율주행의 트롤리 딜레마라던가 법정에서 일어나는 일들 혹은 의료계에 존재하는 인공지능이 무엇인가 '판단(혹은 진단)'하는 문제라면 더욱더 신중을 요할 것입니다. 


"그 뛰어나다는 인공지능이 완벽할 수 없다면 굳이 도입할 필요가 있을까요?"


완벽한 수준은 아니겠지만 인간과 협업할 수 있는 방안을 모색해 볼 순 있습니다. 사실 법조계에는 리걸테크(legaltech)라는 IT 서비스가 도입되고 있는 추세입니다. 변호사 검색이라던가 법령 검색, 상담신청이나 업무처리 등등 법률 서비스를 제공하되 가격은 낮게 접근성은 높여 고객을 확보하고 있습니다. 국내 로앤컴퍼니 역시 인공지능 기반의 법률정보 검색 서비스를 통해 리걸테크 분야에 출사표를 던지기도 했죠. 향후에는 법조인들의 업무 생산성 자체가 보다 효율적으로 변화할 수도 있겠습니다. 인공지능이 제시한 답을 인간이 검토하고 수정하면서 들여다보는 시간을 줄일 수 있게 되는 셈이죠. 의료계에서도 특정 질병을 진단하는 데 있어 의사 1명 역할을 인공지능이 대신할 수 있음을 입증하기도 했답니다. 실제 유방암을 진단하는데 전문의보다 정확했다고 하죠. 인공지능이 아무리 뛰어나다고 해도 직접 메스를 들긴 어려울 것입니다. 하지만 이렇게 사람과 협업한다는 것은 또 하나의 생명을 살리는 골든타임을 지키는 것과 다르지 않을 것입니다. 인공지능이 감히 세상의 모든 일을 판단할 순 없을 테지만 사람과 함께 공존하고 공생하면서 다양한 임무를 수행할 수 있다면 그것만으로도 '유의미'하지 않을까요? 



- <GPT-4 is bigger and better than ChatGPT—but OpenAI won’t say why>(2023.3.14), technologyreview.com

- <The trolley dilemma: would you kill one person to save five?>(2016.6.3), theconversation.com

- <Study Validates Lunit AI as a Game-Changer, Poised to Replace One Human Reader in Breast Cancer Screening>(2023.9.12), prnewswire.com

                    

이전 09화 인공지능은 정말 척척박사일까?
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari