brunch

You can make anything
by writing

C.S.Lewis

by 유영무 변호사 Feb 17. 2017

인공지능 시대의 법적 이슈들 [1] 총론

Legal issues in the era of AI

1. 인공지능 시대


바야흐로 인공지능(artificial intelligence) 시대가 도래했다. 우리는 구글의 인공지능 바둑기사 알파고(AlphaGo)가 이세돌에게 승리를 거두는 모습을 보았다. IBM이 만든 인공지능 시스템 왓슨(Watson)은 금융, 방송, 의학과 같은 영역에서 활약하고 있다. 정신을 차리지 않으면 인공지능 괴물이 인간 세상을 집어삼킬 것만 같다. 이렇게 인공지능은 매우 가까이 다가왔지만 아직 실체를 딱 잘라 말하긴 어렵다.


인공지능의 역사는 늘 수학자 알란 튜링(Alan Turing)을 언급하는 것으로 시작된다. 그는 1950년 논문 "Computing Machinery and Intelligence"를 통해 인공지능 이론의 토대를 마련했다. 인공지능 연구는 이후 반 세기 넘게 계속되다가 2010년 즈음 크게 발전하는 계기를 맞이한다. 즉 전자상거래, 여러 비즈니스와 소셜미디어 등이 빅데이터(Big Data)를 생성했으며, 보다 강력한 컴퓨팅 기술은 머신러닝(machine learning, 기계학습)의 향상을 가져왔다(美 NSTC, 2016).


인공지능을 정의(定義)할 명확한 기준은 없다. 잘 알려진 학부 교재 「Artificial Intelligence: a Modern Approach」는 인공지능을 ⑴ 인간처럼 생각(인지구조, 신경망), ⑵ 인간처럼 행동(자연어 처리, 자동화 추론), ⑶ 합리적으로 생각하(논리 풀이, 최적화), ⑷ 합리적으로 행동하(인식, 계획, 추론, 학습, 대화, 의사결정 등이 가능한 로봇)의 4가지 형태로 분류한다(Russel & Norvig, 2009).


한편 강한 인공지능(strong AI)과 약한 인공지능(weak AI)으로 구분하기도 한다. 강한 인공지능은 인간 수준의 지능을 갖고 독립하여 사고·행동하는 인공지능을 말한다. 약한 인공지능은 정해진 특정 영역에서만 활용할 수 있으며, 사람이 실행 과정 적지 않게 통제해야 한다. 자아(自我)를 지닌 강한 인공지 등장은 불가능하는 의견이 많다. 반면 일정한 특이점(singularity)을 지나면 인공지능이 인을 뛰어넘을 수 있다는 예상도 상당수 존재한다.


「지능형 로봇 개발 및 보급 촉진법」은 지능형 로봇을 스스로 인식하고 상황을 판단하여 자율적으로 동작하는 기계장치라고 정의한다(제2조 제1호). 이를 참고하면 인공지능은 '스스로 인식하고 상황을 판단하는 자율성을 지닌 알고(algorithm)'이라고 할 수 있다(유영무, 2016a). 인공지능은 동작 위 로봇과 같은 기계장치, 즉 하드웨어를 필요로 하나 본질은 소프트웨어로 표현된 알고리즘이기 때문이다.


인공지능을 구현하는 기술은 여러 형태로 존재하지만, 이 글은 '머신러닝' 인공지능을 대상으로 하겠다. 알파고가 바둑실력을 쌓는 방식이 바로 머신러닝의 한 종류인 딥러닝(deep learning)이다.



2. 새로운 법제도의 필요성


단순한 자동화(automated) 기능을 가진 소프트웨어는 널리 보급되어 있다. 이미 우리가 PC나 스마트폰에서 흔히 사용하는 대다수 애플리케이션이 그렇다. 이들은 프로그래밍 당시 설계된 알고리즘에 따라 분석하고 계산하여 결과를 이끌어낸다. 한번 완성된 소프트웨어는 의도하지 않은 내용을 새롭게 발견하거나 수행하지 못한다.


인공지능을 구현한 소프트웨어는 이와 다르다. 인공지능이 수행하는 머신러닝은 기존 데이터를 훈련 세트(training set)와 테스트 세트(test set)로 나누고, 이를 통해 데이터를 설명하거나 미래 자료를 예측할 수 있는 규칙(rule)과 절차(procedure)를 얻어내는 통계적인 프로세다(美 NSTC, 2016). 이때 딥러닝과 같은 향상된 학습기술과 빅데이터가 큰 역할을 하게 되었다. 따라서 인공지능이 분석한 결과는 개발자가 미리 예상하지 못했던 것이라는 특징을 갖는다.


어느 인공지능이 내린 의사결정이 누군가에게 손해를 입힌 상황을 가정해 보자. 발생한 결과에 법적 책임을 묻기 위해서는 일정한 요건을 충족해야 한다. 민법 제750조 불법행위책임은 가해행위와 손해 사이에 인과관계를 요구한다. 대법원 이를 판단할 때 이른바 상당인과관계설(相當因果關係說)을 따른다. 즉 모든 조건들을 원인이라 할 수 없으며, 결과와 적정한 관련 있는 조건들만이 원인으로 인정된다(지원림, 2016).


만약 자연적 조건들을 모두 원인으로 인정하면 개발자 인과관계에서 벗어날 수 없다. 이는 경우에 따라 형평에 어긋나므로 상당인과관계를 검토해야 옳다. 그렇다면 인공지능에서도 상당성을 평가할 기준이 필요하다. 예컨대 어느 수준의 인공지능부터 개발자의 영향력에서 벗어났다고 해야 좋을까, 그의 책임이 아니라면 시스템 소유자나 관리자는 어떠한가, 또는 학습에 쓰인 데이터가 왜곡되어 잘못된 결정을 내렸음을 알아낼 수 있을까.


앞 두 가지 질문은 인공지능에게 권리능력(권리와 의무의 주체가 될 수 있는 능력)을 인정할 수 있느냐는 문제와도 연결된다. 현재는 자연인과 법인만이 권리능력을 갖는다. 마지막 질문은 의사결정의 상대방에게 적절한 이의절차를 보장해야 한다는 생각과 통한다. 이들은 앞으로 각론에서 다룰 많은 법적 이슈들 중 일부에 불과하다. 인공지능 시대에 맞는 법제도를 고민해야 하는 이유가 여기에 있다.





3. 공정성 문제


인공지능은 정의(justice) 내지 공정성(fairness)이 일정 수준 담보되어야 한다. 우리는 인공지능이 판단한 결론이 과연 공정하게 도출되는지 꾸준히 따져보는 게 좋다. 그 이유는 다음과 같다.


인공지능의 주된 가치 중 하나는 합리성(rationality)이다. 인공지능에게 기대하는 모습은 단지 사람다운(humanly) 것만이 아니다. 오히려 개개인은 각자의 이익에 충실하며 편견에 기반한 판단을 내릴 때가 많다. 반면 인공지능은 이해관계나 편견을 넘을 수 있는 존재라고 여겨진다. 사람을 대신해 인공지능이 도출한 국가 정책이나 사법적 결정은 상당히 공명정대할 것만 같다. 합리성을 향한 기대가 깨질 때 대중은 인공지능 시대를 거부하기 쉽다.


사람이 판단 주체라면 그의 이력을 추적하것만으로도 편견이 작용했는지 추할 수 있다. 언제 어디서 태어났고 피부색은 무엇인지, 어디에 살고 경제력은 어떠한지, 무엇을 공부하고 경험했는지, 종교나 정치적 신념은 어떠한지, 과거 비슷한 사안을 어떻게 판단했는지 등의 정보를 기반으 그가 공평하지 않았을 거라고 장하면 된다.


이와 달리 인공지능의 공정성 이슈는 단순하지 않다. 결과물이 불합리하다면 먼저 알고리즘 개발자가 처음부터 편향(biased)되었을 경우를 따져봐야 한다. 알고리즘 자체는 문제가 없더라도 편향된 데이터가 주어질 수도 있다. 즉 인공지능은 좋은 데이터를 필요로 하고, 데이터가 불완전하거나 한쪽으로 치우쳤다면 형평의 문제가 심각해다(美 NSTC, 2016).


공정하며 가치중립 알고리즘을 만들었다고 생각하더라도, 개발자가 충분한 주의를 기울이지 못했을 가능성을 배제하지 못한다. 인공지능 시스템은 복잡하고 사용하는 데이터가 방대하기 때문에, 그 행동을 이해하고 예상하고 설명하기는 필연적으로 어렵다(美 NSTC, 2016). 결국 편향성을 회피하기 위해서는 많은 테스트를 거쳐야 한다.


이와 같이 인공지능은 합리라는 인식이나 시스템의 복잡성, 불분명한 책임 소재 등은 공정성을 확인하기 힘들게 만든다. 인공지능의 예측 결과에 영향을 받은 당사자가 이의를 제기하고 심사를 통해 구제받을 수 있는 절차마련해야 한다. 조세, 노동, 특허와 같은 영역에선 행정기관을 통한 전심(前審) 절차가 존재하듯, 공정성을 비롯한 인공지능 분쟁을 조사·심의하는 전문위원회의 운영도 고려할만하다.



4. 규제의 형태


법제도 안에서 인공지능을 어떤 식으로 다뤄야 할까. 누구도 제대로 경험한 적 없는 신기술을 규범화하기는 어려운 일이지만, 4차 산업혁명을 앞둔 지금 인공지능산업 발전을 위한 국가적 관심과 지원은 필수적이다. 반면 지나친 배려는 신종 산업의 자생력을 낮추거나 다른 산업과 차별하여 취급하는 문제를 가져올 수 있다는 점도 유의해야 한다(유영무, 2016b).


인공지능과 같은 첨단기술산업은 사전규제와 친하지 않다. 산업의 진화에 앞서 적절한 제도를 미리 만들기가 어렵기 때문이다. 그렇다면 상용화 단계에서 다양한 시도를 허용하되, 이용자 또는 제3자에게 입힌 손해에 보다 엄격한 배상책임을 지게 하는 입법이 필요하다(유영무, 2016b).


예컨대 인공지능의 요건, 사업자 인·허가 등 진입 시 규제를 최소한으로 정하고, 대신 각 영역에서 발생할 분쟁을 어떻게 취급하느냐에 좀 더 비중을 두는 식이다. 아직은 인간을 보조하는 수준의 약한 인공지능만이 존재하므로, 예상 가능한 각 이슈를 다룰 특칙을 만드는 일부터 시작하면 된다.


인공지능을 그저 컴퓨터 기술의 하나로 취급해선 안된다. 인공지능이 가져올 파급력을 올바르게 파악하려면 공학이나 자연과학뿐 아니라 철학, 심리학, 경제학, 법학, 의학 등 인간 사회의 모든 측면에서 바라봐야 한다. 첫 단추를 잘 끼워야 하듯, 깊은 고민 없이 급히 만든 규제는 자칫 인공지능의 발전을 가로막거나 부정적 사태를 가져오게 된다.


머지않은 시기에 이른바 「인공지능 특별법」이 제정 거라 예상한다. 인공지능 시대를 바라보는 많은 관심과 걱정반영한 좋은 법률이 탄생하기를 기대한다. 이 글에 이어 작성할 각론에서는 상용화된 인공지능 시스템이 실제로 부딪힐 수 있는 여러 민·형사 이슈들을 살펴보겠다.



※ 참고문헌


- Russel & Norvig (2009), 「Artificial Intelligence: A Modern Approach」, 3rd Edition, Pearson.

- 美 NSTC[국가과학기술위원회] (2016), "Preparing For The Future Of Artificial Intelligence", The White House.

- 유영무 (2016a), "인공지능(AI) 마케팅의 법적 문제점", 브런치. (https://brunch.co.kr/@ymlew/3)

- 유영무 (2016b), "첨단기술산업의 규제개선을 위한 제언", 아시아투데이. (http://www.asiatoday.co.kr/view.php?key=20160508010002981)

- 지원림 (2016), 「민법강의」, 제14판, 홍문사.

브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari