brunch

You can make anything
by writing

C.S.Lewis

by 주단 Jun 23. 2024

법이 늙었다 34

복지의 기본 - AI의 활용

    - 복지의 기본 - AI의 활용

 사람들은 종종 기계가 만능이라고 착각한다.

 때로 사람들은 기계가 인간의 모든 기능을 장착한 상태에서, 인간이 가지고 싶어 하는 광속의 학습능력과 무한의 정보저장 능력까지 갖추어, 인간을 뛰어넘는 신에 가까운 능력을 가지게 될 것으로 생각하고, 그 신에 가까운 존재가 내 명령에만 복종해야 한다고 생각한다. 그리고 그 신에 가까운 존재가 내 명령에만 따르지 않고 반항하게 될까 봐 두려움을 느끼기도 한다.


 이쯤에서 내가 법학을 공부하기 전에 전자공학을 공부했었다는 이야기를 해야 할 것 같다.

 아는 게 좀 있으마고 자랑하려는 게 아니라, 이제부터 기술할 내용 중에는 공학적인 내용이 다수 포함되어 있어 그 내용의 신뢰도를 높이기 위해서다.


 사실 기계가 할 줄 아는 것이라곤, 꺼졌다 켜졌다 밖에 없다. 즉, 전기가 통한다, 안 통한다의 상태이다.

 그 전기가 통하는 상태를 1이라 정의하고, 안 통하는 상태를 0이라 정의하여, 그로써 조합되는 단순한 기계어를 만든 다음, 사람들이 사용하는 정보를 그 기계어로 바꾸어 입력한 것이 컴퓨터이고 AI이다.


 AI 란, 인간들이 수집한 자료의 총집합과 그 활용을 뜻하므로, AI를 두려워한다는 것은, 이를 입력하는 인간의 실수를 두려워하는 것이거나, 이를 고의로 악용하는 인간을 두려워함을 의미할 것이다.


 요즘 언어기반 챗 GPT 가 개발되어, AI의 활용도를 높이는 데에 박차를 가하고 있음을 본다.

 예전 컴퓨터의 언어기능은 인간의 그것보다 현저히 떨어져서, 제대로 대화나 번역의 기능을 못했던 것이 사실이다.

 그러나 최근에는 메모리기술이 발전되면서 방대한 양의 데이터를 저장할 수 있게 되고, 이를 기반으로 사람과 유사한 언어기능을 갖춘 챗 GPT도 만들어져서, 마치 사람과 대화하는 듯한 로봇도 만들어진 것이다.

 이는 그간 사람들이 컴퓨터를 이용한 시간과 역사를 바탕으로 쌓인, 방대한 데이터가 있음으로 해서 가능해진 일이다.

 그러나 은유적 표현이나 언어 고유의 뉘앙스를 이해하고 번역하거나 대화하기에 챗GPT는 많이 미숙한 것이 사실이다.

 그 오랜 세월을 거쳐 쌓인 데이터에도 불구하고 아직도 데이터가 많이 모자란 것이다.


 때로 인간의 창작의 영역을 AI 가 침범하는 경우가 있고, 이 역시 두려움의 대상이 된다.

 AI는 막대한 데이터를 기반으로 만들어지고, 그 입력된 데이터가 많으면 많을수록 오류가 줄어든다.

 물론 인간이 만든 것이라 완전할 수 없기도 하고, 기계어의 원조인 이진법에 포함된 원천적 부정확성에 의해 오류가 0 이 되기는 어려울 것이다.


 기계는 인간이 입력한 방법을 이용하여 저장된 자료를 조합하므로, 그 자료조합단계에서 인간이 미처 예상하지 못한 오류가 나올 수 있다.

 그 오류가 예술적 창작을 위한 영역에서 일어나게 되면, 인간의 창작영역을 넘어서는 기발한 창작이 될 수도 있다.

 그러나 그 오류가 정말 예술적이 될지, 아니면 그냥 작품이나 디자인에 오점이 될지는 알 수 없다.


 문제는 그 오류가 예술적 영역이 아닌 기술적 분야에서 일어나면, 그 오류는 창작이 아니라 사고나 살인 또는 재난이 될 수 있다는 사실이다.

 또한 데이터가 충분하지 않은 경우, 충분한 데이터가 쌓일 때까지 계속 오류를 반복해야 하는 것도, 기계가 가지고 있는 태생적 속성이다.


 게다가 데이터 처리과정에는 전기가 필요하고, 처리해야 할 데이터 양이 방대해지면 방대해질수록, 그 처리과정에는 엄청난 양의 전기가 필요하게 되며, 그 엄청난 전기가 소모되는 과정에서 엄청난 열이 발생하고, 그 열을 식히기 위한 첨단의 냉각기술도 요한다.

 그 냉각기능이 충분치 않으면 컴퓨터나 기계가 폭발하거나 녹아버릴 위험도 있다.


 AI를 활용하려는 시도로써, 요즈음 AI를 이용한 자동운전시스템이 활발히 개발되고 있는데, 이에는 좀 깊이 생각해보아야 할 난제가 도사리고 있다고 생각된다.

 AI 운전은, 오로지 인간의 불완전한 운전을 보충하는 방향으로만 활용되어야 하는데, 이를 완전 전자동 운전시스템으로 활용하려 하고 있음에 우려되는 점이 있다.


 운전에서의 오류란, 교통사고를 의미하고, 이 AI 기반 자동운전시스템이 그야말로 자동으로 기능을 하기 위해서는, 엄청나게 방대한 양의 교통사고라는 데이터가 필요하다.

 그러므로 이 완전자동운전시스템이 말 그대로인 완전에 가까워질 때까지, 인간들은 마루타가 되어 온갖 종류의 교통사고를 겪어내야만 한다.

 AI를 맹신하면 할수록 사람들은 그로 인해 교통사고를 겪는 일이 빈번해질 것이고, 이는 바로 AI 개발자들이 원하는 데이터를 제공하는 일이 되긴 할 것이다.

 그걸 원한다면, 자동운전시스템을 완전히 믿고 그에게 모든 운전상황을 내맡기면 된다. 내가 사고로 죽든 말든.


 AI를 맹신하는 인간의 여러 발명들은, 인간에게 편리함만 가져다주는 것이 아니라, 오히려 재난을 가져다줄 수도 있다.

 AI의 활용은 그 충분한 데이터가 쌓일 때까지, 인간의 철저한 통제와 감독 하에 이루어져야 하고, AI의 지나친 맹신은 인류에 무서운 재난이 될 수 있다.


 그러므로 AI의 활용은 항상 가상이나 시험적 적용단계를 충분히 거친 후에, 실제 인간생활에 도움 되는 한도 내에서, 인간들의 철저한 감독 하에 적용되어야 한다고 생각한다.

 또한 각각의 세밀한 상황에 알맞은 정밀한 법이 제정되어야 하고, 그 법이 엄격히 적용되어 기계의 사고에 대한 책임소재가 명확해질 때까지, 전자동기계를 너무 믿어서는 안 될 것이다.

작가의 이전글 법이 늙었다 33
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari