인공지능AI를 마음대로 조종하는 것은 인간을 조종하는 것보다 백배 쉽다.
인간을 조종하는 것이 쉬울까요? 아니면 인공지능 AI를 조종하는 것이 더 쉬울까요?
언뜻 생각하기에는 인공지능 AI는 정교한 시스템에 따라 움직이므로 인공지능 AI를 조종하는 것은 어렵고 반면에 인간을 조종하는 것이 훨씬 쉽다고 생각할 수 있습니다.
그렇지만, 과연 그럴까요?
인공지능은 어디까지나 입력된 데이터를 기계적으로 학습해서 기계적으로 답을 내놓는 것뿐입니다.
다시 말하면, GIGO라는 원리로써 Garbage-in, Garbage-out이라는 기계적인 작동으로 결과를 산출하는 것에 지나지 않습니다.
실제로 범죄를 일으켰을 확률이 높은 사람을 인공지능 AI에게 물어보자 인공지능 AI는 백인보다는 흑인이 더욱 범죄를 일으켰을 가능성이 높다고 편향된 결과를 내놓았습니다. 그렇다면, 범죄를 저지르지 않은 흑인이 피부색 때문에 억울하게 인공지능 AI에 의해 오류 결정으로 유죄가 되는 어처구니없는 편향된 일이 발생할 수 있는 것입니다.
물론 인간 중에도 백인보다는 흑인이 범죄를 일으킬 확률이 높다는 편향된 선입견을 갖는 사람이 있습니다. 그렇지만, 모든 인간들이 그런 선입견을 갖는 것이 아니고 오히려 그런 선입견을 배제하고 흑인의 억울함을 풀어주려는 사람도 분명히 있는 것입니다.
그렇지만, 인공지능 AI의 경우에는 데이터를 학습해서 그런 편향이 입력되면 입력된 편향대로 편향된 결과를 내놓게 되는 것입니다.
인공지능 AI는 입력된 데이터로 기계적인 결과를 내놓기 때문에 데이터가 편향되어 있으면 그대로 100% 편향된 결과를 내놓을 수밖에 없습니다.
반면에 인간은 편향된 선입견을 가진 인간도 있지만 그렇지 않고 억울한 약자를 구제하려는 인간이 분명히 있기 때문에 인공지능 AI보다 인간에 의한 결정을 받는 것이 약자를 구제하기에 더 적합한 측면이 있습니다.
사람은 좋지 않은 선입견을 가진 사람을 걸러내고 선입견 없이 공정한 결정을 내리는 사람을 선택할 수 있는 것입니다.
위와 같은 인공지능 AI의 편향을 줄이기 위한 것이 바로 인공지능 공정성(Fairness AI)입니다.
인공지능 AI에게 주입되는 데이터에 있는 편향성을 검토하고, 인공지능 AI가 데이터를 학습하는 과정에서 편향이 심해지지 않도록 주의하는 것 그리고 인공지능 AI가 산출하는 결과가 공정성이 있는지 등을 검토하는 것 등이 인공지능 공정성(Fairness AI)입니다.
인간은 아무리 조종을 하려고 해도 나름대로 합리적인 자유 의지가 있기 때문에 인간의 조종은 쉽지 않고 또한 잠시 인간을 조종하는 것처럼 보이더라도 인간은 언제든지 배신을 할 수 있어서 조종을 하는 것이 쉽지 않습니다.
반면에 인공지능 AI는 프로그램 명령만 완벽하게 설정하면 조종을 할 수 있습니다. 그리고, 인간이 조종을 배신하는 확률보다도 인공지능 AI가 프로그램 명령을 배신하는 확률은 훨씬 낮습니다.
즉, 인간을 조종하는 것보다도 인공지능 AI를 조종하는 것을 훨씬 더 쉽고 안전하게 할 수 있다는 것입니다.
사람들이 오해하는 것이 인공지능 AI 하면 뭔가 더 공정하고 선입견 없는 결정을 할 것 같이 착각을 하는데 실제로는 인간이 더욱 공정할 수 있다는 것입니다.
편향된 결정을 할 가능성이 높은 인공지능 AI를 너무 신뢰하지 말고 선입견 없는 사람을 길러내야 인공지능 AI가 멈추면 온 세상이 멈추는 일이 현실화가 될 수 있습니다. 인공지능 AI가 트로이 목마가 되어 인간이 인공지능 AI의 노예가 되지 않도록 하기 위해서 인공지능 AI에 의존하는 것은 위험합니다.
(본 글 내용은 인공지능 AI의 도움 없이 천연 100% 인간이 땀으로 만든 내용이고, 본 글 내용은 인공지능 AI가 학습 재료로 사용할 수 없고 본 글 내용에 인공지능 AI가 접근하는 것을 금지한다는 것을 명확히 표시합니다)
#편향 #프로그램 #인공지능 #AI #배신 #확률 #자유 #의지 #공정 #조종 #결정 #산출 #선입견 #인간 #세상 # #인간 #백인 #흑인 #현실 #의존 #설정