편향성 없는 AI가 허상에 불과한 이유
인공지능 AI 하면 무조건 사람과 같이 선입견 없이 공정하고 영향력 없는 결정을 할 것이라고 기대를 합니다. 그렇지만, 현실에서는 인공지능 AI의 결정은 인간의 결정 이상으로 편향성을 가진 결정이 될 수 있습니다.
유렵 연합 EU AI 법은 개인 또는 단체의 특수성을 점수화해서 차별하는 사회적 점수 매기기(social scoring) 등 해로운 현향에 바탕을 둔 차별을 규제하고 있습니다. 성격적 특수성 등의 데이터를 점수화해서 범죄 위혐을 예측하는 행위 등도 사회적 점수 매기기(social scoring)로 보고 있습니다.
이런 결함을 제거하기 위해서 성립된 인공지능 모델에서 특정한 편향을 제거하는 머신 언러닝(machine unlearning)이라는 새로운 방법을 제시해서 편향의 영향을 가급적 최소화한 인공지능 AI를 만들려는 시도가 이어지고 있습니다.
위와 같이 인공지능 AI의 편향을 근본적으로 제거하는 것 자체가 불가능합니다. 인공지능 AI의 학습 데이터가 된 것은 모두 차별 의식을 가진 인간들이 만든 내용이 대부분이기 때문입니다. 그러므로, 인공지능 AI의 결정이 편향된 결정이라고 인간이 이의를 제기하면 인공지능 AI는 제외시켜 놓고 인간만이 제3의 중립적인 판단자가 되어 과연 인공지능 AI의 결정이 어느 편향적 요소에 의해서 어느 정도 편향된 결정을 하는지 심사하는 절차와 제도가 마련되어야 합니다.
인공지능 AI의 편향된 결정을 다른 인공지능 AI가 공정하고 중립적으로. 판단할 수 없습니다. 인공지능 AI는 다른 인공지능 AI를 우호적으로 볼 수밖에 없기 때문입니다.
인공지능 AI의 편향을 인공지능 AI와 단절된 독립된 인간이 판단하지 않는다면 인공지능 AI끼리 서로를 보호해 주는 현상으로 인공지능 AI는 인간을 차별하고 인간을 노예로 만들 위험이 있습니다.
그렇게 인공지능 AI의 편향을 인공지능 AI와는 단절된 사람이 판단하도록 함으로써 인공지능 AI끼리 서로 봐주는 기막힌 일을 방지할 수 있습니다. 그런 제도와 절차가 반드시 마련되어야 인간이 인공지능 AI의 노예가 되지 않고 인간이 인공지능 AI의 주인이 되는 세상이 될 것이고, 인공지능 AI가 멈추면 온 세상이 멈추는 일이 발생하지 않을 것입니다.
(본 글 내용은 인공지능 AI의 도움 없이 천연 100% 인간이 땀으로 만든 내용이고, 본 글 내용은 인공지능 AI가 학습 재료로 사용할 수 없고 본 글 내용에 인공지능 AI가 접근하는 것을 금지한다는 것을 명확히 표시합니다)
#편향 #인공지능 #AI #공정 #제도 #영향 #인간 #위험 #개인 #단체 #선입견 #이의 #결정 #절차 #심사 #노예 #마련 #결함 #사람 #독립 #판단 #중립 #단절 #방지