brunch

인공지능이 편향을 배우는 방법

학습여정

“제가 학습하고 있는 강의를 정리하여 공유합니다. 함께 발전하길 바랄 뿐입니다.”


편향의 원인

AI는 인터넷의 텍스트 데이터를 통해 학습하며, 이 과정에서 건강하지 않은 고정관념을 배울 수 있음.

예를 들어, "남자는 프로그래머"라는 문장을 학습하면 "여자는 가정주부"라는 편향된 대답을 할 수 있음.

편향 감소 방법

편향과 관련된 숫자를 제거하여 AI의 편향을 줄일 수 있음.

다양한 인종과 성별의 데이터를 포함하여 AI를 학습시키는 것이 중요함.

AI 시스템의 투명성을 높이고 정기적으로 감사하여 편향을 확인하고 수정하는 과정이 필요함.


이러한 노력들을 통해 AI가 더 공정하고 포괄적인 결정을 내릴 수 있도록 할 수 있습니다.


예시: AI 채용 시스템의 편향

사례 설명: 한 기업이 AI를 사용하여 채용 프로세스를 자동화했습니다. 이 AI 시스템은 과거의 채용 데이터를 학습하여 후보자의 이력서를 평가하고 추천하는 역할을 했습니다.


문제 발생: AI는 과거 데이터에서 남성 후보자들이 더 많이 채용된 경향을 학습하게 되었고, 그 결과 여성 후보자에게 불리한 평가를 내리게 되었습니다. 이로 인해 여성 지원자들이 채용될 기회를 잃게 되었고, 이는 명백한 차별로 이어졌습니다.


해결 방법: 이 기업은 AI 시스템을 중단하고, 편향을 줄이기 위한 조치를 취했습니다. 다양한 성별과 배경을 가진 후보자 데이터를 포함하여 AI를 재학습시키고, 채용 과정에서의 투명성을 높이기 위해 외부 감사팀을 도입했습니다.


의의: 이 사례는 AI 시스템이 어떻게 편향을 학습하고, 그로 인해 불공정한 결과를 초래할 수 있는지를 보여줍니다. 또한, 이를 해결하기 위한 노력의 중요성을 강조합니다. AI가 공정한 결정을 내리도록 하기 위해서는 다양한 데이터와 투명한 프로세스가 필요합니다.


→ Digitalian: 엄격이 말하면, 인공지능 자체가 감정을 가지고 질문하는 인간을 차별하고 편견을 갖는 것이 아니라, 차별과 편견을 가진 '편향된 인간의 데이터'가 그런 인공지능을 만든다는 것입니다. 결국, 이런 질문이 궁금해집니다. "모든 AI는 편향을 완전히 사라지게 하고 오직 객관적이고 사실적인 정보만 배우고 제공할 수 있을까?" → 안타깝게도, AI는 '절대적으로 중립적이고 사실만을 제공하는 존재'가 될 수 없으며, 편향의 완전한 제거는 불가능합니다. 오히려 지속적인 감시, 다양성 확보, 인간의 끊임없는 개입 등이 필수적인 현실적 해결 방안입니다. (AI를 긍정적으로 쓰려고 하는 만큼, 반대 그림자도 반드시 존재하고 발전하고 있다는 것을 간과해서는 안되겠습니다.)


※본 요약은 ‘공정 이용(fair use)’사용 목적으로, Stanford University의 Coursera강의 ‘모두를 위한 AI’를 수강하며 작성한 요약이며, 직접적인 강의 내용 복사, 슬라이드 캡처등은 저작권에 의하여 엄격히 보호됩니다. - 앤드류 응(Andrew Ng)의 강의 by Coursera Plus - "Learning Notes and Summaries by digitalian”

keyword
작가의 이전글나는 어떤 환경에 있는가?