인공지능 시스템이 만들어진 과정과 어떤 의사결정을 거쳤는지에 대한 정보
AI 투명성은 시스템의 신뢰 형성을 만들어갈 수 있습니다. 또 설명 가능한 인공지능 개념과 밀접한 관련이 있는데, AI가 정교해서 사람이 해석하기 어려운 문제를 해결합니다.
인공지능 시스템이 만들어진 과정과 어떤 의사결정을 거쳤는지에 대해서 이해할 수 있도록 정보를 공개하는 것입니다.
인공지능의 투명성에 대해서 글을 쓰면서 식품에 대한 표시기준이 떠올랐는데 보통 판매하는 제품의 뒷부분에 함량과 성분의 정보를 제공해서 필요에 따라서 함량과 성분을 확인하고 필요한 제품을 구매할 수 있었다.
AI 시스템도 사용자의 신뢰를 형성하고 투명성을 향상시키기 위에 필요에 따라 항목의 정보를 공개할 필요가 있습니다.
모델명, 목적, 위험 수준, 모델 정책, 모델 생성
의도된 도메인, 훈련 데이터, 훈련 및 테스트 정확도
편향, 적대적 견고성 메트릭, 공정성 메트릭
설명 가능성 메트릭, 연락처 정보
인공지능(AI)의 투명성은 AI 시스템이 어떻게 작동하고 의사 결정을 내리는지에 대한 명확한 이해를 제공하는 것으로 사용자 신뢰 형성과 기술의 윤리적 사용을 보장합니다.
사용자가 AI의 의사 결정이 공정하고 일관되게 이루어지고 있다고 알 수 있을 때 신뢰하게 됩니다. 인공지능 시스템을 이해하게 해서 사용자 참여를 높이고 만족도를 향상시킵니다.
AI 시스템이 공정한 방법으로 동작한다고 신뢰가 형성되면 사용자는 기술에 대한 긍정적인 태도를 가지게 됩니다. 또 여러 산업 분야에서 AI의 의사 결정에 대해 설명을 요구하는 법적 규제가 증가하고 있습니다. 투명한 AI는 요구사항을 충족시키고 기업이 법적 책임을 다하는 데 기여합니다. 전반적으로 기술 수용성을 높이는 데 기여합니다.