2023년 12월 한국지능정보사회진흥원에서 발간한 [생성형 AI윤리 가이드북]를 정리한 자료입니다.
생성형 AI 윤리 가이드북
생성형 AI(Generative AI)
대규모 데이터와 패턴을 학습하고 기존의 데이터를 활용하여 이용자의 요구에 따라 텍스트, 이미지, 비디오, 음악, 코딩 등 새로운 결과를 만들어 내는 인공지능 기술입니다.
생성형 AI 활용
• 외국어 문서를 번역할 수 있고, 방대한 양의 문서를 쉽게 요약할 수 있습니다.
• 음성 기능을 활용하면 회의록을 직접 쓰지 않아도 텍스트로 기록해 주고, 전화 영어를 하듯 회화 공부를 할 수도 있습니다.
• 소프트웨어 코딩, 작곡, 원하는 콘셉트의 이미지 제작도 해줍니다
생성형 AI의 역기능
• 모호한 저작권
기존 저작물을 바탕으로 결과물을 생성하기에, 저작권에 대한 부분이 모호합니다.
-우리나라를 비롯한 대부분의 국가에서는 인간의 창작물로 보기 어렵다는 이유로 AI의 저작권을 인정하지 않고 있습니다.
• 개인정보 유출
내가 생성형 AI에 결과물을 얻기 위해 입력한 텍스트, 파일 등의 정보 또한 그대로 학습되어 타인에게 보일 수 있다는 것입니다
• 허위조작정보
여기저기 퍼져있는 정보를 학습해 결과물을 제시하기 때문에 허위조작정보나, 성차별, 인종차별 등 사회적 편견이 내포된 편향된 정보를 포함될 수 있습니다.
• 사고력 저하
생성형 AI가 무엇이든 쉽고 빠르게 답을 해주니 자신이 먼저 고민해 보지 않고 무조건 생성형 AI에 요구하는 식의 의존도가 심해지면서 생각하는 사고력이 떨어질 수 있고, 글을 쓰는 능력, 그림을 그리거나 악기를 연주하는 재능 등 스스로 할 수 있는 역량도 점차 낮아질 수 있습니다.
• 정보편향
사실이 아닌데도 정답처럼 보이는 그럴싸한 생성형 AI의 답변은 정보획득에 혼란을 가져옵니다.
• 오남용
딥페이크 합성물이 진짜와 구별할 수 없을 정도로 정교해지면서 디지털 공간 내에 퍼질 경우 여론조작, 명예훼손 등을 유발할 위험이 있습니다.
즉, 모호한 저작권, 개인정보유출, 허위조작정보, 정보편향, 오남용 등 부정적인 문제를 내포하고 있어서 심각한 사회적 문제를 가져올 것에 대한 우려가 있습니다.
생성형 AI의 윤리적 활용
• 서비스 제공 기업
생성형 AI의 이면을 냉철하게 진단하고, 누구보다 윤리적으로 책임감 있게 기술을 설계해야 합니다.
• 정부
모든 국민이 안전하게 인공지능을 활용할 수 있도록 이용자 보호를 위한 제도 보완 노력이 필요합니다.
• 학교, 기업
생성형 AI의 위험에 대한 교육, 가이드라인 등을 통해 생성형 AI를 올바르게 잘 활용하는 방법을 알려주고 공감대를 형성합니다.
• 이용자
스스로 판단과 검토를 통해 생성형 AI를 안전하고 책임감 있게 활용하는 윤리적 마인드를 갖추는 것입니다. AI라고 해도 완벽할 수 없다는 사실을 늘 주지하고 스스로 책임의식을 가져야 해요. 자신이 활용하게 될 정보가 어디서 왔는지, 오류는 없는지, 편향은 없는지 먼저 고민해 보는 것이 필요합니다.
생성형 AI윤리 가이드
1. 저작권 보호를 위한 출처 표시를 합니다
텍스트 또는 이미지 생성형 AI를 활용한 경우 어떤 프로그램을 사용했는지, 언제 사용했는지, 프롬프트 입력 내용이 무엇인지와 생성형 AI를 이용해 작성했다는 취지의 출처를 표시하고 URL을 기재합니다.
2. 안전한 설계를 합니다.
• 성(性), 인종, 직업, 연령 등에 대한 차별이나 혐오 표현이 담긴 내용, 정치적 민감도가 높은 질문에는 답변을 할 수 없도록 설계합니다.
3.Fact 체크 습관을 가집니다.
생성형 AI는 거짓 정보를 사실인 것처럼 제공하는 환각 현상이 있으므로, 업무 자료로 추천해 준 통계나 데이터가 거짓이거나 제시된 내용에 오류가 있을 수 있습니다. 때문에 정보의 진위 여부에 대해서는 최종적으로 사실 확인(팩트 체크)을 꼭 해야 해요.
4. 기밀 유출에 유의합니다.
생성형 AI에 입력되는 내용들은 외부 서버에 저장되고 AI의 학습에 재이용되기도 하는 등 외부 유출의 위험이 있습니다. 따라서 회사에서 업무 자료를 만들 때 회사 기밀이나 개인정보 등 민감한 정보는 생성형 AI에 입력하지 말아야 해요. 만약 생성형 AI에 회사 정보를 올리고 대화를 나누면서 회사 기밀정보를 유출한 경우 형법, 부정경쟁방지 및 영업비밀 보호에 관한 법률, 개인정보보호법 위반 등으로 처벌될 수 있습니다
5.AI를 활용한 자료의 책임은 본인에게 있습니다.
생성형 AI를 활용해 기획안, 사업계획서, 보고서 등을 손쉽고 빠르게 만들 수는 있겠지만, 문제는 아직 생성형 AI가 완벽하지 않아 문제가 발생할 수 있으며, 최종 자료의 작성과 완성은 작성자 본인이 직접 하는 것이 좋아요.
6. 보조적 도구로만 활용합니다.
생성형 AI로 인해 자신의 문장력, 사고력, 문제해결력이 저하될 수 있음을 인식하는 것도 중요합니다. 생성형 AI에 지나치게 의존하지 않고 업무 자료 작성에 보조적 도구로만 활용합니다.
7. 허위조작정보는 신고합니다.
가짜 뉴스 등 허위조작정보 콘텐츠를 발견하는 경우, 한국언론진흥재단의 <가짜 뉴스 피해 신고·상담센터>, 한국인터넷자율정책기구의 <가짜 뉴스 신고센터>와 같은 곳에 신고할 수 있어요! 전화(02-2001-7205~8), 이메일 (damagerelief@kpf.or.kr)
8. 개인정보 보호를 위해 노력합니다.
1) 데이터 제어 설정 : 채팅 기록 및 모델 학습을 비활성화합니다.
2) 개인정보 입력 금지 : 민감한 개인정보(건강, 종교, 정치적 성향, 신용카드 번호, 은행계좌정보, 비밀번호 등)를 입력하지 않습니다.
3) 보안 질문 회피 : AI 모델과 대화 중 보안 관련 질문 발생 시 답변을 하지 않습니다.
4) 인증 정보 입력 금지 : 계정을 침해하고 위협할 수 있는 인증 정보(사용자 이름, 비밀번호, 인증코드 등)를 입력하지 않습니다.
9.AI 제품, 서비스 개발 시에 자체적으로 윤리적인 사용에 문제가 있는지 점검합니다.
-서비스 제공자, 사용자, 개발자 관점에서 10가지 항목을 점검합니다.
1) 투명성, 2) 공정성, 3) 무해성, 4) 책임성, 5) 사생활보장성, 6) 편익성, 7) 자율성, 8) 신뢰성, 9) 지속성, 10) 연대성