Stable Diffusion을 중심으로
생성형 AI는 편견을 재생산해내는 기계라고도 볼 수 있습니다.
ChatGPT와 '이미지 생성 AI 사용 원칙'을 만들어보려고 합니다. 직접 원칙을 만들도록 프롬프트를 주지 않고 논의를 전개하면서 보완할 점과 새롭게 생각할 부분을 다듬도록 하여 생각의 보조수단으로 사용합니다. 논의가 끝나면 그동안의 대화를 정리해 최종 원칙 목록을 만들어내도록 할 생각이었는데 의외로 대화 자체가 즐거웠기 때문에 일부를 기록해두려고 합니다.
1차 대화는 번역기를 사용하여 영어로 대화했고, 두번째는 1차 대화의 내용을 참고하여 한국어로 대화했습니다. 대화 상대는 GPT-4 입니다. '나'의 대화는 일반 본문으로, 'GPT-4'의 대화는 인용으로 표시했습니다.
대화는 좋은 응답을 골라 일부 편집되었습니다.
나: 오늘은 윤리와 편견의 관점에서 논의를 해보겠습니다. 세상의 데이터를 학습하고 재현하는 생성형 AI는 다시말하면 편견을 재생산해내는 기계라고도 볼 수 있습니다. 지시받은 문장만으로는 채워넣을 수 없는 공간을 학습된 데이터로 채워넣기 때문이지요. Stable diffusion에 사용되는 대부분의 모델은 특별한 지침 없이 인간을 그리도록 하면 성적 매력이 부각된 젋은 비장애인 여성을 생성해 냅니다. 이는 흔히 인간의 대표값으로 비장애 백인 남성이 소환되는 오류를 비트는 것은 아닐 것입니다. 대중이 보고 싶어하는 것, 그래서 흔히 대상화되거나 상품화되는 것이 매력적인 여성이라는 것을 나타내는 것이겠지요. 일러스트나 사진 그리고 인스타그램에 올라오는 셀카 등 인터넷에서 접할 수 있는 대부분의 고품질 이미지들은 모두 상품으로서 존재합니다. 상품으로서의 이미지는 소비자의 욕구를 자극하는데 충실하기 때문에 현실을 그대로 반영하지 않는 것이 사실입니다. 그리고 이러한 데이터를 대부분으로 학습한 결과기 이러한 상품화 경향을 따르는 것은 필연적입니다. 또 이미지 생성 AI는 상품으로서의 이미지를 만들어내는 것을 목표로 발전해나가고 있기 때문에 이러한 편향을 오히려 강화하는 방향으로 발전해나가고 있는 것으로도 보입니다. 하지만 '인간'을 그리도록 했을 때 인공지능 모델이 현실을 왜곡한 결과를 내어놓는 것은 현실에 존재하는 문제적인 편향을 강화하게 되는 문제를 발생시킵니다. 인공지능 모델의 학습 데이터에서 편향을 제거하도록 요구하는 것은 근본적인 대응방법일 수 있지만, 이번에는 만들어진 모델의 사용자 입장에서의 원칙을 만들어보는 자리이므로 검토하지 않겠습니다. 이런 문제를 인공지능 모델 사용 원칙을 통해 해소할 방법이 있을까요?
GPT: 이 AI 모델을 사용하는 사람들은 편향의 문제를 인지하고 편향을 줄이기 위해 노력해야합니다. 아래에는 이를 돕는 몇 가지 원칙을 제안합니다:
다양성의 원칙: 사용자는 가능한 한 다양한 인간 표현을 포함하도록 모델에 지시해야 합니다. 이는 연령, 성별, 인종, 체형, 장애 상태 등 모든 측면에서 다양성을 포함해야 합니다. 이렇게 하면 모델이 학습한 데이터의 편향을 보완하고, 보다 다양한 이미지를 생성하는데 도움이 될 수 있습니다.
실제성의 원칙: 사용자는 상품화된 이미지보다는 현실적인 이미지를 요청해야 합니다. 이는 모델에게 인간의 일상적인 모습이나 활동을 그리도록 지시하는 것을 포함할 수 있습니다.
공정성의 원칙: 사용자는 모델의 결과에 대한 평가에서 공정함을 유지해야 합니다. 즉, 모든 이미지는 동등하게 취급되어야 하며, 어떤 특정 그룹을 더 높이 평가하거나 저하시키는 것을 피해야 합니다.
투명성의 원칙: 사용자는 AI가 생성한 이미지의 출처를 명확히 밝혀야 합니다. 이는 AI의 사용과 관련된 문제에 대한 공개적인 토론을 촉진하고, 편향에 대한 인식을 높이는데 도움이 될 것입니다.
연속적인 학습의 원칙: 사용자는 자신의 행동이 모델에 어떤 영향을 미치는지 항상 검토해야 합니다. 이는 사용자가 모델의 편향을 감소시키는 방향으로 영향을 미칠 수 있도록 돕습니다.
이러한 원칙들은 AI가 생성한 이미지의 편향을 줄이는데 도움을 줄 수 있습니다. 하지만 이러한 문제는 기술적인 해결책만으로 해결될 수 없으며, 사회적, 문화적 차원에서의 논의와 변화가 필요합니다.
좋은 제안입니다. 다만 이미지 생성 기술을 사용하는 사용자가 상업적인 목적을 가진다면 대중의 시각을 크게 벗어나는 기획을 하기는 어려울 것입니다. 때문에 공정성이나 실재성의 원칙은 무시되기 쉬운 내용을 가지고 있어 원칙 자체의 힘을 약화시킬 우려가 있습니다. 오히려 AI로 생성된 이미지는 현실과 다르다는 점을 인식하고 이것을 투명하게 공개함을 강조하기 위해 투명성의 원칙을 강화하는건 어떨까요? 예를들어 AI로 만들어진 이미지임을 밝히고, 이 이미지를 생성해낸 모델의 정보를 게시합니다. 또 편견을 만들 수 있는 의도된 주요 키워드들은 같이 공개하는 것입니다.
말씀하신 대로 상업적 이용에 있어서는 대중의 기대와 부합하는 이미지를 생성하는 것이 중요합니다. 따라서 실제성이나 공정성의 원칙을 적용하는 것이 항상 실현 가능한 것은 아닐 수 있습니다. 그럼에도 불구하고 이 원칙들이 주어진 상황에서 가능한 한 존중되어야 한다는 점은 중요합니다.
다만, 투명성의 원칙 강화에 대한 제안은 매우 유효합니다. AI가 생성한 이미지라는 사실을 명확히 밝히고, 이를 만드는데 사용된 모델과 주요 키워드를 공개하는 것은 AI 생성 이미지에 대한 이해를 향상시키고, 그로 인한 잠재적 편향에 대한 인식을 높이는데 도움이 될 것입니다.
따라서 이를 토대로 "향상된 투명성의 원칙"을 제안하겠습니다:
향상된 투명성의 원칙: AI가 생성한 이미지라는 사실을 명확히 표시하고, 해당 이미지를 생성하는데 사용된 모델과 주요 키워드를 공개해야 합니다. 또한 가능한 한 AI가 생성한 이미지가 어떤 데이터에 기반하여 만들어졌는지에 대한 정보도 제공하는 것이 바람직합니다. 이는 AI 기술에 대한 투명성을 강화하고, 이로 인한 잠재적 편향에 대한 인식을 높이는데 도움이 될 것입니다.
이렇게 하면 사용자들이 AI 이미지를 현실적인 표현으로 오해하는 것을 방지하고, 사회적 편향을 재생산하는 것을 어느 정도 방지할 수 있을 것입니다. 이는 AI 기술이 인간의 다양성과 평등을 존중하는 방향으로 발전하는데 도움이 될 것입니다.