brunch

You can make anything
by writing

C.S.Lewis

by Hyeon Oct 02. 2024

AI 발전과 윤리적 책임: 디자이너의 역할에 대한 고찰


어렸을 적 기술의 발전으로 인해 로봇이나 AI가 자아를 갖게 되어 인류를 공격하는 스토리를 sf 영화에서 접하며 자랐습니다. 최근 AI가 급격하게 발전하면서 인류의 적이 AI가 되는 시기가 지금일까? 하는 공포감이 들었지만 아이러니하게도 딥페이크 불법 합성이나 이루다 사건을 통하여 볼 때는 비윤리적인 태도로 AI를 사용하는 사람이 인류에게 가장 큰 피해를 주고 있으며 윤리적 문제가 심각하다는것을 체감했습니다.


이와 같은 문제에는 일부 개인의 비윤리도 문제가 있겠지만 사회적 안전망의 부재에서 오는 영향도 있다고 봅니다.특히 기술의 발전에 비해 그에 관련한 규정이나 법 제정이 느리다는 점이 문제이며, 어도비사나 카카오같이 자체적으로 규정을 제작하여 운영하는 경우도 많지만 AI 윤리에 관련한 법 제정 같은 국가 규모의 사회적 규제의 선행도 필요해 보입니다. 


특히 이루다 AI나 딥페이크 불법 합성 사건 모두 피해가 생긴 후 법안과 규정이 제정되었다는 게 아쉬운 점입니다. 불법 합성 관련 법안은 총 3개 법 개정안이 통과되었지만 시간이 부족하다 보니 다섯 가지 정도의 법을 담지 못했다며 추후 입법 논의의 필요성을 언급하기도 했습니다. 지금이라도 3개의 법안이 통과된것은 다행이나 법안의 사각지대에서 피해가 생겨 새로 법안을 제시하는 것은 소 잃고 외양간 고치는 것이 아닌지, 피해자가 생기기 전에 미리 법을 제정해야 하는 것이 아닌가?라는 생각입니다.


아티클의 '생성적 AI의 이 용감한 신세계에서 중요한 것은 무엇을 창조할 수 있는가가 아니라, 어떻게 창조할 것인가입니다.'라는 말에 공감하며 ai 시대의 디자이너의 역할은 어떤 방법을 통해 윤리적으로 운영할 것인가를 고민하는것이 중요한 능력이 될 것 입니다.


최근 보정 어플인 스노우·소다 AI에서도 AI가 원본 사진에 외설적 이미지를 덧씌우는 사고가 발생했습니다. 돈을 내고 이용한 서비스를 이용한 고객이 정신적 피해를 겪어야 한다는 게 충격적이었습니다. 특히 주변에 스노우나 소다 앱을 사용하고 있는 유저들이 많고 저 또한 소다 앱의 유저입니다. AI 기능은 아니였지만 최근까지도 사진을 찍을 때 사용하였기에 '혹시 내 사진도 학습에 무단으로 사용되는 것이 아닐까' 하는 불안감을 지울 수 없었습니다. 문제점은 서비스를 제공하고 있는 스노우가 오류를 나타낸 AI를 통제할 수 없다는 점입니다. 자체 개발한 AI 모델을 사용하고 있지 않고 오픈소스를 사용하여 AI가 학습한 이미지를 삭제하는 수정 작업이 불가능 합니다. 소다·스노우 앱은 사과문과 함게 AI 편집 기능을 통해 생성된 이미지 모두 즉각 삭제되고, AI 모델에 학습되지 않는다고 설명했지만 AI 모델 자체를 바꾸거나 새로 개발하는 식의 후속 조치는 언급하지 않아 기업의 신뢰도를 하락시키는 다소 책임감 없는 운영으로 보였습니다.


아이돌과 채팅하는 서비스인 ‘버블’에서는 금지어를 정하여 금지어가 포함된 채팅은 보낼 수 없게 만들어져 있습니다. 버블의 과한 금지어로 웃긴 밈이 만들어지기도 하여 처음에는 너무 융통성 없는 운영 처럼 보였습니다. (예를 들어 '닭볶음탕 먹었어'에서 닭볶'음탕'때문에 채팅을 쓸 수 없게 만들었습니다.) 그렇지만 일련의 사건들 이후 사용자들이 어떠한 서비스나 기술에 대해 낯선 상태일 때는 명확한 가이드라인을 제시하여 서비스 내에서 범죄가 일어나지 않게 운영하는 것도 디자이너에게 요구될 능력이라 보여집니다. 


이번 불법 합성 사건의 법안 개설 과정에서도 불법 합성 성범죄물인줄 '알면서' 이를 소지·구입·저장 또는 시청할 경우 3년 이하의 징역 또는 3천만원 이하 벌금에 처하도록 한다는 부분 에서 '알면서'라는 조항이 논란이 되었습니다. 이 문구에 대해 '가해자들이 모르고 시청했다'는 식으로 처벌을 피해갈 수 있다는 우려의 목소리가 나왔고 최종적으로는 해당 단어가 삭제된 안이 통과되었습니다. 이처럼 명확하고 투명한 가이드라인을 제시하여 사전에 문제를 방지하고 사용자들이 AI를 안전하게 사용할수 있도록 도와야 합니다.


하지만 사회가 개인을 일일이 규제하는 것엔 한계가 있기에 사회적 규제뿐만 아니라 개인의 윤리 인식도 중요하다는 생각이 듭니다. 특히 딥페이크 불법 합성 사건에서는 피의자 상당수가 10대인 것으로 드러나 큰 충격을 준 만큼 윤리 교육을 통하여 ai 사용시와 사용 결과물에 대한 개개인의 책임감을 길러내는 것이 현 사회의 숙제로 보입니다. 


결론적으로 현시대가 유토피아가 될 것인지 디스토피아가 될 것인지는 새로운 기술로 인해 생성될 수 있는 불편점의 적극적인 발견과 교육 및 가이드라인, 책임감 등을 통한 윤리적 노력에 달려있습니다.




참고 문헌

https://www.forbes.com/councils/forbestechcouncil/2023/10/17/which-ethical-implications-of-generative-ai-should-companies-focus-on/

https://www.bizhankook.com/bk/article/25736

https://www.bbc.com/korean/articles/c3vk59q96z5o

https://economist.co.kr/article/view/ecn202409130072


브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari