part 3. 인간의 재산권 보호
생성형 AI의 창작 활동에 대하여 많은 학교와 단체에서는 윤리적 측면에 대한 토론, 발표가 이러지고 있다. 이는 우리가 변화하는 시대에 있어, 미래를 준비하는 모습이 아닐까. 기술이 사람의 창작 활동을 변화시키고, 노동의 가치를 변화시킬지 완벽하게 예측하기란 어렵다.
이러한 시점에서 도덕과 윤리적인 측면에서 최소한 인간다움을 지키고자 하는 윤리적 측면을 바탕으로, AI의 활용 안으로 기준이 된 부분은 다음과 같다. 우선 인간의 존엄성, 사회의 공공선, 기술의 합목적성을 원칙으로 하는 윤리다. 그 안에는 ① 인권 보장, ② 프라이버시 보호, ③ 다양성 존중, ④ 침해금지, ⑤ 공공성, ⑥ 연대성, ⑦ 데이터 관리, ⑧ 책임성, ⑨ 안전성, ⑩ 투명성의 핵심 요건을 다루고 있다.
예를 들어, 대화형 AI 챗봇 이루다는 인간 존엄성, 공공선, 프라이버시 보호, 다양성 등 조건에 위반되었다 판단되었고, 한동안 이를 개선하여 서비스가 다시 출시된 적이 있다. 이는 AI가 학습한 데이터를 바탕으로 개인 정보 보호를 하지 않은 채 답변을 한다는 점, 사람들이 인간이라 생각하고 선을 지키지 않는 질문을 하는 점이 반영되었을 것이다.
이처럼, 생성형 AI를 활용하고, 어느 정도 지켜야 하는 선을 긋기 위한 윤리적 측면은 데이터 편항성과 관련한 기술적 지원과 사람들의 기술 사용에 대한 윤리적 인지가 필요할지 모른다. 과거 역사에서도, 언제나 기술이 발전하면 언제나 윤리적 측면에서 다뤄지는 내용들이 등장했다.
얼마 전 개봉한 오펜하이머를 떠올려보자. 핵무기에 대한 윤리적 측면의 논의가 없었다면, 지금 우리가 살아가는 세상이 존재할 수 있었을까.
기술은 사람의 삶을 보다 편리하게 하지만, 분명 누군가는 예상하지 못한 손해를 보고 있을지 모른다. 하지만 우리를 앞으로 이끌고 있는 것은 지명한 사실이다. 우리 스스로가 다가올 AI와 공존의 시대에 어느 정도 윤리적인 측면을 인지하고 사용하는 것을 염두해야 할 것이다.
기술은 도구이고, 도구는 사람이 사용하며, 세상의 프레임과 패러다임에 따라 우리는 도구를 인간을 제약하는 데 사용하기도 하고 더 나은 미래를 위해 사용하기도 했다. 인간의 역사가 그러하듯, AI의 시대는 먼 미래에 우리를 평가할 때 어떠한 모습일까.
컴퓨터가 등장한 후, 90년대 말 업무하던 스타일은 머지않아 크게 변화하였다. 그리고 15년 전, 아이폰이 등장한 후, 지금과 같은 세상으로 변화할 것이라 생각한 사람은 적었을 것이다. AI의 시대도 마찬가지다. AI가 삶을 크게 변화시킬지, 아님 그저 업무 효율을 높일 도구로 활용될지는 모른다. 다가오지 않은 미래를 알 수 없듯, 그저 개인의 상상에 맡길 뿐이다. 이 글을 통해, 미래를 준비하고 상상하는 데 하나의 단서가 될 수 있기를 바란다.
토론패널 : 장순규(지도교수), 김경미, 김도영, 윤예원, 임수진, 박진희, 최은우
*위 글은 계명대학교 시각디자인전공의 AI 윤리에 대한 스터디 그룹 토론을 정리한 글입니다.