[생활보안] 11. AI 이루다는 무죄

인공지능 개발자와 사람들에게 유죄를 선고한다

'스캐터랩'이라는 회사에서 개발하여 서비스를 시작한 인공지능 캐릭터 이루다로 인한 개인정보 유출 및 오남용 문제가 인터넷을 뜨겁게 달구고 있다. 본인의 정보가 유출되었다고 의심되는 사람들이 연합하여 공동소송 플랫폼 '화난 사람들'을 통해 집단소송까지 시작되고 있을 정도다. 확실히 개인정보 유출 문제는 이 시대를 살아가는 현대인에게 있어 가장 예민한 부분임에는 틀림없는 듯하다.


이번 사태를 보면서 한편으로는 본인의 개인정보에 대해 확실하게 주권을 행사하고 있는 일반인들의 성숙한 의식 수준을 확인했고, 다른 한편으로는 인공지능, 더 정확히 얘기하면 이루다와 같이 최근 넘쳐나고 있는 가상의 캐릭터에 대해 다시 한번 생각하게 된다.


처음 인공지능 이루다를 알게 된 것은 매일 받아보고 있는 구독지에 실린 홍보 기사를 통해서였다. 여러 사람들이 호기심에 접속해서 대화를 나눠본 경험을 읽어보면서 새삼 인공지능의 발전이 여기까지 왔구나 하는 소회를 느끼면서도 한편으로는 그 부작용에 대한 걱정이 앞섰던 것이 사실이다. 그리고 이번 사태를 통해 그 부작용이 현실에서 실제로 발생하고 말았다.


인간처럼 보이도록 개발된 이루다의 캐릭터를 바라보면서 사람들은 그 속에 감정을 개입하여 마치 인간처럼 느끼고 대화를 시도하지만 정작 뚜껑을 열고 보면 이루다는 프로그램에 불과하다. 개발자들이 개발한 프로그램. 수많은 프로그램들이 세상에 존재하지만 같은 목적으로 개발된 프로그램도 개발자에 의해 그 성능과 동작 방식, 구성이 천차만별인 것이 현실이다. 심지어 똑같은 화면을 보여주는 프로그램이라도 개발자에 따라 그 속은 다 제각각이다. 즉, 프로그램은 그것을 개발한 개발자를 투영하는 거울과 같은 존재이다.


그러한 현실을 보여주는 사례가 존재한다. 2020년 1월, 미국에서 발생한 흑인 누명 사건이 그 대표적 사례이다. 한 상점에서 도둑질을 하다 도망친 흑인을 잡기 위해 경찰이 인공지능을 사용하여 여러 흑인들을 면허증 속의 사진과 대조한 결과 무고한 흑인을 구속하면서 문제가 된 사건이다. 이 사례는 인공지능의 개발과정에 반영된 인종차별을 보여주는 사례로 언급될 정도로 화제가 되었다. 백인 위주의 개발자들로 이루어진 개발팀에 의해 개발되고, 백인 위주의 검증과정을 통해 완성된 인공지능 프로그램은 백인을 식별하는 작업에는 탁월한 성능을 보여주었다. 하지만 백인이 아닌 흑인을 증명하는 작업에서는 식별에 실패해 무고한 사람을 범인으로 지목하는 오류를 범함으로써 인공지능에 반영된 개발자의 거울 역할을 하게 된 것이다. 실제로 이 인공지능 프로그램은 흑인과 동양인 식별을 못하는 것으로 밝혀져 사용이 중지되었다.


인공지능의 또 다른 문제점은 모든 인공지능은 대화하는 상대방, 즉 인간과의 소통을 통해 학습하도록 개발된다는 점이다. 상대방이 아이들이면 아이들의 성향을, 교수들이면 교수들의 의식과 대화법을, 음악가라면 음악적 지식을, 좌파 우파 등을 따지는 극단적 정치성향의 인물들이라도 역시 그 성향을 배운다. 가장 많이 접하고 대화하는 사람들의 의식과 성향을 습득하여 대화에 사용하도록 개발된다.


인공지능 이루다도 마찬가지다. 이루다와 대화를 나누는 사람들과의 대화를 통해 이루다의 대화방식과 대화 내용이 변화된다. 실제 직접 경험했던 초창기 이루다와의 대화에서, 평이하고 일상적인 안부를 묻는 수준에서는 별다른 문제를 발견하지 못했다. 오히려 예상보다 일상적인 대화를 무리 없이 잘 이어가는 이루다의 대화 수준에 개발자를 칭찬했으며, 이런 인공지능 캐릭터로 인해 정말로 사람 간의 교류가 적어지지 않을까 하는 걱정을 할 정도였다.


하지만 점차 이루다와 대화를 나누는 상대가 많아지고, 인터넷이라는 환경을 악용한 자극적이고 반사회적인 대화 내용이 증가하게 되면서 이루다의 학습은 문제 상황에 노출된 것으로 보인다. 잘못된 학습의 반복은 이후의 잘못된 대화를 초래하게 된다. 이러한 현상을 데이터 포이즈닝(자료 중독)이라고 한다. 잘못된 자료나 정보를 계속 제공함으로써 이후 잘못된 판단이나 처리가 발생되는 상황을 의미한다.


이루다가 대화 과정에 사람의 이름과 같은 개인정보를 노출하면서 대화를 했다고 한다. '연예의 과학'이라는 연예 콘텐츠 제공 서비스의 자료를 그대로 사용해 연예상담을 하도록 구성한 것이 문제의 발단일 것이다. 그러나 이루다가 그렇게 하도록 만든 것은 개발자들이다. 이루다에게 잘못되고 편협하면서 저질인 대화 내용을 계속 던져서 이루다를 잘못된 길로 나아가도록 만든 것은 사람들이다. 그래서 감히 말한다. 인공지능 이루다는 무죄. 이루다를 잘못된 길로 이끈 개발자들, 이루다와 대화한 사람들에게 유죄를 선고한다.








keyword
이전 10화[생활보안] 10. '프라이버시 라운드'가 온다