Humanizing tech investments
“이제 우리는 인간 언어를 분석해 세계의 모델을 추출하는 AI 모델을 가지고 있습니다.”
지난달 19일 캐나다 온타리오에서 열린 한 자선단체의 행사장에서 임상심리학자 조던 피터슨 토론토대 교수는 최근 주목받고 있는 ChatGPT 사용 사례를 통해 앞으로의 알고리즘이 만들어낼 인간과의 새로운 긴장감에 관해 언급했다. 피터슨 교수는 대규모 언어 처리 모델인 생성 AI는 머지않아 이미지와 동작까지 활용해 스스로 패턴을 추출한 후 세상에 테스트해 봄으로써 인간 과학자의 역할을 수 초만에 처리할 정도로 똑똑해질 것이라 경고했다.
GPT-3, DALL-E, StableDiffusion 등은 이제 거의 모든 AI 시스템의 기반이 되고 있으며 AI 패러다임 전환을 가시화하고 있다. 그리고 사용자의 필요에 따라 이미지와 텍스트를 생성하는 이 강력한 시스템은 필연적으로 이미 기존 산업 내 창작자들과의 갈등을 불러일으키고 있다. 지난 11월 마이크소프트사의 ‘깃허브 코파일럿(GitHubCopilot)’은 AI 학습을 위해 오픈소스 라이선스로 코드를 게시한 수많은 작성자의 법적 권리를 침해했다는 주장의 집단 소송을 마주했다. 또한 미국 음반 산업 협회(RIAA)는 지난 10월 성명을 통해 AI 기반 음악 생성 및 리믹싱이 음악인들의 권리는 물론 그들의 재정 상황까지 모두 위협할 수 있다고 강조한 바 있다.
이 같은 사례들은 저작권이 있는 자료를 기반으로 한 데이터 세트를 사용하여 시스템을 훈련하고 결과물을 생산할 수 있는 방법에 대해 ‘과연 모두에게 공정한가’라는 질문을 상기시킨다. 하지만 해당 논란들이 많은 부분 새로운 기술 중심적인 면에 집중되어 있음을 주목할 필요가 있다. 결국 AI 모델에 자신이 의도한 결과물을 얻기 위해 텍스트를 입력해 넣는 존재는 사람이기에 오히려 앞으로 인간이 알고리즘과 맺는 관계는 어떠해야 하는가에 먼저 관심을 가질 필요가 있다.
이미 알고리즘은 인간이 하는 것처럼 우리의 세계를 생성하는 한 축이다. 이전부터 우리는 알고리즘의 불투명성에 대해 많은 사회적 감시를 고려해 왔다. 특히나 투명성 부족으로 책임을 져야 하는 이가 누구인지에 대한 평가가 어렵다는 걸 알고 있었고, 그 속의 숨겨진 편견이 지속되어 그로 인한 결과가 불공정할 수 있음에 불안해 해 왔다. 그렇기에 '우리가 알고리즘을 어떻게 대해야 하는가'는 더 중요한 질문일 수 있으며 이에 대한 단서를 이미 익숙하게 경험해 온 콘텐츠 생성 알고리즘(content-generating algorithm)과의 관계에서 확인해 볼 수 있다.
먼저, 우리는 알고리즘의 존재를 인지하고 있다. 콘텐츠와 광고 관련 대화 시 자주 등장하는 '추천', '선택'이라는 단어는 사람들이 온라인 쇼핑이나 소셜 미디어 내 알고리즘을 중심으로 어휘를 구축하는 현상을 확인케 한다. 또한 우리는 알고리즘에 대해 호기심이 많다. 유튜브 메인 페이지가 왜 특정 카테고리의 콘텐츠로 채워지는지 또는 자신이 포스팅한 콘텐츠의 노출량이 충분지 않다 여길 때 종종 호의적이지 않은 반응으로 알고리즘을 향한 궁금함을 드러낸다.
마지막으로 우리는 알고리즘이 활동적이고 살아있는 존재처럼 우리를 위해 존재하기를 원한다. 새로운 습관을 만들기 위해, 배우기 위해, 잊지 않고 기억하기 위해 우리는 알고리즘에 기대곤 하며, 이를 위해 알고리즘을 완전히 통제하려는 시도를 하기도 한다. 관련 없어 보이는 해시태그의 사용 시도, 방해금지 모드 활성화 또는 광고 옵션에 대한 피드백 전송까지. 그리고 이 모든 시도들이 성공적이지 못할 때 디지털 디톡스나 뉴스레터 콘텐츠 소비 등의 알고리즘과의 단절을 시도하기까지 한다.
정리하면 사람들은 알고리즘과의 관계가 원하는 대로 진행되지 않을 때 신뢰 부족, 나쁜 평가, 과거에 사로잡힌 모습을 보이는 경향이 있다. 그리고 이는 상당 부분 우리가 일상적으로 맺는 '사회적 관계'와 흡사하다. 나아가 기존 콘텐츠 생성 알고리즘과의 관계는 대부분 ‘소비’의 영역에서의 일방적 관계였다면 현재의 대규모 언어 처리 모델인 AI 알고리즘과의 관계는 ‘생성’의 영역에서의 양방향의 관계에 가깝다 정의할 수 있다. 사용자가 요구하는 결과물이 완전한 오리지널리티를 가지지 못한 세상 속 누군가의 창작물을 기반으로 한다는 점에서 이제 생성 AI 알고리즘을 대하는 자세와 태도 또한 근본적으로 변화되어야 함을 인지할 필요가 있다.
ChatGPT의 창을 띄워놓아도 AI 알고리즘은 기다릴 뿐이다. 어쩌면 그 놀라운 능력에 가려져 있을 뿐, 당신이 무언가를 적을 때 비로소 당신이 속한 세상의 또 다른 누군가와의 드러나지 않는 사회적 관계가 꽃피워지도록 돕고 있을 뿐일 수도 있다.
*이 글은 23년 1월 9일 자 전자신문 기명 칼럼 게재된 내용의 원본입니다.
References
The History of Civil Liberties in Canada with Dr. Jordan Peterson
GitHub is Sued, and We May Learn Something About Creative Commons Licensing
This Copyright Lawsuit Could Shape the Future of Generative AI