인공지능(Artificial Intelligence)라는 말은 우리에겐 이제 친근한 단어가 됐습니다. Open AI사에서 개발한 ChatGPT는 젊은 사람들 사이에선 안 쓰는 경우가 거의 없죠. 논문과 자료들을 일목요연하게 정리해주고, 문서작업이나 과제를 전문가 수준으로 대신 작업해주니, 안 쓸래야 안 쓸 수가 없는 존재가 됐습니다. 저도 내 시상을 표현할 적절한 의성어와 의태어를 찾으려 할 때는 ChatGPT에게 물어봐 도움을 받기도 합니다. 이 ChatGPT는 수많은 AI의 종류 중 하나인 거대언어모델(LLM)으로서 '생성형 AI'입니다. 거대언어모델은 텍스토화된 데이터세을 거대한 규모로 학습한 인공지능 모델을 의미하고, 생성형 AI는 알고리즘의 결과로 그림과 글처럼 전에 없던 것을 만드는 인공지능을 의미합니다. 숱한 AI 중 하나만으로도 우리의 생활이 이토록 편해졌다면, 우리의 삶은 앞으로 윤택해질 일만 남은 것 같습니다. 하지만 일상에 스며 들었다는 것은 그만큼 인공지능의 악영향력도 커졌다는 말이죠.
가짜뉴스(Fake News)라는 단어는 모두 잘 알 것입니다. 가짜뉴스는 사실을 기반으로 한 사건 보도가 아닌, 검증되지 않은 정보를 사실인 것처럼 보도하여 시청자들의 오해를 불러일으키는 잘못된 뉴스입니다. 이 가짜뉴스는 최근 AI 발전과 함께 큰 문제로 대두되었는데, 그림과 영상을 만드는 생성형 AI를 사람들이 손쉽게 이용할 수 있게 되면서 인터넷에 진짜같은 가짜 사진과 영상이 돌아다니게 됐습니다. 최근 대선 경쟁자였던 도널드 트럼프와 카멀라 해리스가 키스를 하는 장면이 X(전 트위터)에 게시됐는데, 이는 AI의 합성으로 만들어진 가짜뉴스였습니다. 이는 웃고 넘어갈만한 헤프닝일지 모르겠지만, 정치적 발언이나 의료 지식과 같은 민감한 문제에서 AI의 합성을 통한 가짜뉴스가 벌어졌다면 끔찍한 일이 벌어졌을 것입니다. 가령 잘못된 투표로 인해 민주주의가 무너지고, 잘못된 의료 지식이 퍼져 다치고 죽는 사고가 벌어지는 일이죠.
AI는 가짜뉴스의 문제만 일으키지 않습니다. 이미지 인식에서도 큰 문제를 일으킬 수 있습니다. 이미지넷은 세계 최대 규모의 오픈 소스 이미지 데이터베스입니다. 1000만 개가 넘는 이미지를 사람이 하나 하나 레이블링(태그를 붙여 구분하는 것)을 한 엄청난 데이터베이스이죠. 그런데 2019년까지 몇몇 이미지에는 '낙오자', '실패자', '이류 인간'과 같은 레이블링이 달려 있었다는 것을 아시나요? 즉, 이미지만 보고 누가 낙오자이고, 실패자이고, 이류 인간인지 알 수 있다고 사람이 분류해놓은 것입니다. 이는 단지 데이테의 문제만으로 끝나지 않습니다. 이 데이터베이스를 이용하는 모든 산업에서 문제가 발생합니다. 특정 인종을 보고 실패자로 볼 수 있고, 특정 성별을 보고 낙오자로 볼 수 있으며, 특정 국적의 사람을 보고 이류 인간이라고 구분 짓는 소프트웨어가 개발될 수 있는 것입니다.. 실제로 유명한 랩퍼인 Lil Uzi Hurt는 트위터(현 X)에 이미지넷을 활용하는 이미지넷 룰렛에 자신의 사진을 올리자, 자신이 정적인 단어가 아닌 '깜둥이'와 같은 인종차별적인 단어로 자 레이블링됐다는 글을 올렸습니다. 데이터베이스에 잘못된 인간의 가치를 주입하면, 사람들은 자신도 모르는 사이에 차별적인 조치를 받고 있게 되는 것이죠.
위의 사례처럼 인공지능 윤리가 제대로 구축되지 않으면, 사람들은 지금보다 더욱 차별적인 세상을 마주할 것입니다. AI의 규모와 영향력이 점점 커지면서, 우리가 보지 못하는 곳에서 24시간 AI에게 차별받고 있을지도 모릅니다. 차별적인 사람은 자기라도 하지만, AI는 인간이 만든 에너지를 먹고 24시간 우리를 관찰하고 있을 것입니다. 상상만해도 무서운 세상입니다. 하지만 인공지능 윤리를 완벽하게 구축하기란 어렵습니다. 적용 범위와 사례가 거의 무한에 가깝기 때문입니다. 밑의 주소는 트롤리 딜레마를 경험할 수 있는 사이트입니다. 자율 주행 자동차에 적용되는 윤리적 문제에 관한 것인데, 풀어보시면 아실 테지만 선택하기가 참 어렵습니다. 한 번 풀어볼까요?
https://www.moralmachine.net/hl/kr
풀어보셨다면, 제가 위에서 말했듯이 선택 하나 하나가 어려우셨을 겁니다. 사람의 숫자, 생명체의 종, 나이, 규칙준수, 윤리 등 다양한 가치가 얽히고섥혀 머리를 아프게 만듭니다. 이와 같은 윤리적 문제를 종잡을 수 없는 양만큼 풀 수 있다면, 그때는 자율 주행 자동차가 지금의 일반 자동차처럼 상용화될 수 있다고 생각합니다.
하지만 이쯤에서 한가지 의문이 들 수 있습니다. 이미 많은 AI가 엄청난 속도로 개발되어 우리의 일상에 이미 스며들었는데, 우리가 인공지능 윤리에 대해 잘 모른다면 무언가 잘못된 것이 아닌가 하는 의문이죠. 책 <박태웅의 AI 강의 2025>을 쓴 박태웅 저자는 다음과 같이 말합니다.
"인류는 사상 유례업는 인간의 마음에 대한 실험을 마주하고 있습니다.
우리는 소셜미디어에서 한 차례 실패를 겪었고
지금도 그 대가를 지불하고 있습니다.
인공지능에는 그러지 않을 수 있을까요?
SNS는 우리 일상을 통째로 바꿨습니다. 추억을 기념하기보다는 자랑하는 것에 익숙해졌으며, 남들에게 보여지는 것의 가치가 급부상했죠. SNS로 인해 우리는 전보다 남들과 자신을 비교하기 시작했습니다. 책 <고립의 시대>에선 이런 말을 합니다. 주먹 싸움과 같은 물리적 폭력을 사용하는 남자 청소년보다 관계의 붕괴와 같은 관계적 폭력을 사용하는 여자 청소년에게 SNS는 매우 치명적이라고 말이죠. 이를 확장해서 생각하면, SNS가 현대 인류에게 비교를 통한 관계적 폭력이라는 무기를 인간에게 쥐어준 것으로 이해할 수 있습니다. 그렇다면 인공지능이 현대 인류에게 어떤 무기를 쥐어준 것일까요. 앞서 말한 사례는 조그마한 칼 수준밖에 되지 않을 겁니다.
"무엇보다 학제 간 연구가 절실합니다.
이것은 컴퓨터 공학계에서만 일어난 일이 아니기 때문입니다.
철학, 인류학, 사회학, 인지심리학, 뇌과학, 법학···
모든 연구자들이 머리를 맞대야 합니다."
"인류는 비록 미흡하지만 몇 차례 공동 대처에 성공한 적이 있습니다.
1975년 아실로마 회의가 그것입니다.
유전과학자들이 실제로 모든 실험을 멈춘 덕분에
생명공학은 인류 공동의 기준을 가질 수 있게 됐습니다."
"인공지능에도 기회는 남아 있습니다. 이것이 나라 간의, 기업 간의 군비 경쟁이 아니라는 데 합의할 수 있다면 인류는 또 한 번 새로운 공동 규칙을 만들어낼 수 있을 겁니다"
빌 게이츠와 샘 올트먼을 포함한 유명 CEO와 인공지능 과학자들이 2023년 5월 30일에 AI 개발에 주의를 촉구하는 성명서에 서명했습니다. 인공지능의 군비 경쟁에 선두주자였던 인물들이 서명한 것을 보면, AI가 품은 위험이 더욱 분명해졌음을 알 수 있습니다. 지금은 그로부터 2년이 좀 안되는 시간이 흘렀습니다. 그 사이, 우리 사회는 AI 윤리에 대해 충분한 숙고를 했을까요. 이공계 관련 분야라는 이유로 토론하고 고민하기를 거부하지는 않았나요. 많은 아쉬움이 남는 작금의 상황이었습니다.
항간에는 '한국 사회가 정보화 시대는 잘 따라갔지만, 이번 인공지능 시대에선 뒤쳐질 것이다'라는 말이 떠돕니다. 상법과 같은 법적인 문제로 한국에서 해외로 떠나는 스타트업의 숫자가 매년 늘고 있습니다. 시가총액 최상위권에 위치한 기업들은 대부분 기성 기업들입니다. 네이버와 카카오 기업도 2000년대(정보화 시대)에 떠오른 스타트업입니다. 한국에선 새로운 기업이 큰 기업으로 성장하기가 점점 어려워지고 있습니다. 반면에 미국에선 Open AI나 중국에선 딥시크처럼 큰 규모의 새로운 인공지능 기업이 탄생하고 있습니다. 인공지능이 스타트기업에서만 개발되고 발전되는 것은 아닙니다. 다만 인공지능의 발전이 대기업에서만 이뤄진다면, 그 사회에선 혁신의 알고리즘의 수가 적은 것이죠. 한국 사회는 그런 점에서 아쉽다고 생각합니다.
위와 같은 한국의 상황에서 인공지능, 그리고 인공지능 윤리에 대해서 생각해 볼 필요가 있겠습니다. 한국은 이 상황을 어떻게 헤쳐나갈 것인가, 또 개인으로서의 우리는 어떻게 인공지능을 이용하여 살아남을 것인가. 저와 저의 후세에게 어떤 세상을 물려줄지 고민하게 되는 요즘입니다. 제 글을 읽어주셔서 감사합니다.
<도움을 받은 책>
<