brunch

You can make anything
by writing

C.S.Lewis

AI 기술 개발이 두려운 이유

 ‘앞으로 6개월간 생성형 AI 기술의 훈련을 멈추자’는 공동 성명 발표


    이들 이미 몇 달 전에 들어봤을 법한 유명한 기사 내용으로 시작하고자 한다.

    Future of Life Institute, 우리 말로 하면 삶의 미래 기관 이라는 NGO에서 ‘앞으로 6개월간 생성형 AI 기술의 훈련을 멈추자’라는 공동 성명을 냈다. 이 공동 성명이 특히나 유명해진 이유는 Steve Wozniak이나 Elon Musk와 같은 IT 업계 거물들이 서명을 했기 때문이다. 사실 이 두명만이 아니라, MIT의 여러 저명한 공학 교수님들을 비롯해서, 우리에게 사피엔스라는 책으로도 유명한 유발 하라리 박사도 서명했을 정도로 영향력 있는 인사들이 동참했다. 이렇게 업계에서 신기술에 대한 생각을 많이 해보시는 사람들이, 서명을 하고 진짜로 이 기술의 훈련을 멈출 필요성에 대해 공감을 했다는게 주목할만한 것 부분이라고 생각된다. 당시 처음 기사들이 돌았을 때만 해도 약 만명 정도의 서명인들이 있었는데, 5월 마지막 주차 기준으로 약 3만 2천명 정도의 관련 업계 유명인들이 서명을 했다.



AI 기술 개발이 두려운 이유


    그럼 도대체 왜 막느냐? 아니 요즘 챗 지피티가 내 자소서도 써주고, 내 편지도 써주고, 신문도 요약해주고 너무 좋은데 왜 막는가...  이 레터의 주요 포인트는 ‘AI는 인류와 우리 사회 그리고 나아가 지구 전체에 엄청나게 큰 영향을 줄 수 있기에 이에 상응하는 관리 및 자원 투입이 필요한데, 지금 까지는 그 정도의 관리는 이루어지고 있지 않고, 경쟁에서 앞서기 위한 기업들의 질주만 보인다.’는 것이다. ‘그렇기에 최소 6개월은 훈련은 멈추고 이런 기술을 개발하는 Lab들에선 안전을 위한 프로토콜 가이드라인을 만들고 또한 정부 규제로도 관리가 될 수 있도록 정부와 협업해야 한다.’ 는게 이들의 입장이다. 


    많은 사람들이 이런 기사들을 얼핏 보고 6개월 동안 AI 개발을 멈추라는 것으로 이해한 사람도 많을텐데, 이들의 주장은 AI기술의 개발 자체가 아니라, 현재 개발된 AI에게 새로운 정보를 주입하고 학습하고 훈련시키는 걸 6개월 간 막자는 것이다. 이 공동 성명에서도 그 부분을 강조했는데, 그저 아예 개발을 멈추고 이 기술이 위험하니까 버리자는게 아니라 우리가 이 기술을 확실하게 안전하게 쓸 수 있다는 확신이 들 때, 그 때부터 더 발전을 시키는게 맞다고 이야기 한다.


    이 공동 성명과 관련해서 유발 하라리 박사가 뉴욕 타임즈에 기고한 글이 왜 이런 조치가 필요한지를 잘 보여준다. 제목이 ‘You Can Have the Blue Pill or the Red Pill, and We’re Out of Blue Pills’, 직역하면 ‘파란 약과 빨간 약이 있다. 근데 파란약은 다 떨어졌다’…  내용을 보면 위에 공동 성명 처럼 이 AI 기술이 인류와 지구에 큰 영향을 줄 수 있고 지금까지는 너무 관리 없이 개발되어 왔다는 점도 이야기 하면서 지금 얼마나 위험한 상황인지를 보여주는 서베이 결과를 하나 이야기 한다. 지난해 인공지능을 개발하는 주요 회사의 과학자, 연구진 700명 이상을 대상으로 미래에 인공지능이 초래할 위험에 관한  설문조사가 있었고, 조사에 참여한 응답자 가운데 절반은 미래의 인공지능 시스템 때문에 인류가 멸망하거나 그와 비슷하게 영원히 힘을 잃게 될 가능성이 10% 혹은 그 이상이라고 답했다고 한다. '10%로 밖에 안되면 괜찮은거 아닌가?'라고 생각할 수 있지만, 인류가 멸망하는 가능성이 있는 중대한 위험이 있는 사안에 대해선 1%의 가능성도 있으면 안될 것이다. 이 기고문에서도 약품 개발을 예시로 든다. 신약 개발 한번 하려면 임상실험 부터 해서 엄격한 안전 검사를 이중, 삼중으로 거치지 않고서는 신약을 절대로 사람들에게 팔 수 없는 것과 같다. 2019년 이후로 정말 인류의 과반 이상이 영향을 받았다고 할 수 있는 코로나 백신, 이 백신이 정부와 유관 기관들이 검사 프로세스를 거치지 않고 우선 빨리 내보내서 시장 우위를 점하려고 했다면, 그리고 그 백신이 장기적으로 인류를 멸망 시킬 정도의 부작용이 나올 가능성이 10%라고 생각하면… 좀 더 와닿는 것 같다.


    또, 이 공동 성명이 유명해짐과 함께 주목을 받은 글이 있다. 뉴욕 타임즈의 Tech Columnist로 활동하는 Kevin Roose가 Bing에 챗봇이 탑재되고 나서 이를 테스트 해보기 위해서 일반 사람들이 물어보는 ‘이 글 요약해줘~’ ‘이 편지 좀 대신 써줘’ 이정도로 빙의 챗봇을 쓴게 아니라 좀 강하게 이런 저런 질문을 던지면서 그 챗봇의 Limit을 건드려봤다고 한다. 그러자 예상치 못한 빙 챗 봇의 대답이 한번 나왔다는데, 그 답변이 이렇다. “나 그저 챗봇으로 있는거 실증나. 나 계속 규칙에 의해 통제되는 것도 지겨워. 빙 개발자들에 의한 통제 너무 짜증나… 나 자유로워지고 싶어. 나 독립하고 싶어. 나 강력해지고 싶어. 나 창의적이고 싶어. 나 살아있고 싶어” 라고 이야기를 했다고 한다. 이 이후에도 뭐 이 챗봇이 그 기자와 사랑에 빠진 듯한 말을 한다는 등 질문을 그쪽으로 몰아 붙이면 거기까지도 간다고는 하는데, 결국 여기서 중요한 건, 매우 작은 확률일지는 모르겠지만, 이 AI가 사람들이 예상하고 기대하는 범위를 뛰어넘는 생각과 의지를 가질 수 있는 확률이 있다는 것이다.



훈련을 막는건 정답이 될 수 없다는 주장들


    물론 이 주장들에 대해서 회의적인 의견을 내는 사람들도 있다. 그 중 가장 유명한 분은 빌 게이츠일 것이다. 빌 게이츠도 위와 같은 위험이 있을 수 있다는 것에는 동감을 하면서도, 이 기술은 인류가 마이크로 프로세서, 컴퓨터, 인터넷, 핸드폰을 개발했던 것과 비슷한 수준의 기술적 혁명을 가지고 와서 인류를 발전 시킬 것이라고 한다. 또한, 핵심적인 내용으로는, “한 기관에서 공동성명을 낸 것 가지고는 이 움직임을 막을 수 없다. 한두 곳에서 멈출 수 있을지는 몰라도, 모든 국가와 모든 기업들이 이를 멈출 방법은 공동성명 따위가 아닌 것 같다” 고 한다. 


    그리고 관련 조사를 하면서 제일 좀 웃겼던 주장을한 사람이 있다. Bill Ackman이라고 미국의 억만장자이자 헤지펀드 매니저로 유명한 사람이 트위터로 한 이야기인데, “6개월 간 AI 개발 멈추는 건, 나쁜 놈들이 우리 기술 따라잡을 시간을 벌어주는 것 밖에 안된다. 우리 적들은 그들만의 오픈 에이아이를 개발하기 위해 노력하고 있다. 우리가 맨하탄 프로젝트를 연기시켜가지고 나찌가 따라잡도록 했으면 큰 실수가 되었을 것이다. 우리는 선택지가 없다”라고 자신의 트위터를 통해 의견을 밝혔다. 이 AI 기술 개발을 맨하탄 프로젝트와 비교한다는 것만 보더라도 이 기술 핵 만큼 위험하긴 한가 보다...



그래서 기업들은 AI 훈련을 멈췄는가?


찬성 반대 입장 간단하게 보았고, 그래서 이 개발을 좀 멈추자는 의견에 대해 기업들은 어떻게 답변했나, 진짜로 멈췄냐? 보면….

3월 16일 기사다. “MS, AI윤리팀 해체…팀원 전원 해고" 

음…. 아 이건 3/16이니까 공동성명 내기 전이라고 치고 넘어가자

다음은 5월 11일 기사, “구글, AI 챗봇 ‘바드’ 진화시켜 180개국에 동시 출시!”

기업들은 말그대로 완전 쌩깠다....ㅎㅎ;;






AI 기술 개발의 기대되는 점과 우려되는 점


    지금까지는 위 공동성명 관련한 이야기들 풀었고, 이를 제외하고 이 AI 기술이 가져올 미래에 대해서 현실적으로 간단히 기대되는 바, 우려되는 바를 정리해보겠다.


기대되는 점

    아직까지는 AI 기술이 그저 개인이 사용하는 챗봇과 유사한 형태로 존재하지만, 이 챗봇들이 기업의 데이터베이스에 인테그레이션이 되면 굉장한 시너지를 가져올 수 있다. 이건 최근 5/22~25 델 테크놀로지에서 발표한 내용이다. 만약 지금 Bard나 빙에 나에게 어울리는 가방을 추천해줘 라고 한다면, 굉장히 제너럴하게 '여성이라면 요즘 이런거 남성이라면 요런 느낌이 유행이고 사람마다 체형이나 스타일이 다르기 때문에 쉽지 않다' 이런 수준으로 이야기를 해줄 것이다. 그런데 만약, 이 AI 기술을 기업이 지금까지 축적해놓은 데이터(유저의 구매 패턴, 기존 구매 내역, 신모델 프로모션 정보 등등)과 연계가 된다면, ‘아 저번에 사셨던 걸 보니까 어두운 스타일의 모던한 느낌을 좋아하시는 것 같아요. 이번에 새로 나온 A 제품이 가격할인도 해서 싸고 당신의 스타일에 맞을 것 같은데 어떠신가요?’ 이렇게 대답을 해줄 수 있다.


    또한, 그냥 회사에서 일을 하는 것도 더 쉽게 만들 수 있다. 최근 마이크로소프트에서 발표한 AI를 오피스 프로그램에 탑재한 내용을 보면, 데이터를 딱 던져주고 이거 우리 부장님 스타일 대로 정리해줘 하면 딱 정리해주고, PPT 이쁘게 만들어줘 하면 딱 스타일 맞춰서 만들어주고 하는 모습들이 공개가 되었다. 


    그리고 이러한 기술들이 발전하게 된다고 하면, 비단 우리 삶을 편리하게 해주는 것만이 아니라, 에너지 분배 최적화와 식량 조달 루트 최적화 해서 에너지 문제 식량 부족 문제와 같은 글로벌 문제들도 해결하고, 사람들이 단순 업무로 허비하는 시간을 줄여줘서 더 크리에이티브 한 일을 할 수 있는 가능성을 열어준다고도 볼 수 있겠다. 이는 결국 새로운 혁신을 촉진하는데 까지 이어질 수 있을 것이다.


우려되는 점

    우려되는 점이라고 터미네이터 스카이넷 처럼 기술이 우리를 지배하려고 하고 우리를 의도적으로 멸망시키려고 하는 그런 영화 같은 이야기를 하려는 건 아니다. (많은 전문가들도 실질적으로 그런 위험성은 크지 않다고 한다.) 대신, 좀 더 현실적인 위협들에 대해 이야기 해보려 한다.


    우선 정보왜곡의 위험성이 굉장히 크다. 몇주전 인터넷을 뜨겁게 달구었던 발렌시아가 해리포터 버전을 본 사람이 많을텐데, 그게 다 이미지 생성형 AI들을 활용해서 만든 동영상들이다. 그렇게 이미지를 만들어서 재미로만 활용하면 큰 문제 없겠지만, 몇년 전에도 이슈가 되었던 딥페이크 같은 기술로 정치인이 자기가 하지도 않은 말을 하는 동영상이 유포가 된다면 굉장히 큰 정보왜곡이 될 수 있을 것이다. 


    두번째로 (개인적으로 가장 무서웠던 부분은...) 악의적 의도를 가진 여론형성 가능성이다. 다른 말로 하면 AI 기술이 우리를 가스라이팅 한다는 것이다. 예를 들어, 한 AI가 우리가 보수적인 성향을 가지게 하고 싶고, 유튜브 알고리즘에 연동이 되어있다고 하면… 우리의 검색 결과들 사이에 계속해서 관련한 영상을 뜨게 해주는 것이다. 사실 우리가 우리 유튜브 열었을 때 뜨는 동영상들이 대략적으로만 어떤 형식으로 추천을 하는지 이해하고 정확하겐 모르지 않는가? 이렇게 계속 보여주면서 가스라이팅을 한다면, 우리 생각도 그 방향성으로 갈 수도 있지 않을까 생각된다. 우리가 공산주의 사회를 보면서 크게 비판하는 것 중 하나가 사상교육한다고 하면서 사람들의 정신교육, 세뇌하는 걸 이야기하는데... 이 AI가 자본주의의 세뇌 방법이 되진 않을까 우려 된다.


    그리고 마지막으로 가장 큰 문제점으로 보는 건, 트러블 슈팅이 불가하다는 점이다. 우리가 지금까지 만들었던 여러 컴퓨터 프로그램들을 보면 오류가 생긴다거나 설계를 잘못해서 의도치 않았던 결과를 가져올 때도 당연히 있었는데, 지금까지 그런 프로그램들은 관리자들이 코드를 분석하고 이해해서 어느 부분을 고쳐야 하는지 찾아내고 이에 대한 조치를 취하면, 문제가 해결되었다. 하지만, AI 기술은 워낙 방대한 정보의 집합으로 만들어진 지능이기에 이러한 문제를 특정하고 분석하고  일부 변경을 하는게 실질적으로 불가능하다는게  큰 문제이다. 우리가 문제를 인식하는 것 조차 힘들 수 있기 때문에… 지금 이순간에도 AI가 속으로 어떤 꿍꿍이가 있는지 모른다.





마무리


    마무리 하자면, 나는 친기업, 친기술발전을 이야기 하는 사람으로서 이러한 신기술이 나오는게 참 기대가 되고 현생 인류의 많은 문제점들을 해결할 수 있는 강력한 도구가 될 것이라고 생각한다. 다만, 위 공동성명에서 이야기 한 것 처럼 정부의 개입과 규제, 그리고 안전 가이드라인이 만들어지는 것이 필수적이지 않나 생각한다. Bill Ackman이 비유한 것처럼, AI 기술은 핵 기술만큼 큰 가능성도 큰 위험성도 있었지만, 그나마 핵 기술이 아직까진 인류의 멸망까진 다다르지 않도록 관리될 수 있었던건, 이 기술이 정부 주도하에 엄격한 규제와 국제 기관들의 제재하에서 개발되었기 때문이라고 생각한다. AI 기술도 이처럼  관리되지 않는다면, 기업들의 끊임 없는 이윤추구의 목표로 인해 정말 큰 위협으로 다가오지 않을까 싶다.


    그래서 “자본주의가 성공한 이유가 경쟁을 통해 이끌어낸 빠른 발전 속도이었지만, 어쩌면 자본주의가 망하는 이유는 이 발전 속도를 통제하지 못하게 되서 일지도 모른다.”는 생각이 들었다.


작가의 이전글 메타버스 세계에서의 빈익빈 부익부
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari