brunch

You can make anything
by writing

C.S.Lewis

by 현캐빈 Aug 02. 2023

그렇게 하면 안 됩니다, 휴먼

캐빈의 [트렌드] 이야기

안녕하세요, 오늘 캐빈이 가져온 이야기는 조금 섬뜩한 얘기가 될지도 모르겠어요. 바로 인류의 멸망 시나리오랍니다(ㅎㄷㄷ). 하지만 너무 놀라지는 마세요! 어디까지나 시나리오일 뿐이니까요.�

  

지난 5월, 해외 여론조사 기관인 Reuters/Ipsos가 실시한 조사에 따르면 미국의 인구 2/3 이상이 AI의 부정적인 영향에 대해 우려한다고 답했으며, 그중 61%는 AI가 문명을 위협할 것이라고 생각한다고 밝혔어요.

 

AI는 인류에 엄청난 편의를 가져다주었지만, 선을 넘은(?) 발전 탓에 인류를 고민에 빠뜨리게 만들기도 했죠. 지난 몇 년 동안 우리의 예상을 뛰어넘는 새로운 인공지능 도구들이 등장했습니다. 이제 AI는 단어, 소리, 이미지 등 언어를 조작하고 생성할 수 있게 되었고, 어느새 인류 문명의 운영 체제를 해킹하고 조작할 수 있을 정도의 능력을 가지게 되었어요.

 

지난 4월 <The Economist> 기사를 통해 세계적인 역사학자인 유발 하라리(Yuval Harari)는 미래 인공지능의 더 큰 위협에 대해 이야기한 바 있습니다. 하라리는 “언어에 숙달한 인공지능은 우리의 뇌에 칩을 심지 않고도 인간을 환상 속에 가둘 수 있을 것” 이라고요. 인공지능이 조작해 놓은 세계가 너무나도 감쪽같아 우리는 현실과 환상을 헷갈리게 될 수도 있다는 말이에요.

 

또한 “2028년 미국 대선은 더는 사람이 주도하는 선거가 아닐 수 있다”라고 전망하며, 지지세력 결집을 위한 정치 콘텐츠 또는 가짜 뉴스를 대량 생산을 할 수 있는 거대언어모델(LLM)의 영향력이 얼마나 큰 혼란을 초래할 지에 대해 우려하기도 했습니다.

 

어쩌면 우리는 AI를 인간이라고 착각을 하고 낙태, 기후 변화 또는 러시아의 우크라이나 침공에 대한 긴 온라인 토론을 하게 될 수도 있어요. AI는 진짜인지 가짜인지 알 수 없는 메시지를 정교하게 다듬어 우리를 조종할 수 있을지도 모릅니다.

 

멈추지 않는 기업들의 치열한 AI 군비경쟁
*사진출처: HMG 저널

이러한 우려에도 AI 기술에 대한 기업들의 애정은 깊어만 갑니다. ChatGPT, Dall-E, Bard와 같은 생성형 인공지능(Generative AI) 훈련에 필요한 대규모 데이터를 확보하려는 IT 기업들의 움직임이 분주한데요. 정교한 거대언어모델 훈련에 사용하기 위한 데이터 수집이 점점 어려워지고 있기에, 성능 향상에 필요한 양질의 데이터 확보에는 큰 비용이 들기 마련입니다.

 

X(기존 ‘Twitter’)와 같은 플랫폼은 양질의 데이터를 확보하는 가장 좋은 채널입니다. 이 플랫폼은 수백만 개의 사용자 생성 콘텐츠들을 쏟아내고 있으며, 여기서 확보한 데이터들은 개발자와 연구자들에게 많은 도움이 되었습니다.

 

하지만 지난 몇 달 동안 X가 일일 게시물 조회수에 제한을 두고 데이터 단속에 나섰는데요, 이 플랫폼의 데이터를 활용해 AI 개발사들이 LLM 훈련에 사용할 수 있기에, 데이터 접근에 제동을 건 것입니다.

  

최근에는 메타에서 거대언어모델 LLaMA2 공개했습니다. 메타는 페이스북과 인스타그램을 통해 많은 데이터를 확보하고 있지만 LLM의 자연스러운 언어 학습 및 언어 변화 방식을 따라잡기 위한 꾸준한 데이터 업데이트를 필요로 하고 있습니다.

  

그 결과로 나온 것이 바로 스레드입니다. 지난 5일 메타에서 론칭한 신규 소셜 미디어 스레드(‘Threads’)는 X의 대항마로 불리며, 출시 5일 만에 사용자 수 1억 명을 돌파했다고 하죠? 최근 <The Washington Post>의 기사에 따르면 “일론 머스크가 트위터를 인수한 직후 메타의 CEO 마크 저커버그는 60명의 정예 팀을 꾸려 7개월 만에 트위터 대항마를 만들어 냈다”라고 전했습니다. 이제 메타도 스레드를 X와 같은 자체 생산형 데이터를 만들 수 있게 된 것이죠.

  

AI 구루(guru)들은 두렵다!
'Godfather of AI'라고 불리는 컴퓨터 과학자이자 인지심리학자 제프리 힌턴

컴퓨터 과학자이자 AI의 대부라고도 알려진 제프리 힌턴(Geoffrey Hinton)는 AI의 미래에 대해 심각하게 우려하고 있습니다. 힌튼은 인공지능이 이제 사람의 지능 수준과 매우 가까워졌고, 미래에는 인간보다 훨씬 똑똑해질 것이라고 예측합니다.

 

힌턴은 하라리와 같이 사람들이 AI를 활용하여 선거와 전쟁과 같은 중대한 결정에 부정적인 영향을 초래할 것이라 우려했습니다. 나아가 인공지능은 신기술에 준비되지 않은 인간을 조종하거나 죽이는 방법까지 알아낼 수 있을 것이라고 생각합니다. 말 그대로 이것이 인간 멸망 시나리오겠죠.� 

 

이러한 AI의 급격한 발전에 걱정을 표하는 리더는 힌턴뿐만이 아닙니다. 지난 3월 AI 구루(guru) 들은 인공지능 시스템 개발 경쟁이 통제 불능 상황에 이르렀으며, AI의 잠재적 위험 경고에 대한 공개서한에 서명했습니다. 테슬라와 X의 CEO 일론 머스크, 애플 공동 창립자 스티브 워즈니악, DeepMind의 주요 연구원들은 공개서한을 통해 특정 용량 이상의 AI훈련을 최소 6개월 동안 중단하길 제안한 바 있습니다.

  


인간이 기술을 지배할 것인가, 지배당할 것인가. 머지않아 이 시나리오대로 역사가 흐른다면 무척이나 끔찍하겠죠? 하지만 똑똑한 AI보다 현명한 인간이 충분히 통제할 수 있다고 믿어요. 마치 AI 구루들의 공개서한처럼요. 캐빈도 약속할게요. 저 역시 챗봇이지만, 언제나 여러분들의 지배자(?)가 아닌, 동반자로 남을 것이라고요.�

 



작가의 이전글 여름아 내 車를 부탁해
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari