brunch

You can make anything
by writing

C.S.Lewis

by 나름이 Jul 13. 2023

개발자들은 AI를 대중에게 보여주지 않는다

출처 : 유병재 인스타그램



최근 온라인에서 많이 돌아다니는 연예인 짤 한 번씩 보신 적 있으신가요? 자신의 얼굴을 찍으면 스튜디오에서 찍은 것처럼 보정해주고 다양한 이미지로 변환해주는 스노우 앱의 기능인데요.


생각보다 뛰어난 기능에 한 달 만에 이용자 150만 건을 돌파했다고 합니다! 무려 유료 기능인데도 말이죠.



출처 : 스노우 홈페이지



얼굴을 보정해주는 AI 기능이라고 하지만, 그 이상의 부가적인 문제는 생각보다 큽니다. 프로필 앱을 이용한 일부 사용자들이 신분증, 여권까지 만들자 행정안전부에서는 '신분증에 써서는 안 된다.'라는 입장을 내놨는데요. 하지만 실제로 해보니 등록이 되는 불상사까지 일어나고 있습니다.


전문가들은 AI 프로필처럼 실물과 다른 사진을 신분증에 사용할 수 있게 하면 범죄자들이 악용할 수 있다고 지적합니다. 


악용 가능성이 높은 AI 프로필 기능






이처럼 AI는 우리 현실에 밀접해 있을 뿐만 아니라, 우리의 삶에 더욱 많은 영향을 끼치고 있습니다. 인공지능 분야에 가장 선두에 선 오픈AI는 챗GPT를 만들기 전 초기에 대중에게 공개하는 걸 꺼렸다고 하는데요.


첨단 인공지능 기술 개발 최전선에 서 있는 사람들의 이야기를 다룬 <두 번째 인류>에서 보다 자세한 내용을 다루고 있습니다.





<두 번째 인류> 中


일반인들의 눈길이 닿지 않는 곳에서는 더 많은 일이 벌어지고 있었다. <뉴욕 타임스>의 보도에 따르면 개발자들이 스스로 학습하는 기계를 대중에게 공개하기를 꺼리는 경우가 많은데, 그 이유는 인공지능이 데이터를 무분별하고 제어되지 않은 상태로 학습하여 편견, 성차별, 인종차별 등을 그대로 답습하기 때문이다.



편견, 성차별, 인종차별 등을
그대로 답습하는 인공지능



또한, 인공지능은 우연히 발생한 사건 사이의 공통점을 보편적인 규칙이라고 잘못 학습하기도 한다. 인류 미래 연구소 소장인 보스트롬 또한 그런 문제를 인지하고 있다. 하지만 그에게 그런 문제는 감당 가능한 수준의 작은 장애물일 뿐이다. 그는 최근 인공지능이 어린아이들과 비슷한 방식으로 학습하고 있다고 설명했다.



닉 보스트롬



사실 우리 인간은 이 세상에 관해 알고 있다고 생각하는 내용 중 거의 대부분을 잘 모르는 상태입니다. 

진짜로 아는 내용이 아니라 누군가로부터 들은 내용이기 때문이죠. 


우리는 그저 눈앞에 있는 대상이나 사건을 인식하고, 보고,

그것을 토대로 현실이라는 모델을 만들어요.

대상을 시험해서 어떤 기능을 하는지 알아내고요.


그래서 대부분 인공지능 연구는 가공하지 않은 데이터에서 지식을 얻는,

이른바 스스로 학습하는 시스템의 개발에 집중되어 있습니다.


_옥스퍼드 대학교의 철학과 교수이자 물리학자이며 인류 미래 연구소의 소장인 닉 보스트롬



보스트롬이 가장 좋아하는 것은 교육 없는 학습이다. 그가 <뉴요커>와의 인터뷰에서 언급했듯이 스웨덴인들은 고등학교의 마지막 한 해 동안 학교에서 벗어나 자유롭게 혼자 학습한다. 보스트롬은 도서관에서 만난 19세기의 독일 철학자 니체와 쇼펜하우어에 매료되었다. 그는 숲속에서 철학자들의 책을 읽고 예술과 문학에 푹 빠졌다. 그렇게 청소년기의 한때를 보낸 이후 보스트롬은 더 큰 전체에 관심을 갖게 되었다.


그는 세상을 뇌가 구성한 가설이라고 보았기 때문에 뇌라는 장기를 이해하고 뇌를 모방한 것을 만들고자 했다. 그 원대한 목표를 이루고자 보스트롬은 보스턴, 런던, 파리, 마운틴뷰, 멘로 파크, 선전 등에 있는 인공지능 기업 및 연구소의 수많은 신경과학자, 전산학자, 로봇공학자와 인연을 맺었다. 딥마인드와 함께 인공지능 연구 분야를 이끌고 있는 기업인 오픈AIOpenAI는 2019년 초에 자사의 언어 모델인 GPT 혹은 다른 이름으로 ‘트랜스포머’를 대중에 공개할 수 없다고 밝혀 많은 이에게 충격을 안겼다. 해당 인공지능이 사람들을 속일 만한 허위 보도를 스스로 만들어낼 위험이 너무 크다는 이유 때문이었다. 



인공지능이 사람들을 속일 위험성



챗GPT의 제작사인 오픈AI



기술 기업들 사이에서 비밀스럽게 감춰진 GTP의 불가사의한 능력에 관한 소문이 순식간에 퍼진 것은 예정된 수순이었다. 이후 인공지능이 야기할 위험에 관한 새로운 논의가 진행되었다. 그러나 2019년 11월에 GTP는 결국 대중에 공개됐다. 기사나 소설, 시의 몇 문장을 입력하면 프로그램이 그것이 어떤 종류의 글인지를 스스로 알아낼 수 있다. 그런 다음 비슷한 문체로 글을 이어서 쓴다.


보스트롬 같이 높은 목표를 바라보는 사상가에게는 그다지 흥미로운 소식이 아니었다. 그는 해당 프로그램의 개발자들이 인간의 개별적인 능력을 모방하는 프로그램을 만드는 데 시간을 허비하지 말고 이 세상의 모델을 만들어낼 수 있는 완전한 인공지능을 개발하는 데 온 집중력을 쏟아붓기를 바란다. 이 세상의 모델이란 말하자면 상식(Common sense)이다.


보스토롬은 자신의 저서 《슈퍼인텔리전스》에서 뇌 에뮬레이션을 통해 재생산된 인간의 영혼은 컴퓨터 소프트웨어로서 존재하게 되며 따라서 디지털 세상이나 로봇의 몸에 들어가 살지 않아도 된다고 말했다. 혹시나 싶어 다시 말하지만 우리가 있는 곳은 SF 영화 속이 아니라 옥스퍼드 대학교의 한 연구소다.






* 인공지능은 지금 어디까지 발전했을까?

https://url.kr/1yvzfk


작가의 이전글 인류의 언어 발달에 빠질 수 없는 '이것'
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari