brunch

박태웅의 AI 강의 : 꼭 한번은 읽어봤으면 좋겠다

by 윤슬작가

"이보다 쉬운 설명은 없다"라는 띠지의 문구는 과장이 아니었다.


'챗 GPT의 실체부터 AI의 진화와 미래까지'라는 표지의 설명이 가장 먼저 시선을 끌었다. 거기에 결정적으로 영향을 미친 것이 띠지에 나온 저 문장이었다. 그럼에도 챗 GPT에 대한 기초적인 지식이 없는 상태인데, 호기심만으로 따라갈 수 있을까 걱정이 많았다. 하지만 기우였다. IT의 현자로 불리는 한빛 미디어 이사회 의장 박태웅 님의 눈높이 교육 덕분에, '참 잘 읽었다'에서 나아가 '누구든 꼭 한번은 읽어봤으면 좋겠다'라는 마음으로 나아갔다.


오픈 AI가 챗 CPT를 공개한 것이 22년 11월 30일이다. 사용자를 모으는 속도가 가자 인스타그램과 틱톡의 성장 속도를 따라잡았다는 기사를 본 적이 있으며 변호사 시험이나 의사 시험, 그뿐만이 아니라 창작활동까지 거뜬하게 해낸다는 얘기를 들었다. 챗 GPT, 인공지능에 대해 '나하고 상관없어', 또는 '몰라도 괜찮아'가 아니라 '그래도 알고 있어야 한다'라는 사회적 분위기가 형성되고 있음이다. 그렇지만 나를 포함한 대다수의 사람들은 개념을 정의하는 것부터 어떻게 바라봐야 하는지 막막한 게 사실이다. 그런데 친절하게도 그 막막함을 덜어내는데 구원투수가 나타났다.



충분히 발달한 과학기술은 마법과 구분할 수 없다 - 아서 클라크




저자는 책의 머리말에 기획의도를 명확하게 밝히고 있다.


이 책은 이런 급격한 변화에 맞서, 말하자면 'AI 리터러시'를 높이는 데 도움이 될 목적으로 쓴 것입니다. 인공지능의 다양한 측면을 두루 보고, 그것이 가진 함의와 품고 있는 위험들, 그래서 우리가 해야 할 일을 짚으려고 했습니다. 두 가지 목표를 가지고 썼습니다. 하나는 최대한 쉽게 쓰자는 것입니다. 청소년이 정독하면 이해할 만하게 쓰는 것을 목표로 삼았습니다. (중략) 다른 하나는 그럼에도 전문가 또는 전문가가 되고자 하는 분들에게도 도움이 돼야 한다는 것입니다. 이 책이 교양서 답지 않게 수십 개의 논문을 소개하는 것은 그 때문입니다. - <박태웅의 AI 강의> p.7

저자는 이번 책이 청소년에서 일반인을 넘어 전문가에게도 메시지를 전달할 수 있기를 바랐다. 매개변수라는 단어조차 생소한 이들에게는 기초정보를 전해주면서, 교양서로 일반인에게 인공지능의 현주소를 알려주면서, 전문가 집단에게는 앞으로 해야 할 것이 무엇인지를 공론화하자는 취지를 여러 층위에서 다양한 방식으로 소개하고 있다. 그런 까닭에 책을 한 번이라고 정독하고 나면, 공론화하여 합의를 도출하자는 의미가 무엇인지 명확해진다.


"오리지널스의 실종"


필연적으로 오게 될 일들이 있습니다. 거대한 생성형 인공지능이 대세가 되면 우리는 어떤 것들을 보고 겪게 될까요? 미래를 다 예측하긴 어렵지만, 분명해 보이는 여러 가지 일들 중 첫 번째는 바로 '오리지널스의 실종'입니다. 일본 이화연구소의 하타야 류이치로 연구팀이 <대규모 생성모델이 미래의 데이터 세트를 손상시킬 것인가?>라는 논문을 발표했습니다. 연구팀은 대규모 텍스트- 이미지 생성모델인 달리, 미드저니, 스테이블 디퓨전 등의 인공지능이 사람이 그린 그린 대신 인공지능이 생성한 이미지로 학습하면 어떻게 될까를 실험했습니다. AI 생성 이미지를 각가 0퍼센트, 20퍼센트, 40퍼센트, 80퍼센트씩 섞은 데이터 세트를 만들어 AI 이미지 프로그램을 학습시켰습니다.(중략) 그러니까 인공지능이 그린 그림이 많아질수록 인공지능의 성능이 나빠지더라는 것입니다. 세계적인 SF 출판사 클라크스 월드가 넘쳐나는 표절 때문에 신작 공무를 무기한 중단했다고 <가디언>이 2023년 2월 21일 보도했습니다. 표절작이 무려 전체의 38퍼센트에 이르렀기 때문입니다. (중략) 평상시에는 10여 편의 표절작이 접수될 뿐이었지만 챗 GPT가 발표된 후 엄청나게 늘어났다는 것입니다. - <박태웅의 AI 강의> p.137

책을 읽으면서 공감을 하면서도 가장 두렵게 다가왔던 부분이었다. 그러면서 챗GPT와 같은 거대 언어 모델이 지닌 네 가지 위험성을 지적했는데, 더 이상 인공지능의 공론화를 늦춰서는 안 될 것 같다는 기분이 들었다.


"거대 언어 모델이 지닌 4가지 위험"


첫째, 환경적, 재정적 비용부분으로 대규모 인공지능 모델을 구축하고 유지하는데 드는 천문학적인 비용. 막대한 전기료와 탄소 배출.

둘째, 거대 언어 모델이 이해할 수 없는 모델이라는 점, 다시 말해 어떤 부분이 왜곡되었는지, 잘못되었는지 알지 못한다는 점. 그로 인해 강대국은 더욱 강해지고, 약소국은 더욱 약해질 수밖에 없는 불편한 미래.

셋째, 거대 언어 모델을 향한 지나친 관심이 가져올 연구의 기회비용. 다시 말해 예산을 얻지 못할 수많은 연구들.

넷째,할루시네이션, 거대 언어 모델은 트랜스포머라는 특성상 환각(오류)로부터 자유롭지 못하다는 사실.


그렇다면, 이런 위험을 안고 있는, 하지만 이미 다가온 미래에 대해 어떻게 공론화를 이끌어내고, 어떤 주제로 공론화를 이끌어나가야 할까? 다행히도 저자는 2020년까지 전 세계에서 발표한 AI 원칙 중에서 가장 공통되는 여덟 개의 핵심 주제를 소개하면서 가이드라인을 제공하고 있다.


프라이버시

책임성

안전과 보안

투명성과 설명 가능성

공정성과 차별 금지

인간의 기술 통제

직업적 책임

인간 가치 증진


또한 유럽연합이 2018년 12월에 발표한 '인간 중심의 신뢰할 수 있는 인공지능 가이드라인 초안'도 소개하고 있다.


인간 자율성에 대한 존중

피해 방지

공정성

설명 가능성


이번 리뷰가 인공지능의 가이드라인을 만들자는 저자의 바람이 성과를 거두는 데 도움이 되었으면 좋겠다. 예측되는 위험을 예방하여 편견이나 결함의 알고리즘이 생성되지 않고, 개인이나 특정 그룹의 취약점을 악용하는 사례를 막아내는데 선한 영향력을 발휘하면 좋겠다. 무엇보다 새로운 바람이 불어오면 관련학과나 자격증을 만들어내는 문화가 아니라 학제간의 연구를 바탕으로 하여 기초과학을 육성해야 한다는 저자의 목소리에 힘이 실리는 데 작게나마 보탬이 되었으면 좋겠다.


from. 기록디자이너 윤슬작가

keyword
매거진의 이전글부자의 그릇/ 돈과 신용, 부의 상관관계