2023년 AI 산업 총 결산
매년 연말, 새해 연초가 되면 지난 한 해를 뒤돌아보고 새로운 한 해를 전망해 보는 기사가 쏟아진다. 나름 브런치스토리에 AI와 관련된 이야기를 쓰는 입장에서 2023년을 돌아보지 않을 수 없다.
특히나 2023년은 인공지능 역사상 가장 극적인 해로 기록될 전망이다. 2022년 말에 발표된 오픈AI(OpenAI)의 챗GPT 열풍이 본격화되었으며, 2023년 3월 공개된 대형 언어 모델 GPT-4는 챗GPT 열풍을 더욱 가속화시켰다. 이에 대한 반작용으로 인공지능을 우려하는 목소리가 각계각층에서 쏟아져 나오기 시작했으며, 미국과 EU 등은 본격적으로 AI와 관련된 규제와 법안을 만들기 시작했다.
2023년의 흐름이 이어질 2024년. 올해를 상징하는 청룡처럼 인공지능은 더욱 비상할 수 있을지 주목받고 있다. 2024년을 전망해 보기 전에 2023년 있었던 주요 사건을 몇 가지 키워드로 정리해 보자.
2023년 빅테크 기업들은 생성형 AI(Generative AI)에 올인한다. 오픈AI의 챗GPT 성공에 자극을 받아 구글은 챗봇 바드(Bard)와 제미니(Gemini)를 발표했고, 메타 역시 라마2(LLaMa2)를 발표했다. 단순 언어를 생성하는 것을 넘어 이미지, 영상 등을 생성해 주는 서비스들도 속속 등장했다.
특히, 오픈AI는 챗GPT를 기반으로 생태계를 구축하고자 하는 움직임을 보이고 있다. 2023년 11월 열린 오픈AI의 개발자데이 행사에서 공개된 'GPT스토어'는 인공지능 산업을 바꿔놓을 파괴력을 가지고 있다는 예측들이 쏟아졌다. 물론 이후 벌어진 오픈AI의 CEO 샘 알트만(Sam Altman)의 해고 및 복귀 소동으로 GPT스토어 공개는 2024년으로 미뤄졌지만, 올해 가장 주목해서 봐야 할 이벤트임에는 틀림없다.
관련해서는 아래와 같은 포스트를 남긴 바 있으니 더 궁금하신 분들은 읽어 보시길.
인공지능의 '서부 시대'라는 말이 무슨 뜻인지 궁금할 것이다. 우리가 잘 알고 있는 미국의 서부 시대는 카우보이와 골드러시로 대표된다. 그야말로 무법의 서부에서 벌어졌던 활극의 시대. 여기서 주목해야 할 것은 바로 '무법'이다.
인공지능 역시 그동안 서부 시대처럼 무법지대였다. 개발자들이 골드러시를 하던 사람들처럼 맹렬히 인공지능을 만들고, 대중은 이를 쫓아가는 방식말이다. 이제 이러한 시대는 막을 내린다. 이제 인공지능이 제도권으로 들어왔다.
챗GPT로 인해 미국 정부를 비롯해 G7 정상들은 AI 정책과 규제에 대해 논의하기 시작했다. 12월 초에는 EU에서 AI 규제법에 합의하였다. AI를 더 책임감 있게 개발할 수 있도록 하는 기준을 수립한 것이다. 또한, 저작권 문제를 해결하기 위한 노력도 시작되었다. 생성형 AI가 마구잡이로 수집하는 학습 데이터에 대한 기준을 세우기 위해 많은 학자들이 나서고 있고, 벌써 소송들도 다수 진행 중이다.
저작권 관련해서는 아래 포스트를 읽으면 도움이 될 것이다.
할루시네이션(Hallucination)이란 영어 단어에 익숙한가? 환각이라는 뜻의 이 단어에 익숙하다면 인공지능에 관심이 있다고 할 수 있다. 생성형 인공지능이 대중화되며 이들의 환각 현상에 의해 만들어지는 우스꽝스러운 실수들이 대중들에게 많이 회자되었다. 국내에서는 세종대왕이 맥북을 던진 사건이 밈(Meme)이 되어 온라인 세상을 달구었으며, 마이크로소프트의 빙(Bing)은 사람들의 질문에 음모론으로 답하는 경우가 많았다. 외국에서 화제가 된 것은 <뉴욕타임스> 기자에게 아내와 헤어지라는 조언을 한 사례이다. 더 심각한 것은 구글 바드였다. 홍보 영상에서 부정확한 정보를 답변한 바드로 인해 구글의 모회사 알파벳의 주가는 1,000억 달러 급락한 바 있다.
문제는 이 환각 현상을 극복하는 것이 쉽지 않다는 것이다. 오픈AI는 기술적으로 가능하다고 하지만, 인공지능의 대부이자 메타의 인공지능을 리드하는 얀 르쿤(Yann LeCun) 같은 경우에는 환각 현상 극복이 쉽지 않다고 이야기한다. 대표적인 인공지능 회의론자인 로드니 브룩스(Rodney Brooks) 역시 생성형 AI가 어떻게 들리면 좋을지를 파악하고 답을 내놓지, 답의 본질에는 전혀 접근하지 못하고 있다고 지적한다.
또 하나 주목해야 할 것은 대형언어모델(LLM, Large Language Model)의 작동 원리를 모른다는 것이다. 기본적으로 LLM의 근간이 되는 딥러닝은 블랙박스 성격을 지닌다. 직접 개발한 연구자들도 내부에서 딥러닝이 어떻게 연산하여 결과를 도출하는지 추적이 불가능하다. 따라서 LLM을 근간으로 하는 생성형 AI가 내놓는 결과물 역시 왜 이렇게 되는지 모르는 경우가 많다. 생성형 AI가 만들어내는 거짓 정보, 성별과 인종에 대한 차별이 더 심각하게 다가오는 이유이다. 일부에서는 이를 넘어 생성형 AI의 창발(emergence) 속성에 대한 우려까지 하고 있다. 창발 속성이란 모델이 커지며 나타나는 예상외의 특성으로, 인공지능이 개발자 예상과 전혀 다른 결과물을 종종 산출해 내는 현상을 의미한다. SF 영화에서 나타나는 인공지능의 각성이 생각나는 부분이다.
환각 및 창발 속성 관련해서는 아래와 같이 브런치에서 정리한 바 있다. 자세히 알고 싶으신 분들은 아래 글을 참고하면 좋을 것이다.
챗GPT가 인류의 예상보다 훨씬 똑똑한 모습을 보여주자, AI로 인한 실존적 위험이 발생하지 않을까 하는 두려움이 확산된 한 해였다. AI로 인해 종말이 도래할 것이라는 두려움을 의미하는 'AI 두머리즘(AI doomerism)'이 주류 사상으로 자리 잡기 시작했으며, AI로 인한 인류 멸망인 'AI 아포칼립스(AI Apocalypse)'에 대한 진지한 논의도 시작되었다.
실제로 딥러닝을 만들었다고 평가받는 제프리 힌턴(Geoffrey Hinton)을 비롯해 요슈아 벤지오(Yoshua Bengio), 샘 알트만(Sam Altman), 데미스 허사비스(Demis Hassabis) 같이 인공지능을 이끌어 나가는 사람들을 포함해 수백 명의 과학자, 기업인, 정치인들이 인공지능에 대한 경각심을 가져야 한다는 연판장을 만든 바 있다. 물론 메타의 AI 리더인 얀 르쿤(Yann LeCun) 같이 인공지능의 대한 위협이 과장되었다고 이야기하는 학자들도 다수 존재한다.
이와 관련하여 IEEE Spectrum에서는 전 세계에서 가장 유명한 인공지능 전문가 22명을 대상으로 인공지능의 위협에 대한 설문을 벌인 바 있다. 이를 브런치에 정리한 바 있으니, 인공지능으로 인한 멸망이 두려운 분들은 아래 글을 읽어 보면 좋을 것이다.
2023년은 서두에서 말한 바와 같이 인공지능 역사에 길이남을 한 해가 될 것이다. 2024년은 인공지능 역사를 넘어 인류 역사에 기록될만한 일이 인공지능으로 인해 벌어지지 않을까 생각해 본다. 올 한 해 그 어떤 일이 벌어지더라도 다들 놀라지 않기를.