8월 15일이라는 상징적인 날, 떠들썩한 마케팅 속에 한국의 극장가에도 영화 오펜하이머(Oppenheimer)가 찾아왔다.누군가는 기대했을 나가사키에 팻맨(Fat Man)이 투하되던 날의 긴박한 장면도, 할리우드스러운 선과악의 싸움이라는 이분법적 세계관도 없었다. 스토리 라인은 그저 주인공 오펜하이머의 복잡한 감정선과 주변인물들과의 관계를 따라 잔잔하게 흘러갈 뿐이었다. 하지만 아인슈타인과 닐스 보어, 해리 트루먼과 루스벨트라는 인류 역사의 레전드들이 총집합하고, 전쟁과 평화라는 거대한 주제를 관통하는 이 영화는 결코 잔잔하지 않았다. 이 영화는 지나치게 단조로우면서도 묵직하게 역사의 큰 울림을 전달하고 있었다.
나가사키에 투하된 팻맨 (출처 : 위키피디아)
심야 영화관에 남아 올라가는 엔딩 크레딧을 보면서 나는 말로 표현할 수 없는 감정을 느꼈다. 인공지능 언어모델을 뜯어보고 개발하는 일을 하고 있고, 궁극적으로는 '인간처럼 생각하는 기계'를 만들어내는 데에 일조하고 싶다는 꿈을 가지고 있는 인공지능 덕후의 시점에서, 원자폭탄 개발과 인공지능의 미래가 자꾸만 오버랩되었기 때문이다. 챗GPT의 등장으로 특이점(singularity)과 인공일반지능(artificial general intelligence, AGI)에 대한 우려가 재조명받는 요즘, 인공지능 개발이 원자 폭탄 개발과 비슷한 점에 대한 개인적인 우려에 대해 이야기 해보고자 한다.
1. 선한 의도와 그렇지 못한 결과
영화는 세상을 구하기 위해 세상을 파괴할지도 모르는 선택을 해야 하는 천재 과학자의 핵 개발 프로젝트를 다룬다. 원자폭탄의 아버지로 불리는 오펜하이머가 주도한 맨해튼 프로젝트 목적은 순수한 것이었다. 그것은 최대한 빨리 일본의 항복을 받아내어 전쟁을 조기종식시키고 더 이상의 인명피해를 막는 것. 그러나 그것은 역설적으로 핵전쟁과 인류 전체의 멸망이라는 또 하나의 가능성을 현실화시켜버렸다.
출처 : Carnegie Mellon University
초기 인공지능의 개발 동기 역시 파괴적이거나 폭력적인 것과는 전혀 관련이 없으며 굉장히 순수한 것이었다. 앨런 튜링은 그의 논문 '생각하는 기계와 지능 (computing machinery and intelligence)'에서 생각하는 능력 즉 지능이라는 것이 신에 의해 오롯이 인간에게만 주어졌다는 종교적 믿음이 얼마나 터무니없는 것인지 지적한다. 그리고 튜링 머신(Turing machine)의 작동원리를 설명하며 기계가 지능을 가질 수 있다는 믿음이 왜 전혀 비현실적인 것이 아닌지 역설한다.
인간처럼 생각할 수 있고, 인간의 일을 대신할 수 있는 존재를 만들어 내는 것은 분명 멋진 일이다. 이것은 좁은 의미에서는 인간을 편리하게 하고 노동에서 해방시켜 주기 위해서, 넓은 의미에서는 우리 스스로가 더 나은 존재의 창조자가 된다는 점에서 굉장히 의미 있는 일이다. 튜링의 말대로 인간만이 지능을 가져야 할 이유는 전혀 없다고 생각한다. 그러나 인간이 아닌 존재에게 인간이 가지는 것과 비슷한 성격의 지능을 부여하고, 스스로 생각하게 유도하는 것은 선한 의도에도 불구하고 그렇지 못한 결과를 가져올 수 있다. 기계가 지능을 가지는 것이 위험한 이유는 우리가 지능을 가지는 기계들에 대한 통제권을 잃어버릴 수 있기 때문이다.
2. 핵분열 연쇄반응과 블랙박스 모델
영화에서 오펜하이머와 연구진들은 원자 폭탄 개발에 있어서 핵분열이 사슬처럼 꼬리에 꼬리를 물고 연이어 일어나는 '핵분열 연쇄반응' 현상을 발견하고 고뇌에 빠진다. 오펜하이머와 연구진은 단일 원자폭탄의 '핵분열의 연쇄 반응이 끝나지 않고 지구 대기가 폭발할 수도 있을까'라는 과학적 근거론의 대화를 시작한다. 이론상 존재하던 연쇄분열반응의 우려는 실제 핵실험에서는 일어나지 않았음이 입증되었다. 그러나 원자폭탄이 일단 만들어지자 그걸 계기로 보다 많은 나라들이 원자폭탄의 개발, 보유에 연쇄적으로 뛰어드는 '핵무기 경쟁(nuclear arms race)'과 '핵확산(nuclear proliferation)'의 시대가 도래하여, 말 그대로 핵전쟁이 일어나 세상을 멸망시킬 수 있는 현실로 만들게 되었다고 말하는 자들도 있다.
Chain Nuclear Fission Reaction (출처 : studymind)
현대 인공지능 모델의 많은 부분은 더 이상 머신러닝이 아닌 딥러닝으로 대체되었다. 그리고 딥러닝 알고리즘은 퍼셉트론과 인공신경망에 의존하며, 딥러닝은 기본적으로 그 계산 과정을 알 수 없는 블랙박스 모델이다. 따라서 우리 인간은 점점 더 인공지능이 어떠한 사고 프로세스를 거쳐서 주어진 태스크에 대한 표상을 추출해 낸 끝에 결과물을 산출해 냈는지 알 수 없게 되고 있다.
인공지능의 성능은 점점 더 개선되고 있지만, 역설적으로 우리는 시간이 흐를수록 인공지능에 대해 점점 더 모르게 된다는 결론이 나온다. 현시점에서 딥러닝에 사용되는 은닉층(hidden layer)의 개수나 매개변수(parameter) 혹은 훈련 데이터(training data)의 수를 제한하라는 식의 규제는 전혀 존재하지 않는다. 딥러닝 개발자들에게 그러한 식의 규제에 대해 논한다면 그것은 그저 넌센스로 취급받을 뿐이다.
매개변수(parameter)와 훈련 데이터가 늘어남으로써 점점 더 정교한 추론(inference)이 가능한 초거대언어모델(LLM)의 등장은 분명 우리 삶을 점점 더 편하게 해주고 있지만, 역설적으로 우리는 블랙박스 모델이 우리 삶의 깊숙한 부분에 침투하고 익숙한 업무를 대체함으로써 점점 더 통제 불가능한 상황으로 만들어가고 있다. 이러한 인공지능의 개발 방향은 핵융합의 연쇄분열과도 닮아있다. 설명력을 잃은채 성능만 좋아진 모델은 궁극적으로 우리 인류를 혼란에 빠뜨리고 의도치 않은 길로 인도할 위험이 있다.
3. 책임감 있는 인공지능 개발
원자폭탄의 개발 이후, 과학자들과 정치인들은 그 위력과 파괴력에 대한 깊은 반성과 책임감을 느꼈다. 원자폭탄을 개발한 뒤 그 무서운 결과를 보면서 오펜하이머 자신은 "나는 죽음의 파괴자가 되었다"라고 말했다. 이러한 반성은 핵무기 확산 방지를 위한 다양한 국제협약과 핵비확산 조약 등의 탄생을 촉진시켰다. 마찬가지로 인공지능의 발전과 확산에 따라, 우리는 이 기술의 잠재적인 위험성과 그 결과에 대해 반성하고 미래의 방향을 결정하는 데 큰 책임감을 가져야 한다. 이미 많은 전문가들이 인공지능의 안전성, 윤리, 그리고 사회적 영향에 대한 깊은 토론을 시작하고 있다.
인공지능의 개발은 이제 막 시작된 것이며, 그 경로와 결과는 아직 확정되지 않았다. 따라서 인공지능을 발전시키는 과정에서는 끊임없는 윤리적, 사회적 반성이 필요하다. 인공지능 기술을 개발하고 사용하는 모든 이들은 그 기술의 장점뿐만 아니라 위험성에 대해서도 항상 생각하며, 그 결과를 사전에 예측하고 최대한 위험을 줄이는 방향으로 연구와 개발을 진행해야 한다. 이는 단순히 기술적인 문제뿐만 아니라, 사회적, 경제적, 그리고 문화적인 문제에 대한 통찰력이 필요한 작업이다. 결론적으로, 인공지능의 발전은 인류의 미래를 크게 바꿀 수 있는 잠재력을 가지고 있기 때문에, 그 발전과 활용 방향에 대한 깊은 고민과 책임감 있는 결정이 필요하다.
(참고로 인공지능에 대한 경각심을 불러일으키기 위해 이 글의 마지막 파트는 GPT-4.0 기반의 챗GPT와 약간의 프롬프트 엔지니어링의 도움으로 작성했음을 밝혀둔다. 인공지능은 이미 꽤나 그럴듯한 작문실력과 추론능력으로 우리 일상 속에 침투해 있다.)