brunch

You can make anything
by writing

C.S.Lewis

by delight Sep 01. 2024

자바의 아버지 제임스 고슬링, 생성AI를 생각한다

학습 차원에서 틈틈이 해외 전문가들이 블로그나 미디어 그리고 책에서 쓴 글을 번역 또는 요약 정리하고 있습니다. 이번 포스팅도 그중 하나고요. 거칠고 오역된 부분이 있을 수 있습니다. 제대로 번역되지 않은 부분은 확인 주시면 반영토록 하겠습니다. 의미 전달이 애매한 문장은 삭제했습니다. 이번에는 자바 프로그래밍 언어를 만든 제임스 고슬링이 링크드인에 올린 글을 정리한 것입니다. 


생성AI는 세상의 모든 문제를 해결할 테크판 기대주가 된 것 같다. 나는 다르게 본다. 나는 “GenAI에 대해 어떻게 생각하?”는 질문을 자주 받는데,  이 질문은 단순해 보이지만 여러 가지 복잡한 의미를 담고 있다.


기술

기술은 솔루션의 한 부분일 뿐이다: GenAI는 거대 언어 모델(LLM)을 사용하며, 머신러닝이라는 연구 분야 일부다. 이들 LLM에는 고급 통계 기법과 방대한 수학적 계산이 사용된다. 이러한 기술은 경외심을 불러일으킬 만큼 강력하며 여전히 활발하게 연구되고 있다.  이러한 기법은 실제하는 것이지만, 약장수들 과대 광고와는 다르다.


모든 도구와 마찬가지로 적절하게 사용해야 한다. 이 분야 초창기에는 LLM 약점을 설명하기 위해 확률적 앵무새라는 비유가 사용됐다. LLM은 절대적인 의미에서 “이해”(understand)나 “추론”(reason)을 하지 못한다.


LLM이 보여주는 '진실' 수준은 통계적인 것이다. 이같은 평가는 여전히 유효하지만, 통계를 뛰어넘기 위해 많은 노력이 이뤄졌다. 하지만 아직 해야 할 일이 많이 남아 있다. 통계 모델은 학습 데이터를 기반으로 작동한다. 학습 데이터에 필터링되지 않은 소셜 미디어 게시물, 여성 혐오, 인종 차별(기타 여러 잘못된 행동)이 포함되어 있는 경우 이들 요소는 모델에 반영된다. 


훈련 데이터에 변호사와 법대생이 관련된 대화가 포함된 경우, GenAI 도구는 LSAT((Law School Admission Test)) 문제에 대한 답변을 매우 잘 생성할 수 있다.  하지만 LSAT 질문에 답하는 것은 변호사가 되는 것과는 다르다.


인공 지능이라는 용어는 1956년에야 만들어졌지만 그 역사는 오랜됐다.  인간 지능의 진정한 경쟁자가 될 수 있는 인공지능을 테스트할 수 있는 간단한 방법도 아직 없다. 1950년 앨런 튜링은 튜링 테스트라고 하는 방법을 제안했다. 후보 지능과 대화를 나눌 수 있고 인간인지 아닌지 구분할 수 없다면 진짜 AI라는 것이 골자다.  튜링 테스트 단점은 인간이 속기 쉽다는 것이다. 1965년 조셉 위젠바움(Joseph Wizenbaum)은 간단한 시뮬레이션 정신과의사인 Eliza라는  프로그램을 만들었습니다.  


많은 사람들이 엘리자와 상호작용했고, 많은 이들이 상대방이 실제 사람이 아니라는 사실을 깨닫기까지 시간이 걸렸다.   Eliza 정체를 알게된 후에도 사람들은 도움이 되었다며 대화를 계속 이어나가는 경우가 많았다.  GenAI 시스템과 하는 텍스트 대화는 마치 터보 엔진이 달린 Eliza와 대화하는 것처럼 느껴진다. 하지만 질문이 복잡해질수록 답변에 오류가 있을 확률이 높아지고, 때로는 잘못된 답변이 웃음을 자아내기도 난다.  때로는 전문가만이 오류를 식별할 수 있는 경우도 있다. GenAI는 도전적인 문제를 처리하는 데는 매우 쓸모가 없지만, 한 가지 답변만 제공하는 약한 Google 검색과 같은 경우에는 괜찮다.


과열

인공지능이라는 용어는 수년 동안 많은 기술에 붙여져 왔다. 비전문가들은 수십 년 동안 영화와 책에서 인간보다 우월한 일반 지능이라는 허구를 떠올리기 때문에 항상 그 능력을 과대평가한다. 미디어와 분석가들은 AI에 흥분해 있고 최고 경영진을 포함한 많은 이들이 그 소용돌이에 휩싸여 있다.  


그리고 벤처 캐피털리스트가 있다. 이들은 혁신에 의해 움직인다는 신화가 있다. 사실 이들의 주된 목표는 (당연히) 돈이다. 따라서 투자를 유치하기 위해 무심코 당시 유행하는 유행을 따르기도 한다. 그런 다음 그들은 현금화를 위한 엑시트 경로를 맹렬히 추구하는데, 이는 본의 아니게 건전한 회사를 뒤쳐지게 하는 결과를 초래할 뿐입니다.  최근 GenAI 기업에 미친 듯이 돈을 쏟아붓고 있는데, VC들은 이런 카피캣들이다. 유행을 따라가기 위해 실사에 소홀하다.


AI는 과열을 반복하며 폭발적으로 성장했지만, 다른 기술에서도 이런 현상이 일어난다. 암호화폐는 가장 극적인 최근 사례로, 폰지 사기이자 돈세탁 통로라는 악재까지 겹쳤다. GenAI는 훨씬 더 존중을 받을만한 기술이지만, 도덕에 얽매이지 않는 사람들은 무엇이든 악용할 방법을 찾을 수 있다. 다행히도 과열은 점점 줄고 있다. GenAI가 세상의 모든 문제를 해결해 줄 것이라는 숨 막히는 마케팅은 이제 한 발 물러서기 시작했다.  심지어 거품의 가능성을 언급하는 기사도 가끔씩 보인다.  


GenAI 기술 과열 주기에서 GenAI가 전능해져 인류 문명의 몰락을 가져올 것이라는 온갖 종류의 추측이 등장했다. 이는 마치 거대한 행렬을 증식할 수 있는 능력을 갖추면 인류가 멸망할 것이라고 말하는 것과 같다. 만약 인공지능이 인류의 종말에 관여한다면, 그것은 어떤 멍청한 인간이 무장 드론 항공기를 만들고, 자율 살상 권한을 부여하고, 자동 수리 및 급유 시설을 구축하는 것이 좋은 생각이라고 결정했기 때문일 것이다.   나는 이걸 영화에서 본 적이 있다. 한때 누군가 나에게 이 영화를 제작하는 팀에 합류해달라고 제안한 적이 있다. 이들은 영화에 대해 그럴싸한 말을 늘어놨지만 결국은 스카이넷이었다.


계시(Apocalypse)

보다 가능성이 있는 건 거품이 꺼지고 기반 기술이 과열의 원인으로 지목되어 쓰레기통에 버려지는 AI에서 흔히 일어나는 일이다.  GenAI는 매우 좋은 용도를 가지고 있으며, 이를 포기해서는 안 된다.


더 임박한 결말은 GenAI가 아닌 모든 것에서 일어나고 있는 일, 즉 자금이 사라지고 있다는 것이다. 벤처캐피털, 대기업, 그리고 이들 고객인 모든 사람들이 GenAI로 투자를 유도하고 있다. 엔지니어들은 프로젝트에 자금을 지원받으려면 GenAI라는 먼지를 뿌려야 한다는 사실을 바로 깨달았다. 이것은 미친 짓이지만, 인간은 시스템을 상대로 게임을 하더라도 살아남는 방법을 알고 있다.


아마도 가장 슬픈 종말은 마케팅 담당자가 피칭을 시작하고 고위 관리자가 “해고할 수 있는 모든 사람을 생각해보라!”라는 말을 듣기 시작할 때일 것이다. GenAI/LLM 과열의 거품이 꺼질 때, 기술도 함께 사라지지 않기를 바란다. 적절하게 사용하면 꽤 멋진 기술이다.


브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari