AI신뢰증후군

장님에게 길을 묻고 있을 지 모르는 우리들에게

by 빙산HZ

인공지능에 대한 마지막 글을 쓴 지 시간이 꽤 흘렀다.

그 사이 인공지능은 내 삶에 더 깊숙이 들어와있는 것 같다.


몇 개월전 처음으로 업무에 AI를 활용해보는 실험을 했다.

그전까지는 보안과 신뢰도를 이슈로 인공지능은 사적인 프로젝트, 개인 학습에만 사용해오다가 이번엔 처리해야 하는 부분이 단순한 업무란 생각에 활용해보기로 한 것이다.

특정 웹사이트에 있는 TV프로그램들을 목록으로 만들어달라는 요청이었다.


파이썬 코드 몇 줄로 만들 수 있는 웹크롤러의 성능을 기대하고 자연어로 요청을 했다.

아니나다를까 프로그램 이름, 연도, 영어제목 등 웹페이지에 있는 정보를 취합해 목록을 만들어줬다.

gemeni-at-work.png
오, 진짜 쓸만해진건가?!

감탄이 나왔다.


하지만 지금까지 인공지능의 한계를 강조해오며 무분별한 신뢰를 비평해온 나다.

검증을 해보지 않고 업무에 사용할 수 없는 게 당연하다.


일일이 대조를 해보니 누락된 것들이 보였다.

페이지를 통째로 놓친 것도 페이지 URL이 타이틀과 맞지 않는 것도 보였다.


휴..그냥 썼으면 큰일날 뻔했네.

sticker sticker

AI에 대한 기대치


나는 말동무가 필요해서 AI를 쓰는 게 아니다.


내가 검색해서 종합하는 것보다 더 빨리 유용하고 정확한 많은 정보에 효율적으로 접근 가능해야한다.

그런 데이터를 종합하여 결과물을 생성할 수 있어야 나에게 의미있는 도구이다.


바쁜 사람들이 자주 쓰는 기능 중 하나일 거라고 생각한다.

이 링크의 동영상 요약해줘.

이런 요청을 했다고 가정해보자.


우선 사용자들이 이런 요구를 할 때 마음 속에 어떤 전제가 깔려 있을까?

인공지능은 엄청난 지능을 가진 존재이니
이 유튜브 영상을 빠른 속도로 보고 요약을 해줄 수 있을거야

LLM, 우리가 일상에서 사용하는 생성형 인공지능은 당연히 테슬라의 ‘비전’과 같은 영상, 이미지를 파악하는 기능이 있는 건 아니라는 가정을 하는 게 더 합리적이다.


우리가 인공지능이라고 부르는 생성형AI에게는 ‘인공 눈’이 없다.

물론 Google Lenz를 활용하면 이미지 속의 사물을 파악할 수 있다.
그래도 결과물이 나오잖아요?!


우리가 요약해달라고 하는 콘텐츠를 볼 수 있는 눈이 있는게 아닌데

어떤 절차를 거쳐 한 영상에 대해 요약결과를 생성할 수 있는 걸까?


머신러닝의 과정을 잘 모르더라도 합리적인 사고와 논리적인 추론을 조금 사용하면 유추해볼 수 있다.

텍스트를 처리하는 기계이기 때문에 그 영상에 대한 텍스트가 존재해야 처리를 할 수 있다고 가정해보자.



※ Google 제미나이 vs Open AI의 챗GPT


물론 모든 LLM서비스가 똑같이 작동하지는 않는다.

챗GPT와 구글 제미나이의 차이는 여기서 발생한다.


구글 제미나이가 유튜브 영상에 대한 요약을 해야할 때는 유튜브 내에서 활용되고 있던 ‘자동생성 자막’/스크립트가 텍스트로 이미 존재한다. 즉 유튜브 내의 많은 영상에 대해서 텍스트로 처리할 수 있는 사전 데이터가 있다고 볼 수 있다.


챗GPT의 경우 어떨까?


구글이 챗GPT가 유튜브의 이런 자동생성 자막/스크립트에 접근하는 것을 허용한다면 유사한 데이터에 접근가능할 수 있다고 할 수 있겠지만, 서로 경쟁 서비스를 제공하고 있는 구글이 그렇게 하지 않았을 거라고 가정해도 되겠다.

만약 구글과 같은 서비스를 제공하려면 챗GPT는 동영상의 음성을 텍스트로 추출해주는 서비스를 제공하는 제3의 업체와 협업을 해야한다. 혹은 이미 이 동영상의 스크립트를 뽑아놓은 인터넷 상의 글을 활용할 수 있는 검색엔진과 같은 '툴'을 활용해서 '본 척' 하는 거다.

실제 친구와 대화를 하다가 이 가설을 시험해본 후 위 추측이 맞다는 걸 가늠해볼 수 있었다.

초등학교 동창인 친구K는 작년에 뉴질랜드에서의 생활을 마치고 한국으로 복귀한 H사 간부이다.


최근 같은 관심사가 있어 내가 이미 두 차례 시청한 영상에 대해서 이야기를 하던 중이다.

내가 유튜브 링크를 공유하자 그는 챗GPT에게 ‘이 동영상 요약해줘’를 시전했다.

그리고 그 친구는 챗GPT가 영상을 요약했다는 텍스트를 나에게 공유 해주었다.


살펴보니 동영상에서 언급되지 않은 내용이 많이 포함되어있었다.

영상을 시청한 나는 그걸 알 수 있었다.

내가 아니었다면 그 친구는 챗GPT의 요약이 ‘딴소리’라는 걸 알지 못하고 그냥 넘어갈 수 있었던 거다.


그래서 비교를 위해 제미나이를 통해 요약을 받아봤다.

훨씬 원래 내용에 근접한 요약 내용을 받을 수 있었다.

(물론 애당초 요약을 봤다고 전체 영상을 본 것과 비슷하다고 생각하지 않지만…나에게 중요한 것과 타인에게 중요한 것이 다르기도 하고 꼭 핵심내용만 나에게 유용한 정보가 아닐 수 있기 때문이다)


챗GPT는 아마 레딧이나 다른 인터넷 게시글에서 그 동영상의 학자에 대한 글을 수집해서 만들어진 데이터를 활용했을 것이다. 그리고 이 학자의 의견에 대해서 다른 사용자가 쓴 글과 이 학자가 쓴 글을 활용해서 통계적으로 확률이 높은 텍스트를 생성했을 것이다.


그래서 챗GPT와 제미나이 사이 중에 더 쓸만한 것을 찾는 것 쉬웠다.


구글 제미나이.


기타 요소: 1) 물론 샘 올트만이란 인물에 대한 의구심이 작용하기도 했다. 2) 버크셔해서웨이에서 구글 주식을 구매한 것을 계기로 생각해본 것도 구글의 우월성에 대한 고민을 해보기도 했고, 3) 구글 주식을 구매한 적이 있다. 글을 쓰는 이 시점 지금은 없지만

그럼, 눈이 없는 인공지능에게 우리가 이런 질문을 하는 이유가 뭘까?


우리가 사용하는 인공지능에 대한 부정확한 이해.

그리고 ’인상impression‘에 근거한 과대평가가 아닐까?

-

눈이 없는 ’텍스트 처리 알고리듬‘에게 시각적 정보에 대한 분석을 요청한다는 것에서 오는 본질적 한계에 대해 인지하지 않으면 본의 아니게 ’장님에게 길 안내를 부탁하는 꼴'이 될 수 있겠다.


언어에 의미를 부여하는 인간의 속성.

일라이자 효과 (Eliza Effect) 때문에 우리는 끊임없이 경계해야한다.

아래글에서 자세히 설명한 바 있다.

https://brunch.co.kr/@chooseurmiracle/282


언어를 처리할 줄 ”알게 된“ 기계를 마주할 때 자연스럽게 생기기 쉬운 정서적 유대감.

그리고 뭐든지 척척 대답하는 존재를 마주하게 된 후 지적으로 생기기 쉬운 신뢰, 기대.

_______


본질에 대한 고찰, 필요한 질문


인공지능은 ‘지능’이 아니다.

사용자로 하여금 ‘지능’처럼 보여지게 할 수 있는 ’옷‘을 입게 됐을 뿐이다.


가장 최초의 계산기를 생각해보자.


이 기계를 사용해서 인간은 계산을 좀 더 편하게 할 수 있게 되었다.

하지만 그 계산기가 ‘수’가 무엇이고 어떤 물건의 수를 헤아릴 있는 능력은 없었다.

CALCULATOR.jpg image generated by Gemini

그리고 지금은 수를 처리하는 것 기능이 발전했던 것처럼

’언어’라는 자연어 텍스트의 ‘처리 능력’이 월등히 발전했을 뿐이다.


그리고 언어처리능력이 우리에게 환상을 주고 있을 뿐이다.


눈이 없는 기계가 우리가 본 사물에 대한 텍스트를 조합해서 말이 되는 문장을 만들어내고 있다.

하지만 그렇다고 그 기계가 물리적 세계를 이해하고 있다고 생각한다면 그건 ‘오판’일 수 밖에 없다.



지능의 정의와 언어의 의미


하물며 전문가들 사이에서도 지능이 무엇인지 정의가 되어 있지 않다.

어찌보면 그렇기 때문에 AI가 진정한 지능의 영역에 다가서고 있다고 주장하는 이들이 있는 건 아닐까?

그렇게 그들은 ’지능‘을 재정의하려고 하는 지도 모르겠다.


인간의 지능은 그저 ’패턴을 인식하고 분석하고 처리하는 것‘일 뿐이고,

그렇기 때문에 현재의 AI 역시 ’지능‘이라고 생각하고 싶은 건 아닐까?


수학적 연산이 수학적 패턴에 대한 처리 였던 것처럼

언어 역시 패턴에 대한 분석과 패턴에 맞는 사용만 해낼 수 있다면

사용에 문제가 없다고 믿고 싶은 건 아닐까?


하지만 인간에게 언어는 그저 패턴이 아니다.


실체 있는 것들의 부호이자 상징이다.

물리적으로 실재하는 것, 추상적 실체를 알 수 없는 ’패턴 분석 기계‘.

그런 기계가 이해하고 사용하고 있을 리가 없다.


사용자는 그런 철학적 전제를 내려 놓으면 안되겠다.



한편 감정을 모르는 기계에게 ’심리상담사’ 나 ‘정신의학과 의사‘ 역할을 맡기는 건 어떤 의미를 가지게 될까?

그런 특수 전문직종에서 활약하고 있는 이들이 그저 교과서에서 배운 단어와 문장들을 적절한 시기에 적절한 패턴으로 뱉어내면 되는 거라고 착각하는 것과 마찬가지이다.


분명 언어로 소통하고 있지만 그 언어는 내담자/환자의 마음 속에 있는 것을 전달하는 ’수단‘이고, 그 소통 수단의 건너편에 또 다른 인간이 존재하기 때문에 그 대화 안에서 ’치료‘의 가능성을 찾을 수 있다는 이야기.


실제 그 직종에서 일하고 있는 사람들의 경험에 귀를 기울여보면 알 수 있다. 외과나 내과적으로 완치를 확인하고 치료경과를 구분할 수 있는 병들과 달리 ’마음의 병‘, ’정신병’은 치료 여부를 파악하기가 어렵다. 그저 적절한 대사를 전달하는 것이 특정 생리학적 병증에 생화학적 조치를 하면 문제가 사라지는 것과는 비교하기 어려운 복잡한 ‘문제’를 다루는 분야이다. (물론 생리학적 문제로 발생하는 병증 역시 여러 복합적인 요소가 작용한다는 것을 고려하면 마찬가지로 복잡하지만 말이다)

WSJ.png


인공지능 산업과 그 기반산업 전반에 대한 투자가 버블이라는 목소리가 점점 커지는 시점이다.


이 모든 게 결국 ’핑크빛 거품‘이었다면?


그 때가 되면 결국 이런 ‘본질적인’ 회의를 가지고 있던 이들이 본의 아니게 ‘선견지명’이 있었던 걸로 오해 받는 날이 올 수 있겠다.


그럼에도 불구하고 쓸모가 있는 것은 부정할 수 없다.

궁극적으로 분별력을 가진 자가 속지 않을 수 있겠고,

창작의 의지를 갖은 이들이 인공지능 시대에서 AI를 좋은 도구로 활용할 수 있을 거라 생각한다.


THE END.






이전 15화인공지능회사는 특별대우를 받아야할까? (2/2)