.3생성형 인공 지능에 많은 시간을 쓰고 있는 요즘이다. 데이터를 찾아다니는 수고를 좀 줄여볼 요량으로, 밤사이 경제 지표를 정리 달라고 하면서 구글 Gemini에게 아침 브리핑을 시켜보았다.
이야. 먼가 그럴싸하게 쫙 정리를 해준다. 미국 국채 금리, 지난밤 나스닥 지수, 코스피 지수, 금값, 비트코인, 등등 주요 뉴스와 쟁점 등을 정리하니, 마치 내가 뭐라도 된 것 같은 기분이 들면서 “역시 Gemini야!” 하고 경제계의 식견이 깊어만 질 것 같은 엄청난 착각이 들었다. 며칠을 그렇게 뽕에 취해서 브리핑을 받고 있던 중, 그런데 뭔가 좀 이상하다. 코스피가 역대 최대인데, 아직도 2800이라니? 지금 3천 넘은지가 한참이 되었는데? 그래서 물어봤다.
“야. 코스피가 3천 넘은지가 언젠대 아직 2800 타령이냐?”
그랬더니 인공지능이 하는 말이,
“정말 죄송합니다. 어쩌고 저쩌고… 저는 2024년 데이터를 바탕으로 학습한 모델입니다…. “
아뿔싸. 얘는 2024년 데이터를 학습한 생성형 인공지능 모델이었을 뿐이다. 24년 7월의 데이터들을 가지고 표까지 만들어서 멋지게 늘어놓고 그걸 또 그럴싸하게 해석해서 설명을 해놓으니, 나는 무려 사흘 동안이나 그게 정말인 줄 알고 그 정보를 바탕으로 시장을 이해하려고 하고 있었던 것이다. 정말 내 자신이 한심하고 멍청하기 짝이 없다.
내가 투자하는 주식이 망하면 나만 손해보면 그만이다. 근데 만약 안과의사인 내가 인공지능이 제공한 잘못된 정보를 바탕으로 잘못된 치료를 했다면, 그 환자의 눈은 어떻게 되었을까? 돌이킬 수 없는 결과로 이어지지 않았을까? 심지어 줄글로 나타나는 정보가 아니라 사람이 나와서 직접 설명하는 영상으로 표현되는 정보였다면 나는 그 정보가 정말 맞는지 의심을 할 수 있었을까?
인공지능의 사용은 사실 여부 확인부터 시작해야 한다. 유려하게 정리된 말이라고 신뢰한다면, 멋진 양복을 입은 사기꾼에 속는 것과 다름 없다. 앞으로 인공지능을 이용해 아무렇게나 재생산된 정보들이 판을 치게 될 것 같아 두렵고, 대부분의 사람들이 ‘인공지능’을 확인할 ‘지능’이 없을 것 같아 더 두렵다.