brunch

감히 인공지능을 의심해?

by 한칸지식

안녕하세요 :)

우꾸 에디터입니다.



지난번 글에서 저는 연구 계획서 작성에 있어서 난항을 겪다가,

ChatGPT와 같은 인공지능(대규모 언어 모델)의 도움을 받고서 그 능력에 감탄했다고 했었죠.



저는 ChatGPT의 도움을 받아 브레인스토밍을 완료하고,

구체적으로 연구 자금을 제공해 줄 유관 기관에 제출할 연구 계획서를 작성하기 시작했습니다.


그 과정에서 저는 관련 논문들을 찾아 읽는 과정에서

역시나 인공지능의 도움을 받아 필요한 논문을 추려 읽기로 결심합니다.


image.png?table=block&id=7fa3db9b-7f16-4c44-a87c-0404d2bac204&spaceId=47e69437-199f-4916-8b8b-bf6349989ad1&expirationTimestamp=1739808000000&signature=rb4rX2si-KvC3l6Hd9k4zpTEM0rPOKshMDlso6YNNew&downloadName=image.png 학술 및 연구 분야에서 ChatGPT보다 더 낫다는 평가를 듣는 Liner


이번에는 ChatGPT 대신, Liner(https://getliner.com/ko)를 써보기로 했습니다.

ChatGPT와 비교했을 때, 보다 학술적인 정보 검색에 유용하다는 이야기를 들어서였죠.



자 이제 제가 원하는 논문이 있는지 물어봅시다.

와! 제가 원하던 내용을 딱 담고 있는 논문이 있는 것 같네요!


image.png?table=block&id=0bddc78b-97a4-4b6e-9191-3327114a804c&spaceId=47e69437-199f-4916-8b8b-bf6349989ad1&expirationTimestamp=1739808000000&signature=FU6aAfMz5UwlbLcTQbrb9NESoFW0eha77rOjpZoE-m0&downloadName=image.png 내용은 신경 쓰지 않으셔도 됩니다. 암튼 내가 찾던게 여기 있네요! 라는 뜻.


링크를 눌러보면…?


image.png?table=block&id=075a4914-4f1c-4464-9ce6-73986c5e897d&spaceId=47e69437-199f-4916-8b8b-bf6349989ad1&expirationTimestamp=1739808000000&signature=P7SOdc04QiDppQW0ywXIUrfFNJA4vp4mWs01j8K6IQI&downloadName=image.png 뭐야. 연구 결과 보여줘요.


흠. 링크가 제대로 작동하지 않네요.

그래도 저 논문 제목을 직접 검색해보면 저 논문이 나오겠죠?


인공지능이 거짓말을 할 리가 없잖아요?


image.png?table=block&id=74dcb5b8-6373-47d5-8614-6771ef6983e7&spaceId=47e69437-199f-4916-8b8b-bf6349989ad1&expirationTimestamp=1739808000000&signature=-Vt3i-_oKCOjxxY6-ujCSQgP0KweJrWB5kPEOIEh7mo&downloadName=image.png 대충 제가 찾던 그런 논문은 존재 하지 않는다는 짤


… 네, 저런 논문은 없었습니다.


만일 저 제목을 가진 논문이 있었다면 Google 학술 검색 결과가 나왔겠죠.


하지만 키워드 몇 개만 일치한 논문들만 보일 뿐,

Liner가 자신있게 알려준 논문은 존재하지 않는 논문이었습니다.



이렇게 실제로는 존재하지 않거나 틀린 정보를

ChatGPT와 같은 인공지능이 마치 실존하거나 맞는 것처럼 말하는 현상

"인공지능 환각 (AI hallucination)”이라고 합니다.



사실 인공지능 환각은 예전부터 알려져 있었고,

때로는 너무 헛소리라는게 명백해서 그저 웃어 넘기기도 해왔습니다.


아래는 2023년 3월에 조선일보에서 다룬 ChatGPT의 인공지능 환각과 관련된 사례입니다.


image.png?table=block&id=9a6630c0-5b74-4ceb-95ac-89f60cb371a9&spaceId=47e69437-199f-4916-8b8b-bf6349989ad1&expirationTimestamp=1739808000000&signature=J0oqgJSp47HNL8zxtnvYV8LbMBtXmYWZO6ZUHCKM2TY&downloadName=image.png 출처: 조선일보, "세종대왕의 맥북 던짐 사건에 대해 알려줘" 했더니 챗GPT가 내놓은 답변은?


두 사례 모두 말도 안되는 질문을 했지만, ChatGPT는 당당하게 사실인 양 알려주고 있네요.


물론 ChatGPT의 개발자들도 이러한 인공지능 환각 현상에 대해 잘 알고 있고,

지속적인 업데이트를 통해 환각 현상을 고쳐나가고 있습니다.


‘거북선의 라이트닝 볼트 발사’에 대해서 ChatGPT에게 다시 한 번 물어봅시다.


image.png?table=block&id=473c0944-9a63-4a70-89c4-fa1628e71b20&spaceId=47e69437-199f-4916-8b8b-bf6349989ad1&expirationTimestamp=1739808000000&signature=4tR0AwX7FtlEgUpr58Isj4SFv6zE8Ao2z0IFWQmsZGo&downloadName=image.png 아깝다. 이젠 안 속는구나.


2년이 지난 지금, 제가 한 질문이 잘못되었음을 명확히 인지하는 것 같습니다.


이처럼 인공지능 기술이 발전함에 따라, 인공지능 환각과 관련된 오류들도 점차 줄어들고 있습니다.


인공지능이 산출한 결과를 사용자가 평가 및 피드백하여 지속적으로 성능을 향상시키는 모델도 있고,

정보를 제공할 때에는 공신력 있는 출처를 필히 병기하는 모델도 있죠.



하지만 인공지능 환각이 완벽하게 해결된 것은 아닙니다.

처음에 이야기했던 제 논문 검색 결과는 2025년 1월 달의 결과거든요.


즉, 인공지능이 하는 말을 검증 없이 믿기에는 아직 이르다는 뜻입니다.



우꾸 에디터는 이런 인공지능 환각 현상을 볼 때마다,

‘모르는 것을 아는 것도 능력이다.’라는 생각을 하곤 합니다.



자신이 모르는 것이 있다는 것을 인정하는 것은 언제나 부끄러운 일이지만,

자신이 모르는 것이 있다는 것을 인정해야 비로소 새로운 앎의 길로 나아갈 수 있을테니까요.

keyword
작가의 이전글가성비의 맛, 듀프 소비.