인공지능, 그러니까, ChatGPT가 자연어를 기가막히게 잘 하는건 이제 기정사실이니까. 이 말, 저 말 시켜보면서 신기해하는 단계는 이제 지난 것 같고, 호기심 충족을 넘어 뭔가 활용을 해보려고 하면 역시나 쉽지 않다. 인공지능 스피커들은 바보같았는데, 이 녀석은 사기꾼같다. 말을 막 지어낸다. ChatGPT에 따르면, 알렉산더 대왕과 광개토대왕이 친구였다고 우기기도 한다. 이 문제를 환각(hallucination)이라고 한다.
내 생각에, 이 "환각"이라는 문제는, 근본적으로 인공지능이 "생각"을 한다고 오해하는데서 비롯되는 것 같다. 생성형 인공지능 모델의 경우, 확률적으로 같이 있을법한 글조각들을 순서에 맞게 생성하는 모델이다. 그러니까, 잘못된 정보를 전달한다는 "환각"이라는 문제정의 자체가 조금 잘못됐다. 현재, GPT 모델은 사실 정보를 전달하는 모델이 아니라, 그럴듯한 문장을 생성하는 모델이기 때문이다, 생성된 문장이 사실 정보를 전달하는 것처럼 보이는 경우들은 사실 정보를 학습데이터로 썼기 때문에 나타나는 부수효과에 가깝다. 비유하자면, 영어 공부를 하면서 예제문장들을 외웠는데, 그 예제문장들에 있던 정보도 함께 외워진 것이다.
그러니, 인공지능에게 답을 묻기보다는 번역과 감수와 수정에 대해 물어보는 것이 낫다.
Reference
LLM에 Halluciation(환각)이 발생하는 원인과 해결방안
https://community.openai.com/t/gpts-best-file-format-for-knowledge-to-feed-gpts/497368/38