뤼튼이라는 한국의 생성형 검색 AI 스타트기업이 있다. 투자유치를 꽤 많이 받았고 대규모 권고사직으로 기사가 나오기도 했다. 종종 검색을 해보고 질문도 해가며 사용한다. 내시경과 ERCP관련 질문을 하는데, 브런치에 적은 내 글을 참고하서 답변을 만드는 것이었다.(지금은 삭제했던 글들이 사용 출처로 나타났었다.) 주관적이고 경험에 기초한 글들이기 때문에 정보의 적합성엔 의문을 가질 수도 있다. 물론 나름의 근거를 가지고 글을 써왔기 때문에 피드백을 빠지지 않고 해 왔다. 메일을 보낸 분도 있고 댓글로 궁금증을 묻는 분도 있었다. 내가 쓴 글이 답변의 재료가 될 수 있구나. 그런데 진실 여부는 어떻게 알 수 있을까?
본인 회사의 권고사직의 이유를 기술하는데, 뉴스기사와 블라인드라는 사이트에서 글을 도출해 낸다. 말 그대로 도출이다. 여러 군데서 글과 자료를 합산해서 답변을 생성한다. 의료 관련 질문은 병원이나, 의료기기 업체, 논문등에서 정보를 취합한다. 정보의 근거가 있는 글들을 통해 답변을 만들기 때문에 신뢰도가 높은 답변을 하는 것이다. 내가 궁금했던 질문들을 척척 대답해 주는 뤼튼은, 챗 gtp보다 한국 사람이 쓰기 적합해 보인다. 한국인이 만든 포스팅이나 정보를 출처로 이용하는 것 같다.
일전에 챗 지피티를 가지고 이모저모 질문을 하긴 했지만, 뤼튼은 더 나은 답변을 들려준다. 여러 거대언어 모델에서 필요한 부분을 취합하기 때문에 답변 만족도가 높다. 내가 쓰는 브런치의 글보다 수준 높게 답변한다. 정보의 진위와 추론의 과정이 약간은 아쉽긴 해도 누군가가 했던 말들과 정보들을 통해 답을 하는 것이다. 있을 법한 이야기가 아니라 누군가가 했던 이야기를 모아서 이야기한다.
AI가 거짓을 이야기하는지 판별하는 스타트업과 진위 여부를 파악하는 직책도 있단다. 조만간 AI가 하는 답변을 맹신하는 사람들에겐 AI가 뱉는 거짓은 크게 중요치 않을 것이다. 자료의 무단 사용도 문제가 되겠지만 어딘가에 있던 글들을 모아서 답변을 했으니까. 사실들을 취합해서 답변을 한다. 그 대답이 진실은 아니지만 엄연한 사실이다. AI의 대답을 진실로 믿는 세대와 세상이 온다. 일면만 보며 상대를 인정하지 않는 세상이 오고 있는 것이다. 사실이 진실이라고 믿는 세상. 사실의 일면으로 세상 전부를 설명하려는 참혹한 세상이 다가온다.
P.S - AI는 공산주의와 파시즘을 연상케한다.