brunch

AI 검색은 어디로 갈까

벡터 임베딩의 한계

by AI러 이채문

지난 몇 년간 AI 검색과 생성 시스템의 핵심은 ‘벡터 임베딩(Vector Embedding)’이었습니다. 텍스트, 이미지, 오디오를 수학적으로 표현해 고차원 공간에 배치하고, 가장 가까운 점을 찾아내는 방식이죠. 우리가 사용하는 대부분의 RAG(Retrieval-Augmented Generation) 서비스, 예컨대 기업용 지식 검색이나 AI 비서 서비스는 이 구조 위에서 돌아갑니다. 하지만 구글 딥마인드가 최근 공개한 연구는 이 방식에 근본적인 수학적 한계가 존재함을 보여주며 업계에 충격을 주고 있습니다. 단순히 모델을 키우거나 더 많은 데이터를 학습시켜도 해결되지 않는 구조적 문제라는 점에서 파장이 큽니다.

“벡터 임베딩의 한계, AI 검색은 어디로 갈까” - visual selection.png

연구팀은 ‘자유 임베딩 최적화’라는 실험을 통해 임계점을 증명했습니다. 예를 들어 512차원 임베딩은 약 50만 개 문서까지만 안정적으로 작동하고, 4096차원조차 2억5000만 개 이상에서는 표현력이 붕괴한다는 겁니다. 실제로 단 46개의 문서만 포함된 테스트에서도 구글·스노우플레이크의 최신 임베딩 모델은 정답을 20%도 못 맞혔지만, 오히려 전통적인 키워드 기반 검색(BM25)은 훨씬 안정적인 성능을 냈습니다. 이는 현재의 단일 벡터 구조가 문서와 쿼리 사이의 복잡한 관계를 포착하지 못한다는 사실을 입증합니다. 학습 데이터를 늘리거나 차원을 확장하는 방식으로는 극복할 수 없는 한계이자, 지금의 RAG 시스템이 실제 웹 규모 환경에서 왜 취약한지 설명해 주는 대목입니다.


그렇다면 대안은 무엇일까요. 연구진은 ▲쿼리-문서 쌍을 직접 비교하는 크로스 인코더(Cross-Encoder), ▲문서마다 여러 벡터를 두는 멀티 벡터 모델(ColBERT), ▲차원이 사실상 무제한인 희소 검색 방식(BM25, TF-IDF, 뉴럴 스파스 검색기) 등을 제안합니다. 특히 현실적인 해결책으로는 하이브리드 검색(Hybrid Search), 즉 임베딩과 키워드·희소 모델을 결합한 아키텍처가 가장 주목받습니다. 이는 단일 접근법에 의존하지 않고 상황별 장점을 살릴 수 있다는 점에서, 앞으로 기업용 AI 시스템 설계의 표준으로 자리 잡을 가능성이 큽니다. 구글의 이번 연구는 단순히 기술적 비판을 넘어, “AI 검색의 다음 10년은 어떻게 설계해야 하는가”라는 질문을 우리 모두에게 던지고 있습니다.

keyword
매거진의 이전글이제는 에이전트 군집 코딩의 시대