생성형 AI 시대의 UI
한때는 ‘정보가 부족한 것’이 문제였습니다.
하지만 지금은 ‘정보가 너무 많은 것’이 문제입니다.
누구나 AI에게 한 줄만 던지면 보고서, 요약문, 분석 자료가 자동으로 생성되는 세상.
그런데… 이 정보, 믿어도 될까요?
바로 이 질문이 서비스 기획자와 디자이너에게 새로운 과제를 던지고 있습니다.
바로 신뢰를 디자인하는 일,
즉, ‘신뢰도 UI’의 시대입니다.
GPT, Claude, Gemini 같은 대형 언어 모델은
진실을 말하는 게 아니라, 그럴듯한 문장을 만드는 확률 엔진입니다.
그래서 이런 일이 일어납니다.
존재하지 않는 논문을 요약
실제로 하지 않은 인터뷰 내용을 창작
존재하지 않는 판례를 첨부
그리고 더 무서운 건,
사용자는 이게 거짓인지 모른다는 점이죠.
바로 이 지점에서, 신뢰를 보완해주는 UI 설계가 필요해진 것입니다.
대표 사례는 Perplexity.ai입니다.
AI가 생성한 문장 옆에 출처가 링크로 함께 표시되고,
마우스를 올리면 해당 문장이 어떤 웹사이트에서 온 것인지 하이라이팅됩니다.
또 다른 예시, Humata.ai는 업로드한 PDF의 문장을 요약하면서, 요약된 각 문장과 원문을 연결해줍니다.
이건 단순한 기능이 아니라,
사용자가 '믿어도 되겠다'고 느끼게 하는 시각적 장치입니다.
신뢰도 중심의 UI를 기획할 때,
다음 세 가지를 반드시 고려해야 합니다.
단순한 링크 나열이 아니라, 문장마다 출처를 1:1로 연결해야 합니다.
(ex: 각 문장 옆에 레퍼런스 넘버, 하이라이트, 아이콘 등)
AI가 ‘추정’이나 ‘불완전한 정보’ 기반으로 생성했을 때,
그 불확실성을 시각적으로 표현해야 합니다.
예:
“이 정보는 2023년 기준이며, 최신 내용은 다를 수 있습니다.”
유저가 출처를 클릭하거나, 잘못된 정보에 피드백을 줄 수 있는 구조가 있어야 합니다.
(예: ‘수정 요청’, ‘출처 보기’, ‘더 많은 예시 보기’ 등)
이것들은 **단순한 기능이 아니라, '안심감을 주는 경험 설계'**입니다.
사람은 생각보다 기계에 많은 걸 맡깁니다.
네비게이션이 알려준 길을 그대로 따라가고
ChatGPT가 쓴 이메일을 복사해서 그대로 붙여넣습니다.
그만큼, 기계가 틀릴 수 있다는 전제조차 떠올리지 않는 사용자가 많습니다.
그래서 더욱이, UI 설계자가 조심스러워야 합니다.
출처 없는 문장을 회색으로 처리한다거나
“이건 AI가 추정한 내용입니다”라는 안내를 표시하거나
“이 답변이 마음에 들지 않으셨나요?” 같은 보완 액션을 추가하는 것
이 모든 것들이 바로 **‘신뢰의 디자인 언어’**가 되는 겁니다.
이제 UI는 단지 정보를 나열하는 공간이 아닙니다.
그 정보가 얼마나 믿을 수 있는지를 드러내는 구조가 되어야 합니다.
검색창 옆에 ‘출처 필터’가 생기고
텍스트 위에 ‘신뢰도 지수’가 표시되고
콘텐츠 생성 결과 옆에는 ‘검증됨’ 뱃지가 붙는 세상
우리는 이미 그 초입에 와 있습니다.
AI는 점점 더 유용해지고, 더 정교해질 것입니다.
하지만 사용자의 불신, 오해, 과신을 줄이는 것은 여전히 사람의 몫입니다.
신뢰는 텍스트가 아니라, 경험으로 전달됩니다.
이제는 '디자인 시스템'이 아니라, '신뢰 시스템'을 함께 설계할 때입니다.
더 많은 인사이트를 얻고 싶다면, 렛플을 확인해보세요
� https://bit.ly/4nGsEFC