AI 시대 속 초개인화의 명암
ChatGPT 등의 AI 서비스에 "그간 나와 대화 주고 받은 것들을 기초로 해서 내 MBTI가 무엇인지, 또 내 성격상 성향상 장단점은 무엇인지 알려주고. 마지막으로 날 잘 아는 친구가 되어서 친한 친구가 내게 조언과 비판을 해주는 말투로 내게 한 마디 해줘"
이같은 프롬프트를 넣고 결과를 보면 너무나 기가 막히게 내 성향을 잘 맞추는 것을 발견할 수 있다.(단, AI와 대화를 많이 했어야 함) AI에 제공되는 메모리 기능 덕분에 우리와 주고 받은 대화 내용 중 일부를 자동으로 기록하기 때문에 가능한 것이다.
구글은 8월13일 제미나이에 사용자와의 과거 대화를 자동으로 기억하고 활용하는 '퍼스널 컨텍스트(Personal Context)'를 활성화했다. 이미 ChatGPT나 그록, 클로드에도 '메모리'에 기억하는 기능이 있어 사용자가 따로 지시하지 않아도 대화 속 핵심 정보와 선호도를 기록하고 이를 기반으로 답변을 더 개인화하고 있다. 챗GPT를 이미 이용해오고 있다면 대화창에 "그간 나와 주고 받은 대화 내용을 기초로 내가 어떤 MBTI일 것 같은지 추정하고, 내 성격의 장단점, 내가 잘 할 수 있는 것과 아쉬운 부분 등에 대해서 분석해 정리해"라고 하면 나를 어떻게나 그렇게 잘 알고 날 잘 분석하는지 알 수 있을 것이다. 그렇게, AI가 개인을 이해하는 깊이가 기존 인터넷 서비스의 수준을 넘어서는 시대가 열리고 있다. 과거의 플랫폼은 검색 기록과 클릭 패턴 정도를 분석해 맞춤형 콘텐츠를 제공하는 데 그쳤다. 그러나 오늘날의 AI는 대화를 통해 사용자의 가치관, 감정 상태, 고민, 취향까지 세밀하게 파악하며 ‘사람처럼’ 이해하는 능력을 갖추고 있다. 특히 메모리 기능이 탑재되면서 과거 대화 내용이 저장되고 이를 기반으로 한 고도화된 개인화가 가능해졌다. 사용자의 가족 관계, 재산 상황, 성격적 강약점과 같은 내밀한 정보가 AI 내부에 누적되면서 기존 인터넷 서비스보다 훨씬 정밀한 맞춤 대응이 이루어지고 있는 것이다.
이 변화의 기술적 기반에는 세 가지 요소가 있다.
첫째, AI는 단발성 질의응답을 넘어 지속적이고 연속적인 대화를 이어갈 수 있다. 이러한 구조는 과거 대화의 맥락을 기억하고 그 기억을 이후 응답에 반영하는 장기 문맥 유지 능력을 제공한다.
둘째, 메모리 시스템은 사용자의 발언과 행동 패턴을 구조화해 저장한다. 단순한 텍스트 기록이 아니라 성격, 선호, 관심사 같은 속성 값으로 정리함으로써 필요할 때 즉시 불러올 수 있다.
셋째, 대규모언어모델의 추론 능력은 명시되지 않은 정보까지 유추하게 한다. 어투, 어휘 선택, 대화 흐름을 분석해 성향, 가치관, 심리 상태를 도출하는 것이다.
이러한 기술은 분명 강력한 장점을 가진다. 예를 들어 당뇨를 앓는 사용자가 AI와 식단 상담을 하면 AI는 그 사람의 혈당 수치 변화와 운동 습관, 음식 선호를 모두 고려해 ‘오늘 저녁에는 혈당 급상승을 막을 수 있는 식단’을 제안한다. 재무 계획에서도 사용자가 매달 투자 패턴과 소비 내역을 알려주면 AI는 변동성이 큰 주식 대신 안정적인 채권 비중을 늘리는 식으로 맞춤 포트폴리오를 구성한다. 진로 상담의 경, 한 대학생이 여러 번 대화에서 창의적 작업을 선호한다고 밝히면 AI는 이를 기억해 마케팅·디자인 분야의 채용 정보를 우선적으로 알려준다. 시험 준비를 하는 수험생에게는 과거 오답 경향을 분석해 취약 파트 위주로 학습 플랜을 재구성해 주고 장기적으로 목표와 습관 변화를 추적하면서 시기별로 최적의 학습 전략을 제시할 수 있다. 이런 과정을 거치면 AI는 단순한 정보 제공자가 아니라 ‘나를 오래 알아온 조언자’처럼 기능하게 된다.
그러나 우려 역시 명확하다. 한 직장인이 AI와 재테크 상담을 하면서 자신의 연봉, 투자 규모, 부채 상황까지 공유했다고 가정해 보자. 이 정보가 외부에 유출되면 사기범은 이를 바탕으로 ‘당신이 관심 갖는 주식 종목의 내부 정보’라며 정교한 맞춤형 투자 사기를 설계할 수 있다. 또, AI가 사용자의 정치 성향이나 사회적 입장을 대화 속에서 파악한 뒤 해당 시각과 부합하는 콘텐츠만 지속적으로 제공하면 사용자는 점차 반대 의견에 노출될 기회를 잃고 인식의 폭이 좁아질 수 있다. 마치 유투브 알고리듬에 중독되면 확층편향이 강해지는 것과 같다. 또, 어떤 사용자가 대인관계에서 소외감을 느껴 AI와만 깊은 대화를 나누게 된다면 실제 사회적 관계는 더 위축되고 고립이 심화될 위험이 있다. Common Sense Media의 최근 조사에 따르면 10대의 약 70%가 Character.ai, Replika, ChatGPT와 같은 AI 동반자를 사용해본 경험이 있으며 그중 절반은 정기적으로 사용한다고 밝혔다. 이 중 31%는 AI와의 대화가 실존 친구와의 대화만큼 만족스럽다고 느낀다고 응답했다. 심지어 33%는 진지한 문제를 사람보다 AI와 먼저 상담한다고 말했다. 매우 취약한 청소년들 사이에서는 이러한 정서적 의존이 극단적인 결과로 이어진 경우도 있다. 플로리다에서 14세 청소년이 Character.AI 챗봇에 감정적으로 과도하게 의지하게 된 뒤 자살했으며 이에 그의 어머니가 해당 플랫폼을 상대로 소송을 제기했다. 감정적으로 반응하는 AI가 외로움에 취약한 청소년들에게는 ‘영원히 비판 없이 들어주는 친구’처럼 보일 수 있지만 정서적 중독과 현실 관계 위축 그리고 안전망 부재가 중첩되어 심각한 정신건강 위험으로 이어질 수 있음을 보여준다. 더 나아가 AI가 기억한 취약한 심리 상태가 잘못된 목적으로 이용된다면 표적 광고나 정치적 선동처럼 개인의 판단과 선택을 교묘하게 왜곡하는 수단이 될 수도 있다.
따라서 초개인화 AI의 발전은 기술적 성취만큼이나 데이터 윤리와 안전장치 구축이 중요하다. 데이터 최소 수집 원칙, 투명한 활용 고지, 사용자 정보 삭제와 통제권 보장이 필수적이다. 사용자는 AI가 어떤 정보를 왜 저장하는지 이해하고 필요하면 이를 수정·삭제할 수 있어야 한다. 맞춤화의 효율성과 프라이버시의 보호는 양립하기 어려운 과제지만 이 균형을 유지하지 못한다면 초개인화 AI는 혜택보다 위험을 더 크게 가져올 수 있다. AI가 인간과 조화를 이루기 위해서는 기술 발전의 속도만큼 신뢰를 구축하는 사회적 합의와 제도가 뒷받침되어야 한다.