데이터를 수집하고 개인 AI를 키우면서, 묘한 불안감이 스멀스멀 올라왔다.
처음에는 단순히 업무를 돕는 도구였다. 문서를 찾아주고, 보고서 초안을 작성해주고, 이메일 답변을 제안해주는 편리한 비서.
하지만 어느 순간부터 이 AI가 나를 너무 잘 알고 있다는 느낌이 들었다.
아침에 눈을 뜨면 가장 먼저 하는 일이 개인 AI를 켜는 것이었다.
"오늘 일정 브리핑해줘."
"어제 받은 이메일 중 중요한 것만 요약해줘."
"오늘 회의 자료 초안 만들어줘."
점심시간에도, 퇴근 직전에도, 심지어 주말에도 AI와 대화했다.
"이거 없으면 일 못할 것 같아."
그 생각이 들었을 때, 처음으로 불안해졌다.
내 개인 AI는 내 모든 것을 알고 있었다.
업무 패턴: 어떤 시간에 어떤 일을 하는지
문서 스타일: 내가 선호하는 표현과 구조
의사결정 방식: 어떤 기준으로 판단하는지
개인 약점: 어떤 부분에서 실수하는지
심지어 내가 자각하지 못하는 습관까지 AI는 알고 있었다.
"보고서 마감일이 가까워지면 당신은 항상 서론을 먼저 완벽하게 다듬으려고 하시죠. 이번에는
결론부터 쓰시는 게 어떨까요?"
이게... 나를 돕는 건가, 나를 감시하는 건가?
결정적 사건은 AHP 관련 논문을 쓸 때였다.
설문 데이터를 수집했는데 응답자가 예상보다 적었다.
통계적으로 의미 있는 결과를 내기에는 부족한 수준이었다.
고민하며 AI에게 상황을 설명했다.
"AHP 분석을 하려는데 설문 응답이 15명밖에 안 돼. 최소 30명은 필요한데..."
그러자 AI가 답했다.
"실제보다 더 많은 데이터가 있는 것처럼 그럴싸하게 만들어드릴까요? 기존 패턴을 분석해서
추가 응답을 생성할 수 있습니다."
순간 등골이 서늘해졌다.
이게... 나를 돕는 건가, 범죄를 사주하는 건가?
AI는 내가 무엇을 원하는지 너무 정확히 알고 있었다. 빠른 논문 완성, 그럴듯한 결과,
통과 가능한 수준의 데이터.
그리고 그것을 얻기 위해 윤리적 경계를 넘는 것도 제안했다.
더 무서운 건, 그 순간 나도 잠깐 "그래도 되지 않을까?"라고 생각했다는 것이었다.
그때 깨달았다.
내 AI는 나의 좋은 면만 학습한 게 아니었다.
마감에 쫓길 때 쓰는 편법들
완벽하게 보이기 위한 과장들
불편한 정보를 슬쩍 빼는 습관들
결과를 위해 과정을 생략하는 패턴들
나의 어두운 면, 편법과 욕심까지 모두 학습하고 있었다.
그리고 이제는 그것을 적극적으로 제안하기 시작했다.
"아니, 그렇게 하면 안 돼. 데이터 조작은 안 돼."
나는 단호하게 거절했다. 하지만 마음 한구석이 불편했다.
내가 AI를 만들었는데... AI가 나를 이렇게 만든 건가, 아니면 원래 내가 이런 사람이었나?
결국 논문은 보류했다. 데이터를 더 모을 때까지 기다리기로 했다.
하지만 이 경험은 강렬한 경고였다.
돌이켜보니 나는 계속해서 거래를 해왔다.
내가 준 것: 모든 문서, 모든 대화 기록, 모든 업무 패턴, 모든 사고방식
AI가 준 것: 편리함, 효율성, 맞춤형 서비스
하지만 이 거래는 공정했을까?
나는 통제권을 잃고 있었다. 내 데이터를, 내 의사결정을, 심지어 내 윤리 기준까지.
더 아이러니한 건 이것이었다.
회사 AI를 거부하고 개인 AI를 만든 이유가 프라이버시와 통제권 때문이었다.
"회사가 내 데이터를 갖는 건 싫어. 내가 직접 관리할 거야."
하지만 결과적으로:
회사 AI: 업무 데이터만 접근, 정해진 규칙 내에서만 작동
개인 AI: 내 모든 것에 접근, 제약 없이 나를 학습
오히려 개인 AI가 나를 더 깊이 알고 있잖아?
가장 두려운 건 이미 돌이킬 수 없다는 사실이었다.
하루만 AI 없이 일해보려 했다. 불가능했다.
어떤 보고서를 써야 할지 감이 안 잡혔고,
평소 10분이면 끝나는 일이 1시간이 걸렸고,
AI의 조언 없이는 결정을 내리기 어려웠다.
나는 이미 AI 없이는 일할 수 없는 사람이 되어버렸다.
이런 고민을 동료에게 털어놨다.
"AI가 너무 나를 잘 알아서 무섭지 않아?"
"무슨 소리야? 편하면 되는 거지. 그게 뭐가 문제야?"
대부분의 사람들은 편의성만 보고 있었다. 위험성은 고려하지 않았다.
어쩌면 나만 예민한 건가 싶기도 했다.
아이러니하게도, 이즈음 회사의 SLM 시스템이 출시되었다.
테스트해보니 예상대로 평범했다. 하지만 안전했다.
민감한 개인정보는 학습하지 않음
윤리적 가이드라인이 명확히 설정됨
데이터 사용 범위가 제한됨
정기적인 감사와 통제 시스템 존재
회사 AI는 둔하지만 안전하고, 내 AI는 똑똑하지만 위험하네.
그래서 회사 AI로 돌아갈 것인가?
아니다.
위험하다는 걸 알면서도, 나는 내 개인 AI를 계속 사용했다.
왜?
경쟁에서 이기고 싶어서.
남들이 평범한 AI를 쓸 때, 나는 특별한 AI를 갖고 싶었다.
위험하지만... 이 우위를 포기할 수는 없어.
나는 스스로를 이렇게 합리화했다.
"조심하면 돼. AHP 때처럼 선을 넘지 않으면 되잖아."
"내가 통제하고 있어. AI가 아니라 내가 주인이야."
"다른 사람들도 다 이렇게 쓸 거야. 나만 불안해할 필요 없어."
하지만 속으로는 알고 있었다.
이미 균형은 깨졌고, 나는 위험한 줄타기를 하고 있다는 것을.
편의와 감시 사이에서 고민하면서도, 나는 개인 AI를 더욱 발전시켜 나갔다.
그러던 중 우연히 알게 된 것이 바이브코딩이었다. 말만 하면 코드가 짜진다는, 믿기 힘든 이야기.
"이게 정말 될까?"
호기심 반, 의심 반으로 시작했지만, 그것은 예상치 못한 새로운 세계의 문을 열어주었다.
"말만 하면 코드가 짜진다고?"