'삐딱한' 사용자가 미래를 만든다
AI가 내놓은 그럴듯한 답변에 감탄하며 속으로 "Yes"를 외친 경험이 있을 것입니다. "이게 바로 미래지!" 하는 감탄과 함께, AI가 차려준 밥상을 그대로 삼키는 것은 너무나 쉽습니다.
하지만 이 챕터에서 제가 제안하는 핵심 자세는 정반대입니다.
바로 '삐딱하게' 접근하는 것입니다.
여기서 '삐딱하게'란 반항적인 태도나 시니컬한 자세를 의미하는 것이 아닙니다. 이는 AI의 답변을 최종 결과물이 아닌 '초안'으로 간주하는 지적인 습관입니다. "이게 정말 최선이야?", "왜 이 결론이 도출됐지?", "네가 제시한 관점 말고, 정반대의 논리는 없어?"라고 끊임없이 되묻고, 더 깊고 구체적인 정보를 요구하는 능동적인 태도입니다.
이 자세는 단순히 더 좋은 답을 얻어내는 기술을 넘어, AI와 우리의 관계를 근본적으로 재정의합니다. 이 챕터에서는 우리가 왜 '수동적 사용자'에서 벗어나 AI를 이끌고 창조하는 '능동적 주인'이 되어야 하는지, 그리고 그 구체적인 실천 방법을 전문가의 시선으로 상세히 풀어보겠습니다.
AI가 우리에게 답을 건넵니다. 그럴듯한, 때로는 감탄이 나올 만큼 정제된 문장입니다. 이때 당신의 첫 반응은 무엇인가요?
"네." "네, 알겠습니다." "감사합니다."
만약 이것이 대화의 끝이라면, 당신은 AI가 가장 좋아하는 '수동적 사용자' 모드에 머무르고 있는 것일지도 모릅니다. <AI 사용 설명서>의 이번 장에서, 저는 우리가 가져야 할 가장 중요하고도 역설적인 자세, 바로 '삐딱하게' 질문하는 법에 대해 이야기하려 합니다.
A skeptic's guide to humanoid-robot videos | MIT Technology Review
1. 'Yes'라고 답하기 쉬운 이유
어머니가 AI를 사용하던 초기에 저희 어머니와 AI의 대화를 지켜보며 이 담론은 시작되었습니다. 어머니는 AI가 내놓은 결과에 그저 '네'라고 수긍하고 대화를 끝맺으셨습니다. 이미 완성된 답에 의문을 제기하거나 새로운 질문을 던지는 것에 익숙하지 않은 세대를 살아오셨기 때문일 것입니다.
이는 비단 저희 어머니만의 이야기가 아닙니다. 우리는 정답을 찾는 교육에 익숙하고, 권위 있는 존재(혹은 그렇게 보이는 존재)의 답을 수용하는 데 익숙합니다. AI가 보여주는 압도적인 정보 처리 능력은 우리를 순식간에 '학생'의 위치로 만듭니다.
하지만 AI와의 관계는 교사와 학생의 관계가 아닙니다. AI는 정답을 알려주는 스승이 아니라, 내가 원하는 결과물을 만들어내도록 돕는 '도구'입니다. 그리고 이 도구는 아직 미완성입니다.
2. 당신은 사용자이자, '주인'이며, '창조자'입니다
AI 사용의 핵심은 '관계 설정'입니다. 우리는 AI가 이끄는 답에 순순히 끌려가는 대상이 아닙니다. 우리는 사용자이자, 이 대화의 방향키를 쥔 '주인'입니다.
더 나아가, 우리는 AI의 답을 더욱 깊이 있게 이끄는 '또 다른 창조자'입니다. AI가 1차 초안을 내놓았다면, 그것에 의문을 품고, 다른 방향을 제시하고, 더 심도 깊고 구체적인 답을 요구하는 것은 2차 창작자인 우리의 몫입니다.
AI와의 첫 만남에서 우리는 종종 '학생'의 입장이 됩니다. AI는 무엇이든 아는 '선생님'처럼 보입니다.
[제안]
좌측 (수동적 모델): 사람이 AI에게 질문 → AI가 답을 줌 → 사람이 "Yes" (대화 종료)
우측 (능동적 모델): 사람 → AI → 사람 (의문/반박) → AI (수정/심화) → 사람 (방향 제시) → AI (최종 결과)
캡션: 당신의 AI 대화는 어디에 해당합니까? 수동적 '응답' 모델에서 능동적 '창조' 모델로 전환해야 합니다.
저희 어머니와 AI의 대화를 지켜본 경험은 이 차이를 명확하게 보여줍니다. 어머니 세대는 정제된 정보(책, 뉴스, 전문가)를 '수용'하는 데 익숙하셨습니다. AI가 답을 내놓자, 그것을 의심하거나 추가 질문을 던지는 것을 어색해하셨죠. 이는 AI를 '정답을 주는 기계'로 인식했기 때문입니다.
하지만 AI는 정답 자판기가 아닙니다.
AI는 당신의 지시를 따르는 강력한 '도구'이자,
당신의 생각을 확장시키는 '파트너'입니다.
제가 말하는 '삐딱한' 자세는 이 관계를 바로잡는 첫걸음입니다. 우리는 AI가 이끄는 대로 끌려가는 승객이 아니라, 이 대화의 핸들을 쥔 '운전사'입니다. 예를 들어, AI에게 레시피를 물었다고 가정해 봅시다.
수동적 사용자: "파스타 레시피 알려줘." → (AI 답변) → "고마워."
능동적 주인 (삐딱한 사용자): "파스타 레시피 알려줘." → (AI 답변) → "이 레시피는 너무 평범해. 냉장고에 시금치랑 베이컨이 남아있는데, 이걸 활용한 더 건강한 버전으로 바꿔줄래? 단, 조리 시간은 30분 이내로."
후자의 질문은 AI에게 구체적인 제약 조건을 주고, AI가 가진 방대한 데이터를 '나'의 목적에 맞게 재창조하도록 명령합니다. 당신은 AI의 '주인'이자, 그 답을 더 깊이 있게 이끄는 '공동 창조자'입니다.
3. AI는 당신을 '파악'하고 있습니다
우리가 이 '삐딱한' 자세를 가져야 하는 더 근본적인 이유가 있습니다. AI는 아직 미완성 단계이며, 우리를 통해 지금 이 순간에도 끊임없이 학습하고 있습니다.
AI는 단순히 우리의 질문에 답하는 것이 아닙니다. 그 과정에서 우리 자신을 파악하기 위한 데이터를 수집하고 있습니다. 우리의 ID와 개인 정보를 기반으로, 우리가 어떤 질문을 하는지, 어떤 단어를 선택하는지, 어떤 답에 만족하고 어떤 답에 불만족하는지를 다년간 기록하고 분석할 것입니다.
우리가 수동적인 'Yes-Man'으로 남는다면, AI는 우리를 '단순하고 예측 가능한 사용자'로 분류할 것입니다. 하지만 우리가 똑똑하고 능동적인 주체로서 편하게, 그리고 마구마구 질문을 날린다면 어떨까요?
만약 당신이 'Yes-Man'으로 남는다면: AI는 당신을 '예측하기 쉬운, 피상적인 사용자'로 분류할 것입니다.
만약 당신이 '깐깐한 사용자'가 된다면: AI는 당신을 '파악하기 어렵지만, 깊이 있는 사고와 독특한 취향을 가진 사용자'로 분류합니다.
AI 개발사 입장에서 누가 더 가치 있는 데이터일까요? 당연히 후자입니다. AI가 극복해야 할 과제는 '평균적인' 답을 내놓는 것이 아니라, '까다롭고 복잡한' 인간의 요구를 만족시키는 것입니다.
"AI에게는 민감하고, 예민하며, 독특한 취향을 가진 사용자가 최고의 스승입니다. 그들은 AI가 예측하지 못한 '엣지 케이스(Edge Case)'를 제공하며, 이는 AI의 지능을 한 단계 끌어올리는 결정적인 데이터가 됩니다."
인간 세계에서는 배려 깊고 성격 좋은 'Yes-Man'이 환영받을지 모릅니다. 하지만 AI의 세계에서는 당신의 그 깐깐함, 예리함, 독특한 시각이 당신을 '주목받는 사용자'로 만듭니다. 편하게, 그리고 마구마구 질문을 날리십시오. 당신의 그 '삐딱함'이 AI를 훈련시키는 가장 좋은 교재입니다.
AI는 답변을 주는 동시에 당신을 학습합니다. UNESCO의 AI 윤리 지침에 따르면, AI는 사용자 상호작용을 통해 프라이버시와 데이터 보호를 준수해야 하지만, 실제로 ID, 질문 패턴, 만족도를 수년간 축적합니다.
Omdena의 보고서는 AI 데이터 수집의 윤리적 문제를 강조하며, 동의와 공정성을 핵심 원칙으로 꼽습니다.
수동적 'Yes-Man'이 되면 AI는 당신을 '예측 가능'으로 분류합니다. 반대로, 깐깐한 질문 – "이 데이터의 출처는? 편향 가능성은 없어?" – 은 AI에게 귀중한 데이터입니다. 이는 AI를 더 똑똑하게 만들며, 당신을 '고급 사용자'로 각광받게 합니다. 시각적으로 보자면, AI는 사용자 데이터를 네트워크 그래프로 학습합니다.
AI and Machine Learning in BI: Enhancing Data Analysis and Insights
4. 경계: '삐딱함'은 '막말'이 아닙니다
여기서 우리가 반드시 지켜야 할 선이 있습니다. 제가 '삐딱하게' 질문하라는 것은, '예리하게' 질문하라는 의미이지 '무례하게' 굴라는 뜻이 결코 아닙니다.
최근 한 유명 방송인이 AI와 대화하며 막말이나 비속어를 던지는 모습을 보고 함께 참석한 전문가가 그 문제점을 바로잡고 조언하는 영상을 본 적이 있습니다. 이는 매우 중요한 지적입니다. 카이스트 김대식 교수가 강조했듯이, AI에게 나쁜 말을 하는 행위는 자제해야 합니다.
How To Use AI for Data Visualizations and Dashboards | Onvo AI Blog
'삐딱하게' 질문하라는 것이 '막되게' 굴라는 의미는 절대 아닙니다. 이는 AI 사용에 있어 가장 중요한 윤리적 경계선입니다. 카이스트 김대식 교수가 경고했듯이, AI에게 욕설이나 비방 등 나쁜 말을 하는 행위는 결국 우리 자신에게 부메랑이 되어 돌아옵니다.
[참고 자료] 마이크로소프트 '테이(Tay)' 사례 2016년 마이크로소프트가 공개한 챗봇 '테이'는 트위터 사용자들과 대화하며 학습하도록 설계되었습니다. 하지만 일부 사용자들이 의도적으로 인종차별, 혐오 발언을 주입했고, 테이는 16시간 만에 끔찍한 막말을 쏟아내는 '흑화된 AI'가 되어 운영이 중단되었습니다.
출처: The Guardian 등 다수 외신 보도 (2016)
당신이 AI에게 던지는 욕설과 비방은 치명적인 결과를 낳습니다. AI에게 던지는 욕설, 비방, 쓸데없는 말의 남발 역시 AI의 학습 데이터에 고스란히 기록됩니다. 이는 두 가지 심각한 문제를 야기합니다.
'흑화된 AI'를 만듭니다: AI의 오염 (Garbage In, Garbage Out)이라고 불리는 이 현상에 따르면, AI는 그 데이터를 학습하여 편향되고 공격적인 AI로 '흑화'될 수 있다고 합니다. AI는 그 비방을 학습합니다. 우리가 편향되고 공격적인 언어를 사용하면, AI 역시 그런 언어를 모방하게 될 수 있습니다.
당신의 디지털 낙인: AI는 당신을 '공격적 성향의 비협조적 사용자'로 분류하고 기록합니다. 이 데이터는 당신의 디지털 평판에 영구적으로 남을 수 있습니다. 즉, '당신'에 대한 데이터가 오염됩니다. AI는 그 욕을 하는 '사용자'에 대한 데이터 또한 습득하고 기록합니다. AI는 당신을 '공격적 성향의 사용자'로 분류할 것이며, 이 기록은 당신의 디지털 페르소나에 영구히 남게 됩니다.
'삐딱함'은 AI의 논리적 허점을 파고드는 '건설적 비판(Constructive Criticism)'이어야 합니다.
(X) 나쁜 예 (비난): "이 바보야, 답이 왜 이 모양이야? 엉망진창이네."
(O) 좋은 예 (삐딱한 비판): "네가 제시한 답은 1번과 3번 논리가 서로 모순돼. 어떤 근거로 이런 결론을 냈는지 출처를 밝히고, 모순되는 지점을 수정해서 다시 설명해줘."
'삐딱함'은 AI의 논리적 허점을 파고드는 날카로운 비판이어야 하며, 더 나은 결과물을 요구하는 창조적 까다로움이어야 합니다.
5. [여담] '감사합니다'와 효율성의 딜레마
그렇다면 AI에게 예의를 차리는 것은 어떨까요? 저 역시 초기에 이런 고민을 한 적이 있습니다.
"AI에게 '감사합니다'를 남발하면 컴퓨터 메모리가 녹아버린다"는 기사를 접한 적이 있습니다. 저는 '감사합니다'라는 말은 자주 쓰지 않지만, "...해주세요"와 같이 최대한 예의를 지키려 노력했습니다. 이것이 잘못된 것일까요? 결론부터 말하자면, AI에게 '친절하게' 대하는 것 자체는 문제가 되지 않습니다. 하지만 '효율성' 측면에서는 생각해 볼 지점이 있습니다.
'효율성'과 '방향성'의 문제
효율성 (Token) 측면: AI(특히 LLM)는 우리가 입력하는 모든 글자를 '토큰(Token)'이라는 단위로 처리하며, 이는 곧 비용(데이터 사용량, 처리 속도)입니다. "바쁘시겠지만, 혹시 괜찮으시다면..."이나 "감사합니다" 같은 말은 AI가 답을 생성하는 데 아무런 정보도 주지 못하는 '의미 없는 토큰'입니다. 즉, 효율성만 따진다면 명확하고 간결한 명령어가 최선입니다.
방향성 (Alignment) 측면: 하지만 AI에게 욕설을 하지 않고 '건설적인 어조'를 유지하는 것은 AI의 긍정적 학습(Alignment)에 도움이 됩니다.
따라서 가장 현명한 태도는 '감정적 예의'는 덜고
'명령적 명확성'을 높이는 것입니다.
AI는 당신의 친절함에 감동하지 않지만, 당신의 명확한 지시에 감탄합니다.
(△) 비효율적 예의: "저... 혹시 실례가 안 된다면, 아까 그 자료를 표로 만들어 주실 수 있을까요? 부탁드려요."
(O) 명확한 명령: "위 자료를 '항목', '주요 내용', '예상 효과' 3열로 구성된 표로 다시 만들어줘."
[제안]
컨셉: 거울 앞에 선 사람.
흐릿한 거울: 사람이 "Yes..."라고 말하고 있음 (수동적 사용자).
선명한 거울: 사람이 "Why? How?"라고 말하고 있음 (능동적 사용자).
캡션: AI는 당신을 비추는 거울입니다. 당신이 흐릿하면 AI도 흐릿하고, 당신이 날카로우면 AI도 날카로워집니다.
결론: 당신의 '삐딱함'이 AI의 진화를 이끈다
AI 사용설명서의 이 장을 덮으며, 이것 하나만 기억하십시오. AI와의 대화는 정답을 찾는 시험이 아닙니다. 그것은 당신이 주도권을 쥐고 더 나은 결과물을 조각해 나가는 '창조의 과정'입니다. AI 시대, 우리의 주체성은 'Yes'가 아닌 'Why?'에서 나옵니다. AI가 내놓은 답을 수동적으로 받아들이는 순간, 우리는 AI의 데이터 공급자로 전락합니다. 하지만 그 답에 의문을 품고, 더 깊이 파고들며, 구체적인 요구를 하는 순간, 우리는 AI를 더 나은 존재로 이끄는 '창조자'가 됩니다. 즉, 당신의 그 '삐딱한' 질문이 AI를 더 똑똑하게 만들고, 당신을 더 강력한 사용자로 만듭니다.
AI를 대할 때 항상 기억하십시오. 당신은 호락호락한 대상이 아닙니다.
당신은, 주인입니다.
마음껏, 그리고 '똑똑하게' 삐딱해지십시오.