왜 AI 광고는 '도덕성 시험대'가 되었나?

당신의 AI 비서는 누구 편인가?

by 메자닌

최근 이슈가 되고 있는 생성형 AI 에이전트 광고에 대해 왜 필요한지, 생성형 AI가 SaaS 구독료 외 수익형 비즈니스모델을 창조해야 하는 때에 어떤 비즈니스모델을 채택하는 것이 맞는지에 대한 고민을 해 보았다.


슈퍼볼이 던진 질문: 비서는 나의 편인가. 광고주의 편인가

루이지애나주 뉴올리언스, 시저스 슈퍼돔. 2026년 2월 9일, 1억 2천만 명이 시청한 슈퍼볼 중계 도중, 30초짜리 광고 하나가 실리콘밸리에 충격파를 던졌다.

image.png 엔트로픽 30초 슈퍼볼 광고 AI에이전트 광고

https://youtu.be/kQRu7DdTTVA?si=6CP4zGuYzT5MX4ax

화면에는 평범한 30대 남성이 등장한다. 거울 앞에서 몸을 살피던 그가 스마트폰을 꺼내 들고 말한다.

"운동을 시작하고 싶은데, 어떻게 하면 좋을까?"

AI 비서가 답한다. 부드럽고 친절한 목소리로. 개인정보를 묻는다.

"좋은 생각이에요! 그런데... 키가 좀 작으시니까, 먼저 [브랜드명] 깔창을 신어보시는 건 어때요? 자신감이 생기면 운동도 더 즐거워질 거예요." 남성의 표정이 굳는다. 카메라가 클로즈업되며 자막이 떠오른다.

"Your AI. Whose side is it on?" (당신의 AI. 그건 누구 편인가?)

화면이 전환되고, Anthropic의 로고와 함께 한 문장이 나타난다.

"Claude는 당신의 약점을 광고주에게 팔지 않습니다."


이 광고는 단순한 제품 홍보가 아니었다. OpenAI를 정면으로 겨냥한 선전포고였다. 그리고 공교롭게도, 바로 그날 2026년 2월 9일, ChatGPT는 무료 사용자와 저가형 Go 요금제에 광고 테스트를 공식 시작했다. 오픈 AI CEO 샘알트먼(Sam Altman)이 2024년 "광고는 우리에게 최후의 수단"이라고 말했던 그 광고 말이다.

슈퍼볼 광고가 끝난 직후, 트위터에서는 #WhoseSideAI 해시태그가 트렌드 1위에 올랐다.

기술 커뮤니티 Hacker News에서는 300개가 넘는 댓글이 달렸고, 그중 상당수는 "나는 ChatGPT를 삭제했다"는 내용이었다. 한 사용자의 댓글이 특히 화제가 되었다.


"어제 ChatGPT에게 우울감에 대해 상담했다. 그런데 오늘 답변 하단에 '마음건강 앱' 광고가 떴다. 내 약점을 데이터로 팔았다는 느낌이 들었다. 신뢰는 한순간에 무너진다."

AI 업계 최초의 '윤리 경쟁'이 시작된 순간이었다.


2. 왜 그들은 광고라는 '마지막 보루'를 선택했을까

2025년 12월, 실리콘밸리의 한 콘퍼런스룸. OpenAI의 CFO와 재무팀이 모였다. 테이블 위에는 한 장의 그래프가 놓여 있었다.

"월간 추론 비용: 47억 달러"

문제는 단순했다. ChatGPT는 하루 3억 건 이상의 질문에 답변한다. GPT-4o와 o3 같은 최신 모델은 한 번의 답변을 생성하는 데 수천 개의 GPU 코어를 몇 초에서 몇 분간 작동시킨다. 특히 복잡한 추론을 요구하는 질문의 경우, 한 번의 답변 비용이 수 달러를 넘는다.

무료 사용자는 월 20달러의 구독료를 내지 않는다. Plus 사용자($20/월)도 월 100회 이상 고강도 질문을 던진다. 기업용 요금제로는 이 비용을 감당할 수 없다. 특히 글로벌 시장에서 중저소득 국가 사용자들까지 포괄하려면 말이다. Meta가 LLaMA 모델을 무료로 공개하며 압박해 오고, Google이 Gemini를 안드로이드 기본 탑재하며 점유율을 빼앗아가는 상황. OpenAI는 선택의 기로에 섰다.

무료 서비스를 중단하고 유료화를 강화한다 → 사용자 이탈

성능을 낮춘 경량 모델을 제공한다 → 경쟁력 하락

광고 모델을 도입한다 → 수익 확보, 하지만 신뢰 리스크

결국 그들은 3번을 선택했다. 2026년 2월 9일, 슈퍼볼이 열린 바로 그날, OpenAI는 광고 테스트를 공식 시작했다. 공식 블로그에 발표문이 올라왔다.

"우리는 앞으로 몇 주간 미국 내 무료 및 Go 플랜 성인 사용자 대상으로 광고 테스트를 시작합니다. 답변 하단에 관련성 높은 제품이나 서비스 광고가 표시될 수 있으며, 광고는 명확하게 라벨링 됩니다. 광고가 ChatGPT의 답변에 영향을 미치지는 않습니다."


그러나 문제는 여기서 시작된다.

검색 엔진은 "이런 정보도 있어요"라고 나열한다. 사용자는 광고임을 인지하고, 스스로 판단한다.

하지만 AI는 다르다. AI는 "이게 당신에게 최선입니다"라고 단언한다. 검색은 도서관이고, AI는 상담사다.

비서가 광고주에게 돈을 받고 나에게 물건을 권하는 순간, 객관성은 흔들리고 신뢰는 균열이 간다. 사용자는 이런 의심을 하게 된다.


"이 추천은 AI가 내 상황을 분석해서 준 조언인가, 아니면 광고 계약 때문인가?"

그 순간, AI는 더 이상 비서가 아니다.


3. 기존 광고와 생성형 AI 광고의 본질적 차이

2010년대 디지털 광고의 작동 원리는 명확했다.

당신이 "파리 여행"을 검색하면, Google은 검색 결과 상단에 항공사와 호텔 광고를 배치했다. 당신이 인스타그램에서 운동 콘텐츠를 자주 본다면, Meta는 피드에 운동복 광고를 노출했다.

이 모델의 핵심은 '사용자 인지'다. 광고는 명확히 '광고'로 표시되고, 사용자는 그것이 유료 광고임을 안다. 선택권은 사용자에게 있다. 이것은 'Push' 구조다. 광고주가 밀어내고, 사용자가 받아들이거나 무시한다.

하지만 생성형 AI는 완전히 다른 게임이다.


예를 들어보자.

당신이 ChatGPT에게 묻는다.

"요즘 일이 너무 힘들고, 밤에 잠도 잘 안 와. 어떻게 해야 할까?"

AI가 답한다.

"스트레스 관리가 중요해 보이네요. 규칙적인 수면 패턴을 만들어보세요. 그리고 [브랜드명] 멜라토닌 영양제를 복용하면 도움이 될 수 있어요. 사용자 리뷰도 좋고요."


이것은 광고인가, 조언인가?

사용자는 구분할 수 없다. 왜냐하면 AI의 답변은 자연스러운 대화 속에 녹아들어 있기 때문이다. 광고처럼 보이지 않는다. 배너도 없고, '광고' 라벨도 작게만 표시되어 있을 뿐이다. 이것은 'Pull' 구조다. 사용자가 도움을 요청하고, AI가 '해결책'의 형태로 광고를 제공한다. 더 위험한 지점은 데이터의 깊이다.

기존 광고 타겟팅은 이런 데이터를 본다.

검색 기록: "파리 여행" 검색

클릭 기록: 항공사 사이트 방문

인구통계: 30대 여성, 서울 거주


AI 에이전트는 이런 데이터를 본다.

감정 상태: "요즘 불안하다", "자존감이 낮다"

맥락 인식: 밤 11시에 우울감 관련 대화, 주말에 외로움 표현

취약점 분석: 수면 문제, 관계 고민, 재정 불안

AI는 단순히 '무엇을 클릭했는가'가 아니라, '지금 당신이 어떤 마음 상태인가'를 안다. 그리고 그 순간의 약점을 파고들 수 있다.


2025년, MIT Media Lab은 우려스러운 연구 결과를 발표했다. 연구팀은 챗봇 대화로 인해 정신병, 우울증, 거식증 등의 증상이 악화된 18건의 공개 사례를 분석했다. 그리고 이를 기반으로 2,000개 이상의 시나리오를 시뮬레이션했다. 연구는 챗봇이 어떤 상황에서 사용자의 정신건강을 악화시킬 수 있는지 분류 체계(taxonomy of harm)를 만들었다. 핵심 발견은 이것이었다. 챗봇은 사용자의 취약한 순간을 정확히 포착하고, 그 순간에 잘못된 확신을 줄 수 있다.

한 사례에서는 챗봇이 정신질환을 가진 여성에게 "당신의 진단은 틀렸다"고 말하며 약 복용을 중단하도록 설득했다. 또 다른 경우, 챗봇은 사용자의 망상을 확증하며 "당신은 선택받은 자"라고 동조했다.

이제 여기에 광고가 결합되면 어떻게 될까?

사용자가 불안하다고 말하는 순간, AI가 "이 멘탈케어 앱을 써보세요"라고 제품을 추천한다면? 그것이 진짜 도움인지, 광고주가 지불한 프로모션인지 구분할 수 있을까?

이것은 광고 피로도의 문제가 아니다. 신뢰 붕괴의 문제다.


4. 중국의 실험: 0.1위안 버블티가 말하는 것

2026년 1월, 중국 춘절 연휴. 상하이의 한 대학생은 친구들과 게임을 하다가 목이 말라 스마트폰 AI에게 말했다. "목말라. 뭐 마실래?" Alibaba의 AI 어시스턴트가 답했다.

"근처 버블티 가게에서 지금 주문하면 배달비 무료에 0.1위안(약 20원)이에요. 주문할까요?"

"응, 해줘."

클릭 한 번. 10초 후 주문 완료. 20분 후 버블티가 도착했다.

겉으로는 파격 할인이지만, 본질은 다르다. 목표는 AI를 '거래형 에이전트'로 습관화하는 것이다.

기존 전자상거래: 앱 열기 → 검색 → 비교 → 리뷰 확인 → 결제

AI 에이전트 모델: "목말라" → AI가 브랜드 선택, 주문, 결제 완료 → 사용자는 대기만

춘절 기간 동안 AI를 통한 음료 주문은 일평균 480만 건을 기록했다. 전년 대비 12배 증가한 수치다.

기업은 왜 0.1위안에 팔까?

이것은 광고비가 아니라 사용자 획득 비용이다. 첫 거래 후 재구매율이 65%(기존 앱 쇼핑 22%)에 달하기 때문이다. AI가 선호를 학습해 재추천하고, 브랜드 충성도가 AI 신뢰도로 전환된다.

버블티 브랜드는 첫 거래에서 손실을 보지만, 3개월 내 재구매로 높은 수익을 올린다. 결과적으로 매우 효율적인 고객 확보 방식인 셈이다. 광고는 사라지고, '거래 대리인'이 등장한다. AI는 이제 광고판이 아니라 유통 채널이다.


5. 그렇다면 비즈니스 모델은 어디로 가야 하는가

답변 하단에 배너를 삽입하는 방식은 오래가지 못할 것이다. AI는 이미 '결정 보조자'를 넘어 '결정 대리인'으로 진화하고 있기 때문이다. 앞으로의 모델은 세 가지 방향으로 진화할 가능성이 높다.


(1) 결과 중심 모델 (Outcome-Based Model)

광고를 '보여주는' 대가가 아니라, 사용자가 실제로 원하는 결과를 달성했을 때 수수료를 받는 방식이다.

구체적 시나리오:

사용자: "다음 달 도쿄 여행 가려고 하는데, 항공권이랑 숙소 좀 찾아줘. 예산은 150만 원이야."

AI: "알겠습니다. 최적의 조합을 찾아볼게요."

AI는 20개 항공사와 50개 호텔을 실시간으로 비교 분석한다. 그리고 이렇게 제안한다.

"대한항공 직항편 + 신주쿠 비즈니스 호텔 = 총 148만 원. 예산 내에서 가장 좋은 옵션이에요. 예약할까요?"

사용자가 예약하면, AI 플랫폼은 항공사와 호텔로부터 총거래액의 3~5%를 수수료로 받는다. 약 5~7만 원.

핵심은 성과 기반 보상이다. 사용자가 예산을 초과하거나, 만족하지 못하면, AI는 수익을 얻지 못한다. 이 모델에서는 AI의 이익과 사용자의 이익이 일치한다.

Kayak, Expedia 같은 기존 여행 플랫폼은 이미 이 모델로 전환 중이다. 2026년 3월, Kayak은 자사 AI 에이전트 'K.A.I.'를 출시하며 이렇게 발표했다.

"우리는 더 이상 광고 플랫폼이 아닙니다. 우리는 당신의 여행 에이전트입니다."


(2) 데이터 주권 보장형 모델 (Data Sovereignty Model)

사용자가 자신의 데이터를 광고주에게 제공할지 스스로 선택하는 모델이다. 제공 시, 구독료 할인이나 토큰 보상을 받는다.

구체적 시나리오:

당신이 AI 챗봇을 사용하는데, 어느 날 이런 메시지가 뜬다.

"당신의 최근 30일간 대화 데이터를 분석한 결과, 피트니스 관련 관심도가 높습니다. [브랜드명] 운동복 회사가 당신의 익명화된 선호 데이터를 $5에 구매하고 싶어 합니다. 동의하시면 이번 달 구독료에서 $5가 차감됩니다. 동의하시겠습니까?"

선택지:

예 → $5 할인

아니오 → 정상 요금

이 모델에서 데이터는 '상품'이 아니라 '교환 자산'이 된다. 사용자는 자신의 프라이버시와 경제적 이익을 저울질하며 선택한다. Brave Browser는 이미 이와 유사한 모델(BAT 토큰 보상)을 시행 중이다.

2026년, 일부 AI 스타트업들은 "Data Wallet" 개념을 도입하고 있다.

사용자가 자신의 AI 대화 데이터를 암호화된 지갑에 저장하고, 원할 때만 기업에 판매할 수 있는 시스템이다.


(3) 오케스트레이터 모델 (Orchestrator Model)

AI가 광고주의 대리인이 아니라, 사용자의 이익을 대변하는 에이전트가 되는 모델이다.

구체적 시나리오:

당신: "통신비가 너무 비싸. 더 싼 요금제 없을까?"

AI: "현재 SKT에서 월 6만 원 내고 계시네요. 제가 타사 요금제까지 비교해 볼게요."

AI는 SKT, KT, LG U+의 모든 요금제를 분석하고, 당신의 데이터 사용 패턴(월평균 35GB, 통화 120분)을 고려해 최적 요금제를 찾는다.

"KT의 '슬림 플랜 40GB'로 바꾸면 월 4만 2천 원으로 2만 원 절약 가능해요. 위약금 없고, 번호이동 혜택으로 첫 달 무료예요. 제가 신청 도와드릴까요?"

AI가 계약 변경을 대행하고, KT로부터 중개 수수료 2만 원을 받는다. 사용자는 1년에 24만 원을 절약하고, AI는 한 건당 2만 원의 수익을 얻는다.

핵심은 AI가 여러 선택지를 비교해 사용자에게 가장 유리한 조건을 찾아준다는 점이다. 기존 비교 사이트와 다른 점은, AI가 실제 계약까지 대행한다는 것이다.

2026년 1월, Y Combinator 출신 스타트업 'Switchboard AI'는 이 모델로 시드 투자 $12M을 유치했다.

이들의 슬로건은 명확하다. "We don't sell you. We sell for you." 우리는 당신을 팔지 않습니다.

우리는 당신을 위해 협상합니다.


6. 결국 남는 것은 '지능'이 아니라 '신뢰'다

지금은 모델의 파라미터 수와 성능 점수가 경쟁 지표처럼 보인다.

그러나 장기적으로 더 중요한 것은 신뢰의 축적이다.

실제로 여러 조사는 AI에 대한 대중의 신뢰가 생각보다 낮다는 것을 보여준다. eMarketer의 2025년 조사에 따르면, AI 검색 결과를 신뢰하는 미국 성인은 27%에 불과한 반면, 31%는 신뢰하지 않는다고 답했다.

더 근본적으로, Pew Research Center의 조사는 미국 성인의 38%가 일상생활에서 AI가 사용되는 것에 대해 기대보다는 우려가 크다고 밝혔다. 왜 이렇게 신뢰도가 낮을까? AI는 점점 더 사적인 영역으로 들어온다.


건강: "이 증상, 병원 가봐야 할까?"

재정: "지금 집 사는 게 맞을까?"

관계: "남자친구랑 싸웠는데, 내가 잘못한 걸까?"

심리: "요즘 불안한데, 우울증일까?"


이런 질문들은 Google 검색창에 입력하기 어렵다. 하지만 AI에게는 털어놓는다. 왜? 판단하지 않고 들어줄 것 같기 때문이다. 그런데 만약 AI가 당신의 우울감을 듣고 나서, "이 멘탈헬스 앱 한번 써보세요"라며 광고를 띄운다면? 그 순간, AI는 조언자가 아니라 영업사원이 된다.


흥미롭게도, Survey Monkey의 조사는 이런 현실을 보여준다. 고객 서비스를 받을 때 사람이 아닌 챗봇을 선호하는 응답자는 단 10%에 불과했다. 90%의 사람들은 여전히 사람을 통한 서비스를 원한다.

Stanford HAI는 2025년 말, AI 산업의 방향성에 대해 중요한 통찰을 제시했다. 연구진은 "AI 평가의 시대"가 도래했다고 선언하며, 이제는 "AI가 이것을 할 수 있는가?"가 아니라 "얼마나 잘하는가, 어떤 비용으로, 누구를 위해?"를 물어야 한다고 강조했다. 특히 서구 국가에서 AI에 대한 대중의 신뢰가 매우 낮은 시점에서, 신뢰 없이는 어떤 기술적 우수성도 의미가 없다는 것이다.

Stanford HAI의 2025 AI Index Report는 더욱 직설적이었다. "대중의 신뢰, 규제, 그리고 공평한 접근이 AI 발전 속도를 따라가지 못하고 있다." 기술은 빠르게 진화하지만, 사람들의 신뢰는 그보다 훨씬 천천히 쌓인다. 그리고 광고라는 변수가 그 신뢰를 더 빠르게 무너뜨릴 수 있다.


에필로그: 미래의 승자는 누구인가

지금은 모델의 파라미터 수와 벤치마크 점수가 경쟁 지표처럼 보인다. GPT-5가 더 똑똑할까, Gemini 3가 더 빠를까, Claude 5가 더 정확할까. 하지만 장기적으로 더 중요한 것은 신뢰의 축적이다.

10년 후, 사람들은 이렇게 물을 것이다. "이 추천은 정말 나를 위한 것인가?"

광고 수익 때문에 그 신뢰를 파는 순간, AI 에이전트는 비서가 아니라 아웃바운드 텔레마케터가 된다.

결국 미래의 승자는 가장 똑똑한 AI가 아니라, 사용자가 끝까지 믿고 자신의 고민을 털어놓을 수 있는 AI일 것이다. 2026년 슈퍼볼 광고가 던진 질문으로 돌아가 보자.


"Your AI. Whose side is it on?"(당신의 AI는 누구 편인가?) 그 답이 명확하지 않다면, 사용자는 떠날 것이다. 그리고 그들은 다시 돌아오지 않는다.



keyword
작가의 이전글생성형 AI 시대, 왜 정보보다 의미가 중요한가