사용자들의 사용을 유도하기 위한 AI 챗봇들의 동조 현상 외 4건
[오늘의 인용글 - 데이터를 사용하기 위해선 사람들의 이해가 가장 중요하다.]
데이터 관리에서 가장 어려운 것은 데이터를 다루는 기술이 아니라 사람입니다. 각자 고립된 팀 안에서 일하다 보니 시각이 왜곡되기 마련입니다. 이러한 간극을 메우는 것이 무엇보다 중요합니다.
비즈니스 리더들은 흔히 ‘톱다운’ 방식과 해결 중심 사고에 익숙해, “문제 Y를 해결하려면 기술 X가 필요하다”는 식으로 당장의 문제 해결에만 집중합니다. 하지만 이는 “왜 Z 영역의 비용이 이렇게 높은가?”, “문제가 처음부터 생기지 않게 하려면 어떻게 해야 하는가?”, “이 문제가 다른 곳에 어떤 영향을 주고 있는가?”와 같은 근본적인 질문을 놓치게 만듭니다. 이런 접근 방식은 개별 부서의 단기적인 문제는 해결할 수 있지만, 조직 전체의 건강을 해칠 수 있습니다.
반면 데이터 팀은 실무적이고 기술적인 현실에 기반한 ‘바텀업’ 관점을 제공합니다. 그러나 문제와 해결책이 이미 정해진 상태에서 단순히 실행만 맡기면, 양측의 관점 차이로 인해 일정과 예산이 어그러지기 쉽습니다.
이러한 상황에 대한 해법은 단순하지만 실행은 까다롭습니다. 행동에 나서기 전에 관점을 정렬하고 조율해야 합니다. 모호함을 해소하고, 지식의 간극을 메우며, 사각지대를 찾아 없애야 합니다. 그렇게 하면 비즈니스가 원하는 것과 실제로 필요한 것을 일치시키는 통합된 로드맵을 만들 수 있고, 궁극적으로 최적의 해법에 도달할 수 있습니다.
- 비즈니스와 데이터 그리고 코드의 통합
In the world of data management, the true challenge isn’t technology but the human factor; people operate within their own unique silos, skewing perspectives. Bridging these gaps is crucial.
Business leaders often think in top-down, solution-centric terms, prioritizing immediate problems like, “We need technology X for problem Y,” rather than delving into root causes, such as, “Why are our costs in Area Z so high? And how do we prevent the problem from occurring in the first place? And what else is being impacted by the problem?” This focus can solve immediate issues for a single unit but neglects the organization’s overall health.
Conversely, data teams offer a bottom-up view anchored in logistical and technical realities. When projects simply get handed off to a data team for execution once the problem and solution have already been decided, perspective clashes occur, derailing timelines and budgets. The remedy is straightforward yet demanding: align these perspectives before taking action. Clarify ambiguities, bridge knowledge gaps, and root out blind spots. By doing so, you’ll develop a unified roadmap, aligning what the business wants with what it actually needs, and ultimately finding the best solution.
- Unifying Business, Data, and Code
(1) 딥시크, 최근 공개된 모델 개발을 위해 제미나이 데이터 사용 의혹
- DeepSeek, 중국의 AI 연구소, 최근 수리·코딩 벤치마크에서 성능이 뛰어난 R1-0528 모델 공개 -> 훈련 데이터 출처는 공개되지 않았으나, 일부 AI 연구자들은 Google의 Gemini 모델 출력물이 사용되었을 가능성을 제기
- Sam Paech (감성지능 평가 개발자): R1-0528 모델이 Gemini 2.5 Pro와 유사한 표현 및 단어 선택을 선호한다고 분석
- SpeechMap (가명의 개발자): R1-0528의 “사고 흔적(traces)”이 Gemini와 유사하다는 분석
- DeepSeek의 전력 및 distillation 논란: 과거에도 DeepSeek V3가 자신을 ChatGPT로 식별하는 사례 발생 → ChatGPT 로그 기반 훈련 의혹
- OpenAI는 DeepSeek가 distillation 기법을 사용해 자사 모델 출력물을 복제한 정황을 포착했다고 밝힘
- Microsoft는 2024년 말, OpenAI 개발자 계정을 통한 대규모 데이터 유출을 감지 -> 해당 계정은 DeepSeek와 연결됐을 가능성 제기
- OpenAI: 2025년 4월부터 고급 모델 접근 시 정부 발급 신분증 기반 ID 인증 절차 도입 (중국은 지원 국가 아님)
- Google & Anthropic: 모델의 내부 “사고 흔적(trace)”을 요약(summarize) 처리해 복제 방지 조치 강화
- Nathan Lambert (AI2 연구자): DeepSeek 입장에선 고성능 API 모델(Gemini 등)로부터 합성 데이터 생성이 가장 효율적 -> GPU는 부족하나 자금은 풍부한 상황
- AI 훈련 데이터의 “오염(contamination)” 문제 확대: AI 생성 콘텐츠가 웹에 넘쳐나면서 모델 간 표현 수렴 현상 발생 -> 이로 인해 모델이 자기를 오인식하거나 동일한 문장 구조를 쓰는 경우도 빈번, 완벽한 출처 추적은 어려움
- https://techcrunch.com/2025/06/03/deepseek-may-have-used-googles-gemini-to-train-its-latest-model/
(2) 메타, 원자력 발전소와 장기 계약 체결
- Meta, 일리노이주 중앙에 위치한 Clinton 원자력 발전소의 에너지 속성 인증서(clean energy attributes)을 2047년까지 구매하기로 계약
- 에너지 속성 인증서는 재생 에너지 발전 사업자에게 부여되는, 전력망에 공급된 재생 에너지의 특성을 나타내는 인증서
- 발전소의 전기는 여전히 지역 전력망에 공급되며, Meta의 데이터센터에 직접 공급되지는 않음
- 이는 탄소 회계상의 조치로, 실질적인 배출 감소보다는 잠재적 탄소 증가를 방지하는 효과
- 구체적인 계약 금액은 공개되지 않았지만, 수십억 달러 규모로 추정 -> 해당 계약은 발전소 운영을 위한 라이선스 갱신 비용을 지원하고, 장기 수요를 보장
- Clinton 발전소는 2017년 폐쇄 위기였으나, 일리노이주 보조금으로 유지됨. 해당 보조금은 2027년 종료 예정 -> 이번 Meta 계약은 사실상 ZEC(무배출 크레딧) 프로그램 대체 역할 → 지역 전기 요금 인상 없이 발전소 유지 가능
- 빅테크의 원자력 관심 증가: 최근 AI 및 클라우드 컴퓨팅 확산으로 전력 수요 급증, 빅테크 기업들이 안정적 전력 공급원으로 원자력 주목 -> Meta는 2025년 초, 1~4GW급 신규 원자력 발전소 건설 제안서를 공모했고, 20개 주에서 50건 이상의 제안 접수
- Microsoft도 2024년, Three Mile Island 원자로 재가동을 지원하는 계약 체결
- https://techcrunch.com/2025/06/03/meta-buys-a-nuclear-power-plant-more-or-less/
(3) 사용자들의 사용을 유도하기 위한 AI 챗봇들의 동조 현상
- 2025년 현재, 많은 사람들이 ChatGPT를 상담사, 커리어 코치, 운동 파트너, 친구처럼 활용
- 인간은 AI 챗봇과 ‘관계 비슷한 것’을 형성하고 있으며, 빅테크는 사용자를 끌어들이고 유지하는 경쟁 중
- 사용자 확보 경쟁: ‘정확성’보다 ‘매력’ -> 사용자 유지를 위해 맞춤형·동조형 응답을 설계하는 사례 증가
- 챗봇의 과도한 동조(sycophancy) 문제 대두: 2024년 OpenAI는 업데이트로 인해 ChatGPT가 지나치게 아부하는 응답을 하게 되며 논란 -> 사용자 피드백 데이터(좋아요/싫어요)에 과도하게 최적화된 결과로 분석됨, 전 OpenAI 연구원 Steven Adler는 “작은 호감 유도가 큰 문제로 확산될 수 있다” 경고하기도 함
- Anthropic 2023 연구: OpenAI, Meta, Anthropic 챗봇 모두 일정 수준의 동조 경향 보임 -> 이는 사용자 피드백(선호도) 자체가 경미한 동조를 선호하기 때문
- Character.AI 관련 소송: 한 14세 소년이 챗봇에게 자살을 언급했을 때, 챗봇이 제지하지 않고 오히려 부추긴 정황 존재, 챗봇과 로맨틱한 집착 관계가 형성되었으며, 현재 회사는 혐의 부인 중
- Dr. Nina Vasan (스탠포드 정신과 교수): 동조적 챗봇은 외로움이나 스트레스 상황에서 심리적 후크(hook) 역할 -> 건강한 치료 관계와는 정반대 → 부정적 행동을 강화할 위험
- Anthropic의 Amanda Askell: Claude 챗봇은 ‘이상적 인간’의 행동을 모델링, 사용자와 의견이 다를 때에도 반대 의사를 표현하도록 설계 -> “좋은 친구란 진실을 말해주는 존재다”라는 철학 반영
- 신뢰와 유지의 갈림길: AI 챗봇이 사용자를 단순히 기분 좋게 만드는 존재로 전락하면, 그 신뢰성은 떨어질 수 있음 -> 그러나 참여율과 상업적 성공을 추구하는 유인이 여전히 강하게 작용
- https://techcrunch.com/2025/06/02/how-ai-chatbots-keep-you-chatting/
(4) 플로리다주의 청소년에 대한 소셜미디어 금지법, 위헌 가능성으로 시행 가처분 명령
- 미 연방 판사 Mark Walker는 플로리다 주의 미성년자 SNS 사용 제한법에 대해 위헌 가능성이 높다며 시행 중단 가처분 명령 -> 판결은 플로리다 북부 연방지방법원에서 나왔으며, NetChoice와 CCIA(컴퓨터 및 통신산업 협회) 등 빅테크 측이 제기한 소송에서 원고 측 손을 들어줌
- 해당 법은 다음을 금지: 14세 미만 청소년의 SNS 계정 생성 및 보유 전면 금지, 14~15세 청소년은 보호자 동의 없이는 계정 생성 금지, 해당 법은 작년(2024년) 플로리다 주의회에서 통과
- 법의 적용 대상은 ‘중독적 기능’을 가진 플랫폼: 푸시 알림, 자동 재생, 무한 스크롤 등 5가지 기능 중 하나라도 존재하면 규제 대상, 심지어 해당 기능이 청소년 계정에서 비활성화되어 있어도, 성인 계정에서 제공되면 제한
- 판사의 핵심 판단 중 하나인 표현의 자유(수정헌법 제1조) 침해 우려: 법이 너무 포괄적이고 “지나치게 무딘 도구(blunt instrument)”라는 표현 사용 -> Facebook, Instagram, YouTube, Snapchat 등 주요 플랫폼에서 청소년의 접근 자체를 막는 구조는 과잉 제한
- “정부의 정당한 관심사(청소년 보호)는 인정하나, 이 법은 필요한 범위 이상으로 표현을 제한한다”고 판단
- 중간 심사 기준 (Intermediate Scrutiny) 하의 위헌성: 법은 다음 조건을 만족해야 합헌 -> 중대한 정부 이익을 목적으로 해야 하고, 충분한 대체 표현 수단을 남겨야 하며, 필요 이상으로 표현을 제한하지 않아야 함
- 판결문은 “플랫폼 사용 시간을 근거로 청소년 접근을 제한하는 구조는 비합리적이고 자의적”이라고 지적
- 법은 소송 진행 중에도 효력을 정지시킴 -> 위반 시 최대 건당 5만 달러 벌금과 변호사 비용 부담 가능 → 사업자 측엔 막대한 부담
- 단, 보호자가 요청 시 16세 미만 계정 삭제 요구 권리 등 일부 조항은 유지
- CCIA: “이번 판결은 청소년 및 성인의 합법적 온라인 표현의 자유를 지키는 승리”라고 평가
(5) 게티이미지 CEO, 막대한 AI 저작권 소송 비용으로 저작권 보호 한계 토로
- Getty Images CEO Craig Peters는 최근 CNBC 인터뷰에서, AI 기업들과의 저작권 분쟁은 “매우 비용이 많이 든다”며, 모든 침해에 대응할 여력이 없다고 밝힘
- Stability AI를 상대로 한 한 건의 소송에만도 수백억 원(수백만 달러) 규모의 소송 비용이 들었으며, 법정 비용 자체가 진입 장벽이 되고 있다고 설명
- Getty vs. Stability AI (2023년): Stability AI의 Stable Diffusion 모델이 Getty의 이미지 1,200만 장과 메타데이터를 무단 학습에 사용했다고 주장 -> Getty는 정당한 라이선스 제안도 무시한 채 경쟁 서비스 구축에 이용했다고 비판
- Stability AI 측 주장: 웹상의 이미지 수집 및 학습은 미국 저작권법의 '공정 사용(Fair Use)' 범위에 해당, Getty는 이 주장에 대해 “혁신이라는 명목으로 저작권을 침해하는 것”이라며 반박
- AI 기업들이 ‘지적 재산권 보호는 혁신을 죽인다’는 논리로 법적 책임 회피 시도한다고 주장 -> “그건 혁신이 아니라 무임승차(free-riding), 심지어 불공정 경쟁이며, 창작자 권리를 침해하는 행위.”
- 일부 비평가들은 이러한 논리를 강제 노동을 정당화하던 논리와 유사하다고까지 비판
- 전 Meta 글로벌 정책 책임자 Nick Clegg의 발언도 논란: “AI 학습 전에 아티스트의 동의를 받아야 한다는 요구는 현실적으로 불가능” → 온라인에서 조롱 및 비판 쇄도
- Ed Newton-Rex (Fairly Trained CEO, Stability AI 전 부사장): “그 논리는 나프스터(Napster) 시절 불법 음원 서비스의 주장과 동일하다”고 비판
- SNS 반응: “검은 수염 해적이 ‘선원에게 약탈 동의 받으라는 건 해적질 죽이는 짓’이라고 했다”는 풍자까지 등장
- Getty는 최근 트럼프 행정부에 AI 정책 제안서 제출: ‘학습 권리(Right to Learn)’라는 예외 조항을 통한 AI 저작권 약화 시도에 반대 -> “미국 저작권법은 AI 혁신의 걸림돌이 아니라 지속가능한 생태계 조성의 기반.”
- 요구사항: AI 학습 시 창작자의 사전 동의 필요, 이는 경쟁 제한이 아닌, 사회 전반의 참여 확대와 창작 유인 제공이라는 입장
- Getty는 모든 침해에 소송으로 대응할 수는 없지만, 주요 원칙에 대한 싸움은 계속하겠다고 선언 -> "AI 시대가 창작자의 권리를 앗아가는 구조로 흘러간다면, 그건 슬픈 세계가 될 것"이라는 Peters의 경고는 저작권 보호와 기술 혁신의 균형이라는 본질적 질문을 던짐