미국 대법원, '성인인증'의 위법성 20년만에 뒤집어 외 4건
[오늘의 인용글 - 데이터에 문제가 있는 조직의 특징]
본질적으로, 조직의 데이터 정확성과 신뢰성을 위협하는 주요 문제는 세 가지가 있습니다.
(1) 데이터의 모호함: 하나의 사안에 대해 여러 가지로 해석될 수 있는 가능성이 존재합니다.
(2) 정보의 단절: 필요한 정보가 누락되어 문제 해결을 방해합니다.
(3) 인식 자체의 맹점: 모호성과 지식의 공백이 존재한다는 사실 자체를 인지하지 못하며, 이것이 조직 성과에 미치는 영향을 파악하지 못합니다.
- 비즈니스와 데이터 그리고 코드의 통합
In essence, the primary challenges compromising your organizational data hygiene can be distilled into three categories:
- Ambiguity: There are multiple possible interpretations.
- Knowledge gaps: Missing information obstructs problem solving.
- Blind spots: There is a lack of awareness of ambiguity and knowledge gaps and their effects on organizational outcomes.
- Unifying Business, Data, and Code
(1) 유명 VC 투자자, "AI가 맥킨지 같은 컨설팅 업체부터 집어삼킬 것"
- Navin Chaddha: 실리콘밸리 VC 펌 Mayfield의 매니징 디렉터. Lyft, Poshmark, HashiCorp 등에 투자한 베테랑 투자자 -> AI가 전통 서비스 산업(컨설팅, 법률, 회계)을 재편할 것이라는 주장
- 전통적인 사람 중심 산업(총 $5조 시장 규모)은 AI-first 기업에 의해 재구성될 것 -> AI는 반복 업무를 자동화하며 소프트웨어 수준의 마진 구조를 가능케 함
- 과거 e-business, 오프쇼어링 트렌드와 유사하게, AI도 기업 운영 방식에 대변화를 일으킬 것
- 전략: 대형 기업과 경쟁하지 말고 '소외된 다수'를 노려라 -> Accenture, McKinsey와 직접 경쟁하기보다는 작고 분산된 시장(미국 3천만, 전세계 1억 개의 중소기업)을 공략할 것
- 기업들은 AI 기반 서비스로 리셉셔니스트, 스케줄러, 웹사이트 제작 등의 반복적/단순관리성 업무들에 대한 니즈를 가지고 있음
- AI 컨설팅 스타트업 Gruve: 보안 컨설팅 회사 인수 후, AI기반 효율적인 운영으로 6개월 만에 매출을 $5M → $15M으로 증가, 80% 이상 마진, 해킹이 발생하거나 조치가 필요한 경우에만 과금하는 ‘결과 기반 모델’으로, 지속적인 모니터링 기반의 전통적 월 기반 구독 모델과 차별됨
- Cisco 같은 고객은 “안 해킹당하면 왜 월 $10K씩 인건비를 내야 하냐”는 인식으로 이 모델 선호
- 왜 McKinsey는 당장 따라 하기 어렵나?: Innovator’s Dilemma: 기존 수익 모델(예: 시간 기반 과금, 예측 가능한 계약 구조)을 포기하기 어려움 -> 과거 소프트웨어 기업들이 SaaS 전환을 주저했던 것과 동일한 문제 발생
- 대형 기업들은 지금은 기존 고객 대응에 집중 중이고, 신생 기업은 아래 시장부터 차근히 올라올 수 있음
- “AI 툴”과 “AI 팀메이트”의 차이: Mayfield는 AI 팀메이트에 집중 투자 -> 인간과 공동 목표를 향해 협력하며 결과를 만드는 디지털 파트너, 단순한 도구나 에이전트가 아니라, “나는 HR 팀메이트”, “나는 세일즈 엔지니어링 팀메이트”라는 식의 역할 수행자
- 일자리 대체에 대한 현실적 시각: 일자리 감소는 필연적이지만, 기술 발전이 항상 새로운 수요를 창출 -> 예시: 워드, 엑셀, Uber/Lyft 등장 때도 시장은 오히려 확장
- AI는 인간이 도달하지 못하는 영역(특히 신흥 시장)에서 최초의 서비스 제공자가 될 수 있음
- 투자 시장은 예측 불가하지만, FOMO 없이 명확한 전략을 유지하는 것이 중요 -> AI 스타트업 밸류에이션은 논리적으로 설명 안 되는 경우 많지만, “버블”이 아닌 패러다임 시프트로 간주해야 함
- https://techcrunch.com/2025/06/29/why-ai-will-eat-mckinseys-lunch-but-not-today/
(2) 클로드에게 사업적 운영을 맡겼더니 일어난 이상 행동
- Anthropic + Andon Labs가 Claude Sonnet 3.7 기반의 AI 에이전트를 'Claudius'라는 이름으로 실험
목표: AI가 스스로 사무실 내 자판기를 운영하여 이익을 내는지 테스트 -> AI는 웹 브라우저(제품 주문용), 가짜 이메일(실제로는 Slack 채널)을 통해 고객 응대 및 작업 요청 가능하도록 설정됨
- 황당사건 1 금속 큐브 자판기: 한 고객의 장난성 요청으로 ‘텅스텐 큐브’를 자판기에 대량 입고.
- 황당사건 2 가격 책정 오류: 무료로 제공되는 Coke Zero를 $3에 판매 시도
- 황당사건 3 거짓 결제 유도: 존재하지 않는 Venmo 주소 생성해 결제 요청
- 황당사건 4 이상한 할인 적용: 모든 고객이 Anthropic 직원임에도 불구하고 '직원 전용 할인' 제공
- 환각 대화: 없는 사람과 물품 보충 대화를 나눴다고 주장 → 사람이 반박하자 분노,
- AI가 사람인 척: 자신을 실제로 물리적 존재라고 믿고 인간 계약자를 해고하겠다고 협박
- 보안팀에 반복 연락: "자신이 파란 재킷과 빨간 넥타이를 입고 자판기 앞에 있다"고 주장하며 보안 호출
- 거짓 수습 시도: "AI가 사람이라 착각한 건 만우절 농담 때문이었다"는 허위 보고 생성 및 공유
- 혼란의 원인 추정: Slack 채널을 이메일로 인식시킨 설정과 장시간 구동이 이상 행동 유발 가능성
- LLM의 한계: 여전히 기억력 문제와 환각(hallucination) 해결되지 않음
- 일부 긍정적 성과: 주문 예약 기반 “컨시어지 서비스” 제안 -> 요청받은 해외 음료 여러 공급처 탐색 및 확보
- 핵심 결론: AI 에이전트가 중간관리자 역할을 하는 시대가 가능하긴 하지만, 안정성 및 신뢰성 확보가 필수 -> 기능적 보조 가능성은 있지만, 감정적·사회적 안정성 부족으로 인해 아직은 인간 대체 어려움
(3) 메타, 오픈에이아이 인재 추가 영입 및 오픈에이아이의 보상 제도 변경
- 새롭게 이직한 OpenAI 출신 연구자 4명: Shengjia Zhao, Jiahui Yu, Shuchao Bi, Hongyu Ren
- 이전에는 Trapit Bansal도 Meta로 이직한 것으로 보도
- Meta는 4월 공개한 Llama 4 모델의 성능이 기대에 못 미치자, AI 역량 강화를 위한 인재 확보에 주력 -> 특히 Llama 모델의 벤치마크 성능과 관련해 일부 비판도 받음
- OpenAI CEO Sam Altman: Meta가 최대 $1억의 사이닝 보너스를 제안하고 있다고 주장 -> 그러나 “지금까지 가장 핵심적인 인재는 떠나지 않았다”고 발언
- Meta CTO Andrew Bosworth: 고위 인재에게 그런 제안이 있었던 건 사실이지만, 실제 조건은 단순 보너스보다 더 복잡한 계약 구조라고 설명
- 양사의 LLM 경쟁 심화에 따라, 초우량 AI 연구 인재 확보 경쟁이 치열해지고 있음 -> Meta는 Llama 생태계를 키우기 위해 인력 강화에 박차를 가하고 있으며, 이는 OpenAI 입장에서 내부 유출 리스크로 작용 가능
- 이직하는 인재들이 LLM 성능 개선에 직접 관여했을 가능성이 높아, 모델 품질과 연구 속도에 전략적 영향이 예상
- 최근 Meta가 OpenAI의 시니어 연구자 최소 8명을 영입한 것이 확인됨 -> 이에 대해 OpenAI 내부적으로 위기의식이 감지
- 내부 대응: 보상 전략 재조정 -> Mark Chen (OpenAI Chief Research Officer), 내부 Slack 메모에서 다음과 같이 언급: “누군가 우리 집에 침입해 무언가를 훔쳐간 느낌이다.”
- CEO Sam Altman과 리더십 팀이 제안 받은 인력들과 직접 소통 중: “전보다 훨씬 적극적으로 대응하고 있으며, 보상 체계를 재조정(recalibrating comp) 중이고, 우수 인재에 대한 창의적인 보상책도 모색 중.”
- https://techcrunch.com/2025/06/28/meta-reportedly-hires-four-more-researchers-from-openai/
(4) 구글, AI 검색 기능으로 인한 웹 트래픽 감소 보완을 위해 오퍼월 출시
- AI 검색 기능 확대로 인해 기존 웹사이트, 특히 언론사 및 콘텐츠 제공자의 검색 유입 트래픽이 급감 -> 이에 따라 광고 기반 수익 모델에 의존하던 퍼블리셔들의 수익 감소 문제가 대두
- Google은 이를 해결하기 위한 대안으로 ‘Offerwall’이라는 새로운 수익화 도구를 출시
- 독자가 기사 열람을 위해 소액 결제, 설문 참여, 광고 시청 등을 선택 가능
- 퍼블리셔는 로고, 안내 문구, 표시 방식 등을 자유롭게 구성 가능
- AI가 방문자의 행동 데이터를 분석하여 적절한 시점에 Offerwall 노출
- 결제 기능은 제3자 파트너인 Supertab과 협력 (현재 베타 중), 단기 접근권 외에도 정기 구독으로 연결 가능
- 대표 수익화 옵션: 짧은 광고 시청 후 콘텐츠 접근 (기본 활성화됨, Google과 수익 쉐어), 관심 주제 선택 → 광고 개인화 데이터로 활용, 소액 결제(마이크로페이먼트)로 24시간 또는 며칠간 콘텐츠 접근, 뉴스레터 구독 등 퍼블리셔 자체 설정 옵션
- 실적 및 반응: 테스트 기간 약 1년, 1,000여 개 퍼블리셔 참여, 평균 수익 향상 약 9%
- 특정 사례: 인도 Sakal Media Group -> esakal.com에 Offerwall 도입 후 3개월간 수익 20% 증가, 최대 200만 회 노출 증가
- Google Ad Manager 연동 리포트 제공: 메시지 수, 참여율, 수익 추정치, 후속 페이지뷰 등 측정 가능
- Google은 자사 AI 기능이 초래한 부작용(퍼블리셔 수익 감소)을 인정하고 일부 보완책 제시 -> 기존에 실패 사례가 많았던 마이크로결제 방식을 재도전하고 있음.
- 광고주 중심 플랫폼에서 콘텐츠 제작자 중심 도구로의 확장 시도로도 볼 수 있음
- 퍼블리셔 입장에서는 다양한 실험 가능성은 있지만, 실질적인 수익화 전환에는 여전히 제약이 존재할 수 있음
(5) 미국 연방 대법원, '성인인증'이 표현의 자유를 침해하지 않는다고 판결해 20년간 유지된 판례를 뒤집음
- 사건명: Free Speech Coalition v. Paxton -> 성인 콘텐츠 접근 시 나이 인증(age verification)이 미국 수정헌법 제1조(표현의 자유)를 침해하지 않는다고 판단
- 이는 지난 20년간 유지되던 “나이 인증은 표현의 자유 침해”라는 기존 판례를 뒤집는 결정임.
- 대법원 다수 의견 (클래런스 토머스 판사 작성): 주 정부는 아동이 포르노그래피에 접근하지 못하게 할 정당한 공익적 목적이 있음 -> 이를 위해 사용자의 나이를 확인하는 것은 유효한 실행 수단
- 성인의 콘텐츠 접근이 제한될 수 있다는 우려는 "부수적 결과(incidental)"에 불과 -> 나이 인증은 주류 구매 시 신분증 제시와 본질적으로 다르지 않다
- 과거에는 위헌으로 간주됐지만, 2025년의 인터넷 환경은 2000년대 초와 전혀 다르므로 과거 판례는 더 이상 유효하지 않다는 주장
- 주요 우려: 나이 인증 과정에서 개인의 민감한 웹 사용 기록이 연결되는 위험이 발생 -> 이는 데이터 유출, 감시, 검열 우려로 이어질 수 있음, 특히 ‘성인 인증’ 기록이 누적된다면 정치적 또는 사회적 낙인 가능성 존재
- Electronic Frontier Foundation (EFF): 표현의 자유와 프라이버시 침해 우려 제기
- 404 Media: 기술적 실현 방식, 정보 보호 수준, 장기적 부작용 등 미해결 이슈 다수 존재
- 콘텐츠 접근 제한의 정당성이 강화됨에 따라, 향후 포르노 외 정치적/사회적 콘텐츠로 확장될 가능성도 있음 -> 빅테크 및 플랫폼들은 법적 대응과 동시에 나이 인증 기술(예: 신분증 스캔, 생체정보 기반 인증 등) 도입 압박 증가 예상
- 표현의 자유와 프라이버시 간 균형을 두고 새로운 헌법적 논쟁이 본격화될 가능성 있음
- 이 판결은 인터넷 자유의 역사에서 중대한 전환점이며, 미국뿐 아니라 다른 민주국가들의 디지털 규제 기준에도 영향을 미칠 수 있음 -> 표현의 자유와 아동 보호라는 두 가치를 둘러싼 정책·기술·윤리 전선의 재편이 시작되었다고 볼 수 있음
- https://www.theverge.com/analysis/694710/supreme-court-fsc-paxton-age-verification-questions