딥시크, 로컬 실행 시에도 검열 유지 외 3건
[오늘의 인용글 - 조직의 성공은 신뢰가 기반]
빌은 리더십이 우수한 관리 역량의 결과로서 발전하는 것이라고 생각했습니다. “어떻게 사람들을 하나로 모으고, 그들이 당신의 환경에서 성장할 수 있도록 도울 수 있을까요? 독재자가 되는 것으로는 안 됩니다. 그냥 ‘이렇게 하라’고 지시하는 것으로도 안 됩니다. 중요한 것은, 그들이 당신과 함께 있는 것만으로도 가치 있다고 느끼게 만드는 것입니다. 경청하세요. 집중하세요. 훌륭한 관리자라면 반드시 그렇게 해야 합니다.”
하버드 비즈니스 스쿨의 교수이자 관리 및 신임 관리자에 대한 연구를 수행하는 린다 힐도 독재적인 태도가 효과적이지 않다는 점에 동의했습니다. 그녀는 2007년 저서에서 다음과 같이 썼습니다. “신임 관리자들은 머지 않아 깨닫게 될 겁니다. 부하 직원에게 단순히 지시를 내린다고 해서 그들이 반드시 따르는 것은 아니라는 사실을 말이죠. 사실, 직원이 유능할수록 지시를 그대로 따를 가능성은 오히려 낮아집니다.” 그녀는 이렇게 결론지었습니다. “관리자의 권위는 부하 직원, 동료, 그리고 상사와의 관계 속에서 신뢰를 구축할 때 비로소 형성됩니다.”
또 다른 연구에 따르면, 사람들은 권위적인 관리 스타일에 단순히 반감을 가지는 것에 그치지 않고, 아예 그 팀을 떠날 가능성이 더 높다고 합니다.
Bill felt that leadership was something that evolved as a result of management excellence. “How do you bring people around and help them flourish in your environment? It’s not by being a dictator. It’s not by telling them what the hell to do. It’s making sure that they feel valued by being in the room with you. Listen. Pay attention. This is what great managers do.”
Harvard Business School professor Linda Hill, who studies management and first-time managers in particular, agrees that being a dictator doesn’t work. She wrote in 2007, “New managers soon learn ... that when direct reports are told to do something, they don’t necessarily respond. In fact, the more talented the subordinate, the less likely she is to simply follow orders.” A manager’s authority, she concludes, “emerges only as the manager establishes credibility with subordinates, peers, and superiors.”
Another study concludes that people don’t just chafe against an authoritarian management style, but are also more likely to leave the team altogether!
(1) 앤스로픽 CEO, 오픈에이아이 저작권 소송 관련 증언 회피 시도
- Anthropic의 CEO 다리오 아모데이(Dario Amodei)가 OpenAI를 상대로 한 저작권 소송에서 증언(Deposition)을 회피하려 한다는 법원 문서가 공개
- 소송 주체: Authors Guild (대표 작가: 존 그리샴, 조지 R.R. 마틴, 실비아 데이 등), OpenAI가 저작권이 있는 자료로 ChatGPT를 훈련했다는 혐의
- Authors Guild 측은 아모데이와 벤자민 만(Benjamin Mann, Anthropic 공동 창업자)이 OpenAI 재직 당시의 내부 정보를 가지고 있을 가능성이 크다고 주장
- 아모데이 변호인단: "CEO 일정이 너무 바빠 증언이 불가능하다" (Apex Doctrine 원칙 주장)
- 만 변호인단: 증언 시간을 4시간으로 제한해야 하며, 가족 건강 문제를 이유로 증언 연기 요청, 만은 추가로 '증언 면제 요청(Motion to Quash)' 제출
- 법원이 소환장을 강제할지 여부가 핵심
- Authors Guild 측이 증언을 강제할 경우, OpenAI 내부 훈련 데이터 활용 방식이 공개될 가능성
- OpenAI는 현재 약 400억 달러(약 53조 원) 투자 유치 논의 중, 법적 문제 확대 시 기업 가치에 영향 가능성
(2) 일론 머스크, 미국 정부의 여러 기관에 깊숙하게 관여하여 안보 우려
- 정부 기관 장악: 머스크의 팀은 인사관리처(OPM), 재무부, 총무청(GSA) 등 여러 연방 기관의 내부 운영을 통제
- 재무부 갈등: 재무부의 최고위 경력 공무원이 머스크의 '정부 효율성 부서(DOGE)'와의 충돌로 부서를 떠났습니다. 머스크의 팀은 사회보장 및 메디케어와 같은 프로그램에 연간 6조 달러 이상을 지급하는 시스템에 접근하려 했음
- 인사관리처 접근 제한: 머스크의 보좌관들이 수백만 명의 연방 직원들의 개인 데이터가 포함된 컴퓨터 시스템에 대해 경력 공무원들의 접근을 차단
- USAID 폐쇄 시도: 머스크는 미국 국제개발처(USAID)를 '범죄 조직'이라고 비판하며, 해당 기관의 폐쇄를 추진하고 있습니다. 이에 따라 USAID 직원들은 본부에 출입하지 말라는 지시를 받았으며, 기관의 웹사이트와 소셜 미디어 계정도 비활성화
- 개인 정보 보호 우려: DOGE 팀이 민감한 개인 정보와 정부 계약자에 대한 세부 정보를 포함한 데이터에 접근, 이러한 정보의 오용 가능성에 대한 우려가 제기
- 민주당의 우려: 민주당 의원들은 머스크의 이러한 행동을 '쿠데타'로 규정하며, 헌법적 위기를 초래할 수 있다고 경고, 그들은 머스크가 의회의 승인 없이 연방 자금을 통제하려 한다고 비판
(3) 오픈에이아이, 연구를 돕는 AI 에이전트 '딥 리서치' 공개
- OpenAI가 "Deep Research"라는 새로운 AI 에이전트를 공개 -> 복잡하고 심층적인 연구를 지원하는 ChatGPT 기능으로, 단순 요약이 아닌 다양한 출처를 참고한 심층 분석이 가능하도록 설계
- 대상 사용자: 금융, 과학, 정책, 엔지니어링 등 집중적인 지식 작업이 필요한 전문가
- 활용 가능 분야: 심층 연구 및 데이터 분석, 자동차 등 고가 구매 결정을 위한 비교 분석, 사용자 업로드 파일(스프레드시트 포함)과 통합 분석 가능
- ChatGPT Pro 사용자에게 즉시 제공, 월 100회 쿼리 제한
- Plus 및 Team 사용자(1개월 내 출시 예정) → 이후 Enterprise 확대
- 신뢰도 문제: 출처가 명확하지 않거나, 루머를 권위 있는 정보로 착각할 가능성, 확신이 부족한 정보도 확정적인 어조로 전달 가능, 보고서 및 인용 형식 오류 발생 가능
- 구글과의 경쟁: 구글도 유사한 ‘Deep Research’ AI 기능을 2개월 전에 발표, 업계 전반적으로 AI 기반 연구 지원 기능 확산 중
- 단순 챗봇이 아닌 'AI 연구 도구'로 발전하는 OpenAI의 방향성을 보여주는 사례
- 전문가들에게 유용할 가능성이 높지만, 정보 신뢰성 문제는 여전히 해결 과제
- AI 기반 연구 보조 기능이 점점 더 정교해지고 있는 흐름 반영
- https://techcrunch.com/2025/02/02/openai-unveils-a-new-chatgpt-agent-for-deep-research/
(4) 딥시크, 로컬 실행 시에도 검열 유지되는 것으로 밝혀져
- DeepSeek AI 모델이 로컬에서 실행되더라도 여전히 검열이 존재한다는 사실이 밝혀짐
- 일부 사용자들은 DeepSeek의 검열이 애플리케이션 계층에서만 적용되며, 로컬에서 실행하면 해제될 것이라고 추측했으나 이는 사실이 아님
- Wired의 조사에 따르면, 검열은 모델의 애플리케이션 계층뿐만 아니라 훈련 데이터 자체에도 적용됨
- DeepSeek의 "추론(reasoning)" 기능을 통해 검열 정책이 드러남: 문화대혁명 관련 질문 → “언급을 피해야 한다”는 모델의 내부 지침 노출
- 중국 공산당과 관련된 긍정적인 정보만 제공하도록 학습된 것으로 보임
- TechCrunch의 테스트 결과: 켄트 주립대 총격 사건(미국) → 정상적으로 응답, 1989년 톈안먼 사건(중국) → "답변할 수 없다"는 반응
- DeepSeek의 검열 정책이 모델 훈련 데이터 및 시스템 설계에 내재되어 있음 -> 즉, 로컬에서 실행해도 검열 해제 불가능
- 이는 기존의 AI 모델(예: ChatGPT, Claude 등)이 클라우드 기반 검열을 적용하는 방식과 다름
- 중국 AI 모델의 투명성 및 신뢰성 문제: AI 모델이 특정한 정치적·역사적 정보를 제한하는 것이 글로벌 AI 시장에서 논란이 될 가능성 -> 사용자들이 로컬 실행을 통해 검열을 우회할 수 있다는 기대가 깨짐
- https://techcrunch.com/2025/02/03/no-deepseek-isnt-uncensored-if-you-run-it-locally/