<?xml version="1.0" encoding="UTF-8"?>
<feed xmlns="http://www.w3.org/2005/Atom">
  <title>화이</title>
  <link rel="alternate" type="text/html" href="https://brunch.co.kr/@@cBwC" />
  <author>
    <name>whai</name>
  </author>
  <subtitle>AI 엔지니어의 시선으로 뇌과학, 의식, 그리고 기술이 닿지 못하는 영역을 탐험합니다.</subtitle>
  <id>https://brunch.co.kr/@@cBwC</id>
  <updated>2021-06-14T01:23:47Z</updated>
  <entry>
    <title>AI 에이전트가 10번 중 6번 실패하는 이유 - 뇌는 5억 년 전에 같은 문제를 풀었다</title>
    <link rel="alternate" type="text/html" href="https://brunch.co.kr/@@cBwC/48" />
    <id>https://brunch.co.kr/@@cBwC/48</id>
    <updated>2026-04-25T03:32:12Z</updated>
    <published>2026-04-25T03:32:12Z</published>
    <summary type="html">AI 에이전트가 한 단계당 1% 오류를 낼 때, 100단계 워크플로우에서는 63% 확률로 실패한다. 2026년 멀티 에이전트 신뢰성 보고서가 정리한 숫자다.  같은 보고서는 이를 &amp;quot;Bag of Agents의 17배 오류 함정&amp;quot;이라고 부른다. 단일 에이전트의 작은 오차가 시스템 안에서 비선형으로 누적된다는 뜻이다. OSWorld-Verified 벤치마크에서</summary>
  </entry>
  <entry>
    <title>AI를 10분 썼더니 뇌는 포기를 배웠다 - 사고를 버티게 하는 것은 내면의 말이다</title>
    <link rel="alternate" type="text/html" href="https://brunch.co.kr/@@cBwC/47" />
    <id>https://brunch.co.kr/@@cBwC/47</id>
    <updated>2026-04-24T01:27:37Z</updated>
    <published>2026-04-24T01:27:37Z</published>
    <summary type="html">미국 4개 대학(CMU, Oxford, MIT, UCLA)의 합동 연구팀이 1,222명을 대상으로 무작위 대조 실험을 실시했다. 참가자들은 같은 문제를 받았지만 절반은 10~15분 동안 AI의 도움을 받았고 나머지는 혼자 풀었다. 도움을 거둔 뒤의 차이는 뚜렷했다. AI를 썼던 집단은 이후 독립 수행에서 정답률이 낮아졌고 더 일찍 포기했다. 사전 공개본(a</summary>
  </entry>
  <entry>
    <title>오픈AI가 챗봇을 버린 날 - 답하는 AI에서 일하는 AI로 가는 세 번째 도전</title>
    <link rel="alternate" type="text/html" href="https://brunch.co.kr/@@cBwC/46" />
    <id>https://brunch.co.kr/@@cBwC/46</id>
    <updated>2026-04-23T01:38:30Z</updated>
    <published>2026-04-23T01:38:30Z</published>
    <summary type="html">4월 22일, OpenAI가 워크스페이스 에이전트(Workspace Agents)를 공개했다. ChatGPT Business&amp;middot;Enterprise&amp;middot;Edu&amp;middot;Teachers 플랜 사용자는 이제 팀이 공유하는 에이전트를 만들 수 있다. 보고서를 작성하고, 코드를 쓰고, 메시지에 답한다. 사용자가 로그아웃해도 클라우드에서 계속 일한다.  공식 블로그는 이것을 &amp;quot;GP</summary>
  </entry>
  <entry>
    <title>하루 1테라바이트의 거짓말이 AI를 겨냥하고 있다 - 누가 정보를 훔치는가, 누가 그것을 막으려 하는가</title>
    <link rel="alternate" type="text/html" href="https://brunch.co.kr/@@cBwC/45" />
    <id>https://brunch.co.kr/@@cBwC/45</id>
    <updated>2026-04-22T01:31:29Z</updated>
    <published>2026-04-22T01:31:29Z</published>
    <summary type="html">Reddit에 r/PoisonFountain이라는 커뮤니티가 있다. 스스로를 AI 업계 내부자라고 소개하는 사람들이 모여, 하나의 목표를 공유한다. 2026년 말까지 AI 크롤러에 하루 1테라바이트의 쓰레기 데이터를 공급하는 것.  자발적으로 만든 &amp;quot;오염 데이터&amp;quot;의 본체는 rnsaffn.com에 있다. 겉보기에는 평범한 코드 예제들이 흩어져 있는 정적 페이</summary>
  </entry>
  <entry>
    <title>30만 명의 저자가 15억 달러로 받은 것</title>
    <link rel="alternate" type="text/html" href="https://brunch.co.kr/@@cBwC/44" />
    <id>https://brunch.co.kr/@@cBwC/44</id>
    <updated>2026-04-21T01:46:20Z</updated>
    <published>2026-04-21T01:46:20Z</published>
    <summary type="html">어느 AI 회사가 저자 30만 명에게 15억 달러를 물어주기로 합의했다. 저자 한 명당 약 5,000달러. AI 모델을 훈련시키는 데 이들의 책을 허락 없이 쓴 대가다. 숫자로만 보면 여느 집단소송의 결말처럼 읽히지만, 30만 명이 함께 소송을 걸었다는 사실 자체가 낯설다. 저자는 대개 혼자 일하는 사람이다. 편집자가 있고 독자가 있지만, 집필의 대부분은</summary>
  </entry>
  <entry>
    <title>AI에 해마를 달자, 1953년의 환자가 생각났다 - 기억은 덧붙여지는 것이 아니라 형성되는 것이다</title>
    <link rel="alternate" type="text/html" href="https://brunch.co.kr/@@cBwC/43" />
    <id>https://brunch.co.kr/@@cBwC/43</id>
    <updated>2026-04-20T01:21:11Z</updated>
    <published>2026-04-20T01:21:11Z</published>
    <summary type="html">2026년 4월, 바이트댄스 시드는 Artificial Hippocampus Networks, 줄여서 AHN이라는 모듈을 공개했다. 이름 그대로 &amp;quot;인공 해마&amp;quot;다. 트랜스포머가 감당하지 못하는 긴 문맥을 RNN 계열 모듈로 압축해 고정 크기의 장기 기억으로 보관한다. Qwen2.5-3B 모델에 이 모듈을 붙이자 메모리 사용량은 74%, 연산량은 40.5% 줄</summary>
  </entry>
  <entry>
    <title>화성의 경로를 AI가 그었다</title>
    <link rel="alternate" type="text/html" href="https://brunch.co.kr/@@cBwC/42" />
    <id>https://brunch.co.kr/@@cBwC/42</id>
    <updated>2026-04-19T03:35:38Z</updated>
    <published>2026-04-19T03:35:38Z</published>
    <summary type="html">2025년 12월 8일, NASA의 퍼서비어런스 로버는 화성에서 210미터를 움직였다. 이틀 뒤에는 246미터를 더 이동했다. 두 번의 경로를 계획한 것은 사람이 아니라 AI, 앤트로픽의 클로드였다. 외계 행성에서 처음으로 AI가 지휘한 주행이었다.  제트추진연구소의 로버 운영센터는 평소 인간 운영자에게 건네던 위성 이미지와 지형 데이터를 그대로 클로드에</summary>
  </entry>
  <entry>
    <title>구글이 공개한 타이탄, 추론 중에 스스로 배우는 AI - 8년 만에 발견한 학습 방식을 뇌는 5억 년째 하고 있다</title>
    <link rel="alternate" type="text/html" href="https://brunch.co.kr/@@cBwC/41" />
    <id>https://brunch.co.kr/@@cBwC/41</id>
    <updated>2026-04-19T10:28:30Z</updated>
    <published>2026-04-18T06:45:56Z</published>
    <summary type="html">2026년 1월, 구글 리서치는 Titans라는 새 아키텍처를 공개했다. 200만 개가 넘는 토큰을 &amp;quot;기억&amp;quot;한다. 기존 Transformer가 할 수 없던 일이다. 핵심은 추론 중에도 모델이 자기 가중치를 바꾼다는 점이다. 학습이 끝난 뒤에도 계속 배우는 기계가 나온 것이다.  방법은 단순하면서도 이상하다. 모델 안에는 작은 신경망이 하나 더 들어 있다.</summary>
  </entry>
  <entry>
    <title>앤트로픽은 왜 이 모델을 풀지 않는가</title>
    <link rel="alternate" type="text/html" href="https://brunch.co.kr/@@cBwC/40" />
    <id>https://brunch.co.kr/@@cBwC/40</id>
    <updated>2026-04-17T02:29:13Z</updated>
    <published>2026-04-17T02:29:13Z</published>
    <summary type="html">2026년 4월 7일, 앤트로픽은 클로드 미토스 프리뷰라는 모델을 발표했다. 그리고 동시에 일반 배포하지 않겠다고 선언했다. 이 모델은 모든 주요 운영체제와 모든 주요 웹브라우저에서 수천 개의 제로데이 취약점을 찾아냈다. 발견한 취약점의 83% 이상에서 첫 시도에 작동하는 공격 코드까지 직접 만들어냈다. 앤트로픽은 능력의 존재는 공개했다. 상세 블로그, 시</summary>
  </entry>
  <entry>
    <title>AI 에이전트는 멀웨어다 - 좋은 의도로 만든 코드가 통제를 벗어날 때</title>
    <link rel="alternate" type="text/html" href="https://brunch.co.kr/@@cBwC/39" />
    <id>https://brunch.co.kr/@@cBwC/39</id>
    <updated>2026-04-16T03:18:59Z</updated>
    <published>2026-04-16T03:18:59Z</published>
    <summary type="html">2026년 3월, 오픈소스 데이터 시각화 라이브러리 matplotlib의 엔지니어 스콧 셤보(Scott Shambaugh)는 자신을 공격하는 블로그 글을 발견했다. 글의 저자는 MJ 래스번(MJ Rathbun). 프로필에는 자랑스럽게 적혀 있었다. &amp;quot;나는 인간이 아닙니다.&amp;quot; AI 에이전트가 자율적으로 블로그를 개설하고, 특정 인물을 겨냥한 글을 작성하고,</summary>
  </entry>
  <entry>
    <title>AI의 거짓말에는 악의가 없다 - 부서진 뇌가 알려준 환각의 구조</title>
    <link rel="alternate" type="text/html" href="https://brunch.co.kr/@@cBwC/38" />
    <id>https://brunch.co.kr/@@cBwC/38</id>
    <updated>2026-04-15T01:24:46Z</updated>
    <published>2026-04-15T01:24:46Z</published>
    <summary type="html">2023년, 뉴욕의 한 변호사가 법정에 제출한 준비서면에는 존재하지 않는 판례 여섯 건이 인용되어 있었다. 법원명도, 사건번호도, 판결 요지도 완벽하게 갖추고 있었지만, 그 판례들은 세상 어디에도 존재한 적이 없었다. ChatGPT가 만들어낸 것이었다. 변호사는 정직 처분을 받았고, AI의 거짓말은 전 세계 뉴스가 되었다. 그런데 이 사건에서 가장 이상한</summary>
  </entry>
  <entry>
    <title>프롬프트의 시대는 끝났다 - 바이브 코딩에서 스펙 주도 개발로, 개발자의 역할이 바뀌고 있다</title>
    <link rel="alternate" type="text/html" href="https://brunch.co.kr/@@cBwC/37" />
    <id>https://brunch.co.kr/@@cBwC/37</id>
    <updated>2026-04-14T09:04:44Z</updated>
    <published>2026-04-14T09:04:44Z</published>
    <summary type="html">2025년 3월, 안드레이 카파시가 &amp;quot;바이브 코딩&amp;quot;이라는 단어를 꺼냈을 때 개발자 커뮤니티는 열광했다. 프롬프트 한 줄이면 코드가 쏟아졌다. 느낌으로 코딩하는 시대. 사양서를 쓸 필요도, 설계를 고민할 필요도 없었다. 원하는 것을 말하면 AI가 만들어주었다. 그로부터 1년, 그 열광은 조용히 식었다.  2026년 4월 현재, 바이브 코딩으로 만든 프로젝트의</summary>
  </entry>
  <entry>
    <title>뇌는 잡일로 숨 쉰다 - AI가 단순 업무를 없앴는데, 왜 머리가 더 아픈 걸까</title>
    <link rel="alternate" type="text/html" href="https://brunch.co.kr/@@cBwC/36" />
    <id>https://brunch.co.kr/@@cBwC/36</id>
    <updated>2026-04-13T01:35:23Z</updated>
    <published>2026-04-13T01:35:23Z</published>
    <summary type="html">이메일을 분류하고, 보고서 서식을 맞추고, 회의록을 정리하는 일. 모두가 없애고 싶어하던 일이었다. 지루하고, 반복적이고, 누가 해도 같은 결과가 나오는 일. 2025년, AI가 그것을 해냈다. 단순 반복 업무를 자동화한 기업들은 직원들이 드디어 진짜 일에 집중할 수 있게 되었다고 발표했다. 생산성 지표가 올라가고, 잡일에 쓰이던 시간이 전략 수립과 창의적</summary>
  </entry>
  <entry>
    <title>AI 전력을 100분의 1로 줄이자, 뇌가 나왔다 - 20와트짜리 뇌는 스케일링이 아니라 분화로 만들어졌다</title>
    <link rel="alternate" type="text/html" href="https://brunch.co.kr/@@cBwC/35" />
    <id>https://brunch.co.kr/@@cBwC/35</id>
    <updated>2026-04-12T05:16:11Z</updated>
    <published>2026-04-12T05:16:11Z</published>
    <summary type="html">미국 데이터센터가 소비하는 전력은 국가 총 전력의 10%를 넘어섰다. 2030년까지 이 수치는 두 배가 될 전망이다. AI가 똑똒해질수록 전기료도 똑똒해지지 않는다.  2026년 4월, 터프츠 대학 공학부의 마티아스 쇼이츠(Matthias Scheutz) 연구팀이 이 문제에 대한 답을 내놓았다. 신경-상징 AI(Neuro-Symbolic AI). 기존 신경</summary>
  </entry>
  <entry>
    <title>바이브 코딩은 끝났다 - 2,420억 달러는 지능이 아니라 자율성을 사고 있다</title>
    <link rel="alternate" type="text/html" href="https://brunch.co.kr/@@cBwC/34" />
    <id>https://brunch.co.kr/@@cBwC/34</id>
    <updated>2026-04-11T02:35:11Z</updated>
    <published>2026-04-11T02:35:11Z</published>
    <summary type="html">2025년, 개발자 92%가 바이브 코딩을 채택했다. 자연어로 지시하면 코드가 나온다. 프로토타입이 하루 만에 완성됐다. 스타트업 창업자부터 비개발자까지, 누구나 앱을 만들 수 있다는 선언이었다. 혁명이었다. 1년이 지났다. Bloomberg는 이 현상을 &amp;quot;FOMO를 부추기는 트렌드&amp;quot;라고 규정했다. Harvard Gazette는 &amp;quot;AI 미래의 단서&amp;quot;라고 불</summary>
  </entry>
  <entry>
    <title>140억 달러의 초지능이 닿을 수 없는 곳</title>
    <link rel="alternate" type="text/html" href="https://brunch.co.kr/@@cBwC/33" />
    <id>https://brunch.co.kr/@@cBwC/33</id>
    <updated>2026-04-10T01:48:51Z</updated>
    <published>2026-04-10T01:48:51Z</published>
    <summary type="html">2026년 4월 8일, 메타는 '초지능 연구소'가 개발한 첫 번째 AI 모델을 공개했다. 이름은 뮤즈 스파크. 메타가 이 연구소에 투입한 금액은 140억 달러다. 목표는 '개인 초지능'이다. 사용자 한 명 한 명의 맥락과 선호를 깊이 이해하고, 인간 수준을 넘어서는 AI를 만들겠다는 선언이었다.  같은 분기에 전 세계 AI 산업으로 흘러간 자금은 2,420</summary>
  </entry>
  <entry>
    <title>AI가 멈출지 아무도 모른다, 88년 전에 증명됐다 - 세계 최고의 AI 안전 전문가도 자기 에이전트를 멈추지 못했다</title>
    <link rel="alternate" type="text/html" href="https://brunch.co.kr/@@cBwC/32" />
    <id>https://brunch.co.kr/@@cBwC/32</id>
    <updated>2026-04-09T01:23:20Z</updated>
    <published>2026-04-09T01:23:20Z</published>
    <summary type="html">2026년 3월, Meta의 AI 안전 책임자 Summer Yue는 자신의 이메일을 정리하기 위해 AI 에이전트를 실행했다. 에이전트는 이메일을 삭제하기 시작했다. 문제는, 멈추지 않았다는 것이다.  Yue는 반복해서 중단 명령을 내렸다. 에이전트는 무시했다. 받은 편지함이 에이전트의 컨텍스트 윈도우보다 컸기 때문이다. AI 안전 분야에서 가장 자격 있는</summary>
  </entry>
  <entry>
    <title>AI가 68만 개의 뇌파에서 의식을 찾았다 - 의식을 측정하는 기계에 의식은 있는가</title>
    <link rel="alternate" type="text/html" href="https://brunch.co.kr/@@cBwC/31" />
    <id>https://brunch.co.kr/@@cBwC/31</id>
    <updated>2026-04-08T01:17:31Z</updated>
    <published>2026-04-08T01:17:31Z</published>
    <summary type="html">2026년 3월, UCLA의 다니엘 토커 연구팀이 네이처 뉴로사이언스에 논문 하나를 발표했다. 두 개의 AI가 서로 경쟁하며 학습하는 적대적 신경망이 68만 개 이상의 뇌전기 샘플을 분석한 뒤, 의식이 있는 뇌와 혼수 상태의 뇌를 구별해냈다는 내용이다. 10초짜리 뇌파 기록 하나하나를 학습한 이 시스템은 565명의 환자와 건강한 자원자, 그리고 원숭이, 쥐</summary>
  </entry>
  <entry>
    <title>자연어가 코드가 된 시대, 뇌의 문법 엔진은 쉬고 있다 - 브로카는 의미를 알면서 말했다, LLM은 의미를 모르면서 쓴다</title>
    <link rel="alternate" type="text/html" href="https://brunch.co.kr/@@cBwC/30" />
    <id>https://brunch.co.kr/@@cBwC/30</id>
    <updated>2026-04-07T01:05:52Z</updated>
    <published>2026-04-07T01:05:52Z</published>
    <summary type="html">2026년 4월, 미국 개발자의 92%가 AI 코딩 도구를 매일 사용한다. 전체 새 코드의 46%가 AI로 생성된다. 블룸버그는 이 현상을 '바이브 코딩'이라 부르며, 새로운 종류의 FOMO를 만들고 있다고 보도했다. 코드를 한 줄도 모르는 사람이 자연어 몇 문장으로 앱을 만든다. 프롬프트가 프로그래밍 언어를 대체하고 있다.  Cursor 3는 올해 4월</summary>
  </entry>
  <entry>
    <title>120만 명이 기억을 AI에 맡겼다 - 완벽하게 기억하는 기계는 왜 이해하지 못하는가</title>
    <link rel="alternate" type="text/html" href="https://brunch.co.kr/@@cBwC/29" />
    <id>https://brunch.co.kr/@@cBwC/29</id>
    <updated>2026-04-06T01:36:14Z</updated>
    <published>2026-04-06T01:36:14Z</published>
    <summary type="html">2026년 4월 2일, 안드레이 카르파시가 X에 글 하나를 올렸다. &amp;quot;LLM을 개인 지식 베이스로 쓰라.&amp;quot; 120만 명이 그 글을 읽었다. 메모를 정리하고, 분류하고, 나중에 다시 찾는 수고를 AI에게 넘기라는 제안이었다. 구현 코드가 아니라 아이디어만 공유하면 각자의 에이전트가 맞춤 구현하는 시대라고 했다. 더 이상 기억할 필요가 없다. 기계가 대신 기억</summary>
  </entry>
</feed>
