<?xml version="1.0" encoding="UTF-8"?>
<feed xmlns="http://www.w3.org/2005/Atom">
  <title>chorong</title>
  <link rel="alternate" type="text/html" href="https://brunch.co.kr/@@336G" />
  <author>
    <name>chorong92</name>
  </author>
  <subtitle>국어국문학과 경영학부를 전공하고, 약 8년간 AI대화를 디자인(대화기획/설계)했습니다. 지금은 한 회사에서 AX 기획을 하고, 데이터사이언스 석사 과정을 병행하고 있습니다.</subtitle>
  <id>https://brunch.co.kr/@@336G</id>
  <updated>2017-02-09T03:28:39Z</updated>
  <entry>
    <title>인공신경망의 종류_3-1 - Vanilla Transformer</title>
    <link rel="alternate" type="text/html" href="https://brunch.co.kr/@@336G/47" />
    <id>https://brunch.co.kr/@@336G/47</id>
    <updated>2026-03-17T05:29:55Z</updated>
    <published>2026-03-17T05:29:55Z</published>
    <summary type="html">이어서 Vanilla Transformer에 대해 추가적인 내용을 다루겠습니다. (참고로, 초기 트랜스포머 모델을 '바닐라 트랜스포머'라고 표현합니다. 바닐라는 가장 기본적인 아이스크림 맛처럼 가장 순수한 기본상태를 의미합니다.)  1. Vanilla Transformer Process 처음 발표된 트랜스포머 모델은 '문장 번역'을 목적으로 만들어졌습니다.&lt;img src= "https://img1.kakaocdn.net/thumb/R1280x0/?fname=http%3A%2F%2Ft1.kakaocdn.net%2Fbrunch%2Fservice%2Fuser%2F336G%2Fimage%2F5wtg34CGnil3lP33wGoA-WFfHTQ.png" width="500" /&gt;</summary>
  </entry>
  <entry>
    <title>인공신경망의 종류_3 - Attention Nueral Network/ Transformer</title>
    <link rel="alternate" type="text/html" href="https://brunch.co.kr/@@336G/37" />
    <id>https://brunch.co.kr/@@336G/37</id>
    <updated>2026-03-05T12:46:50Z</updated>
    <published>2026-03-05T09:00:11Z</published>
    <summary type="html">최근(Early 2026)에 업데이트된 AI모델 (Gemini 3.1 Pro, GPT-5시리즈, Claude 4.6 등)을 사용하다 보면, 이전보다 훨씬 효율적으로 바뀌었다는 것을 체감할 수 있습니다. 최근 AI모델의 공통적인 특징은 바로 MoE(Mixtral of Expert)구조를 채택하고 있다는 것인데요. 오늘은 MoE를 이해하기 전에 필요한 Atte&lt;img src= "https://img1.kakaocdn.net/thumb/R1280x0/?fname=http%3A%2F%2Ft1.kakaocdn.net%2Fbrunch%2Fservice%2Fuser%2F336G%2Fimage%2FSK7rt5jVCYooMMfzvCAhvZfrQu4.png" width="500" /&gt;</summary>
  </entry>
  <entry>
    <title>AI, 결국 데이터가 답이라는 다소 지루한 이야기 - 성공적인 AI서비스를 만들기 위한 요건</title>
    <link rel="alternate" type="text/html" href="https://brunch.co.kr/@@336G/45" />
    <id>https://brunch.co.kr/@@336G/45</id>
    <updated>2026-02-24T10:00:12Z</updated>
    <published>2026-02-24T10:00:12Z</published>
    <summary type="html">AI, 이제 모든 이야기 주제에서 AI를 거론하지 않고는 할 이야기가 없을 정도로 우리 생활 전반에 스며들었습니다. 세상이 시시각각 너무도 빠르게 변하고 있다는 이야기마저도 이제 더 이상 무의미하다는 생각이 듭니다. 기침약을 복용할 때 두 약을 같이 복용해도 되는지, 건조한 피부 타입에는 어떤 기초 화장품을 바르는게 좋을지, 고양이 보험을 들때는 어떤 보험</summary>
  </entry>
  <entry>
    <title>[Google] Prompt Engineering #2</title>
    <link rel="alternate" type="text/html" href="https://brunch.co.kr/@@336G/44" />
    <id>https://brunch.co.kr/@@336G/44</id>
    <updated>2026-01-13T09:00:10Z</updated>
    <published>2026-01-13T09:00:10Z</published>
    <summary type="html">[Google] Prompt Engineering #1에서는 2025년 2월, Google에서 발표한 Prompt Engineering의 글의 '언어모델의 구성요소'에 대해 공유드렸는데요, 이어서 프롬프트 기술에 대해 공유드리겠습니다. 이 글은 스스로 정리하기 위한 목적이기에 혹시 더 궁금하시다면 원본을 보시는 것도 좋을 것 같습니다.   Prompting</summary>
  </entry>
  <entry>
    <title>[Google] Prompt Engineering #1 - LLM모델의 구성요소 (Temperature, Top-K, Top-P)</title>
    <link rel="alternate" type="text/html" href="https://brunch.co.kr/@@336G/43" />
    <id>https://brunch.co.kr/@@336G/43</id>
    <updated>2025-10-15T09:00:18Z</updated>
    <published>2025-10-15T09:00:18Z</published>
    <summary type="html">지난 2025년 2월, Google에서 공유한 프롬프트 엔지니어링에 대한 내용을 공유합니다. AI에 관심이 많은 분들은 이미 더 잘 알고 계실 내용들이지만, 프롬프트 엔지니어링에 대한 기본적인 내용은 물론, AI가 추론하는 방법에 대해 알아야 할 기본적인(?) 내용들을 하나의 Document로 아주 정리가 잘 되어 있더라구요. 프롬프트 엔지니어링에 대한 바&lt;img src= "https://img1.kakaocdn.net/thumb/R1280x0/?fname=http%3A%2F%2Ft1.daumcdn.net%2Fbrunch%2Fservice%2Fuser%2F336G%2Fimage%2FlECdFAROqfTP_UqqyK_VEzUQe1U.png" width="500" /&gt;</summary>
  </entry>
  <entry>
    <title>The era of AI에서 인문학이 중요한 이유 - AI시대에서 잊지 말아야 할 인간의 본질</title>
    <link rel="alternate" type="text/html" href="https://brunch.co.kr/@@336G/42" />
    <id>https://brunch.co.kr/@@336G/42</id>
    <updated>2025-08-05T15:45:16Z</updated>
    <published>2025-08-05T15:36:44Z</published>
    <summary type="html">우리는 지금, 눈 한 번 감았다 뜨면 새로운 기술들이 우르르 생겨나는 시대에 살고 있습니다. ChatGPT가 처음 나왔을 때도 그렇듯, 점점 AI로 가득해지고 있는 세상에서 나의 자리는 어디인가 불현듯 조급함이 앞서기도 합니다. 확률에 기반한 챗봇부터 멀티 에이전트까지 AI와 함께한 지 어언 8년이 되어가는 제가 드리고 싶은 말씀은, 바로 '인문학'의 중요</summary>
  </entry>
  <entry>
    <title>[번역] LLM과 RAG의 차이 - 대규모언어모델 vs 검색증강생성</title>
    <link rel="alternate" type="text/html" href="https://brunch.co.kr/@@336G/39" />
    <id>https://brunch.co.kr/@@336G/39</id>
    <updated>2025-03-11T12:33:43Z</updated>
    <published>2025-02-04T05:43:29Z</published>
    <summary type="html">검색증강생성에 대해 정보를 수집하다 보니, 대규모 언어모델은&amp;nbsp;비슷하면서도 다른점이 있어 해당 글을 찾게되었습니다. 정리가 잘되어 있어 공유드려요! (더 쉬운 이해를 위해 글의 흐름은 조금 수정했습니다.) 검색증강생성(RAG)에 대해 궁금하신 분들께는 아래 글이 조금이나마 도움이 되었으면 좋겠습니다.  https://brunch.co.kr/@chorong92</summary>
  </entry>
  <entry>
    <title>인공신경망의 종류_2 - 단층퍼셉트론/다층퍼셉트론/DNN</title>
    <link rel="alternate" type="text/html" href="https://brunch.co.kr/@@336G/35" />
    <id>https://brunch.co.kr/@@336G/35</id>
    <updated>2025-01-26T12:47:31Z</updated>
    <published>2024-09-29T07:45:10Z</published>
    <summary type="html">이전 글에서 공유드렸던 인공신경망 중, '순방향신경망(FNN; Feed-Forward Neural Network)'의 대표적인 퍼셉트론(Perceptron)과 DNN(Deep Neural Network)에 대해 공유드리겠습니다.  1. 단층퍼셉트론 #입력층 #가중치 #출력층&amp;nbsp;#inputLayer #weight #outputLayer 퍼셉트론은 피드포워드신경&lt;img src= "https://img1.kakaocdn.net/thumb/R1280x0/?fname=http%3A%2F%2Ft1.daumcdn.net%2Fbrunch%2Fservice%2Fuser%2F336G%2Fimage%2FQjOUMHIPdjbwQy1-g2OsOMhQB_I.png" width="500" /&gt;</summary>
  </entry>
  <entry>
    <title>인공신경망의 종류 - ANN/CNN/RNN/LSTM</title>
    <link rel="alternate" type="text/html" href="https://brunch.co.kr/@@336G/34" />
    <id>https://brunch.co.kr/@@336G/34</id>
    <updated>2024-09-25T07:43:57Z</updated>
    <published>2024-09-24T13:58:55Z</published>
    <summary type="html">ANN(Artificial Neural Network), 인공신경망이란, 인간 두뇌의 신경망 원리와 구조를 모방하여 만든 머신러닝 알고리즘입니다. 사람이 어떤 외부의 자극을 받았을 때 반응(예를들면 뜨거운 냄비를 만졌을때 바로 손을 떼는 반응 등)하기까지 아주 찰나의 순간 우리의 몸은 많은 과정을 거칩니다. 두뇌에 '뉴런'이라는 신경세포는 어떠한 자극을 받</summary>
  </entry>
  <entry>
    <title>AI학습방법의 종류_2 - 메타학습, 전이학습(fine-tuning)</title>
    <link rel="alternate" type="text/html" href="https://brunch.co.kr/@@336G/33" />
    <id>https://brunch.co.kr/@@336G/33</id>
    <updated>2024-09-21T08:20:32Z</updated>
    <published>2024-09-21T08:17:49Z</published>
    <summary type="html">인공지능과 관련된 정보를 찾다보면, 꽤 많은 종류의 학습이 있어 혼란스러울때가 있습니다. 이전 글에서 공유드렸던 지도학습, 비지도학습, 강화학습(+RLFH)에 이어 메타학습과 전이학습에 대해 공유드리겠습니다.   1. 메타학습(Meta Learning) #인컨텍스트러닝 #퓨샷러닝 #제로샷러닝&amp;nbsp;#incontextlearning #fewshotlearning</summary>
  </entry>
  <entry>
    <title>AI학습방법의 종류&amp;nbsp; - 지도학습, 비지도학습, 강화학습, RLHF</title>
    <link rel="alternate" type="text/html" href="https://brunch.co.kr/@@336G/32" />
    <id>https://brunch.co.kr/@@336G/32</id>
    <updated>2024-09-21T08:20:16Z</updated>
    <published>2024-09-18T10:58:36Z</published>
    <summary type="html">인공지능을 학습시키는 방법에는 크게 4가지가 있습니다. 지도학습, 비지도학습, 강화학습 그리고 GPT의 주 학습방법인 인간의 피드백을 통한 강화학습(RLHF)입니다. 이 외 딥러닝의 학습방법인 '메타학습'을 포함하여 전이학습, 다중작업학습 등 여러 학습방법이 있습니다만, 다른 학습방법은 하나씩 하나씩 정리하겠습니다:)   1. 지도학습(Supervised</summary>
  </entry>
  <entry>
    <title>AI, 인공지능의 종류_2 - 음성(Voice), 영상(Image, Video), 텍스트(Text)</title>
    <link rel="alternate" type="text/html" href="https://brunch.co.kr/@@336G/31" />
    <id>https://brunch.co.kr/@@336G/31</id>
    <updated>2024-09-13T00:46:49Z</updated>
    <published>2024-09-13T00:46:49Z</published>
    <summary type="html">인공지능은 크게 3가지 분야, '음성(Voice)', '이미지를 포함한 영상(Image+Video)', '문자(Text)'로 나뉩니다. 각 분야에서 주로 사용하는 기술들이 조금씩 다른데요, 큰 흐름을 잡기 위한 것으로, 각 분야의 인공지능에서는 주로 어떤 기술들이 쓰이는지 '간략히' 공유드리겠습니다.  1. 음성(Voice) #STT #NLP Voice A</summary>
  </entry>
  <entry>
    <title>AI, 인공지능의 종류 - 머신러닝(ML)과 딥러닝(DL)의 정의</title>
    <link rel="alternate" type="text/html" href="https://brunch.co.kr/@@336G/30" />
    <id>https://brunch.co.kr/@@336G/30</id>
    <updated>2024-12-02T01:45:43Z</updated>
    <published>2024-09-11T12:15:47Z</published>
    <summary type="html">AI와 관련된 정보를 찾을 때 인공지능, 머신러닝, 딥러닝이라는 개념을 아주 많이 접하게 됩니다. 인공지능에는 어떤 종류가 있고, 어디까지 머신러닝이고 어디부터 딥러닝인지 간략히 그 정의에 대해 말씀드릴게요.  1. 인공지능이란, 인공지능이라는 말 그대로 인공적으로 만들어진 지능입니다. 인간의 사고력을 지니며 인간처럼 생각하는 것,혹은 인간의 지능을 닮은 &lt;img src= "https://img1.kakaocdn.net/thumb/R1280x0/?fname=http%3A%2F%2Ft1.daumcdn.net%2Fbrunch%2Fservice%2Fuser%2F336G%2Fimage%2FPSs9uUBpOavyl_0_DBKMig66Nrw.png" width="500" /&gt;</summary>
  </entry>
  <entry>
    <title>AI가 이토록 발전할 수 있었던 이유 - 70년전부터 연구되던 AI, 2000년 이후로 급격히 주목 받게 된 이유</title>
    <link rel="alternate" type="text/html" href="https://brunch.co.kr/@@336G/29" />
    <id>https://brunch.co.kr/@@336G/29</id>
    <updated>2024-09-10T14:26:03Z</updated>
    <published>2024-09-10T14:26:03Z</published>
    <summary type="html">1. '인공지능'이라는 말의 첫 등장, 1956년 다트머스회의 '인공지능'이라는 말은 언제 처음 쓰였을까요? 1956년, 기계가 인간처럼 학습할 수 있는지에 대한 논의가 펼쳐진 다트머스 회의에서 '앨런튜링'이라는 사람에 의해 '인공지능'이라는 말이 세상에 처음 알려지게 됩니다.&amp;nbsp;앨런튜링이 제안한 테스트 방법인&amp;nbsp;'Turing Test(튜링테스트)'를 통해 '&lt;img src= "https://img1.kakaocdn.net/thumb/R1280x0/?fname=http%3A%2F%2Ft1.daumcdn.net%2Fbrunch%2Fservice%2Fuser%2F336G%2Fimage%2Fx3qoe2JHkxbpREm1kqKqGi2PCHM.png" width="500" /&gt;</summary>
  </entry>
  <entry>
    <title>도전은 아름답잖아요. - 5년 고민 끝에 결국 지원합니다. - 특수대학원</title>
    <link rel="alternate" type="text/html" href="https://brunch.co.kr/@@336G/28" />
    <id>https://brunch.co.kr/@@336G/28</id>
    <updated>2024-09-10T12:45:19Z</updated>
    <published>2024-09-10T12:45:19Z</published>
    <summary type="html">안녕하세요. 입사 초기부터 사수분이 줄곧 제게 말씀해주셨던, 대학원 진학을 도전해보려고 합니다. 국어국문학과를 전공, 경영학부 복수전공자인 제게 이공계열 대학원 진학이라는 길이 결코 쉽지 않은 길일 줄로 압니다만,  도전은 아름답잖아요.  곧 2025년 전기 전형이 시작될텐데 지금이라도 그동안 노션에 저혼자 간직하던 개념들을 정리하면서 누군가에게도 도움이</summary>
  </entry>
  <entry>
    <title>(후기) Motivate your MZ 세미나_2편 - MZ구성원 동기부여를 위한 HR세미나</title>
    <link rel="alternate" type="text/html" href="https://brunch.co.kr/@@336G/26" />
    <id>https://brunch.co.kr/@@336G/26</id>
    <updated>2024-05-30T23:36:28Z</updated>
    <published>2024-03-10T07:44:55Z</published>
    <summary type="html">session2. 유니콘 패션 스타트업 팀장이 말하는 1 on 1으로 함께 일 잘하는 법. (현) 29cm 그로스기획 리드 서현직  두번째 세션은 12년차 마케터이자, 현 29cm에서 그로그기획 팀장으로 계신 '서현직'님이 진행해 주셨습니다. 요즘 제가 고민하고 있던 부분을 속 시원히 긁어주는 메시지를 전달해주셔서 개인적으로 기억에 참 많이 남은 세션이었습&lt;img src= "https://img1.kakaocdn.net/thumb/R1280x0.fjpg/?fname=http%3A%2F%2Ft1.daumcdn.net%2Fbrunch%2Fservice%2Fuser%2F336G%2Fimage%2Fp2VWsM17GF06t-H8L1I-JtuLYFU.heic" width="500" /&gt;</summary>
  </entry>
  <entry>
    <title>(후기) Motivate your MZ 세미나_1편 - MZ구성원 동기부여를 위한 HR세미나</title>
    <link rel="alternate" type="text/html" href="https://brunch.co.kr/@@336G/25" />
    <id>https://brunch.co.kr/@@336G/25</id>
    <updated>2024-03-07T22:00:54Z</updated>
    <published>2024-03-07T14:06:32Z</published>
    <summary type="html">얼마 전, 링크드인에서 MZ 인사관리에 대한 세미나 소식을 접했습니다. 지난 해, 팀장이라는 역할을 맡은 뒤 어떻게 하면 조금 더 나은 방향으로 이끌 수 있을까 고민이 많던 저에게 너무 반가운 소식이었지요. 신청 후, 추첨을 통해 참여할 수 있었는데 다행이 선정이 되어서 잘 다녀왔습니다:) 내용이 너무 좋아 글로 남겨두어 오래 기억하고 싶고, 또 미처 참여&lt;img src= "https://img1.kakaocdn.net/thumb/R1280x0.fjpg/?fname=http%3A%2F%2Ft1.daumcdn.net%2Fbrunch%2Fservice%2Fuser%2F336G%2Fimage%2FgQiY9OXtRPUwZegX5WbBspAIMZU.HEIC" width="500" /&gt;</summary>
  </entry>
  <entry>
    <title>요즘 개발자들 사이에서 핫한 RAG_#2 - Retrieval Augmented Generation; 검색증강생성</title>
    <link rel="alternate" type="text/html" href="https://brunch.co.kr/@@336G/23" />
    <id>https://brunch.co.kr/@@336G/23</id>
    <updated>2025-03-27T07:26:12Z</updated>
    <published>2024-01-24T05:03:26Z</published>
    <summary type="html">지난 1편에서는 RAG가 등장한 배경과 RAG의 기본적인 설명을 공유했는데요, 2편에서는 RAG가 '외부지식(정보)'를 검색할 때 어떤 프로세스로 이루어지는지에&amp;nbsp;대해 다루겠습니다.   기본적인 RAG를 넘어, 보다&amp;nbsp;복잡한 사용자 질문과 정교한 데이터소스를 다룰 때 고급기술과 전략이 필요합니다. 사용자의 질의와 관련된 외부정보를 검색하고, 답변을 하기까지 크&lt;img src= "https://img1.kakaocdn.net/thumb/R1280x0.fjpg/?fname=http%3A%2F%2Ft1.daumcdn.net%2Fbrunch%2Fservice%2Fuser%2F336G%2Fimage%2FCwuptRFWChPdRCriHoL4IWpRgsA.heic" width="500" /&gt;</summary>
  </entry>
  <entry>
    <title>요즘 개발자들 사이에서 핫한 RAG_#1 - Retrieval Augmented Generation, 검색증강생성</title>
    <link rel="alternate" type="text/html" href="https://brunch.co.kr/@@336G/22" />
    <id>https://brunch.co.kr/@@336G/22</id>
    <updated>2024-05-22T01:26:34Z</updated>
    <published>2024-01-18T07:37:52Z</published>
    <summary type="html">지금으로부터 딱 1년 전쯤, chatGPT의 등장으로 그 관심이 엄청나게 뜨거웠습니다. 1년이 지난&amp;nbsp;현재, GPT의 한계를 보완하기 위해 'RAG'라는 녀석이 등장했는데요!&amp;nbsp;요즘 개발자들 사이에서 핫하다는 RAG에 대해 알아보겠습니다. 해당 글에서는 RAG의 등장배경과 기본적인 RAG모델에 대해 다루고, 다음 글에서는 보다 심화된(advanced) RAG에&lt;img src= "https://img1.kakaocdn.net/thumb/R1280x0/?fname=http%3A%2F%2Ft1.daumcdn.net%2Fbrunch%2Fservice%2Fuser%2F336G%2Fimage%2Fxy3L5OO-_PKIkhOddwYJ5utAuEc.png" width="500" /&gt;</summary>
  </entry>
  <entry>
    <title>AI가 점점 더 똑똑해지는 이유, 학습방법의 차이_#2</title>
    <link rel="alternate" type="text/html" href="https://brunch.co.kr/@@336G/20" />
    <id>https://brunch.co.kr/@@336G/20</id>
    <updated>2023-12-28T09:35:20Z</updated>
    <published>2023-12-28T05:43:24Z</published>
    <summary type="html">지난 글에 이어 오늘 Few-shot learning에 대해 다루려고 합니다. Few-shot learning은, 딥러닝 방법의 하나로 '적은 학습데이터'를 가지고 학습하는 방법입니다. 기존의 '딥러닝'은&amp;nbsp;많은 양의 학습데이터로 학습하는 것이 일반적이었는데요 말그대로 '엄청난 양'의 학습데이터를 바탕으로 학습하다보니, 학습시간도 오래걸리고, 그 방대한 양의&lt;img src= "https://img1.kakaocdn.net/thumb/R1280x0.fjpg/?fname=http%3A%2F%2Ft1.daumcdn.net%2Fbrunch%2Fservice%2Fuser%2F336G%2Fimage%2FGkIwOOK29jr8olnKXz5e0qv_mXU.heic" width="500" /&gt;</summary>
  </entry>
</feed>
