<?xml version="1.0" encoding="UTF-8"?>
<feed xmlns="http://www.w3.org/2005/Atom">
  <title>Geumjae Lee</title>
  <link rel="alternate" type="text/html" href="https://brunch.co.kr/@@16xs" />
  <author>
    <name>geumjaelee</name>
  </author>
  <subtitle>Geumjae Lee의 브런치입니다.</subtitle>
  <id>https://brunch.co.kr/@@16xs</id>
  <updated>2016-01-19T14:48:01Z</updated>
  <entry>
    <title>오토인코더, 신경망, seq2seq - 세 가지 개념의 본질</title>
    <link rel="alternate" type="text/html" href="https://brunch.co.kr/@@16xs/7" />
    <id>https://brunch.co.kr/@@16xs/7</id>
    <updated>2023-08-18T15:23:08Z</updated>
    <published>2019-03-14T08:36:39Z</published>
    <summary type="html">오토인코더와 seq2seq는 인코더와 디코더로 이루어졌다는 점에서 유사해 보인다. 근데 신경망은 여기에 왜? 사실 오토인코더와 신경망의 본질이 같다. 다만 그림으로 표현하는 과정에서 헷갈림을 유발할 뿐이다. 오히려 오토인코더와 비슷할 거라고 생각되는 seq2seq는 좀 다르다. seq2seq는 오토인코더 2개를 겹쳐놓은 것이다. 천천히 설명하겠다.   오토&lt;img src= "https://img1.kakaocdn.net/thumb/R1280x0/?fname=http%3A%2F%2Ft1.daumcdn.net%2Fbrunch%2Fservice%2Fuser%2F16xs%2Fimage%2FIm_gxgg7Cm4PakKCvAgQPxPDKhA.png" width="341" /&gt;</summary>
  </entry>
  <entry>
    <title>워드 임베딩의 간략한 역사 - A BRIEF HISTORY OF WORD EMBEDDINGS</title>
    <link rel="alternate" type="text/html" href="https://brunch.co.kr/@@16xs/5" />
    <id>https://brunch.co.kr/@@16xs/5</id>
    <updated>2021-12-28T18:46:43Z</updated>
    <published>2019-03-07T09:21:37Z</published>
    <summary type="html">다음 글은 스웨덴 Gavagai사의&amp;nbsp;co-founder이자 main researches인&amp;nbsp;Magnus Sahlgre 씨의 허락을 받아 한국어로 번역한 것이며, 번역문 뒤에 있는 코멘트는 제가 작성한 글입니다. 그리고 원문 게시 시점은 2015년 09월 30일입니다. 이 글은 워드 임베딩이 왜 맥락적이라고 불리는지에 대해 이론적/역사적 뿌리를 알 수 있는 중</summary>
  </entry>
  <entry>
    <title>자연어의 피처와 전처리 - Feature and Preprocessing &amp;nbsp;for NLP</title>
    <link rel="alternate" type="text/html" href="https://brunch.co.kr/@@16xs/4" />
    <id>https://brunch.co.kr/@@16xs/4</id>
    <updated>2020-05-10T02:53:14Z</updated>
    <published>2019-03-04T12:08:38Z</published>
    <summary type="html">1. 오늘의 주제  * 왜 한국어의 자연어처리가 어려운가?  *&amp;nbsp;왜 자연어처리의 개념을 잡기가 어려운가?  *&amp;nbsp;Feature와 Label, Data는 무슨 관계인가?  *&amp;nbsp;Feature란 무엇인가?  *&amp;nbsp;자연어처리에서는 무엇이 Feature인가?전처리는 NLP에서 Feature의 추출인데, 어떻게 하는가?   2. 지도학습에서의 머신러닝 steps * 지도&lt;img src= "https://img1.kakaocdn.net/thumb/R1280x0.fjpg/?fname=http%3A%2F%2Ft1.daumcdn.net%2Fbrunch%2Fservice%2Fuser%2F16xs%2Fimage%2FnJKgu6Dq2PTPD-q7fDGh9WGYccA.JPG" width="500" /&gt;</summary>
  </entry>
  <entry>
    <title>MC(마르코프체인)과 HMM(은닉마르코프모델)의 이해</title>
    <link rel="alternate" type="text/html" href="https://brunch.co.kr/@@16xs/2" />
    <id>https://brunch.co.kr/@@16xs/2</id>
    <updated>2022-06-11T22:08:21Z</updated>
    <published>2019-03-04T11:02:13Z</published>
    <summary type="html">철지난 MC와 HMM을 왜 이제사 이해해야 하는가 싶을 것이다. 그런데 최첨단의&amp;nbsp;자연어처리를 이해함에 있어 과거의 유물을 아는 것은 현재의 알고리즘을 이해하는데 도움이 된다는 것을 알면 생각이 달라질 수 있다. 최첨단의 알고리즘은 기술적 복잡도가 상당히 올라갔기 때문에 본질을 이해하는데 어려움이 따를 수 있지만, 과거의 모델은 이런 점에서 비교적 단순하다.&lt;img src= "https://img1.kakaocdn.net/thumb/R1280x0/?fname=http%3A%2F%2Ft1.daumcdn.net%2Fbrunch%2Fservice%2Fuser%2F16xs%2Fimage%2FI4vvOU1gqYXWI1fJu1tSo5CcnjA.jpg" width="500" /&gt;</summary>
  </entry>
  <entry>
    <title>논리로 이해하는 자연어처리 - 지도 학습과 비지도 학습</title>
    <link rel="alternate" type="text/html" href="https://brunch.co.kr/@@16xs/1" />
    <id>https://brunch.co.kr/@@16xs/1</id>
    <updated>2020-04-25T12:17:52Z</updated>
    <published>2019-03-04T11:01:46Z</published>
    <summary type="html">대부분의 사람들은 자연어 처리를 알고리즘으로만 이해하려고 한다. 사실 그래서 자연어 처리가 어렵게 느껴진다. 자연어 처리의 본질은 데이터다. 엔지니어는 알고리즘만 알아서는 부족하다. 오히려 내가 처리하려는 데이터가 어떻게 생겼는지를 이해해야 한다. 데이트를 하려고 해도 이성을 다루는 기술만 배운 사람과 이성, 그 자체를 아는 사람은 다르다. 누가 연애에 성</summary>
  </entry>
  <entry>
    <title>자연어와 이미지의 피처 - 피처란 무엇인가?</title>
    <link rel="alternate" type="text/html" href="https://brunch.co.kr/@@16xs/3" />
    <id>https://brunch.co.kr/@@16xs/3</id>
    <updated>2020-02-19T13:19:07Z</updated>
    <published>2019-03-04T11:01:13Z</published>
    <summary type="html">&amp;quot;Feature는 관찰되는 현상의 개별적으로 측정 가능한 property 또는 관측된 현상에서의 charasteristic이다.&amp;quot;(영문 위키)  사실 이런 식의 정의는 성의가 없다. 과학적이지 않다. 등식의 형태가 아니기 때문이다. 등식의 형태를 띠어야 언어의 수학적 정의라고 할 수 있다. 피처만으로 설명하려니 제대로 설명이 안 된다. 피처가 어느 맥락에서&lt;img src= "https://img1.kakaocdn.net/thumb/R1280x0/?fname=http%3A%2F%2Ft1.daumcdn.net%2Fbrunch%2Fservice%2Fuser%2F16xs%2Fimage%2FhZZXsjPF6o2iuD_p5Hr6bndsziQ.png" width="500" /&gt;</summary>
  </entry>
</feed>
