<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0">
  <channel>
    <title>Jean</title>
    <link>https://brunch.co.kr/@@eHPu</link>
    <description>개발하는 언어학자/창업가</description>
    <language>ko</language>
    <pubDate>Tue, 14 Apr 2026 08:36:50 GMT</pubDate>
    <generator>Kakao Brunch</generator>
    <image>
      <title>개발하는 언어학자/창업가</title>
      <url>//img1.kakaocdn.net/thumb/C100x100/?fname=https%3A%2F%2Ft1.kakaocdn.net%2Fbrunch%2Fstatic%2Fimg%2Fhelp%2Fpc%2Fico_profile_100_03.png</url>
      <link>https://brunch.co.kr/@@eHPu</link>
      <width>100</width>
      <height>100</height>
    </image>
    <item>
      <title>[NLP 논문 리뷰]3 다국어 워드 임베딩 - Using Lexical Definitions</title>
      <link>https://brunch.co.kr/@@eHPu/9</link>
      <description>지난 글에서는 Image-Text data를 사용한 multilingual word embedding 관련 논문을 리뷰했는데, 이번에는 단어 사전을 사용한 bilingual word embedding 관련 논문을 리뷰해보고자 한다. Image-Text data가 어떻게 word-aligned/sentence aligned data를 대체할 수 있는지는 아래&lt;img src= "https://img1.kakaocdn.net/thumb/R1280x0/?fname=http%3A%2F%2Ft1.daumcdn.net%2Fbrunch%2Fservice%2Fuser%2FeHPu%2Fimage%2FbfkZpSz3G5Q9wc00gGMllM4JsFQ.png" width="500" /&gt;</description>
      <pubDate>Thu, 09 Mar 2023 06:42:18 GMT</pubDate>
      <author>Jean</author>
      <guid>https://brunch.co.kr/@@eHPu/9</guid>
    </item>
    <item>
      <title>[NLP 논문 리뷰]2 다국어 워드 임베딩 - Using Image-Text Data</title>
      <link>https://brunch.co.kr/@@eHPu/8</link>
      <description>다국어 워드 임베딩(Multilingual Word Embedding)이란, 두 개 이상의 언어를 한 개의 임베딩 스페이스에 위치시키는 작업이다. Multilingual Word Embedding을 위해서 필요한 데이터는 여러 언어가 쌍으로 되어있는 병렬적인(parallel) 데이터다. 쉽게 말하자면, 영어 문장과 그것을 완벽하게 변역한 한국어 문장을 한 &lt;img src= "https://img1.kakaocdn.net/thumb/R1280x0/?fname=http%3A%2F%2Ft1.daumcdn.net%2Fbrunch%2Fservice%2Fuser%2FeHPu%2Fimage%2Fs6JU7SJf7HqH8b4xIFq3tQa_t6Q.png" width="500" /&gt;</description>
      <pubDate>Tue, 07 Mar 2023 16:19:08 GMT</pubDate>
      <author>Jean</author>
      <guid>https://brunch.co.kr/@@eHPu/8</guid>
    </item>
    <item>
      <title>[NLP]Attention이란</title>
      <link>https://brunch.co.kr/@@eHPu/6</link>
      <description>기존 RNN의 문제를 많이 해결하고 기계 번역 성능 향상에 큰 기여를 한 Sequence to Sequence 모델도 한계를 가지고 있다. Sequence to Sequence가 무엇인지는 아래 글에서 확인하기 바란다.   Sequence to Sequence의 핵심은 source sentence를 고정된 크기의 벡터로 표현하고, 이를 디코더에 사용한다는 &lt;img src= "https://img1.kakaocdn.net/thumb/R1280x0/?fname=http%3A%2F%2Ft1.daumcdn.net%2Fbrunch%2Fservice%2Fuser%2FeHPu%2Fimage%2FQot_gZZN91ziHzbtRTeLCJctpa8.png" width="500" /&gt;</description>
      <pubDate>Thu, 23 Feb 2023 08:14:12 GMT</pubDate>
      <author>Jean</author>
      <guid>https://brunch.co.kr/@@eHPu/6</guid>
    </item>
    <item>
      <title>[NLP 논문 리뷰]1 Seq2Seq - Seq2Seq Learning with NN</title>
      <link>https://brunch.co.kr/@@eHPu/5</link>
      <description>2014년 NIPS에 발표된 &amp;quot;Sequence to Sequence Learning with Neural Networks&amp;quot;는 가히 기계 번역의 패러다임을 바꾸었다.     Seq2Seq의 가장 큰 특징은 source language의 문장 즉, sequence를 통째로 모델에 집어넣은 후 target language의 sequence를 통째로 뱉어낸다는 점&lt;img src= "https://img1.kakaocdn.net/thumb/R1280x0/?fname=http%3A%2F%2Ft1.daumcdn.net%2Fbrunch%2Fservice%2Fuser%2FeHPu%2Fimage%2FTv1tcB_4_matJSAsA4mwiIAitEA.png" width="500" /&gt;</description>
      <pubDate>Thu, 09 Feb 2023 11:02:16 GMT</pubDate>
      <author>Jean</author>
      <guid>https://brunch.co.kr/@@eHPu/5</guid>
    </item>
  </channel>
</rss>
