<?xml version="1.0" encoding="UTF-8"?>
<feed xmlns="http://www.w3.org/2005/Atom">
  <title>Jean</title>
  <link rel="alternate" type="text/html" href="https://brunch.co.kr/@@eHPu" />
  <author>
    <name>jean</name>
  </author>
  <subtitle>개발하는 언어학자/창업가</subtitle>
  <id>https://brunch.co.kr/@@eHPu</id>
  <updated>2022-10-15T02:27:47Z</updated>
  <entry>
    <title>[NLP 논문 리뷰]3 다국어 워드 임베딩 - Using Lexical Definitions</title>
    <link rel="alternate" type="text/html" href="https://brunch.co.kr/@@eHPu/9" />
    <id>https://brunch.co.kr/@@eHPu/9</id>
    <updated>2023-03-09T13:48:36Z</updated>
    <published>2023-03-09T06:42:18Z</published>
    <summary type="html">지난 글에서는 Image-Text data를 사용한 multilingual word embedding 관련 논문을 리뷰했는데, 이번에는 단어 사전을 사용한 bilingual word embedding 관련 논문을 리뷰해보고자 한다. Image-Text data가 어떻게 word-aligned/sentence aligned data를 대체할 수 있는지는 아래&lt;img src= "https://img1.kakaocdn.net/thumb/R1280x0/?fname=http%3A%2F%2Ft1.daumcdn.net%2Fbrunch%2Fservice%2Fuser%2FeHPu%2Fimage%2FbfkZpSz3G5Q9wc00gGMllM4JsFQ.png" width="500" /&gt;</summary>
  </entry>
  <entry>
    <title>[NLP 논문 리뷰]2 다국어 워드 임베딩 - Using Image-Text Data</title>
    <link rel="alternate" type="text/html" href="https://brunch.co.kr/@@eHPu/8" />
    <id>https://brunch.co.kr/@@eHPu/8</id>
    <updated>2023-03-08T00:27:13Z</updated>
    <published>2023-03-07T16:19:08Z</published>
    <summary type="html">다국어 워드 임베딩(Multilingual Word Embedding)이란, 두 개 이상의 언어를 한 개의 임베딩 스페이스에 위치시키는 작업이다. Multilingual Word Embedding을 위해서 필요한 데이터는 여러 언어가 쌍으로 되어있는 병렬적인(parallel) 데이터다. 쉽게 말하자면, 영어 문장과 그것을 완벽하게 변역한 한국어 문장을 한 &lt;img src= "https://img1.kakaocdn.net/thumb/R1280x0/?fname=http%3A%2F%2Ft1.daumcdn.net%2Fbrunch%2Fservice%2Fuser%2FeHPu%2Fimage%2Fs6JU7SJf7HqH8b4xIFq3tQa_t6Q.png" width="500" /&gt;</summary>
  </entry>
  <entry>
    <title>[NLP]Attention이란</title>
    <link rel="alternate" type="text/html" href="https://brunch.co.kr/@@eHPu/6" />
    <id>https://brunch.co.kr/@@eHPu/6</id>
    <updated>2023-08-28T04:26:03Z</updated>
    <published>2023-02-23T08:14:12Z</published>
    <summary type="html">기존 RNN의 문제를 많이 해결하고 기계 번역 성능 향상에 큰 기여를 한 Sequence to Sequence 모델도 한계를 가지고 있다. Sequence to Sequence가 무엇인지는 아래 글에서 확인하기 바란다.   Sequence to Sequence의 핵심은 source sentence를 고정된 크기의 벡터로 표현하고, 이를 디코더에 사용한다는 &lt;img src= "https://img1.kakaocdn.net/thumb/R1280x0/?fname=http%3A%2F%2Ft1.daumcdn.net%2Fbrunch%2Fservice%2Fuser%2FeHPu%2Fimage%2FQot_gZZN91ziHzbtRTeLCJctpa8.png" width="500" /&gt;</summary>
  </entry>
  <entry>
    <title>[NLP 논문 리뷰]1 Seq2Seq - Seq2Seq Learning with NN</title>
    <link rel="alternate" type="text/html" href="https://brunch.co.kr/@@eHPu/5" />
    <id>https://brunch.co.kr/@@eHPu/5</id>
    <updated>2023-02-10T05:36:42Z</updated>
    <published>2023-02-09T11:02:16Z</published>
    <summary type="html">2014년 NIPS에 발표된 &amp;quot;Sequence to Sequence Learning with Neural Networks&amp;quot;는 가히 기계 번역의 패러다임을 바꾸었다.     Seq2Seq의 가장 큰 특징은 source language의 문장 즉, sequence를 통째로 모델에 집어넣은 후 target language의 sequence를 통째로 뱉어낸다는 점&lt;img src= "https://img1.kakaocdn.net/thumb/R1280x0/?fname=http%3A%2F%2Ft1.daumcdn.net%2Fbrunch%2Fservice%2Fuser%2FeHPu%2Fimage%2FTv1tcB_4_matJSAsA4mwiIAitEA.png" width="500" /&gt;</summary>
  </entry>
</feed>
