Skip to content
Permalink
Branch: master
Find file Copy path
Fetching contributors…
Cannot retrieve contributors at this time
36 lines (24 sloc) 1.44 KB
comments title key tags
true
논문 요약: A Discourse-Aware Attention Model for Abstractive Summarization of Long Documents
201809250
ML
NLP
논문
NAACL

NAACL 2018

Word -> "Section" -> Document 순서로 계층에 따른 Attention Network

논문 링크

Introduction

Attention Mechanism만 알고 있다면 별로 어렵지 않습니다. 먼저 이 논문 설명을 보면, 저 논문의 HAN 모델은 Word -> Sentence -> Document의 계층 구조를 가진 Attentive 모델이었습니다.

여기서는 Sentence 대신 "Section"을 가진, 예를 들어 Introduction, Experiment, Conclusion 등의 Section으로 나뉘는 일반적인 논문과 같은 Document에 적용한, Word -> Section -> Document의 계층 구조의 Attentive Model을 고안한 것입니다. 다만, 여기서는 Classification이 아닌 Summarization Task에 응용하였습니다.

Model

text{:width="500px"}

Result

text{:width="400px"}

빠진 수식들은 본 논문을 보시기 바랍니닷.

You can’t perform that action at this time.