<div>Hi, adapters,</div><div><br></div><div>Today I'm going to introduce the paper published in EMNLP18 "<span style="font-size: 14px;">Paragraph-level Neural Question Generation
with Maxout Pointer </span><span style="font-size: 14px;">and Gated Self-attention Networks". In this paper, the authors addressed the </span>problem that LSTM will forget something when the paragraph is too long, and they also addressed the sequence repetition problem with "Maxout Pointer".</div><div><br></div><div>Kelsey</div><div><br></div><div>Paper link: http://aclweb.org/anthology/D18-1424</div>