<div><div style="font-family: "lucida Grande", Verdana, "Microsoft YaHei"; line-height: 23.8px;">Hi Adapters,</div><div style="font-family: "lucida Grande", Verdana, "Microsoft YaHei"; line-height: 23.8px;"><br></div><div style="font-family: "lucida Grande", Verdana, "Microsoft YaHei"; line-height: 23.8px;">I will giv<font editorwarp__="1" style="line-height: 23.8px; display: inline;">e a talk about paper  "Adapting the Neural Encoder-Decoder Framework from Single to Multi-Document Summarization" which is accepted by emnlp 2018.</font></div><div style="font-family: "lucida Grande", Verdana, "Microsoft YaHei"; line-height: 23.8px;"><font editorwarp__="1" style="line-height: 23.8px; display: inline;"><br></font></div><div style="font-family: "lucida Grande", Verdana, "Microsoft YaHei"; line-height: 23.8px;"><font editorwarp__="1" style="line-height: 23.8px; display: inline;">Generating a text abstract from a set of documents remains a challenging task. The neural
encoder-decoder framework has recently been
exploited to summarize single documents, but
its success can in part be attributed to the availability of large parallel data automatically acquired from the Web. In contrast, data
for multi-document summarization are scarce
and costly to obtain. There is a pressing need
to adapt an encoder-decoder model trained on
single-document summarization data to work
with multiple-document input. In this paper,
we present an initial investigation into a novel
adaptation method. It exploits the maximal
marginal relevance method to select representative sentences from multi-document input,
and leverages an abstractive encoder-decoder
model to fuse disparate sentences to an abstractive summary. The adaptation method is
robust and itself requires no training data. Our
system compares favorably to state-of-the-art
extractive and abstractive approaches judged
by automatic metrics and human assessors.</font></div><div style="font-family: "lucida Grande", Verdana, "Microsoft YaHei"; line-height: 23.8px;"><font editorwarp__="1" style="line-height: 23.8px; display: inline;"><br></font></div><font editorwarp__="1" style="line-height: 23.8px; font-family: "lucida Grande", Verdana, "Microsoft YaHei"; display: inline;"></font><div style="font-family: "lucida Grande", Verdana, "Microsoft YaHei"; line-height: 23.8px;"><span style="font-family: arial, helvetica, sans-serif; font-size: 16px; line-height: 27.2px;">Time: 17:00 March 27</span><br style="font-family: arial, helvetica, sans-serif; font-size: 16px; line-height: 27.2px;"><span style="font-family: arial, helvetica, sans-serif; font-size: 16px; line-height: 27.2px;">Venue: SEIEE 3-414</span></div><div style="font-family: "lucida Grande", Verdana, "Microsoft YaHei"; line-height: 23.8px;"><span style="font-family: arial, helvetica, sans-serif; font-size: 16px; line-height: 27.2px;"><br></span></div><div style="font-family: "lucida Grande", Verdana, "Microsoft YaHei"; line-height: 23.8px;"><span style="line-height: 1.5;">Best,</span></div><div style="font-family: "lucida Grande", Verdana, "Microsoft YaHei"; line-height: 23.8px;"><span style="line-height: 1.5;">Yizhu</span></div></div>