<div style="font-family: "lucida Grande", Verdana, "Microsoft YaHei"; line-height: 23.8px;">Hi Adapters,</div><div style="font-family: "lucida Grande", Verdana, "Microsoft YaHei"; line-height: 23.8px;"><br></div><div style="font-family: "lucida Grande", Verdana, "Microsoft YaHei"; line-height: 23.8px;">I will giv<font editorwarp__="1" style="line-height: 23.8px; display: inline;">e a talk about paper  "</font><font editorwarp__="1" style="line-height: 23.8px; display: inline; font-family: Verdana; background-color: rgba(0, 0, 0, 0);"> 
<span class="fontstyle0">Entity Commonsense Representation for Neural Abstractive Summarization</span> "</font><font editorwarp__="1" style="line-height: 23.8px; display: inline;"> which is accepted by naacl 2018.</font></div><div style="font-family: "lucida Grande", Verdana, "Microsoft YaHei"; line-height: 23.8px;"><font editorwarp__="1" style="line-height: 23.8px; display: inline;"><br></font></div><div style="font-family: "lucida Grande", Verdana, "Microsoft YaHei"; line-height: 23.8px;"><font editorwarp__="1" style="line-height: 23.8px; display: inline; font-family: Verdana; background-color: rgba(0, 0, 0, 0);">In this paper, they</font><span style="font-family: Verdana;"> use an off-the-shelf entity </span><span style="font-family: Verdana;">linking system (ELS) to extract linked entities </span><span class="fontstyle0" style="font-family: Verdana;">and propose </span><span class="fontstyle2" style="font-family: Verdana;">Entity2Topic (E2T)</span><span class="fontstyle0" style="font-family: Verdana;">, a module </span><span style="font-family: Verdana;">easily attachable to a sequence-to-sequence </span><span style="font-family: Verdana;">model that transforms a list of entities into a </span><span style="font-family: Verdana;">vector representation of the topic of the summary. </span></div><span class="fontstyle0" style="font-family: "lucida Grande", Verdana, "Microsoft YaHei";"><div><span class="fontstyle0">By applying E2T to a simple sequenceto-sequence model with attention mechanism as base model, we see significant improvements of the performance in the Gigaword (sentence to title) and CNN (long document to multi-sentence highlights) summarization datasets by at least 2 ROUGE points.</span> </div></span><div style="font-family: "lucida Grande", Verdana, "Microsoft YaHei";"><div><div style="line-height: 23.8px;"><font editorwarp__="1" style="line-height: 23.8px; display: inline;"><br></font></div><font editorwarp__="1" style="line-height: 23.8px; display: inline;"></font><div style="line-height: 23.8px;"><span style="font-family: arial, helvetica, sans-serif; font-size: 16px; line-height: 27.2px;">Time: 16:30 October 15</span><br style="font-family: arial, helvetica, sans-serif; font-size: 16px; line-height: 27.2px;"><span style="font-family: arial, helvetica, sans-serif; font-size: 16px; line-height: 27.2px;">Venue: SEIEE 3-414</span></div><div style="line-height: 23.8px;"><span style="font-family: arial, helvetica, sans-serif; font-size: 16px; line-height: 27.2px;"><br></span></div><div style="line-height: 23.8px;"><span style="line-height: 1.5;">Best,</span></div><div style="line-height: 23.8px;"><span style="line-height: 1.5;">Yizhu</span></div></div></div>