<div style="font-family: Arial;">Hi, Adapters,</div><div style="font-family: Arial;"><br></div><div style=""><font face="Arial">For the seminar tomorrow, I will introduce a representation model which is proposed in the paper "A structed self-attentive sentence embedding" (</font><font color="#1e5494" face="ËÎÌå">https://arxiv.org/abs/1703.03130</font><font face="Arial">). </font>This paper proposes a new model for extracting an interpretable sentence embedding by introducing self-attention. Instead of using a vector, they use a 2-D matrix to represent the embedding, with each row of the matrix attending on a different part of the sentence. They also propose a self-attention mechanism and a special regularization term for the model. As a side effect, the embedding comes with an easy way of visualizing what specific parts of the sentence are encoded into the embedding. </div><div style="font-family: Arial;">Hope this model can bring you some ideas and see you tomorrow afternoon.</div><div style="font-family: Arial;"><br></div><div style="font-family: Arial;">Time: 17:00 November 14</div><div style="font-family: Arial;">Venue: SEIEE 3-517A</div><div style="font-family: Arial;"><br></div><div style="font-family: Arial;">Good night!</div><div style="font-family: Arial;">Brandon</div>