<div><span style="font-family: "lucida Grande", Verdana, "Microsoft YaHei";">Hi Adapters, </span><br style="font-family: "lucida Grande", Verdana, "Microsoft YaHei";"><br style="font-family: "lucida Grande", Verdana, "Microsoft YaHei";"><span style="font-family: "lucida Grande", Verdana, "Microsoft YaHei";">In the weekly seminar tomorrow, I'll give a talk on Convolutional sequence to sequence learning. </span><span style="font-family: "Lucida Grande", helvetica, arial, verdana, sans-serif; font-size: 14.4px;">The prevalent approach to sequence to sequence learning maps an input sequence to a variable length output sequence via recurrent neural networks. I will introduce an architecture based entirely on convolutional neural networks. Compared to recurrent models, computations over all elements can be fully parallelized during training and optimization is easier since the number of non-linearities is fixed and independent of the input length. CNN seq2seq outperforms the accuracy of the deep LSTM setup of Wu et al. (2016) on both WMT'14 English-German and WMT'14 English-French translation at an order of magnitude faster speed, both on GPU and CPU.</span><br style="font-family: "lucida Grande", Verdana, "Microsoft YaHei";"><br style="font-family: "lucida Grande", Verdana, "Microsoft YaHei";"><br style="font-family: "lucida Grande", Verdana, "Microsoft YaHei";"><span style="font-family: "lucida Grande", Verdana, "Microsoft YaHei";">There are several sources that you can refer to:</span><br style="font-family: "lucida Grande", Verdana, "Microsoft YaHei";"><br style="font-family: "lucida Grande", Verdana, "Microsoft YaHei";"><span style="font-family: "lucida Grande", Verdana, "Microsoft YaHei";">1. </span><span style="background-color: rgba(0, 0, 0, 0); font-family: "lucida Grande", Verdana, "Microsoft YaHei";">Convolutional Sequence to Sequence Learning </span><span style="font-family: "lucida Grande", Verdana, "Microsoft YaHei";">https://arxiv.or</span><span style="font-family: "lucida Grande", Verdana, "Microsoft YaHei";">g/abs/1705.031</span><span style="font-family: "lucida Grande", Verdana, "Microsoft YaHei";">22</span></div><div><br style="font-family: "lucida Grande", Verdana, "Microsoft YaHei";"><span style="font-family: "lucida Grande", Verdana, "Microsoft YaHei";">2. </span>Language modeling with gated linear units https://arxiv.org/abs/1612.08083<br style="font-family: "lucida Grande", Verdana, "Microsoft YaHei";"><br style="font-family: "lucida Grande", Verdana, "Microsoft YaHei";"><span style="font-family: "lucida Grande", Verdana, "Microsoft YaHei";">3. </span>Deep Residual Learning for Image Recognition https://arxiv.org/abs/1512.03385<br style="font-family: "lucida Grande", Verdana, "Microsoft YaHei";"><br style="font-family: "lucida Grande", Verdana, "Microsoft YaHei";"><br style="font-family: "lucida Grande", Verdana, "Microsoft YaHei";"><br style="font-family: "lucida Grande", Verdana, "Microsoft YaHei";"><span style="font-family: "lucida Grande", Verdana, "Microsoft YaHei";">Time: Wed 5:00 pm</span><br style="font-family: "lucida Grande", Verdana, "Microsoft YaHei";"><span style="font-family: "lucida Grande", Verdana, "Microsoft YaHei";">Venue: Room 3-517</span><br style="font-family: "lucida Grande", Verdana, "Microsoft YaHei";"><br style="font-family: "lucida Grande", Verdana, "Microsoft YaHei";"><span style="font-family: "lucida Grande", Verdana, "Microsoft YaHei";">See you then!</span><br style="font-family: "lucida Grande", Verdana, "Microsoft YaHei";"><br style="font-family: "lucida Grande", Verdana, "Microsoft YaHei";"><span style="font-family: "lucida Grande", Verdana, "Microsoft YaHei";">Best,</span><br style="font-family: "lucida Grande", Verdana, "Microsoft YaHei";"><span style="font-family: "lucida Grande", Verdana, "Microsoft YaHei";">Yizhu</span></div>