<div style="font-family: "lucida Grande", Verdana, "Microsoft YaHei";">Hello Adapters,</div><div style="font-family: "lucida Grande", Verdana, "Microsoft YaHei";"><br></div><div style=""><font style="line-height: 23.8px;" face="lucida Grande, Verdana, Microsoft YaHei">Pretrained language model has achieve success in a lot of tasks of NLP</font><font color="#0b0080" style="font-family: "lucida Grande", Verdana, "Microsoft YaHei"; line-height: 23.8px;">. Today I'm going to introduce the paper "</font><font face="lucida Grande, Verdana, Microsoft YaHei">XLNet: Generalized Autoregressive Pretraining for Language Understanding</font><font color="#0b0080" face="sans-serif">", which introduces a new pretrained lanuage model called XLNet. XLNet outperforms BERT on 20 tasks. I will briefly talk about the ideas of XLNet and compare it with BERT.</font></div><div style="font-family: "lucida Grande", Verdana, "Microsoft YaHei";"><div>Time: Wed 4:30pm</div><div>Venue: SEIEE 4-414</div><div><br></div><div>See you there!</div></div><div style="font-family: "lucida Grande", Verdana, "Microsoft YaHei";"><font color="#0b0080" face="sans-serif" style="line-height: 23.8px;"><br></font></div><div style="font-family: "lucida Grande", Verdana, "Microsoft YaHei";">Best Regards,</div><div style="font-family: "lucida Grande", Verdana, "Microsoft YaHei";">Bran<br></div>