<div>Hello Adapters,</div><div><br></div><div>Today I will talk about a paper: "Unified Language Model Pre-training for Natural Language Understanding and Generation". BERT reaches SOTA in many tasks. However it is mainly used in natural language understanding tasks(NLU). Because its bidirectional nature, it's difficult to applied BERT into natural language generation task(NLG). In this paper author propose a new pre-trianing method and the pre-trained model can be used in both NLU and NLG tasks directly. I think it's an alternative baseline for NLG tasks. Hope this can help you if you are doing some NLG tasks.</div><div><font color="#0b0080" face="sans-serif"><br></font></div><div><div style="  ; ; ;; ">Time: Wed 4:30pm</div><div style="  ; ; ;; ">Venue: SEIEE 3-414</div><div style="  ; ; ;; "><br></div><div style="  ; ; ;; ">See you there!</div></div><div><font color="#0b0080" face="sans-serif"><br></font></div><div><span style="  ; ; ;; ">Best Regards,</span></div><div><span style="  ; ; ;; ">Bran</span></div><div><a href="https://en.wikipedia.org/wiki/Semantic_analysis_(computational)" title=""></a></div>