<div style="line-height:1.7;color:#000000;font-size:14px;font-family:Arial"><div><a name="_olk_signature"><span lang="EN-US">Hi, Adapters, </span></a></div><div><a name="_olk_signature"><span lang="EN-US">This week I will introduce a paper from Microsoft published in 31st Jan 2019 "<i>Multi-Task Deep Neural Networks for Natural Language Understanding"</i></span></a></div><div>For many NLP task-specific tasks,  To label the task-specific data, we need very professional knowledge.  So the lack of labeled training data is a huge problem for these tasks. To solve the problem, pre-training and multi-task learning are proposed. </div><div>After Google proposed BERT in 2018, Microsoft combined BERT with a multi-task learning method to create MT-DNN. I'll introduce the architecture and training procedure in detail this week in my talk.</div><div><br></div><div>See you then!</div><div><br></div><div>Time: 17:00, April, 10</div><div>Venue: SEIEE 3-414</div><div>Best, </div><div><a name="_olk_signature"><span lang="EN-US">Zilu Guo</span></a></div></div><br><br><span title="neteasefooter"><p> </p></span>