<div style="line-height:1.7;color:#000000;font-size:14px;font-family:Arial"><div style="margin:0;">Hi Adapters,</div><div style="margin:0;"><br></div><div style="margin:0;">Large-scale pre-trained language models have significantly advanced the field of Natural Language Processing(NLP) in recent years. However, they are also notoriously hard to train and serve for downstream applications due to their humongous size and unbearable inference latency. Language model compression is the technique used to obtain a smaller yet competitive counterpart of the large model. In this talk, I will present an introduction on this topic, covering the two most prevalent subfields: Knowledge Distillation and Model Pruning. </div><div style="margin:0;"><br></div><div style="margin:0;">Hope you enjoy it!</div><div style="margin:0;"><br></div><div style="margin:0;"><pre style="width: 994.641px;">Time: Wed 4:00 pm
Venue: SEIEE 3-414</pre><pre style="width: 994.641px;"><div style="font-family: Arial; white-space: normal; margin: 0px;">Best Regards,</div><div style="font-family: Arial; white-space: normal; margin: 0px;">Roy</div></pre></div></div><br><br><span title="neteasefooter"><p> </p></span>