<div style="line-height:1.7;color:#000000;font-size:14px;font-family:Arial"><div style="margin:0;">Hi Adapters,</div><div style="margin:0;"><br></div><div style="margin:0;">Large-scale pre-trained language models have significantly advanced the whole NLP community. Nevertheless, their excellent performance comes with intensive computation and tremendous parameter counts, which hinder the deployment of PLMs in resource-limited environments. There are mainly two ways to make PLMs more efficient so as to meet the practical requirement: static model compression and dynamic computation. Today I will introduce one line of research falling under the dynamic computation category: length reduction. By reducing the input length, the run-time memory and speed of PLMs can be improved. Hope you find this talk useful.</div><div style="margin:0;"><br></div><div style="margin:0;"><pre style="width: 994.641px; word-break: break-word !important;"><div style="white-space: normal !important; word-break: break-word !important;">Time: Wed 4:00 pm</div>Venue: SEIEE 3-414</pre><pre style="width: 994.641px; word-break: break-word !important;"><div style="white-space: normal; word-break: break-word !important; font-family: Arial; margin: 0px;">Best Regards,</div><div style="white-space: normal; word-break: break-word !important; font-family: Arial; margin: 0px;">Roy</div><div><br></div></pre></div></div>