<div style="line-height:1.7;color:#000000;font-size:14px;font-family:Arial"><div style="margin:0;">Hi Adapters,</div><div style="margin:0;"><br></div><div style="margin:0;">Large language models with hundreds of millions of parameters have demonstrated superb performance across a wide variety of natural language processing tasks. However, the tremendous amount of parameters also brings challenges to training and serving in resource-constrained environments. Parameter-efficient fine-tuning(PEFT) is a relatively new and timely research area in the NLP community that aims to alleviate such inefficiency. In today's talk, I will present an introduction to some representative PEFT methods and see how model efficiency is improved.</div><div style="margin:0;">Hope you find this talk useful, especially when your computation budget is limited.</div><div style="margin:0;"><br></div><div style="margin:0;"><pre style="width: 994.641px; word-break: break-word !important;"><div style="white-space: normal !important; word-break: break-word !important;">Time: Wed 4:00 pm</div>Venue: SEIEE 3-414</pre><pre style="width: 994.641px; word-break: break-word !important;"><div style="white-space: normal; word-break: break-word !important; font-family: Arial; margin: 0px;">Best Regards,</div><div style="white-space: normal; word-break: break-word !important; font-family: Arial; margin: 0px;">Roy</div></pre></div></div>