<div style="line-height:1.7;color:#000000;font-size:14px;font-family:Arial"><div style="margin: 0px; word-break: break-word !important;">Hi Adapters,</div><div style="margin: 0px; word-break: break-word !important;"><br style="word-break: break-word !important;"></div><div style="margin: 0px; word-break: break-word !important;">Prompt tunig(PT) is one popular parameter-efficient fine-tuning(PEFT) method to adapt large language models to downstream tasks. Nevertheless, its performance usually lags behind full fine-tuning and other PEFT methods(which allows updating much more parameters). To address this limitation, researchers have proposed to leverage the idea of transfer learning into prompt tuning, where the prior knowledge learned from the "source" PT process can be transferred to the "target" PT process. In this talk I will introduce two representative papers in this direction. Hope you find it useful.</div><div style="margin: 0px; word-break: break-word !important;"><br style="word-break: break-word !important;"></div><div style="margin: 0px; word-break: break-word !important;"><pre style="width: 994.641px; word-break: break-word !important;"><div style="white-space: normal !important; word-break: break-word !important;">Time: Wed 4:00 pm</div>Venue: SEIEE 3-414</pre><pre style="width: 994.641px; word-break: break-word !important;"><div style="white-space: normal; word-break: break-word !important; font-family: Arial; margin: 0px;">Best Regards,</div><div style="white-space: normal; word-break: break-word !important; font-family: Arial; margin: 0px;">Roy</div></pre></div></div>