<meta http-equiv="Content-Type" content="text/html; charset=GB18030"><div style="font-family: Arial; margin: 0px;">Hi Adapters,</div><div style="font-family: Arial; margin: 0px;"><br></div><div style="font-family: Arial; margin: 0px;">Pretraining + finetuning paradigm has brought large improvements for many natural language processing tasks. However, if there is not enough training data, the performance of the model will be poor. Prompt-based learning is based on language models that model the probability of text directly. By defining a new prompting function the model is able to perform few-shot or even zero-shot learning, adapting to new scenarios with few or no labeled data. I will present an brief introduction on prompt-based learning.</div><div style="font-family: Arial; margin: 0px;"><br></div><div style="font-family: Arial; margin: 0px;">Hope you enjoy it!</div><div style="font-family: Arial; margin: 0px;"><br></div><div style="font-family: Arial; margin: 0px;"><pre style="line-height: 23.8px; width: 994.641px;">Time: Wed 4:00 pm
Venue: SEIEE 3-414</pre><pre style="line-height: 23.8px; width: 994.641px;"><div style="font-family: Arial; white-space: normal; margin: 0px;">Best Regards,</div><div style="font-family: Arial; white-space: normal; margin: 0px;">Bran</div></pre></div>