<div style="line-height:1.7;color:#000000;font-size:14px;font-family:Arial"><pre style="width: 1610.25px; word-break: break-word !important;">Hi Adapters,

<div>Large language models(LLMs) have taken the NLP world by storm in recent years. One intriguing emergent ability of LLMs is called in-context learning(ICL), where the model learns to make prediction for a test input by conditioning on a handful</div><div>of task-specific examples without any parameter updates. Such a novel paradigm has attained much attention due to its efficiency when handling multiple downstream tasks. In this talk, I will present an introduction about ICL, including the background, </div><div>advantages compared to vanilla fine-tuning, ways to improve ICL performance, and what makes ICL work.</div><div><br></div><div>Hope you find this talk interesting and useful.</div>
Time: Wed 4:00 pm
Venue: SEIEE 3-404

Best Regards,
Roy</pre></div>