<div style="line-height:1.7;color:#000000;font-size:14px;font-family:Arial"><pre style="width: 1610.25px; word-break: break-word !important;">Hi Adapters,</pre><pre style="width: 1610.25px; word-break: break-word !important;"><span style="white-space: normal;">The striking language skills and world knowledge embedded in large pre-trained language models have recently led to in-context learning, where the model learns to make a prediction for a test input by conditioning on a handful </span>of task-specific examples without any parameter updates. However, performance has been shown to strongly depend on the selected training examples (demonstrations). Discovering the best demonstration combination proves to be a formidable challenge, given the existence of $\sum_{k=1}^{N}\mathrm{C}_{N}^{k}k!$ distinct candidates. This week, I'll introduce a group of methods that improve the performance of ICL by demonstration (example) selection for approximating the most suitable demonstrations.</pre><pre style="width: 1610.25px; word-break: break-word !important;"><div style="white-space: normal !important; word-break: break-word !important;">Hope you find this talk interesting and useful.</div><div style="white-space: normal !important; word-break: break-word !important;"><pre style="width: 1610.25px; word-break: break-word !important;">Best Regards,
Angel</pre></div></pre></div>