<div style="line-height:1.7;color:#000000;font-size:14px;font-family:Arial"><div style="margin:0;">Hi Adapters,</div><div style="margin:0;"><br></div><div style="margin:0;">Contrastive learning has emerged as a hot topic recently due to its effectiveness in both CV and NLP applications. In previous seminars, Angel has introduced the application of contrastive learning on dialogue summarization tasks. In this talk, I will extend this topic to a broader perspective by looking at</div><div style="margin:0;">three types of tasks: sentence embedding learning, enhancing semantic robustness and sensitivity, and cross-modal retrieval. Though contrastive learning is applied in different downstream scenarios, the main idea behind it stays the same, i.e., maximizing the mutual information between representations.</div><div style="margin:0;"><br></div><div style="margin:0;">Hope you enjoy it~</div><div style="margin:0;"><pre style="width: 994.641px;">Time: Wed 4:00 pm
Venue: SEIEE 3-414</pre><pre style="width: 994.641px;"><div style="font-family: Arial; white-space: normal; margin: 0px;">Best Regards,</div><div style="font-family: Arial; white-space: normal; margin: 0px;">Roy</div></pre></div><div style="margin:0;"><br></div></div><br><br><span title="neteasefooter"><p> </p></span>