<div><div><font face="Arial" size="4"><font>Hi Adapters,</font><br><br><font>Nowadays, f</font></font><font face="Arial" size="4">ull network pre-training, like BERT,  has led to a series of breakthroughs in language representation learning. Especially for some reading comprehension tasks, the deep models perform better than human. Does the machine already surpassed human with reasoning ability or only get the tricks in multiple choice questions? </font></div><div><span style="font-family: Arial; font-size: large;">In this seminar, </span><font face="Arial" size="4">I will introduce some research about annotation artifacts in datasets. </font></div>
                
        
        
                <div><div data-mce-style="clear: both;" style="clear: both;"><br></div><font face="Arial" size="4">Related papers:</font></div><div><font face="Arial" size="4">Probing Neural Network Comprehension of Natural Language Arguments</font></div><div><font face="Arial" size="4">Annotation Artifacts in Natural Language Inference Data </font></div><div><span style="font-family: Arial; font-size: large;">Tackling the Story Ending Biases in The Story Cloze Test </span></div><div><font face="Arial" size="4"><br>Time: Wed 4:30pm<br><br>Venue: SEIEE 3-414<br><br>Best regards,<br>Shanshan</font></div></div><div style="font-family: Arial;"><br></div>