<div>Hi Adapters, </div><div><br></div><div>In the weekly seminar tomorrow, I'll introduce a small branch in the DL field, called Memory Network (MemNN).</div><div>In my understanding, the motivation of proposing MemNN is to help the NN model better incorporate with large external knowledge, such as passages, web corpus, or even knowledge bases. In this case, MemNN can be a powerful technique for solving important NLP tasks such as question answering, reading comprehension and dialogue systems.</div><div><br></div><div>As a brief introduction to this field, the content of my talk is rather simple and I hope everyone of you can learn something in this seminar. BTW, check out this <a href="https://zhuanlan.zhihu.com/c_129532277">ÖªºõרÀ¸</a> if you want to know more about MemNN, it is awesome !!</div><div><br></div><div><div>Time: Wed 5:00 pm</div><div>Venue: Room 3-517</div></div><div><br></div><div>See you then!</div><div><br></div><div>Best,</div><div>Kangqi</div><div><div style="color:#909090;font-family:Arial Narrow;font-size:12px">------------------</div><div style="font-size:14px;font-family:Verdana;color:#000;"><font color="#808080"><div>Kangqi Luo, PhD Candidate</div><div>ADAPT Lab, Department of Computer Science</div><div>SEIEE 3-341, Shanghai Jiao Tong University,</div><div>No. 800 Dongchuan Road, Shanghai, China</div></font></div></div><div> </div>