<div style="line-height:1.7;color:#000000;font-size:14px;font-family:Arial"><p style="margin:0;"></p><p class="MsoNormal" style="mso-pagination:widow-orphan"><span lang="EN-US" style="font-size:11.0pt;mso-ascii-font-family:DengXian;mso-fareast-font-family:
DengXian;mso-hansi-font-family:DengXian;mso-bidi-font-family:SimSun;mso-font-kerning:
0pt">Hi Adapters,</span></p>

<p class="MsoNormal" style="mso-pagination:widow-orphan">Traditional structures like
encoder-decoder(or with attention) can not store too much information. Their
memory (encoded by hidden states and weights) is typically too small. So we
can¡¯t accurately remember facts from the past. The problem is more severe for
other tasks in vision or audio where a long-term memory is required to watch a
movie and answer questions about it.</p><div><span lang="EN-US">The central idea of memory networks is to combine the
successful learning strategies developed in the machine </span>learning/deeplearning literature for inference with a
memory component that can be read and written to. </div><div><br></div><div>I will give a tour over classic memory networks, mainly focus on their ideas. I'll also make some comparations.</div><div><br></div><p style="margin:0;">





</p><p class="MsoNormal" style="mso-pagination:widow-orphan"><span lang="EN-US" style="font-size:10.0pt;mso-ascii-font-family:DengXian;mso-fareast-font-family:
DengXian;mso-hansi-font-family:DengXian;mso-bidi-font-family:SimSun;color:black;
mso-font-kerning:0pt">Time: Wed 4:00pm<br>
Venue: SEIEE 3-414<br>
<br>
Best Regards,<br>
Apple Chen<o:p></o:p></span></p><br></div><br><br><span title="neteasefooter"><p><br/> </p></span>