<div dir="ltr"><br>
</div><div dir="ltr"><br>
</div><div dir="ltr">Join the job talk to learn how to attend academic interviews!<br>
</div><div dir="ltr"><br>
</div><div dir="ltr">Kenny<br>
</div><div dir="ltr"><br>
</div><div class="wps_signature">Sent from my Mi phone</div><div class="wps_quotion">---------- Forwarded message ----------<br>From: "chen-zx@cs.sjtu.edu.cn" <chen-zx@cs.sjtu.edu.cn><br>Date: Jan 6, 2021 9:43 AM<br>Subject: 【面试报告会通知】1月6日(今天)15:30开始---长聘教轨岗位面试报告会<br>To: all <all@cs.sjtu.edu.cn><br>Cc: <br><br type="attribution"><blockquote class="quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><html><head><meta http-equiv="content-type" content="text/html; charset=GB2312"><style>body { line-height: 1.5; }blockquote { margin-top: 0px; margin-bottom: 0px; margin-left: 0.5em; }p { margin-top: 0px; margin-bottom: 0px; }div.FoxDiv20210106094855584614 { }body { font-size: 14px; font-family: 'Microsoft YaHei UI'; color: rgb(0, 0, 0); line-height: 1.5; }</style></head><body>
<div><span></span><div><div class="" style="line-height: normal; border-top-width: 0px; font-variant-ligatures: normal; orphans: 2; widows: 2;"><div class="" style="border-top-width: 0px;"><font class="" style="font-size: 16px;">各位老师好!</font></div><font class="" style="font-size: 16px;"><br class=""></font><div class=""><font class="" style="font-size: 16px;"><font color="#ff0000" class="">1月6日(今天)15:30-21:35</font>将在3-412会议室召开陈谐、易冉、尹强、张杰、范明明5位博士/应届博士生<span class="">的长聘教轨岗位</span><span class="" style="background-color: rgb(255, 255, 0);">面试报告会</span>,欢迎感兴趣的老师和学生到场旁听报告;<font color="#ff0000">也可选择zoom在线旁听,请在进入zoom时账号保持“静音状态”,需要在问答环节交流时再打开话筒,谢谢!</font></font></div><div class=""><font class="" style="font-size: 16px;"><br class=""></font></div><div class=""><font class="" style="font-size: 16px;">报告安排:</font></div><div class=""><font class="" style="font-size: 16px;">15:30-16:25   陈谐博士学术报告+问答</font></div><font class="" style="font-size: 16px;">16:25-17:20   易冉(应届博士)<span class="" style="line-height: 1.5; background-color: transparent;">学术</span><span class="" style="line-height: 1.5; background-color: transparent;">报告+问答</span></font></div><div class="" style="line-height: normal; border-top-width: 0px; font-variant-ligatures: normal; orphans: 2; widows: 2;"><font class=""><span class="" style="line-height: 1.5; font-size: 16px; background-color: transparent;">17:20-18:15   尹强博士学术报告+问答</span></font></div></div><div class="" style="line-height: normal; border-top-width: 0px; font-variant-ligatures: normal; orphans: 2; widows: 2;"><font class=""><span class="" style="line-height: 1.5; font-size: 16px; background-color: transparent;">19:45-20:40   张杰博士学术报告+问答</span></font></div><div class="" style="line-height: normal; border-top-width: 0px; font-variant-ligatures: normal; orphans: 2; widows: 2;"><font class=""><span class="" style="line-height: 1.5; font-size: 16px; background-color: transparent;">20:40-21:35   范明明博士学术报告+问答</span></font></div></div><div class="" style="line-height: normal; border-top-width: 0px; font-variant-ligatures: normal; orphans: 2; widows: 2;"><font class=""><span class="" style="line-height: 1.5; font-size: 16px; background-color: transparent;"><br></span></font></div><div class="" style="line-height: normal; border-top-width: 0px; font-variant-ligatures: normal; orphans: 2; widows: 2;"><font class=""><span class="" style="line-height: 1.5; font-size: 16px; background-color: transparent;">---ZOOM会议室信息---</span></font></div><div class="" style="border-top-width: 0px; font-variant-ligatures: normal; orphans: 2; widows: 2;"><font class=""><span class="" style="background-color: transparent; font-size: 16px; line-height: 24px;"><div class="" style="border-top-width: 0px; font-variant-ligatures: normal;">会议号:666 498 20473</div><div class="" style="border-top-width: 0px; font-variant-ligatures: normal;">会议密码:<span style="background-color: transparent;">877366</span></div><div class="" style="border-top-width: 0px; font-variant-ligatures: normal;">参会链接:<span style="background-color: transparent;"></span><a href="https://zoom.com.cn/j/66649820473" style="font-size: 14px; line-height: 1.5; background-color: transparent;">https://zoom.com.cn/j/66649820473</a><span style="font-size: 14px; line-height: 1.5; background-color: transparent;"> </span></div><div class="" style="border-top-width: 0px; font-variant-ligatures: normal;"><span style="font-size: 14px; line-height: 1.5; background-color: transparent;"><br></span></div><div class="" style="border-top-width: 0px; font-variant-ligatures: normal;"><span style="font-size: 14px; line-height: 1.5; background-color: transparent;"><br></span></div><div class="" style="border-top-width: 0px; font-variant-ligatures: normal;"><span style="font-size: 14px; line-height: 1.5; background-color: transparent;"><div class="" style="line-height: normal; border-top-width: 0px; font-variant-ligatures: normal;"><font color="#ff0000"><b><font class=""><span class="" style="line-height: 1.5; background-color: transparent;"><span style="font-size: 16px;">--</span></span></font></b></font><b style="color: rgb(255, 0, 0); background-color: transparent;"><font class=""><span class="" style="line-height: 1.5; background-color: transparent;"><span style="font-size: 16px;">陈谐博士</span></span></font><span style="font-size: 16px;"><span style="text-align: justify; background-color: transparent;">报告</span><span style="line-height: 1.5; background-color: transparent;">信息--</span></span></b></div><div class="" style="line-height: normal; border-top-width: 0px; font-variant-ligatures: normal;"><font class=""><span class="" style="line-height: 1.5; font-size: 16px; background-color: transparent;"><br></span></font></div><div class="" style="border-top-width: 0px; font-variant-ligatures: normal;"><p class="MsoNormal" style="margin-right: 0cm; margin-left: 0cm; line-height: normal; text-align: justify; background-image: initial; background-attachment: initial; background-size: initial; background-origin: initial; background-clip: initial; background-position: initial; background-repeat: initial;"><span style="font-size: 15px;"><span lang="EN-US"><b>Title: </b></span><span style="orphans: auto; widows: 1; background-color: transparent;">Deep Learning for Speech Recognition</span></span></p><p class="MsoNormal" style="margin-right: 0cm; margin-left: 0cm; line-height: normal; text-align: justify; background-image: initial; background-attachment: initial; background-size: initial; background-origin: initial; background-clip: initial; background-position: initial; background-repeat: initial;"><span lang="EN-US" style="font-size: 15px;"> </span></p><p class="MsoNormal" style="margin-right: 0cm; margin-left: 0cm; line-height: normal; text-align: justify; background-image: initial; background-attachment: initial; background-size: initial; background-origin: initial; background-clip: initial; background-position: initial; background-repeat: initial;"><span style="font-size: 15px;"><span lang="EN-US"><b>Abstract: </b></span><span style="orphans: auto; widows: 1; background-color: transparent;">This talk is mainly focused on deep learning for speech recognition. It consists of three parts. In the first part, I will briefly introduce two of my previous work, the first one is the effort on advocating deep neural networks on acoustic model and language model for hybrid speech recognition system, followed by the work on model parallel for efficient training of large deep neural network across multiple GPUs.  In the second part, I will elaborate our recent work on end-to-end speech recognition with transformer transducer, which aim to build a high-quality, streamable and real-time speech recognition system on large scale data. Lastly, I will describe several future research directions I am planning to carry out.</span></span></p><p class="MsoNormal" style="margin-right: 0cm; margin-left: 0cm; line-height: normal; text-align: justify; background-image: initial; background-attachment: initial; background-size: initial; background-origin: initial; background-clip: initial; background-position: initial; background-repeat: initial;"><span style="font-size: 15px; background-color: transparent;"> </span></p><p class="MsoNormal" style="margin-right: 0cm; margin-left: 0cm; line-height: normal; text-align: justify; background-image: initial; background-attachment: initial; background-size: initial; background-origin: initial; background-clip: initial; background-position: initial; background-repeat: initial;"><span style="font-size: 15px;"><span lang="EN-US"><b>Bio</b>: </span><span style="line-height: 1.5; orphans: auto; widows: 1; border: 0px; background-color: transparent;">Xie Chen is currently a senior researcher in the Azure speech and language research group (formally MSR) in Microsoft. Xie obtained his PhD degree in the Machine Intelligence Laboratory of Cambridge University on April 2017. He was a member of Clare Hall College. Xie obtained Bachelor degree at Xiamen University in 2009 and finished M.Phil. study at Tsinghua University in 2012. Before joining Microsoft, he was a Research Associate in the Machine Intelligence Laboratory in Cambridge. </span><span style="line-height: 21px; orphans: auto; widows: 1; background-color: transparent;">His research interests mainly lie in deep learning for speech recognition and natural language processing.</span></span></p><p class="MsoNormal" align="left" style="margin-right: 0cm; margin-left: 0cm; line-height: normal; text-align: justify; font-size: 10.5pt; font-family: 等线; background-image: initial; background-attachment: initial; background-size: initial; background-origin: initial; background-clip: initial; background-position: initial; background-repeat: initial;"><span lang="EN-US" style="font-size: 11pt; font-family: Calibri, sans-serif;"> </span></p><p class="MsoNormal" align="left" style="margin-right: 0cm; margin-left: 0cm; line-height: normal; text-align: justify; font-size: 10.5pt; font-family: 等线; background-image: initial; background-attachment: initial; background-size: initial; background-origin: initial; background-clip: initial; background-position: initial; background-repeat: initial;"><img src="cid:_Foxmail.1@b782338b-8310-c66b-1694-28bebb5bb7fa" alt="idphoto.jpg" width="144" height="201.6"></p><p class="MsoNormal" style="margin-right: 0cm; margin-left: 0cm; line-height: normal; text-align: justify; font-size: 10.5pt; font-family: 等线;"><br></p><p class="MsoNormal" style="margin-right: 0cm; margin-left: 0cm; line-height: normal; text-align: justify; font-size: 10.5pt; font-family: 等线;"><span lang="EN-US"><br></span></p><p class="MsoNormal" style="margin-right: 0cm; margin-left: 0cm; line-height: normal; text-align: justify; font-size: 10.5pt; font-family: 等线;"><span lang="EN-US"><br></span></p><p class="MsoNormal" style="margin-right: 0cm; margin-left: 0cm; line-height: normal; text-align: justify; font-size: 10.5pt; font-family: 等线;"><span lang="EN-US"><br></span></p><p class="MsoNormal" style="margin-right: 0cm; margin-left: 0cm; line-height: normal; text-align: justify;"><font color="#ff0000" style="font-size: 16px;"><b><span lang="EN-US">---易冉(应届博士)</span><span style="background-color: transparent;">报告</span><span style="background-color: transparent;">信息---</span></b></font></p><p class="MsoNormal" style="margin-right: 0cm; margin-left: 0cm; line-height: normal; text-align: justify;"><span lang="EN-US" style="font-size: 15px;"> </span></p><p class="MsoNormal" style="margin-right: 0cm; margin-left: 0cm; line-height: normal; text-align: justify;"><font style="font-size: 15px;"><b><span lang="EN-US">Title</span>:</b><span lang="EN-US" style="letter-spacing: -0.6pt;">Research works on 2-manifold meshes and rendering of portraits</span><span lang="EN-US"></span></font></p><p class="MsoNormal" style="margin-right: 0cm; margin-left: 0cm; line-height: normal; text-align: justify;"><span lang="EN-US" style="font-size: 15px;"> </span></p><p class="MsoNormal" style="margin-right: 0cm; margin-left: 0cm; text-align: justify;"><font style="line-height: normal; font-size: 15px;"><b><span lang="EN-US" style="letter-spacing: -0.6pt;">Abstract</span><span style="letter-spacing: -0.6pt;">:</span></b></font><span style="font-size: 15px; letter-spacing: -0.8px; line-height: normal; background-color: transparent;">In computer graphics, 3D objects are often represented by 2-manifold meshes. Compared to Euclidean metric spaces, the Voronoi diagrams based on geodesic metric on manifold exhibit many distinct properties that fail all existing Euclidean Voronoi diagram. In the first part of this talk, I will introduce the geodesic Voronoi diagrams in manifold space, its optimal global solution and construction of its dual structure. By mapping visual media to a manifold embedded in a feature space, geometric analysis on manifold induces efficient and powerful visual media computing methods. By regarding visual media as low-dimensional manifolds, rendering / image synthesis -- one of the major sub-topics of computer graphics -- can be viewed as mapping from 2D/3D model to the target manifold domain. In the second part, I will introduce research works in both non-photorealistic rendering and photorealistic rendering, especially around portraits.</span></p><p class="MsoNormal" style="margin-right: 0cm; margin-left: 0cm; line-height: normal; text-align: justify;"><span lang="EN-US" style="font-size: 15px;"> </span></p><p class="MsoNormal" style="margin-right: 0cm; margin-left: 0cm; text-align: justify;"><font style="line-height: normal; font-size: 15px;"><b><span lang="EN-US">Bio</span>:</b></font><span style="font-size: 15px; letter-spacing: -0.8px; line-height: normal; background-color: transparent;">Ran Yi is a Ph.D student with Department of Computer Science and Technology, Tsinghua University (expected to graduate in June, 2021). She received her B.Eng. degree from Tsinghua University, China, in 2016. Her research interests include computer graphics and computer vision. She received CCF-CV Academic Emerging Award in 2019, MSRA Fellowship Nomination Award in 2019, Baidu Scholarship Top 40 in 2019, National Graduate Student Scholarship in 2018-2020, Beijing Outstanding Graduates in 2016.</span></p><p class="MsoNormal" style="margin-right: 0cm; margin-left: 0cm; line-height: normal; text-align: justify; font-size: 10.5pt; font-family: 等线;"><br></p><p class="MsoNormal" style="margin-right: 0cm; margin-left: 0cm; line-height: normal; text-align: justify; font-size: 10.5pt; font-family: 等线;"><br></p><p class="MsoNormal" style="margin-right: 0cm; margin-left: 0cm; line-height: normal; text-align: justify; font-size: 10.5pt; font-family: 等线;"><span lang="EN-US"><img src="cid:_Foxmail.1@9124e006-be7e-779f-f579-1442b3ec2e5d" border="0" width="166.2" height="189.6"></span></p><p class="MsoNormal" style="margin-right: 0cm; margin-left: 0cm; line-height: normal; text-align: justify; font-size: 10.5pt; font-family: 等线;"><span lang="EN-US"><br></span></p><p class="MsoNormal" style="margin-right: 0cm; margin-left: 0cm; line-height: normal; text-align: justify;"><span lang="EN-US" style="font-size: 16px;"><b><br></b></span></p><p class="MsoNormal" style="margin-right: 0cm; margin-left: 0cm; line-height: normal; text-align: justify;"><span lang="EN-US" style="font-size: 16px;"><b><font color="#ff0000">---尹强博士报告信息---</font></b></span></p><p class="MsoNormal" style="margin-right: 0cm; margin-left: 0cm; line-height: normal; text-align: justify;"><span lang="EN-US" style="font-size: 15px;"> </span></p><p class="MsoNormal" style="margin-right: 0cm; margin-left: 0cm; line-height: normal; text-align: justify; background-image: initial; background-attachment: initial; background-size: initial; background-origin: initial; background-clip: initial; background-position: initial; background-repeat: initial;"><span style="font-size: 15px;"><b><span lang="EN-US">Title:</span></b><span lang="EN-US"> </span><span style="orphans: auto; white-space: pre-wrap; widows: 1; background-color: transparent;">Parallel graph computation: challenges and progress</span></span></p><p class="MsoNormal" style="margin-right: 0cm; margin-left: 0cm; line-height: normal; text-align: justify; background-image: initial; background-attachment: initial; background-size: initial; background-origin: initial; background-clip: initial; background-position: initial; background-repeat: initial;"><span lang="EN-US" style="font-size: 15px;"> </span></p><p class="MsoNormal" style="margin-right: 0cm; margin-left: 0cm; line-height: normal; text-align: justify; background-image: initial; background-attachment: initial; background-size: initial; background-origin: initial; background-clip: initial; background-position: initial; background-repeat: initial;"><span style="font-size: 15px;"><b><span lang="EN-US">Abstract:</span></b><span lang="EN-US"> </span><span style="orphans: auto; white-space: pre-wrap; widows: 1; background-color: transparent;">Parallel graph computation has found prevalent use in transportation network analysis, knowledge extraction, Web mining, social networks and social marketing.  In this talk, I will briefly discuss our progress to address the following challenges in supporting efficient parallel processing of large-scale graphs.  (1) What kind of parallel model works best for large-scale graph computation tasks? Bulk Synchronous Parallel (BSP) model separates computations into super-steps. Its global synchronization barriers usually lead to stragglers.  Asynchronous Parallel (AP) model allows faster workers move ahead, without waiting for stragglers. However, it may incur excessive redundant computation and communication costs. Is there a better alternative other than BSP and AP? (2) What graph partitioning strategy should we choose for a specific task?  Conventional graph partitioning, i.e., edge-cut or vertex-cut, usually takes balancing ratio and replication factor as partitioning criteria. It leads to sub-optimal performance for some tasks that we encountered in practice. (3) Real-life graphs are often big and updated constantly. Incremental processing is a practical approach to dynamic graph analytics. However, incremental graph algorithms are hard to write and analyze. Is there a systematic method for developing incremental graph algorithms?</span></span></p><p class="MsoNormal" style="margin-right: 0cm; margin-left: 0cm; line-height: normal; text-align: justify;"><span lang="EN-US" style="font-size: 15px; background-image: initial; background-attachment: initial; background-size: initial; background-origin: initial; background-clip: initial; background-position: initial; background-repeat: initial;"> </span></p><p class="MsoNormal" style="margin-right: 0cm; margin-left: 0cm; line-height: normal; text-align: justify; background-image: initial; background-attachment: initial; background-size: initial; background-origin: initial; background-clip: initial; background-position: initial; background-repeat: initial;"><span style="font-size: 15px;"><b><span lang="EN-US">Bio:</span></b><span lang="EN-US"> </span><span style="orphans: auto; white-space: pre-wrap; widows: 1; background-color: transparent;">Dr. Qiang Yin is a Senior Engineer of Data Analytics and Intelligence Lab, Alibaba Damo Academy. Before joining Alibaba, he worked as a postdoc researcher at Beihang University from 2016 to 2018. He received his master and Ph.D. degrees from Shanghai Jiao Tong University in 2012 and 2016, respectively. His current research interests focus on database theory and systems, especially in foundations and algorithms for big graph analytics</span></span></p><p class="MsoNormal" style="margin-right: 0cm; margin-left: 0cm; line-height: normal; text-align: justify; background-image: initial; background-attachment: initial; background-size: initial; background-origin: initial; background-clip: initial; background-position: initial; background-repeat: initial;"><span lang="EN-US"><span style="font-size: 15px;"><br></span></span></p><img src="cid:_Foxmail.1@f1787bb5-6f9d-bc20-9c68-a5cfaac72ee0" border="0" width="160" height="232.8"></div><div class="" style="border-top-width: 0px; font-variant-ligatures: normal;"><br></div><div class="" style="border-top-width: 0px; font-variant-ligatures: normal;"><br></div><div class="" style="border-top-width: 0px; font-variant-ligatures: normal;"><div class="" style="line-height: normal; border-top-width: 0px; font-variant-ligatures: normal;"><font color="#ff0000"><b><font class=""><span class="" style="line-height: 1.5; background-color: transparent;"><span style="font-size: 16px;">--张杰博士</span></span></font><span style="font-size: 16px;"><span style="text-align: justify; background-color: transparent;">报告</span><span style="line-height: 1.5; background-color: transparent;">信息--</span></span></b></font></div><div class="" style="line-height: normal; border-top-width: 0px; font-variant-ligatures: normal;"><font class=""><span class="" style="line-height: 1.5; font-size: 16px; background-color: transparent;"><br></span></font></div><div class="" style="border-top-width: 0px; font-variant-ligatures: normal;"><p class="MsoNormal" style="margin-right: 0cm; margin-left: 0cm; line-height: normal; text-align: justify; background-image: initial; background-attachment: initial; background-size: initial; background-origin: initial; background-clip: initial; background-position: initial; background-repeat: initial;"><span style="font-size: 15px;"><span lang="EN-US"><b>Title: </b></span><span style="line-height: 25.95px; text-align: center; background-color: transparent;">Bridging the New Memory Technologies with Computer Systems</span></span></p><p class="MsoNormal" style="margin-right: 0cm; margin-left: 0cm; line-height: normal; text-align: justify; background-image: initial; background-attachment: initial; background-size: initial; background-origin: initial; background-clip: initial; background-position: initial; background-repeat: initial;"><span lang="EN-US" style="font-size: 15px;"> </span></p><p class="MsoNormal" style="margin-right: 0cm; margin-left: 0cm; line-height: normal; text-align: justify; background-image: initial; background-attachment: initial; background-size: initial; background-origin: initial; background-clip: initial; background-position: initial; background-repeat: initial;"><span style="font-size: 15px;"><span lang="EN-US"><b>Abstract: </b></span><span style="background-color: transparent;"> </span><span lang="EN-US" style="background-color: transparent;">Nowadays, the memory and storage systems have experienced significant technology shifts. Such technology promotions have motivated researchers to re-think and re-design the existing system organization and hardware architecture. This talk mainly shares our research experience of bridging between the existing computer hardware/software and the new memory/storage technologies, including the emerging non-volatile memory and the new types of NAND flash media. For example, the emerging Z-NAND flash exhibits a high memory density, retains a long lifetime and reduces the flash access latency from hundreds of microseconds to only a few microseconds, which becomes a promising candidate to replace the traditional DRAM. I will firstly introduce the research with the system-level characterization of the Z-NAND flash. I will explain our research efforts to make the existing server storage stack (from kernel to firmware) adaptive to the new flash technology. In addition, I will further show how the new flash technology can change the current computer architecture to satisfy various demands.</span></span></p><p class="MsoNormal" style="margin-right: 0cm; margin-left: 0cm; line-height: normal; text-align: justify; background-image: initial; background-attachment: initial; background-size: initial; background-origin: initial; background-clip: initial; background-position: initial; background-repeat: initial;"><span style="font-size: 15px; background-color: transparent;"> </span></p><p class="MsoNormal" style="margin-right: 0cm; margin-left: 0cm; line-height: normal; text-align: justify; background-image: initial; background-attachment: initial; background-size: initial; background-origin: initial; background-clip: initial; background-position: initial; background-repeat: initial;"><span style="font-size: 15px;"><span lang="EN-US"><b>Bio</b>: </span><span style="line-height: 1.5; background-color: transparent;">Dr. Jie Zhang is currently a postdoctoral fellow at the Korea Advanced Institute of Science and Technology (KAIST) under the supervision of Professor Myoungsoo Jung. He is engaged in the research and design of computer architecture and systems including storage systems and specialized processors. His research addresses the requirements for high-performance storage systems in the era of big data and artificial intelligence from the perspective of computer architecture. He is dedicated to breaking through the bottlenecks of data migration and the limitations of memory walls in the Von Neumann architecture. The projects he led and participated in were funded by the U.S. Department of Energy, the U.S. Natural Science Foundation, the Korea Research Foundation, Samsung Electronics, SK Hynix, Texas Instruments, and Western Digital with a cumulative total of over RMB 30 million. He has published more than 30 papers in top-tier conferences and journals and 18 papers as first author, including ISCA, OSDI, HPCA (three papers), MICRO, FAST, DAC, Eurosys, PACT, and TPDS. He owns ten US-Korea-China patents. His research outputs have been highly recognized by international academic community and widely used in products of Samsung, Hynix and MemRay.</span></span></p><p class="MsoNormal" style="margin-right: 0cm; margin-left: 0cm; line-height: normal; text-align: justify; background-image: initial; background-attachment: initial; background-size: initial; background-origin: initial; background-clip: initial; background-position: initial; background-repeat: initial;"><span style="font-family: Calibri, sans-serif; font-size: 10.5pt; line-height: 1.5; background-color: transparent;"><br></span></p><p class="MsoNormal" style="margin-right: 0cm; margin-left: 0cm; line-height: normal; text-align: justify; background-image: initial; background-attachment: initial; background-size: initial; background-origin: initial; background-clip: initial; background-position: initial; background-repeat: initial;"><img src="cid:_Foxmail.1@3ad7a274-e7a8-fdf0-a810-cc4a116353a5" border="0" width="156" height="226.8"></p><p class="MsoNormal" style="margin-right: 0cm; margin-left: 0cm; line-height: normal; text-align: justify; background-image: initial; background-attachment: initial; background-size: initial; background-origin: initial; background-clip: initial; background-position: initial; background-repeat: initial;"><span style="font-family: 'Microsoft YaHei UI', Tahoma; line-height: 21px; orphans: auto; widows: 1; background-color: transparent;"><br></span></p><div class="" style="line-height: normal; border-top-width: 0px; font-variant-ligatures: normal;"><font color="#ff0000"><b><font class=""><span class="" style="line-height: 1.5; background-color: transparent;"><span style="font-size: 16px;"><br></span></span></font></b></font></div><div class="" style="line-height: normal; border-top-width: 0px; font-variant-ligatures: normal;"><font color="#ff0000"><b><font class=""><span class="" style="line-height: 1.5; background-color: transparent;"><span style="font-size: 16px;">--范明明博士</span></span></font><span style="font-size: 16px;"><span style="text-align: justify; background-color: transparent;">报告</span><span style="line-height: 1.5; background-color: transparent;">信息--</span></span></b></font></div><div class="" style="line-height: normal; border-top-width: 0px; font-variant-ligatures: normal;"><font class=""><span class="" style="line-height: 1.5; font-size: 16px; background-color: transparent;"><br></span></font></div><div class="" style="border-top-width: 0px; font-variant-ligatures: normal;"><p class="MsoNormal" style="margin-right: 0cm; margin-left: 0cm; line-height: normal; text-align: justify; background-image: initial; background-attachment: initial; background-size: initial; background-origin: initial; background-clip: initial; background-position: initial; background-repeat: initial;"><span style="font-size: 15px;"><span lang="EN-US"><b>Title: </b></span><span style="orphans: auto; widows: 1; background-color: transparent;">Designing Assistive Technologies for People with Disabilities and Older Adults</span></span></p><p class="MsoNormal" style="margin-right: 0cm; margin-left: 0cm; line-height: normal; text-align: justify; background-image: initial; background-attachment: initial; background-size: initial; background-origin: initial; background-clip: initial; background-position: initial; background-repeat: initial;"><span lang="EN-US" style="font-size: 15px;"> </span></p><p class="MsoNormal" style="margin-right: 0cm; margin-left: 0cm; line-height: normal; text-align: justify; background-image: initial; background-attachment: initial; background-size: initial; background-origin: initial; background-clip: initial; background-position: initial; background-repeat: initial;"><span style="font-size: 15px;"><span lang="EN-US"><b>Abstract: </b></span><span style="orphans: auto; widows: 1; background-color: transparent;">About 15% of the world’s population, according to the World Health Organization, has some form of disability. Meanwhile, the global population is rapidly aging as well. People with disabilities and older adults often face difficulties caused by inadequate social and societal infrastructures, poorly designed technologies, and their physical or cognitive impairments. This has spurred researchers to investigate ways to help people with disabilities and older adults overcome such difficulties.</span></span></p><p class="MsoNormal" style="margin-right: 0in; margin-left: 0in; line-height: normal; orphans: auto; widows: 1;"><span style="font-size: 15px;"></span></p><p class="MsoNormal" style="margin-right: 0in; margin-left: 0in; line-height: normal; orphans: auto; widows: 1;"> </p><p class="MsoNormal" style="margin-right: 0in; margin-left: 0in; line-height: normal; orphans: auto; widows: 1;"><span style="font-size: 15px;">In this talk, I will present the design and evaluation of three assistive technologies to show how my research leverages advanced mobile and wearable computing technology to help people with disabilities and older adults. Specifically, one assistive technology helps people with upper-body motor impairments to interact with their phones without touch, one helps people with visual impairments to enter texts on smartphones more effectively, and one helps older adults better cope with declining memory issues. Finally, I will discuss potential future research directions.</span></p><p class="MsoNormal" style="margin-right: 0cm; margin-left: 0cm; line-height: normal; text-align: justify; background-image: initial; background-attachment: initial; background-size: initial; background-origin: initial; background-clip: initial; background-position: initial; background-repeat: initial;"><span style="font-size: 15px; background-color: transparent;"> </span></p><p class="MsoNormal" style="margin-right: 0cm; margin-left: 0cm; line-height: normal; text-align: justify; background-image: initial; background-attachment: initial; background-size: initial; background-origin: initial; background-clip: initial; background-position: initial; background-repeat: initial;"><span style="font-size: 15px;"><span lang="EN-US"><b>Bio</b>: </span><span style="orphans: auto; widows: 1; background-color: transparent;">Dr. Mingming Fan is a tenure-track Assistant Professor in the Golisano College of Computing and Information Sciences at the Rochester Institute of Technology (RIT) since August 2019. He directs the Intelligent and Inclusive Interaction Research Group at RIT, where he is also a member of the Center for Accessibility and Inclusion Research (CAIR) and the Center for Human-Aware Artificial Intelligence (CHAI). Dr. Fan received a Ph.D. in Computer Science from the University of Toronto and an MS in Computer Science from Tsinghua University.</span></span></p><p class="MsoNormal" style="margin-right: 0in; margin-left: 0in; line-height: normal; orphans: auto; widows: 1;"><span style="font-size: 15px;"></span></p><p class="MsoNormal" style="margin-right: 0in; margin-left: 0in; line-height: normal; orphans: auto; widows: 1;"> </p><p class="MsoNormal" style="margin-right: 0in; margin-left: 0in; line-height: normal; orphans: auto; widows: 1;"><span style="font-size: 15px;">Dr. Fan researches at the intersection of Human-Computer Interaction (HCI), Accessibility, and Ubiquitous Computing (UbiComp). His research focuses on understanding User Experience (UX) and Accessibility problems via user-centered approaches and addressing them via designing human-AI collaborative tools, assistive technologies, and novel interaction methods. His work has been published at top-tier conferences and journals in the field of HCI, accessibility and ubiquitous computing, such as CHI (the premier conference in the field of HCI), ACM Transactions on Computer-Human Interaction (TOCHI), ASSETS (the premier conference in the field of accessibility), ACM Transactions on Accessible Computing (TACCESS), UbiComp/IMWUT (the premier conference in the field of UbiComp), and IEEE Transactions on Visualization and Computer Graphics (TVCG). Moreover, his work has won a Best Artifact Award at ASSETS 2020, a Best Paper Award at CHI 2019, and a Best Paper Honorable Mention Award at UbiComp 2015. More info can be found on his website:<a href="http://mingmingfan.com/" style="color: purple;">http://mingmingfan.com/</a><span class="MsoHyperlink" style="color: blue; text-decoration: underline;">.</span></span></p><p class="MsoNormal" style="margin-right: 0cm; margin-left: 0cm; line-height: normal; text-align: justify; background-image: initial; background-attachment: initial; background-size: initial; background-origin: initial; background-clip: initial; background-position: initial; background-repeat: initial;"><span style="font-family: 'Microsoft YaHei UI', Tahoma; line-height: 21px; orphans: auto; widows: 1; background-color: transparent;"><br></span></p><p class="MsoNormal" style="margin-right: 0cm; margin-left: 0cm; line-height: normal; text-align: justify; background-image: initial; background-attachment: initial; background-size: initial; background-origin: initial; background-clip: initial; background-position: initial; background-repeat: initial;"><img src="cid:_Foxmail.1@4cceb6bf-7ad0-48a8-2eb2-e22c83682426" border="0" width="180" height="180"></p></div></div></div><div><div style="orphans: auto; widows: 1; margin: 10px; font-family: verdana; font-size: 10pt;"><br></div></div></span></div><div class="" style="border-top-width: 0px; font-variant-ligatures: normal;"><span style="font-size: 14px; line-height: 1.5; background-color: transparent;"><br></span></div><div class="" style="border-top-width: 0px; font-variant-ligatures: normal;"><span style="font-size: 14px; line-height: 1.5; background-color: transparent;"><br></span></div></span></font><span></span></div>
<div><br></div><hr style="width: 210px; height: 1px;" color="#b5c4df" size="1" align="left">
<div><span><div style="MARGIN: 10px; FONT-FAMILY: verdana; FONT-SIZE: 10pt"><div>祝好,</div><div>陈哲轩</div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div></div></span></div>
<blockquote style="margin-Top: 0px; margin-Bottom: 0px; margin-Left: 0.5em; margin-Right: inherit"><div> </div><div style="border:none;border-top:solid #B5C4DF 1.0pt;padding:3.0pt 0cm 0cm 0cm"><div style="PADDING-RIGHT: 8px; PADDING-LEFT: 8px; FONT-SIZE: 12px;FONT-FAMILY:tahoma;COLOR:#000000; BACKGROUND: #efefef; PADDING-BOTTOM: 8px; PADDING-TOP: 8px"><div><b>发件人:</b> <a href="mailto:chen-zx@cs.sjtu.edu.cn">chen-zx@cs.sjtu.edu.cn</a></div><div><b>发送时间:</b> 2021-01-05 11:40</div><div><b>收件人:</b> <a href="mailto:all@cs.sjtu.edu.cn">all</a></div><div><b>主题:</b> 【面试报告会通知】1月6日(周三)15:30开始---长聘教轨岗位面试报告会</div></div></div><div><div class="FoxDiv20210106094855584614">
<div><span></span></div><blockquote style="margin-Top: 0px; margin-Bottom: 0px; margin-Left: 0.5em; margin-Right: inherit"><div class="FoxDiv20210105102000768785"><div><div class="" style="line-height: normal; border-top-width: 0px; font-variant-ligatures: normal; orphans: 2; widows: 2;"><div class="" style="border-top-width: 0px;"><font class="" style="font-size: 16px;">各位老师好!</font></div><font class="" style="font-size: 16px;"><br class=""></font><div class=""><font class="" style="font-size: 16px;"><font color="#ff0000" class="">1月6日(周三)15:30-21:35</font>将在3-412会议室召开陈谐、易冉、尹强、张杰、范明明5位博士/应届博士生<span class="">的长聘教轨岗位</span><span class="" style="background-color: rgb(255, 255, 0);">面试报告会</span>,欢迎感兴趣的老师到场旁听报告,也欢迎转发给学生,可在问答环节中进行学术交流。谢谢!</font></div><div class=""><font class="" style="font-size: 16px;"><br class=""></font></div><div class=""><font class="" style="font-size: 16px;">报告安排:</font></div><div class=""><font class="" style="font-size: 16px;">15:30-16:25   陈谐博士学术报告+问答</font></div><font class="" style="font-size: 16px;">16:25-17:20   易冉(应届博士)<span class="" style="line-height: 1.5; background-color: transparent;">学术</span><span class="" style="line-height: 1.5; background-color: transparent;">报告+问答</span></font></div><div class="" style="line-height: normal; border-top-width: 0px; font-variant-ligatures: normal; orphans: 2; widows: 2;"><font class=""><span class="" style="line-height: 1.5; background-color: transparent; font-size: 16px;">17:20-18:15   尹强博士学术报告+问答</span></font></div></div><div class="" style="line-height: normal; border-top-width: 0px; font-variant-ligatures: normal; orphans: 2; widows: 2;"><font class=""><span class="" style="line-height: 1.5; background-color: transparent; font-size: 16px;">19:45-20:40   张杰博士学术报告+问答</span></font></div><div class="" style="line-height: normal; border-top-width: 0px; font-variant-ligatures: normal; orphans: 2; widows: 2;"><font class=""><span class="" style="line-height: 1.5; background-color: transparent; font-size: 16px;">20:40-21:35   范明明博士学术报告+问答</span></font></div><div class="" style="line-height: normal; border-top-width: 0px; font-variant-ligatures: normal; orphans: 2; widows: 2;"><font class="" style="font-size: 16px;"><span class="" style="line-height: 1.5; background-color: transparent;"><br></span></font></div><div class="" style="line-height: normal; border-top-width: 0px; font-variant-ligatures: normal; orphans: 2; widows: 2;"><font color="#ff0000"><b><font class=""><span class="" style="line-height: 1.5; background-color: transparent;"><span style="font-size: 16px;">--陈谐博士</span></span></font><span style="font-size: 16px;"><span style="text-align: justify; background-color: transparent;">报告</span><span style="line-height: 1.5; background-color: transparent;">信息--</span></span></b></font></div><div class="" style="line-height: normal; border-top-width: 0px; font-variant-ligatures: normal; orphans: 2; widows: 2;"><font class=""><span class="" style="line-height: 1.5; background-color: transparent; font-size: 16px;"><br></span></font></div><div class="" style="border-top-width: 0px; font-variant-ligatures: normal; orphans: 2; widows: 2;">




<p class="MsoNormal" style="line-height: normal; margin: 0px 0cm; text-align: justify; background-image: initial; background-attachment: initial; background-size: initial; background-origin: initial; background-clip: initial; background-position: initial; background-repeat: initial;"><span style="font-size: 15px;"><span lang="EN-US"><b>Title: </b></span><span style="orphans: auto; widows: 1; background-color: transparent;">Deep Learning for Speech Recognition</span></span></p>
<p class="MsoNormal" style="line-height: normal; margin: 0px 0cm; text-align: justify; background-image: initial; background-attachment: initial; background-size: initial; background-origin: initial; background-clip: initial; background-position: initial; background-repeat: initial;"><span lang="EN-US" style="font-size: 15px;"> </span></p>
<p class="MsoNormal" style="line-height: normal; margin: 0px 0cm; text-align: justify; background-image: initial; background-attachment: initial; background-size: initial; background-origin: initial; background-clip: initial; background-position: initial; background-repeat: initial;"><span style="font-size: 15px;"><span lang="EN-US"><b>Abstract: </b></span><span style="orphans: auto; widows: 1; background-color: transparent;">This talk is mainly focused on deep learning for speech recognition. It consists of three parts. In the first part, I will briefly introduce two of my previous work, the first one is the effort on advocating deep neural networks on acoustic model and language model for hybrid speech recognition system, followed by the work on model parallel for efficient training of large deep neural network across multiple GPUs.  In the second part, I will elaborate our recent work on end-to-end speech recognition with transformer transducer, which aim to build a high-quality, streamable and real-time speech recognition system on large scale data. Lastly, I will describe several future research directions I am planning to carry out.</span></span></p>
<p class="MsoNormal" style="line-height: normal; margin: 0px 0cm; text-align: justify; background-image: initial; background-attachment: initial; background-size: initial; background-origin: initial; background-clip: initial; background-position: initial; background-repeat: initial;"><span style="background-color: transparent; font-size: 15px;"> </span></p>
<p class="MsoNormal" style="line-height: normal; margin: 0px 0cm; text-align: justify; background-image: initial; background-attachment: initial; background-size: initial; background-origin: initial; background-clip: initial; background-position: initial; background-repeat: initial;"><span style="font-size: 15px;"><span lang="EN-US"><b>Bio</b>: </span><span style="line-height: 1.5; orphans: auto; widows: 1; border: 0px; background-color: transparent;">Xie Chen is currently a senior researcher in the Azure speech and language research group (formally MSR) in Microsoft. Xie obtained his PhD degree in the Machine Intelligence Laboratory of Cambridge University on April 2017. He was a member of Clare Hall College. Xie obtained Bachelor degree at Xiamen University in 2009 and finished M.Phil. study at Tsinghua University in 2012. Before joining Microsoft, he was a Research Associate in the Machine Intelligence Laboratory in Cambridge. </span><span style="line-height: 21px; orphans: auto; widows: 1; background-color: transparent;">His research interests mainly lie in deep learning for speech recognition and natural language processing.</span></span></p>
<p class="MsoNormal" align="left" style="line-height: normal; text-align: justify; margin: 0px 0cm; font-size: 10.5pt; font-family: 等线; background-image: initial; background-attachment: initial; background-size: initial; background-origin: initial; background-clip: initial; background-position: initial; background-repeat: initial;"><span lang="EN-US" style="font-size: 11pt; font-family: Calibri, sans-serif;"> </span></p><p class="MsoNormal" align="left" style="line-height: normal; text-align: justify; margin: 0px 0cm; font-size: 10.5pt; font-family: 等线; background-image: initial; background-attachment: initial; background-size: initial; background-origin: initial; background-clip: initial; background-position: initial; background-repeat: initial;"><img src="cid:_Foxmail.1@b782338b-8310-c66b-1694-28bebb5bb7fa" alt="idphoto.jpg" width="144" height="201.6"></p>
<p class="MsoNormal" style="line-height: normal; margin: 0px 0cm; text-align: justify; font-size: 10.5pt; font-family: 等线;"><br></p><p class="MsoNormal" style="line-height: normal; margin: 0px 0cm; text-align: justify; font-size: 10.5pt; font-family: 等线;"><span lang="EN-US"><br></span></p><p class="MsoNormal" style="line-height: normal; margin: 0px 0cm; text-align: justify; font-size: 10.5pt; font-family: 等线;"><span lang="EN-US"><br></span></p><p class="MsoNormal" style="line-height: normal; margin: 0px 0cm; text-align: justify; font-size: 10.5pt; font-family: 等线;"><span lang="EN-US"><br></span></p><p class="MsoNormal" style="line-height: normal; margin: 0px 0cm; text-align: justify;"><font style="font-size: 16px;" color="#ff0000"><b><span lang="EN-US">---易冉(应届博士)</span><span style="background-color: transparent;">报告</span><span style="background-color: transparent;">信息---</span></b></font></p>
<p class="MsoNormal" style="line-height: normal; margin: 0px 0cm; text-align: justify;"><span lang="EN-US" style="font-size: 15px;"> </span></p>
<p class="MsoNormal" style="line-height: normal; margin: 0px 0cm; text-align: justify;"><font style="font-size: 15px;"><b><span lang="EN-US">Title</span>:</b><span lang="EN-US" style="letter-spacing: -0.6pt;">Research works on 2-manifold meshes and rendering of portraits</span><span lang="EN-US"></span></font></p>
<p class="MsoNormal" style="line-height: normal; margin: 0px 0cm; text-align: justify;"><span lang="EN-US" style="font-size: 15px;"> </span></p>
<p class="MsoNormal" style="margin: 0px 0cm; text-align: justify;"><font style="line-height: normal; font-size: 15px;"><b><span lang="EN-US" style="letter-spacing: -0.6pt;">Abstract</span><span style="letter-spacing: -0.6pt;">:</span></b></font><span style="background-color: transparent; font-size: 15px; letter-spacing: -0.8px; line-height: normal;">In computer graphics, 3D objects are often represented by 2-manifold meshes. Compared to Euclidean metric spaces, the Voronoi diagrams based on geodesic metric on manifold exhibit many distinct properties that fail all existing Euclidean Voronoi diagram. In the first part of this talk, I will introduce the geodesic Voronoi diagrams in manifold space, its optimal global solution and construction of its dual structure. By mapping visual media to a manifold embedded in a feature space, geometric analysis on manifold induces efficient and powerful visual media computing methods. By regarding visual media as low-dimensional manifolds, rendering / image synthesis -- one of the major sub-topics of computer graphics -- can be viewed as mapping from 2D/3D model to the target manifold domain. In the second part, I will introduce research works in both non-photorealistic rendering and photorealistic rendering, especially around portraits.</span></p>
<p class="MsoNormal" style="line-height: normal; margin: 0px 0cm; text-align: justify;"><span lang="EN-US" style="font-size: 15px;"> </span></p>
<p class="MsoNormal" style="margin: 0px 0cm; text-align: justify;"><font style="line-height: normal; font-size: 15px;"><b><span lang="EN-US">Bio</span>:</b></font><span style="background-color: transparent; font-size: 15px; letter-spacing: -0.8px; line-height: normal;">Ran Yi is a Ph.D student with Department of Computer Science and Technology, Tsinghua University (expected to graduate in June, 2021). She received her B.Eng. degree from Tsinghua University, China, in 2016. Her research interests include computer graphics and computer vision. She received CCF-CV Academic Emerging Award in 2019, MSRA Fellowship Nomination Award in 2019, Baidu Scholarship Top 40 in 2019, National Graduate Student Scholarship in 2018-2020, Beijing Outstanding Graduates in 2016.</span></p>
<p class="MsoNormal" style="line-height: normal; margin: 0px 0cm; text-align: justify; font-size: 10.5pt; font-family: 等线;"><br></p><p class="MsoNormal" style="line-height: normal; margin: 0px 0cm; text-align: justify; font-size: 10.5pt; font-family: 等线;"><br></p><p class="MsoNormal" style="line-height: normal; margin: 0px 0cm; text-align: justify; font-size: 10.5pt; font-family: 等线;"><span lang="EN-US"><img src="cid:_Foxmail.1@9124e006-be7e-779f-f579-1442b3ec2e5d" border="0" width="166.2" height="189.6"></span></p><p class="MsoNormal" style="line-height: normal; margin: 0px 0cm; text-align: justify; font-size: 10.5pt; font-family: 等线;"><span lang="EN-US"><br></span></p><p class="MsoNormal" style="line-height: normal; margin: 0px 0cm; text-align: justify;"><span lang="EN-US" style="font-size: 16px;"><b><br></b></span></p><p class="MsoNormal" style="line-height: normal; margin: 0px 0cm; text-align: justify;"><span lang="EN-US" style="font-size: 16px;"><b><font color="#ff0000">---尹强博士报告信息---</font></b></span></p>
<p class="MsoNormal" style="line-height: normal; margin: 0px 0cm; text-align: justify;"><span lang="EN-US" style="font-size: 15px;"> </span></p>
<p class="MsoNormal" style="line-height: normal; margin: 0px 0cm; text-align: justify; background-image: initial; background-attachment: initial; background-size: initial; background-origin: initial; background-clip: initial; background-position: initial; background-repeat: initial;"><span style="font-size: 15px;"><b><span lang="EN-US">Title:</span></b><span lang="EN-US"> </span><span style="orphans: auto; white-space: pre-wrap; widows: 1; background-color: transparent;">Parallel graph computation: challenges and progress</span></span></p>
<p class="MsoNormal" style="line-height: normal; margin: 0px 0cm; text-align: justify; background-image: initial; background-attachment: initial; background-size: initial; background-origin: initial; background-clip: initial; background-position: initial; background-repeat: initial;"><span lang="EN-US" style="font-size: 15px;"> </span></p>
<p class="MsoNormal" style="line-height: normal; margin: 0px 0cm; text-align: justify; background-image: initial; background-attachment: initial; background-size: initial; background-origin: initial; background-clip: initial; background-position: initial; background-repeat: initial;"><span style="font-size: 15px;"><b><span lang="EN-US">Abstract:</span></b><span lang="EN-US"> </span><span style="orphans: auto; white-space: pre-wrap; widows: 1; background-color: transparent;">Parallel graph computation has found prevalent use in transportation network analysis, knowledge extraction, Web mining, social networks and social marketing.  In this talk, I will briefly discuss our progress to address the following challenges in supporting efficient parallel processing of large-scale graphs.  (1) What kind of parallel model works best for large-scale graph computation tasks? Bulk Synchronous Parallel (BSP) model separates computations into super-steps. Its global synchronization barriers usually lead to stragglers.  Asynchronous Parallel (AP) model allows faster workers move ahead, without waiting for stragglers. However, it may incur excessive redundant computation and communication costs. Is there a better alternative other than BSP and AP? (2) What graph partitioning strategy should we choose for a specific task?  Conventional graph partitioning, i.e., edge-cut or vertex-cut, usually takes balancing ratio and replication factor as partitioning criteria. It leads to sub-optimal performance for some tasks that we encountered in practice. (3) Real-life graphs are often big and updated constantly. Incremental processing is a practical approach to dynamic graph analytics. However, incremental graph algorithms are hard to write and analyze. Is there a systematic method for developing incremental graph algorithms?</span></span></p>
<p class="MsoNormal" style="line-height: normal; margin: 0px 0cm; text-align: justify;"><span lang="EN-US" style="background-image: initial; background-attachment: initial; background-size: initial; background-origin: initial; background-clip: initial; background-position: initial; background-repeat: initial; font-size: 15px;"> </span></p>
<p class="MsoNormal" style="line-height: normal; margin: 0px 0cm; text-align: justify; background-image: initial; background-attachment: initial; background-size: initial; background-origin: initial; background-clip: initial; background-position: initial; background-repeat: initial;"><span style="font-size: 15px;"><b><span lang="EN-US">Bio:</span></b><span lang="EN-US"> </span><span style="orphans: auto; white-space: pre-wrap; widows: 1; background-color: transparent;">Dr. Qiang Yin is a Senior Engineer of Data Analytics and Intelligence Lab, Alibaba Damo Academy. Before joining Alibaba, he worked as a postdoc researcher at Beihang University from 2016 to 2018. He received his master and Ph.D. degrees from Shanghai Jiao Tong University in 2012 and 2016, respectively. His current research interests focus on database theory and systems, especially in foundations and algorithms for big graph analytics</span></span></p><p class="MsoNormal" style="line-height: normal; margin: 0px 0cm; text-align: justify; background-image: initial; background-attachment: initial; background-size: initial; background-origin: initial; background-clip: initial; background-position: initial; background-repeat: initial;"><span lang="EN-US"><span style="font-size: 15px;"><br></span></span></p>
<img src="cid:_Foxmail.1@f1787bb5-6f9d-bc20-9c68-a5cfaac72ee0" border="0" width="160" height="232.8"></div><div class="" style="border-top-width: 0px; font-variant-ligatures: normal; orphans: 2; widows: 2;"><br></div><div class="" style="border-top-width: 0px; font-variant-ligatures: normal; orphans: 2; widows: 2;"><br></div><div class="" style="border-top-width: 0px; font-variant-ligatures: normal; orphans: 2; widows: 2;"><div class="" style="line-height: normal; border-top-width: 0px; font-variant-ligatures: normal;"><font color="#ff0000"><b><font class=""><span class="" style="line-height: 1.5; background-color: transparent;"><span style="font-size: 16px;">--张杰博士</span></span></font><span style="font-size: 16px;"><span style="text-align: justify; background-color: transparent;">报告</span><span style="line-height: 1.5; background-color: transparent;">信息--</span></span></b></font></div><div class="" style="line-height: normal; border-top-width: 0px; font-variant-ligatures: normal;"><font class=""><span class="" style="line-height: 1.5; font-size: 16px; background-color: transparent;"><br></span></font></div><div class="" style="border-top-width: 0px; font-variant-ligatures: normal;"><p class="MsoNormal" style="margin: 0px 0cm; line-height: normal; text-align: justify; background-image: initial; background-attachment: initial; background-size: initial; background-origin: initial; background-clip: initial; background-position: initial; background-repeat: initial;"><span style="font-size: 15px;"><span lang="EN-US"><b>Title: </b></span><span style="line-height: 173%; text-align: center; background-color: transparent;">Bridging the New Memory Technologies with Computer Systems</span></span></p>
<p class="MsoNormal" style="margin: 0px 0cm; line-height: normal; text-align: justify; background-image: initial; background-attachment: initial; background-size: initial; background-origin: initial; background-clip: initial; background-position: initial; background-repeat: initial;"><span lang="EN-US" style="font-size: 15px;"> </span></p><p class="MsoNormal" style="margin: 0px 0cm; line-height: normal; text-align: justify; background-image: initial; background-attachment: initial; background-size: initial; background-origin: initial; background-clip: initial; background-position: initial; background-repeat: initial;"><span style="font-size: 15px;"><span lang="EN-US"><b>Abstract: </b></span><span style="background-color: transparent;"> </span><span lang="EN-US" style="background-color: transparent;">Nowadays, the memory and storage systems have experienced significant
technology shifts. Such technology promotions have motivated researchers to
re-think and re-design the existing system organization and hardware
architecture. This talk mainly shares our research experience of bridging
between the existing computer hardware/software and the new memory/storage
technologies, including the emerging non-volatile memory and the new types of
NAND flash media. For example, the emerging Z-NAND flash exhibits a high memory
density, retains a long lifetime and reduces the flash access latency from
hundreds of microseconds to only a few microseconds, which becomes a promising
candidate to replace the traditional DRAM. I will firstly introduce the
research with the system-level characterization of the Z-NAND flash. I will
explain our research efforts to make the existing server storage stack (from
kernel to firmware) adaptive to the new flash technology. In addition, I will
further show how the new flash technology can change the current computer
architecture to satisfy various demands.</span></span></p>


<p class="MsoNormal" style="margin: 0px 0cm; line-height: normal; text-align: justify; background-image: initial; background-attachment: initial; background-size: initial; background-origin: initial; background-clip: initial; background-position: initial; background-repeat: initial;"><span style="background-color: transparent; font-size: 15px;"> </span></p><p class="MsoNormal" style="margin: 0px 0cm; line-height: normal; text-align: justify; background-image: initial; background-attachment: initial; background-size: initial; background-origin: initial; background-clip: initial; background-position: initial; background-repeat: initial;"><span style="font-size: 15px;"><span lang="EN-US"><b>Bio</b>: </span><span style="line-height: 1.5; background-color: transparent;">Dr. Jie Zhang is currently a postdoctoral fellow at the Korea Advanced
Institute of Science and Technology (KAIST) under the supervision of Professor
Myoungsoo Jung. He is engaged in the research and design of computer
architecture and systems including storage systems and specialized processors. His
research addresses the requirements for high-performance storage systems in the
era of big data and artificial intelligence from the perspective of computer
architecture. He is dedicated to breaking through the bottlenecks of data
migration and the limitations of memory walls in the Von Neumann architecture. The
projects he led and participated in were funded by the U.S. Department of
Energy, the U.S. Natural Science Foundation, the Korea Research Foundation,
Samsung Electronics, SK Hynix, Texas Instruments, and Western Digital with a
cumulative total of over RMB 30 million. He has published more than 30 papers
in top-tier conferences and journals and 18 papers as first author, including
ISCA, OSDI, HPCA (three papers), MICRO, FAST, DAC, Eurosys, PACT, and TPDS. He
owns ten US-Korea-China patents. His research outputs have been highly
recognized by international academic community and widely used in products of
Samsung, Hynix and MemRay.</span></span></p><p class="MsoNormal" style="margin: 0px 0cm; line-height: normal; text-align: justify; background-image: initial; background-attachment: initial; background-size: initial; background-origin: initial; background-clip: initial; background-position: initial; background-repeat: initial;"><span style="font-family: Calibri, sans-serif; font-size: 10.5pt; line-height: 1.5; background-color: transparent;"><br></span></p>


<p class="MsoNormal" style="margin: 0px 0cm; line-height: normal; text-align: justify; background-image: initial; background-attachment: initial; background-size: initial; background-origin: initial; background-clip: initial; background-position: initial; background-repeat: initial;"><img src="cid:_Foxmail.1@3ad7a274-e7a8-fdf0-a810-cc4a116353a5" border="0" width="156" height="226.8"></p><p class="MsoNormal" style="margin: 0px 0cm; line-height: normal; text-align: justify; background-image: initial; background-attachment: initial; background-size: initial; background-origin: initial; background-clip: initial; background-position: initial; background-repeat: initial;"><span style="font-family: 'Microsoft YaHei UI', Tahoma; line-height: 21px; orphans: auto; widows: 1; background-color: transparent;"><br></span></p><div class="" style="line-height: normal; border-top-width: 0px; font-variant-ligatures: normal;"><font color="#ff0000"><b><font class=""><span class="" style="line-height: 1.5; background-color: transparent;"><span style="font-size: 16px;"><br></span></span></font></b></font></div><div class="" style="line-height: normal; border-top-width: 0px; font-variant-ligatures: normal;"><font color="#ff0000"><b><font class=""><span class="" style="line-height: 1.5; background-color: transparent;"><span style="font-size: 16px;">--范明明博士</span></span></font><span style="font-size: 16px;"><span style="text-align: justify; background-color: transparent;">报告</span><span style="line-height: 1.5; background-color: transparent;">信息--</span></span></b></font></div><div class="" style="line-height: normal; border-top-width: 0px; font-variant-ligatures: normal;"><font class=""><span class="" style="line-height: 1.5; font-size: 16px; background-color: transparent;"><br></span></font></div><div class="" style="border-top-width: 0px; font-variant-ligatures: normal;"><p class="MsoNormal" style="margin: 0px 0cm; line-height: normal; text-align: justify; background-image: initial; background-attachment: initial; background-size: initial; background-origin: initial; background-clip: initial; background-position: initial; background-repeat: initial;"><span style="font-size: 15px;"><span lang="EN-US"><b>Title: </b></span><span style="orphans: auto; widows: 1; background-color: transparent;">Designing Assistive Technologies for People with Disabilities and Older Adults</span></span></p><p class="MsoNormal" style="margin: 0px 0cm; line-height: normal; text-align: justify; background-image: initial; background-attachment: initial; background-size: initial; background-origin: initial; background-clip: initial; background-position: initial; background-repeat: initial;"><span lang="EN-US" style="font-size: 15px;"> </span></p><p class="MsoNormal" style="margin: 0px 0cm; line-height: normal; text-align: justify; background-image: initial; background-attachment: initial; background-size: initial; background-origin: initial; background-clip: initial; background-position: initial; background-repeat: initial;"><span style="font-size: 15px;"><span lang="EN-US"><b>Abstract: </b></span><span style="orphans: auto; widows: 1; background-color: transparent;">About 15% of the world’s population, according to the World Health Organization, has some form of disability. Meanwhile, the global population is rapidly aging as well. People with disabilities and older adults often face difficulties caused by inadequate social and societal infrastructures, poorly designed technologies, and their physical or cognitive impairments. This has spurred researchers to investigate ways to help people with disabilities and older adults overcome such difficulties.</span></span></p><p class="MsoNormal" style="margin: 0px 0in; line-height: normal; orphans: auto; widows: 1;"><span style="font-size: 15px;"></span></p><p class="MsoNormal" style="margin: 0px 0in; line-height: normal; orphans: auto; widows: 1;"> </p><p class="MsoNormal" style="margin: 0px 0in; line-height: normal; orphans: auto; widows: 1;"><span style="font-size: 15px;">In this talk, I will present the design and evaluation of three assistive technologies to show how my research leverages advanced mobile and wearable computing technology to help people with disabilities and older adults. Specifically, one assistive technology helps people with upper-body motor impairments to interact with their phones without touch, one helps people with visual impairments to enter texts on smartphones more effectively, and one helps older adults better cope with declining memory issues. Finally, I will discuss potential future research directions.</span></p><p class="MsoNormal" style="margin: 0px 0cm; line-height: normal; text-align: justify; background-image: initial; background-attachment: initial; background-size: initial; background-origin: initial; background-clip: initial; background-position: initial; background-repeat: initial;"><span style="background-color: transparent; font-size: 15px;"> </span></p><p class="MsoNormal" style="margin: 0px 0cm; line-height: normal; text-align: justify; background-image: initial; background-attachment: initial; background-size: initial; background-origin: initial; background-clip: initial; background-position: initial; background-repeat: initial;"><span style="font-size: 15px;"><span lang="EN-US"><b>Bio</b>: </span><span style="orphans: auto; widows: 1; background-color: transparent;">Dr. Mingming Fan is a tenure-track Assistant Professor in the Golisano College of Computing and Information Sciences at the Rochester Institute of Technology (RIT) since August 2019. He directs the Intelligent and Inclusive Interaction Research Group at RIT, where he is also a member of the Center for Accessibility and Inclusion Research (CAIR) and the Center for Human-Aware Artificial Intelligence (CHAI). Dr. Fan received a Ph.D. in Computer Science from the University of Toronto and an MS in Computer Science from Tsinghua University.</span></span></p><p class="MsoNormal" style="margin: 0px 0in; line-height: normal; orphans: auto; widows: 1;"><span style="font-size: 15px;"></span></p><p class="MsoNormal" style="margin: 0px 0in; line-height: normal; orphans: auto; widows: 1;"> </p><p class="MsoNormal" style="margin: 0px 0in; line-height: normal; orphans: auto; widows: 1;"><span style="font-size: 15px;">Dr. Fan researches at the intersection of Human-Computer Interaction (HCI), Accessibility, and Ubiquitous Computing (UbiComp). His research focuses on understanding User Experience (UX) and Accessibility problems via user-centered approaches and addressing them via designing human-AI collaborative tools, assistive technologies, and novel interaction methods. His work has been published at top-tier conferences and journals in the field of HCI, accessibility and ubiquitous computing, such as CHI (the premier conference in the field of HCI), ACM Transactions on Computer-Human Interaction (TOCHI), ASSETS (the premier conference in the field of accessibility), ACM Transactions on Accessible Computing (TACCESS), UbiComp/IMWUT (the premier conference in the field of UbiComp), and IEEE Transactions on Visualization and Computer Graphics (TVCG). Moreover, his work has won a Best Artifact Award at ASSETS 2020, a Best Paper Award at CHI 2019, and a Best Paper Honorable Mention Award at UbiComp 2015. More info can be found on his website:<a href="http://mingmingfan.com/" style="color: purple;">http://mingmingfan.com/</a><span class="MsoHyperlink" style="color: blue; text-decoration: underline;">.</span></span></p><p class="MsoNormal" style="margin: 0px 0cm; line-height: normal; text-align: justify; background-image: initial; background-attachment: initial; background-size: initial; background-origin: initial; background-clip: initial; background-position: initial; background-repeat: initial;"><span style="font-family: 'Microsoft YaHei UI', Tahoma; line-height: 21px; orphans: auto; widows: 1; background-color: transparent;"><br></span></p><p class="MsoNormal" style="margin: 0px 0cm; line-height: normal; text-align: justify; background-image: initial; background-attachment: initial; background-size: initial; background-origin: initial; background-clip: initial; background-position: initial; background-repeat: initial;"><img src="cid:_Foxmail.1@4cceb6bf-7ad0-48a8-2eb2-e22c83682426" border="0" width="180" height="180"></p></div></div></div><div><span><div style="MARGIN: 10px; FONT-FAMILY: verdana; FONT-SIZE: 10pt"><br></div><div style="MARGIN: 10px; FONT-FAMILY: verdana; FONT-SIZE: 10pt"><br></div><div style="MARGIN: 10px; FONT-FAMILY: verdana; FONT-SIZE: 10pt">---</div><div style="MARGIN: 10px; FONT-FAMILY: verdana; FONT-SIZE: 10pt">祝好,</div><div style="MARGIN: 10px; FONT-FAMILY: verdana; FONT-SIZE: 10pt">陈哲轩</div><div style="MARGIN: 10px; FONT-FAMILY: verdana; FONT-SIZE: 10pt"><br></div></span></div>
</div></blockquote>
</div></div></blockquote>
</body></html></blockquote></div>