<META HTTP-EQUIV="Content-Type" CONTENT="text/html; charset=gb2312">
<html xmlns:v="urn:schemas-microsoft-com:vml" xmlns:o="urn:schemas-microsoft-com:office:office" xmlns:w="urn:schemas-microsoft-com:office:word" xmlns:m="http://schemas.microsoft.com/office/2004/12/omml" xmlns="http://www.w3.org/TR/REC-html40"><head><meta name=Generator content="Microsoft Word 14 (filtered medium)"><style><!--
/* Font Definitions */
@font-face
        {font-family:SimSun;
        panose-1:2 1 6 0 3 1 1 1 1 1;}
@font-face
        {font-family:SimSun;
        panose-1:2 1 6 0 3 1 1 1 1 1;}
@font-face
        {font-family:Calibri;
        panose-1:2 15 5 2 2 2 4 3 2 4;}
@font-face
        {font-family:SimSun;
        panose-1:2 1 6 0 3 1 1 1 1 1;}
/* Style Definitions */
p.MsoNormal, li.MsoNormal, div.MsoNormal
        {margin:0cm;
        margin-bottom:.0001pt;
        font-size:11.0pt;
        font-family:"Calibri","sans-serif";}
a:link, span.MsoHyperlink
        {mso-style-priority:99;
        color:blue;
        text-decoration:underline;}
a:visited, span.MsoHyperlinkFollowed
        {mso-style-priority:99;
        color:purple;
        text-decoration:underline;}
span.EmailStyle17
        {mso-style-type:personal-compose;
        font-family:"Calibri","sans-serif";
        color:windowtext;}
.MsoChpDefault
        {mso-style-type:export-only;
        font-size:11.0pt;
        font-family:"Calibri","sans-serif";}
/* Page Definitions */
@page WordSection1
        {size:612.0pt 792.0pt;
        margin:72.0pt 90.0pt 72.0pt 90.0pt;}
div.WordSection1
        {page:WordSection1;}
--></style><!--[if gte mso 9]><xml>
<o:shapedefaults v:ext="edit" spidmax="1026" />
</xml><![endif]--><!--[if gte mso 9]><xml>
<o:shapelayout v:ext="edit">
<o:idmap v:ext="edit" data="1" />
</o:shapelayout></xml><![endif]--></head><body lang=ZH-CN link=blue vlink=purple style='text-justify-trim:punctuation'><div class=WordSection1><p class=MsoNormal><span lang=EN-US style='font-size:10.5pt'>Dear Colleagues,<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US style='font-size:10.5pt'><o:p> </o:p></span></p><p class=MsoNormal><span lang=EN-US style='font-size:10.5pt'>It is my pleasure to have invited Prof. Ye Wang from National University of Singapore to give a talk about computing, multimedia and e-health. Please disseminate to your students. Details as follows:<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US style='font-size:10.5pt'><o:p> </o:p></span></p><p class=MsoNormal><span lang=EN-US>TITLE : When Music, Information Technology, and Medicine Meet<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US><o:p> </o:p></span></p><p class=MsoNormal><span lang=EN-US>VENUE: Thursday, Jan 10, 2013, Room 404, SEIEE Building 3<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US><o:p> </o:p></span></p><p class=MsoNormal><span lang=EN-US>ABSTRACT:<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US>From Napster to YouTube and iTunes, music has always been a major driving force of Internet technologies. A huge amount of music content is now accessible to the public. Organizing and categorizing this content to support an effective recommendation system has become a significant challenge. The primary goal of our lab is to develop new technologies to address this challenge in the field of healthcare. We seek to harness the synergy of sound and music computing (SMC), mobile computing, and cloud computing technologies to promote healthy lifestyles and to facilitate disease prevention, diagnosis, and treatment in both developed countries and resource-poor developing countries. In this talk, I present a collaborative research project between the SMC lab at National University of Singapore and the Music, Neuroimaging, and Stroke Recovery Lab at Beth Israel Deaconess Medical Center (BIDMC) / Harvard Medical School. We are developing a cloud-based therapy delivery system that uses music to enhance limb function and speech in patients with neurological impairments using smart devices such as iPhone. Our focus is to develop high-tech, low-cost solutions that aim to (1) facilitate recovery in patients with post-stroke speech and motor impairments, (2) improve gait and mobility and reduce fall risk in patients with Parkinson’s disease (PD), and thereby, improve Quality of Life (QoL) for both patients and caregivers.<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US>In this talk, I will also introduce a few new funded projects at NUS SMC Lab, followed by live demos and a discussion of possible research collaborations, available PhD scholarships and research positions in our multidisciplinary team which call for expertise in statistical signal processing, optimization, machine learning as well as human computer interaction.<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US><o:p> </o:p></span></p><p class=MsoNormal><span lang=EN-US>BIODATA:</span><span lang=EN-US style='mso-fareast-language:EN-US'><o:p></o:p></span></p><div style='mso-element:para-border-div;border:none;border-bottom:dotted windowtext 3.0pt;padding:0cm 0cm 1.0pt 0cm'><p class=MsoNormal style='border:none;padding:0cm'><span lang=EN-US>Ye Wang is an Associate Professor in the Computer Science Department at the National University of Singapore (NUS) and NUS Graduate School for Integrative Sciences and Engineering (NGS). He established and directed the sound and music computing (SMC) Lab. Before joining NUS he was a member of the technical staff at Nokia Research Center in Tampere, Finland for 9 years. His research interests include sound analysis and music information retrieval (MIR), mobile computing, and cloud computing, and their applications in music edutainment and e-Health, as well as determining their effectiveness via subjective and objective evaluations. His most recent projects involve the design and evaluation of systems to support 1) therapeutic gait training using Rhythmic Auditory Stimulation (RAS), and 2) Melodic Intonation Therapy (MIT). In the academic year 2011 - 2012 he has taken his <o:p></o:p></span></p><p class=MsoNormal style='border:none;padding:0cm'><span lang=EN-US>sabbatical leave at the School of Computer Science of Fudan University and at Harvard Medical School.<o:p></o:p></span></p><p class=MsoNormal style='border:none;padding:0cm'><span lang=EN-US><o:p> </o:p></span></p><p class=MsoNormal style='border:none;padding:0cm'><span lang=EN-US><o:p> </o:p></span></p></div><p class=MsoNormal><span lang=EN-US style='font-size:10.5pt'><o:p> </o:p></span></p><p class=MsoNormal><span lang=EN-US style='font-size:10.5pt'><o:p> </o:p></span></p><p class=MsoNormal><span style='font-family:SimSun'>标题:音乐、医疗及信息技术之结合</span><span lang=EN-US><o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US><o:p> </o:p></span></p><p class=MsoNormal><span style='font-family:SimSun'>摘要:</span><span lang=EN-US><o:p></o:p></span></p><p class=MsoNormal><span style='font-family:SimSun'>从</span><span lang=EN-US>Napster</span><span style='font-family:SimSun'>到</span><span lang=EN-US>YouTube</span><span style='font-family:SimSun'>,再到</span><span lang=EN-US>iTunes</span><span style='font-family:SimSun'>,音乐一直是</span><span lang=EN-US>IT</span><span style='font-family:SimSun'>领域中的一支重要力量。现在,海量的音乐内容可以容易的为大众所获取,如何将这些音乐内容进行组织和分类并构建一个有效的推荐系统已经成为一个重要的研究课题。我们实验室的一个主要研究方向就是致力于在医疗领域内解决这一挑战。我们尝试将声音及音乐计算</span><span lang=EN-US>(sound and music computing)</span><span style='font-family:SimSun'>、移动计算和云计算结合起来,同时针对发达国家和资源匮乏的发展中国家,提供一系列疾病预防、疾病诊断、临床治疗及推广和提倡健康生活方式的解决方案。在本次讲座中,我将介绍新加坡国立大学声音与音乐计算实验室</span><span lang=EN-US>(Sound and Music Computing Lab, NUS)</span><span style='font-family:SimSun'>和哈佛医学院音乐、神经影像和中风康复实验室</span><span lang=EN-US>(Music, Neuroimaging and Stroke Recovery Lab, BIDMC)</span><span style='font-family:SimSun'>的一个合作项目。在这个项目中,我们尝试构建一个基于私有云的诊疗系统,通过</span><span lang=EN-US>iPhone</span><span style='font-family:SimSun'>等智能设备,帮助病人增强肢体机能和语言机能。研究的重点是开发出高技术、低成本的解决方案以实现:</span><span lang=EN-US>1) </span><span style='font-family:SimSun'>帮助中风导致失语的患者恢复语言机能,</span><span lang=EN-US>2) </span><span style='font-family:SimSun'>帮助帕金森氏症患者增强步态稳定和行走机能以降低跌倒几率;从而,帮助这些病人及其家属提高生活质量。</span><span lang=EN-US><o:p></o:p></span></p><p class=MsoNormal><span style='font-family:SimSun'>此外,我还将介绍一些我们声音与音乐计算实验室</span><span lang=EN-US>(Sound and Music Computing Lab, NUS)</span><span style='font-family:SimSun'>的其他项目及其相关演示,并将讨论可能的研究合作机会、我们实验室的</span><span lang=EN-US>PhD</span><span style='font-family:SimSun'>奖学金及开放的研究岗位。我们实验室的研究方向覆盖多个学科及其交叉领域,欢迎统计信号处理、最优化过程、机器学习及人机交互领域的同仁加盟。</span><span lang=EN-US><o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US><o:p> </o:p></span></p><p class=MsoNormal><span style='font-family:SimSun'>个人简介:</span><span lang=EN-US><o:p></o:p></span></p><p class=MsoNormal><span style='font-family:SimSun'>王晔,新加坡国立大学计算机学院副教授,新加坡国立大学理工研究生院副教授。新加坡国立大学声音与音乐计算实验室的创始人和负责人。加入新加坡国立大学之前,曾就职于芬兰诺基亚坦佩雷研究中心,从事研究工作达</span><span lang=EN-US>9</span><span style='font-family:SimSun'>年。</span><span lang=EN-US>2011-2012</span><span style='font-family:SimSun'>年度,曾赴复旦大学计算机学院和哈佛医学院访问。研究方向包括声音分析、音乐信息检索、移动计算、云计算及其在音乐教育、电子化医疗等领域的应用和主客观评估方法。近年的研究项目涉及为</span><span lang=EN-US>1) </span><span style='font-family:SimSun'>基于节奏化听觉刺激</span><span lang=EN-US>(RAS)</span><span style='font-family:SimSun'>的行走机能训练,</span><span lang=EN-US>2) </span><span style='font-family:SimSun'>旋律语调治疗法</span> <span style='font-family:SimSun'>设计的系统及其评估。</span> <span lang=EN-US><o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US style='font-size:10.5pt'><o:p> </o:p></span></p></div></body></html>