清华五道口金融EMBA

首页 · 新闻 · 正文

史元春:智能交互——让机器更懂你

发布时间:2018-01-24 09:43:10

日前举行的“清华五道口金融EMBA&EE 2018新年思想汇”上,清华大学计算机系人交互与媒体集成研究所长、全球创新学院 (GIX) 院长史元春,作为清华五道口“科学企业家”项目的授课教授代表,进行了题为“智能交互——让机器更懂你”的分享。
 
她认为在普适计算机时代,随着更多嵌入式设备的出现,如何更加自然地进行人机之间的信息交换具有重要意义。人机交互的目的是为了让机器更懂“你”,让用户更加自如。她还通过“胖手指”、“空中打字”等案例分享了人机交互领域一些前沿的技术突破,并表示未来有望通过数据采集和建模来捕捉用户的所有姿态和行为,从而生产出真正理解用户的手机,让手机交互行为的感知更加精准和智能。史元春表示,人工智能技术的深度应用,能做到从模糊的行为习惯中解读出准确的意图,将为未来人机共生提供可靠的技术基础。
 
以下为史元春演讲实录:
 
各位下午好,非常荣幸有机会和五道口金融学院的老师和同学们交流,我叫史元春。我跟大家的经历不太一样,来自于计算机系。并且我在这个学校和计算机系有30多年了,从学生到老师。简介中谈到我是GIX学院院长。GIX的英文叫Global Innovation Exchange,是清华大学全球创新学院,它也是清华第一个在海外办学的学院,是清华在两年多以前在美国西雅图和华盛顿大学联合创办的,很欢迎我们更多的五道口金融学院的同学,能够有机会去西雅图,到清华这个特别的校区来学习和交流。
 
今天这个演讲的题目是关于我的科研的,叫智能交互。这里的交互是指人机交互。我们知道计算机的发展历史只有几十年,不是很长,但是这几十年来它已经和正在为我们的社会发展带来了巨大的变化,在计算机的发展过程中,人机交互也就是人和机器之间的信息交换的技术,我们可以不夸张的说,也是一项引领性的技术。
 
从我的这个表上大家应该可以看的出来,随着接口技术的变化,交互模式也发生了变化,计算机从实验室、机房已经走到了我们的办公室、家庭,甚至今天已经都走到了我们的手上,计算机的台数也发生了极大的数量级变化。
 
到了今天,我们已经走到了所谓的普适计算的时代,也就是说在我们的工作和生活的很多方面,我们有特制的手持的设备,像今天的手机,也有更多的嵌入式的系统,像家电设备,还有更多社会生活场景会有越来越多这样的设备,我们人们会有更多、更频繁的,并且希望与更自然的方式,和这些机器发生着关系。
 
也就是说我们可能会与手持的设备、家电的设备、穿戴的设备,机器人和无人车,以更自然的模态,比如包括用语音、用语义丰富的手势,甚至是我们日常的行为,在很多的场景中与机器和计算系统发生互动,有效进行信息访问,并接受信息系统提供的现实服务。所谓的自然,就是指人不需要很精准的表达,是一种模糊的表达和传达的方式。但是,在机器端能够给我们精准的理解和服务。
 
我们今天的这些交互方式其实还是很规范的,甚至我们都在用的手机,也是规范交互的方式,基于一个严谨的结构,一个抽象的概念,有一定的学习甚至是记忆负荷,还需要比较准确的表达。
 
要实现人的模糊的表达,到精准的服务之间,需要克服这样一些技术挑战:比如我们的交互意图很内在,我们获得的数据随机性很大,用户行为的差异性也非常大,应用的场景也是各式各样的。因此,这些问题需要我们在相应的研究中来进行克服,并且人机交互既包括我们所使用的各种直接的、离用户很近的接口,也包括一个交互过程的优化。
 
简单看看接口,应该包括计算机采集用户输入意图的输入接口和计算机处理结果反馈给用户的输出接口。
 
从输入来看,人的意念产生了一个访问的请求,当然未来如果脑机接口的技术,也就是所谓读脑的技术能够发明的话,那我们就可以直接来获取用户的意图。但是,大家可以看到我这个图上画的还是一个虚线,今天还是不太现实的,那么我们的意念还是要通过我们的行为系统传达给机器。我们的行为可以是使用工具,也可以刚才讲到,像自然语言和各种姿态。
 
今天在我们的传感技术和识别的技术都有了很多的进步,比如说大家用的这个手机屏,留了一个小刘海,那是因为这块上面有十几个传感器,还不能在屏下,只能单独的露出来。我们现在的家庭里面可能已经有智能音箱来帮助我们服务,这个是语音识别技术的进步。甚至于人脸识别已经变成了我们身份的ID。
 
这些技术实际上在几十年前都已经提出来,最近的人工智能和大数据的进步使得成为现实、可用。但是,在交互接口上还有很多需要优化和需要创新的方面。
 
这里我举两个具体的例子:大家都在用手机,手机上面我们还有文本输入这样一个基本的任务。大家在用微信,今天会场也有不少人在用,这个时候你通常是在敲,而不是用语音识别,因为需要一个静默的环境。你敲的时候,大家如果用过电脑的话,你会觉得你的速度比用物理键盘慢了一倍,为什么慢?这就是人机交互中很典型的一个问题“胖手指问题”,是因为我们的手指,远比我们点击的对象要大的多。也就是对象的精准点击,用我们的fat finger是很难完成的,所以点不准你就慢下来了。
 
今天在场有不少人也戴了智能手表,就像这个图一样,我可以给你装一个软件,也会有一个软件全键盘,但有人会用吗?你肯定想着我不会用,因为基于我们在手机上进行输入的速度和体验来说,2毫米的小键盘根本不可用,这是一个典型的fat finger问题。
 
这里给大家看一个我们实验室的研究结果,这是我们在手表上做的一个全键盘,会看到输入的速度还是可以接受的,实测的结果,跟你在用手机进行输入的速度是一样的,每秒30-40个字左右。这是靠我们对电容图像的智能处理和自然语言模型相结合获得的结果,在一定程度上克服了所谓的胖手指问题。
 
用同样的原理,我们还可以提供手机上很现实的一项技术,叫防误触。手机的屏幕现在越来越大,有全面屏和曲面屏,同时也会带来一个问题,你握着它的时候会误触。
 
同样。我们在多特征的图像处理算法上的一些进展,使得我们在防误触上有比较大的进步。最近华为刚发布的mate10以及刚刚在美国发布的mate10 pro,相信在坐也有人在用这个手机,它上面每秒120次一直在运行一个高性能的误触检测算法,就是我们实验室做出来的。从原来有的产品13%的误触率,我们通过新算法直接降到0.3%,这个体验还是非常好的。
 
自然交互中,我们还很期待一些很科幻的场景。比如我们在很多科幻片中会有像手势、姿态的交互和识别。实际上手势识别或者姿态的识别,在人机交互是一个很难的命题,要与具体交互任务相结合,比如空中打字,也就是一抬手就在敲你想打的字,前提是你已经有了盲打的习惯。
 
在20多年前,大家就已经设想,未来应该能够实现这样的技术。右下角是苹果多年前曾经设想的,在台式机上不用物理键盘,抬手就可以打字。
 
上面这个照片,是我当年访问微软、戴着即将发布的hololens, VR、AR技术使得我们眼前可以呈现三维的虚拟对象,需要打字时,眼前出现的是一个二维的软键盘,但点击速度很慢。
 
看一下我们做的实验结果,对人在空中打字行为所携带的信息量充分挖掘、进行建模。充分挖掘是说,我们的主动手、被动手,主动手指、被动手指,以及手的位置的变化、落点和语言模型的结合,可以实现几十年前的理想,科幻的场景。
 
交互意图的理解,我们建立了一套通过数据采集、行为建模以及AI的一些分类算法,最终实现特定交互任务的一套研究方法和体系。我们把它用在手机上,希望通过众多传感器捕捉更多用户的姿态,包括握姿、面部表情甚至眼神等,我们会提供一个手机交互全行为感知的能力,未来大家在使用手机上会有更好的体验。
 
从这个角度,所谓智能交互的研究,也就是我们把一些模糊和用户行为习惯识别为具体、准确交互意图的研究,大有可为。即便从我们今天在手机这个问题上来看,我们也仅仅刚刚开始。
 
大家不要以为我们今天的智能手机只是10年前才有,其实30年前就有了,这是美国很普及的一本杂志《大众科学》在1995年的封面文章,就是1988年左右PARC研制的智能手机,实际上是iPhone原型系统。当时就有各种计算、传感和应用,以及识别的能力。
 
它跟我们人类的思想者紧密的结合在一起,共同互相了解和支持,就有更多的发现世界和增强能力。随着计算更多渗入到我们生活更多方面,智能技术的进步,也将为人机共生的美好前景提供支撑的技术。
 
很高兴有这样的机会跟大家分享,祝大家新年好!

分享文章: