交互技术交互技术包括
在嘈杂的环境中,水下或太空中,无声语音识别是一种有效的输入方式,有朝一日飞行员、消防员、特警、执行特殊任务的部队都可以使用。研究人员还试图使用无声语音识别系统来控制电动轮椅。对于有语言障碍的人来说,无声语音识别技术还可以通过高效的语音合成帮助他们与外界交流。如果这项技术成熟了,以后人们上网聊天就不用在键盘上打字了。
美国国家航空航天局的艾姆斯研究中心正在开发一种无声的语音识别系统。研究人员表示,当一个人冥想或低声说话时,不管实际的嘴唇和面部动作如何,都会产生相应的生物信号。他们开发的识别系统有纽扣大小的特殊传感器,固定在下巴和喉结两侧,可以捕捉大脑向发声器官发出的指令,并“读取”这些信号。这套系统最终将被集成到宇航员的舱外活动宇航服中,宇航员可以通过它向仪器或机器人发送无声指令。该项目的首席科学家查克·乔金森(Chuck Jokinson)表示,再过几年,无声语音识别技术就能进入商业应用。眼球追踪的基本工作原理是利用图像处理技术,使用可以锁定眼睛的特殊摄像头连续记录视线变化,追踪视觉注视频率和注视持续时间,并根据这些信息对被追踪的人进行分析。
越来越多的门户网站和广告商开始追求眼球追踪技术。他们可以根据跟踪结果了解用户的浏览习惯,合理安排网页的布局,尤其是广告的位置,以达到更好的投放效果。德国Eye Square公司发明的远程眼球追踪器可以放在电脑屏幕前,也可以嵌入其中。在红外技术和样本识别软件的帮助下,可以记录用户的视线转移。眼动仪已经应用于广告、网站、产品目录、杂志效用测试和仿真研究等领域。
由于眼球追踪可以取代键盘输入和鼠标移动的功能,科学家们开发了一种残疾人专用电脑。用户可以通过关注屏幕上的特定区域来选择电子邮件或指令。未来的可穿戴计算机也可以利用眼球追踪技术更方便地完成输入操作。通过电刺激实现触觉再现,盲人可以“看见”周围的世界。
英国国防部引进了一种名为BrainPort的先进仪器,可以帮助盲人用舌头获取环境信息。
BrainPort配备了一副带有摄像头的眼镜,一个由细线连接的“棒棒糖”塑料传感器和一个手机大小的控制器。控制器会将黑白图像转换成电子脉冲,传送到盲人用户口中的传感器。脉冲信号会刺激舌头表面的神经,并通过传感器上的电极传递到大脑,大脑会将感知到的刺激转化为低像素的图像,使盲人可以清楚地“看到”各种物体的线条和形状。首次尝试该设备的英国盲人士兵克雷格·路德伯格(Craig Ludberg)已经能够在没有外部援助的情况下独立行走和正常阅读,他还成为了英格兰国家盲人足球队的一员。
理论上,指尖或身体的其他部位也可以像舌头一样实现触觉再现,而且随着技术的发展,大脑感知的图像清晰度会大大提高。未来还可以通过可见光谱外的脉冲信号刺激大脑形成图像,从而创造出许多新奇的可能性,比如在能见度极低的海域使用的水肺潜水装置。几十年来,隐形眼镜一直被用作矫正视力的工具。科学家们现在希望将电路集成到镜片中,创造出更强大的超级隐形眼镜,不仅可以赋予佩戴者放大远处物体的超级视觉,还可以显示全息图像和各种立体图像,甚至可以取代电脑屏幕,让人们随时享受无线上网的乐趣。
美国华盛顿大学电子工程系的科学家利用自组装技术,将纳米级的微细粉末金属元件在聚合物镜片上“自组装”成微电路,成功地将电子电路与人工晶体结合在一起。该项目的负责人Babak Parviz表示,仿生隐形眼镜使用了现实增强技术,可以使虚拟图像与人们可以看到的真实场景重叠,这将彻底改变人们相互之间以及与周围环境的互动方式。一旦最终设计成功,它可以放大远处的物体,让电子游戏玩家仿佛身临其境地进入虚拟的“游戏世界”,还可以让用户通过只有自己才能看到的“虚拟屏幕”无线上网。
因为这种隐形眼镜会一直与人体体液保持接触,所以也可以作为一种无创的人体健康监测器,比如监测糖尿病人的胰岛素水平。帕维茨预测,类似的监测仪器可能会在5年到10年内出现。人机交互技术是指通过计算机输入输出设备以有效的方式实现人与计算机之间对话的技术。
人机接口又称“脑机接口”,是人或动物大脑(或脑细胞的培养物)与外部设备的直接连接路径。即使没有直接的语言和动作,大脑的思想和想法也可以通过这条路径传达给外界。
人机界面分为非侵入式和侵入式。在无创人机界面中,通过外部手段读取脑电波,例如,放置在头皮上的电极可以解读脑电活动。在过去的脑电图扫描中,电极需要用导电胶仔细固定,扫描结果会更准确。然而,技术改进后,即使电极的位置不那么精确,扫描也可以拾取有用的信号。其他非侵入式人机界面包括脑磁图和功能性磁共振成像。
为了帮助语言和运动障碍患者,美国、西班牙和日本的研究人员最近开发出了“理想轮椅”。这些设备都是利用外部传感器截取患者大脑发出的神经信号,然后将信号编码传输给计算机,再由计算机分析合成语言或者形成菜单式的控制界面来“翻译”患者的需求,让轮椅根据这些需求为患者服务,让他们真正做到“随心所欲”。
美国威斯康星大学麦迪逊分校的生物医学博士生亚当·威尔逊(Adam Wilson)戴上了自己研发的新型读脑头盔,然后想到了一句话:“用脑电波扫描一下,发到推特上。”于是这句话出现在了他的微博里。由于技术限制,该设备每分钟只能输入10个字母,但却显示出可观的应用前景。闭锁综合征(有意识,听不懂语言,但常因不动不能说话被误认为昏迷)和四肢瘫痪的患者,有望依靠大脑“写”字和控制轮椅运动来恢复部分功能。
有创人机界面的电极直接与大脑相连。到目前为止,有创人机界面在人体内的应用仅限于神经系统的修复,通过适当的刺激可以帮助受伤的大脑恢复一些功能,比如可以重现光线的视网膜的修复,可以恢复运动功能或辅助运动的运动神经元的修复。科学家还尝试在完全瘫痪患者的大脑中植入芯片,成功利用脑电波控制电脑,绘制简单图案。
匹兹堡大学在大脑直接控制的假肢开发方面取得了重大突破。研究人员在两只猴子的运动皮层中植入了一个薄如头发的微芯片,该微芯片与一个成人手臂形状的机械假体无线连接。芯片感受到的来自神经细胞的脉冲信号被计算机接收和分析,最终可以转化为机器人手臂的运动。测试结果表明该系统是有效的。猴子通过思维控制机械臂抓、翻、取,自由移动完成进食动作。
除了医疗领域,人机界面还有很多惊人的应用。例如,家庭自动化系统可以根据房间里的人自动调节室温;人睡着了,卧室的灯就会变暗或者熄灭;如果有人中风或其他突发疾病,他们会立即呼叫护理人员寻求帮助。
到目前为止,大多数人机界面都是“输入”,即人们用思想控制外部的机器或设备。但是,从人脑接收外部指令,形成感觉,语言甚至思想,仍然面临着技术上的挑战。
然而,在神经系统修复方面的一些应用,如人工耳蜗和人工视觉系统,可能会开辟一个新的思路:有一天科学家可能能够通过与我们的感觉器官连接,控制大脑产生声音,图像甚至思想。但与此同时,随着与人类神经系统相连的各种机械设备越来越精密复杂,应用越来越广泛,逐渐具备远程无线控制的功能,安全专家会担心“黑客入侵大脑”事件的发生。人机交互的起源可以追溯到公元1764年的英国。随着商品经济的发展,越来越多的商品需要销往海外市场。为了提高生产效率,增加商品产量,人们尽力改进生产技术。这时,织布工詹姆斯·哈格里夫斯发明了珍妮手纺纱机,以革命性的姿态改变了传统的工业生产模式。新型珍妮纺纱机一次可纺多根棉线,纺纱能力比老式纺纱机提高了8倍,生产效率也发展很快,建立了规模较大的织布厂。这项发明不仅标志着第一次工业革命的开始,也是人机交互的起源,标志着人类率先从工业生产领域开始关注和思考人机交互。
1808年,意大利人佩列里尼·图里发明了世界上第一台机械打字机。然而,真正创造打字机历史并获得专利的是美国密歇根州的威廉·伯特,他在1828年制造了“排字机”,使现代键盘的出现成为可能。美国记者C.Sholes在1868年发明了QWERTY键盘。随着信息技术的发展,信息处理的难度越来越大,仅有的键盘已经不能很快满足人们的需求。1964年,美国人道格·恩格尔巴斯发明的鼠标让人们第一次感受到了自由交互的魅力。鼠标的加入,用户可以随意点击屏幕上的任意位置,有效提升了体验和数据处理效率。但满足的过程总是短暂的,不断升级的“欲望”孕育着更高的需求。基于此,一个可以让图形化人机交互界面更加直观易用的小工具诞生了,那就是1971年美国人萨姆赫斯特发明的世界上第一个触摸传感器。这也让人机交互进入了一个全新的触摸屏时代。
很快,依靠机械单向输入的交互已经不能满足人类的需求。此时,以苹果推出的Siri为代表,语音交互以其更省力、学习成本更低的优势,成为人类新的需求方向和研究热点。继苹果Siri之后,Google Now在Google搜索功能的基础上,记录用户搜索的关键词,通过智能阅读为用户提供相关语音服务。这使得机器设备从“被动”回答用户问题升级为“主动”提醒用户需求,即机器向人类提供的面向服务的交互方式。苹果Siri和Google Now都赋予了机器在“独立思考”的基础上行动的能力,从而开启了双向人机交互的新时代。以Kinnect技术应用于游戏为代表的体感交互,进一步拓展和延伸了人机交互的范围。