多点触控触摸屏属于什么类型的触摸屏?原理和普通触摸屏有什么区别?

多点触摸屏多为电容式,其他类型应该也有。

多点触摸屏

多点触摸的任务可以分为两个方面:一是同时采集多点信号,二是判断每个信号的含义,这就是手势识别。与触摸技术只能接受单一输入相比,多点触摸技术允许用户同时在多个地方触摸显示屏,从而可以缩放和旋转网页或图片。苹果iPhone只允许两个手指操作,所以可以称之为“双点触控”,而微软即将推出的Surface电脑可以同时响应52个触摸点。

为了实现多点触摸功能,多点触摸屏和单点触摸屏采用了完全不同的结构。从屏幕外部看,单个触摸屏只有几条信号线(一般是4Pin或5Pin),而多点触摸屏有很多引线。从内部看,单点触摸屏的导电层只是一个平板,而多点触摸屏在平板上被分割成许多相对独立的触摸单元,每个触摸单元通过独立的导线与外部电路相连,所有触摸单元在板上排列成矩阵。这样,当用户的手指触碰到屏幕上的某个部位时,就会从相应的检测线输出一个信号。当手指移动到另一个部位时,会从另一条检测线输出信号。

苹果为iPhone申请了两项多点触控面板专利——自电容和互电容。从使用角度来看,自电容式触摸屏和互电容式触摸屏没有本质区别,只是它们的内部结构——互电容式触摸屏有隔离的驱动线和检测线,而自电容式触摸屏只有一层透明电极。

我们已经知道iPhone可以用两根手指同时触摸,而Surface最多允许52个触摸点。都是多点触控屏幕,为什么触控点不一样?

众所周知,围棋的棋盘上有19行,最多可以容纳19×19=361个棋子。我们的问题和这个差不多。多点触控屏幕上纵横交错的检测线有很多交点,每个交点都可以作为一个触摸点。从触摸屏的角度来说,确实可以支持很多触摸点。实际上可以支持多少个触摸点最终由DSP芯片和软件决定。

了解了多输入技术之后,再来说说手势识别。手势是一种非语言的高效交流方式。电脑和手机中的很多操作,一个简单的手势就足够了。但是对于一些比较抽象复杂的操作(比如图片的扩展旋转),实现单点手势会比较困难。这些操作虽然可以通过应用程序(比如Photoshop)来完成,但是会给用户带来很多麻烦,效率极低。反过来,借助DSP芯片(或其他处理器)对多个触摸屏的输入信号进行处理和计算,可以大大简化操作者的动作,提高用户的效率。比如可以直接用手指画一条直线或者一个圆,还可以方便的浏览网页,看图片等等。

相比多输入技术,手势识别是一项非常成熟的技术。在线手写识别是手势识别技术的典型应用。所以在多点触控的基础上加入手势识别技术,并没有遇到更多的阻碍,而是自然而然的来了。

触摸屏的工作原理

为了操作方便,人们用触摸屏代替鼠标或键盘。工作时,我们必须先用手指或其他物体触摸安装在显示器前方的触摸屏,然后系统会根据手指触摸的图标或菜单位置定位输入的选择信息。触摸屏由触摸检测组件和触摸屏控制器组成;触摸检测部分,设置在显示屏前方,用于检测用户触摸位置,并在接收到触摸位置后,将触摸位置发送给触摸屏控制器;触摸屏控制器的主要功能是接收来自触摸点检测装置的触摸信息,转换成接触坐标,然后发送给CPU。同时可以接收CPU发来的命令并执行。