iPhone的双摄像头会给AR带来哪些改变?

苹果早在几年前就开始探索VR和AR相关技术,这已经不是什么秘密了(我认为这些技术还达不到苹果的要求,因为我还没有发布实际的产品(既骚又亮,既实用又成熟))。他们几乎涉足了各种相关领域,从一开始展示专利,聘请行业巨头,到获取关键技术。这里最值得注意的是LinX,它于2015年被苹果公司收购。这家以色列公司最擅长通过使用微型相机阵列获得高质量的图像。

所以iPhone 7 Plus使用的双摄像头系统很可能是基于LinX的阵列摄像头技术。值得注意的是,这项技术不仅可以用来拍摄更高质量的图片,还可以实现深度信息感知(实现的方式有很多种,其中RGB双摄像头识别是常见的一种,英特尔和微软采用的都是红外摄像头)。它经常用于AR中的3D扫描和场景识别。

当使用手机摄像头可以很容易地测量出物体的深度信息,并可以构造出三维地图时(下图是LinX的例子,它使用手机摄像头识别人脸的三维信息),苹果可以使用iPhone实现计算机生成的增强图像叠加到真实场景中(Google Tango项目的目标)。

前段时间非常火的Pokemon GO是一款ar手游,但是由于使用的是普通的智能手机,其生成的增强画面(Pokemon)并不能真正与显示画面中的场景进行交互(因为无法感知环境的3D信息)。现在,有了双摄像头技术,大量的iOS应用开发者可以利用他们的智能为iOS平台构建更多的AR软件。这一次,软件不再是过去那种没用的噱头,而是一个真正好玩又实用的增强现实应用。那么使用这项技术我们可以看到哪些应用呢?

测量真实环境中物体的距离(深度信息)的能力非常接近我们的人眼。眼睛正常的人类可以知道我们面前的柱子和墙壁有多远,我们可以下意识地绕过这些障碍物。但是视力障碍的人和过去的电脑做不到。所以我们可以开发这样一个应用,它可以帮助有视觉障碍的人绕过房间里的障碍物,通过音频定位物品的具体位置。

另一个应用是检测和制作房子的三维地图。双摄像头可以通过视差计算精确测量不同物体之间的距离。通过手持iPhone进行扫描,我们可以构建一个完整的室内三维空间。想象一下,用手机在线预览房间里新沙发的摆放位置。想象一下,把iPhone放在手机盒子里,然后进入一个像你房间一样的虚拟空间。

这项技术在娱乐和社交方面也有很多应用。比如口袋妖怪不再简单的悬浮在手机拍摄的镜像中。他们会躲在桌下,撞到桌角会跳到沙发上蹭额头。或者在社交应用中,你可以邀请朋友进入你的虚拟房间。

由于双摄像头可以识别物体的距离,因此也可以用来实现手势识别。因此,iPhone可以像HoloLens和Leap Motion一样具备手势追踪能力,这对于在VR和AR中与虚拟物体进行交互非常重要。

对于头戴显示器和手机来说,VR和AR是两个相互关联但本质不同的技术。VR追求完全沉浸在虚拟环境中,VR中的一切都是虚拟的,而AR则将虚拟物体叠加在真实环境上,追求虚拟物体与真实环境的互动。

虽然这一切归根结底只是我们的想象,但是双摄像头确实有这个应用潜力。可能苹果现阶段并没有打算赋予iPhone深度感知的功能,但是却引领了这样的潮流。那么越来越多的设备会使用双摄像头。当我们身边的手机有了这样的潜力,稍微一推,就像纸板对VR的冲击一样,AR真的会爆发。