叫车应用程序的流行意味着有更多的乘客和司机使用这样的服务。这就带来了一个问题,如果同一个地方有很多人叫车,或者停了很多车辆,乘客该如何识别出哪一辆是自己的呢?
虽然这些应用程序通常都会根据GPS坐标显示用户和司机各自的位置,但是在拥挤的环境中,地图上的指示似乎并不管用。另一个问题是,并不是所有的人都会看地图,因而这种方式的应用就更加受限了。
司机本身也面临着类似的问题,如何在一大堆叫车的人当中找到自己的乘客并靠近他们?尤其当乘客旁边还有很多其他人时,如果不知道乘客的穿着或者能够获得极其精确的位置(GPS并不总是能做到这一点),司机的任务也同样棘手。
在周四由美国专利商标局公布的专利申请中,苹果公司提交的“帮助识别到达车辆的增强现实接口”旨在利用GPS和视觉识别器的组合来解决该问题。
按照苹果公司的解决方案,用户可以在希望识别车辆时举起并移动他们的iPhone,这样后置摄像头就可以摄入环境的图像,并最终在显示屏幕上标识出要找的车辆。对于司机来说,方法也是类似的,iPhone会在屏幕上标识出他们要寻找的乘客。
苹果新专利
该应用程序一开始会检查双方的位置,以确保彼此非常接近,它会在用户的应用程序上提示提供车辆的细节信息,例如品牌、型号和颜色。然后AR系统会使用后置摄像头采集的图像数据识别车辆,并根据用户提供的数据检查车辆的特性,以确定哪一辆车是用户要找的目标。
成功识别后,应用程序的AR视图中会突出显示识别出的目标车辆,例如添加一个指向该车辆的剪头或者在车辆周围闪现一个圆圈。
司机也可以使用一个类似的系统来识别乘客。由于乘客很有可能会定期地更换衣服,所以系统创建的特征数据库使用了一些不太可能变化的特征,如体重、感知重量、面部毛发、头发的颜色和照片,然后应用程序使用这些特征来缩小目标范围,直至找到乘客。
外貌可能会发生变化,因此系统为这种识别方式增加了一种备份方式,用户可以提前告知应用程序周围环境的信息,例如附近的地标或者其他关于外观的明显细节。
进入预定范围内时,应用程序会发信号通知司机举起他们的移动设备并使用后置摄像头扫描环境,如果设备已经被固定在合适的位置上,应用程序就会自动启用扫描模式。应用程序会使用面部及用户提供的其他元素来识别乘客,并且在屏幕上标识出来。
Apple在增强现实中投入了大量精力和资源,包括创建ARKit以简化开发人员在应用添加AR内容的过程。该公司还在该领域进行了多次收购和招募。为了展示AR的实用性,苹果公司在iOS 12中推出了Measure应用程序,该应用程序可以利用iPhone的后置摄像头测量物品的尺寸。而AR Quicklook能够快速将AR对象从在线商店放入场景之中,这可以帮助在线购物者决定是否购买该商品。
围绕着苹果智能眼镜和AR头戴设备的传言也持续了一年,包括一个可以使用WiGig并配备了8K分辨率的目镜的头戴设备。至于苹果头戴设备或者智能眼镜何时才会推出,一些分析师认为它们可能会在2021年出现。