所谓传感器(Sensor),就是能够感知周围环境并输出电信号的元器件。像麦克风,就是一个能够感知周围声音的传感器,而摄像头就是视觉传感器。人通过耳朵、眼睛、皮肤、鼻子等感知周围的刺激,进而做出决策,智能设备同样如此。我认为iPhone之所以强大,除了具有强大的计算能力和iOS操作系统,很重要的一点就是采用了各种先进的传感器,采集周边的数据。接下来我就按时间顺序讲解iPhone上所采用的传感器,带你领略苹果的黑科技。
一、iPhone2G(2007)
多点触控屏幕
2007年初,苹果对外发布了它们的新产品iPhone,在这之前,iPod已经非常普及,许多人都在设想苹果的手机会是什么样子,有人将iPod的触控滚轮PS为老式电话的拨号盘,等iPhone真正展现到大家眼前时,还是惊呆了。这款手机竟然没有实体按键!当然,没有实体按键的智能手机之前也有,但需要配置一只笔,因为采用的是电阻屏幕,灵敏度是个问题。iPhone的屏幕采用了电容屏幕,反应灵敏,并且支持多点触控,通过十个手指就可以很精准的操作。就连产品发布后,许多人还在怀疑打字的时候会不会太痛苦,你现在低头看看自己的手机,就知道现在已经不是个问题了。多点触控屏幕,让iPhone有了触觉。
近距离传感器(Proximitysensor)
在iPhone的正面,有一个近距离传感器,通过红外线感应,可以检测到人脸与手机屏幕的距离,如果非常贴近,就会将屏幕关掉,这样既能省电,又能避免脸部触碰产生的误操作。
光度传感器(Ambientlightsensor)
在正面还有个光度传感器,可以获取到周边的光亮强度,这样就可以智能的调节屏幕亮度了。
加速度传感器(Accelerometer)
加速度传感器用来感知手机的运动情况,它的原理就像在一个盒子里装个铁球,由于重力的作用,如果转动盒子的方向,各个侧面收到的铁球的压力是不同的,以此来判断盒子的朝向。基于加速度传感器,iPhone可以实现横屏时,内容自动转成宽屏显示。近距离传感器、光度传感器再加上加速度传感器,一下子让iPhone的智能化水平远远超出了当时的半吊子智能手机,更别提功能机了。
200万像素摄像头
iPhone一代配备了200万像素的摄像头,这并不高,我2007年买的诺基亚7500也是200万像素。但拍照效果,并不是只有像素所决定的。每个像素就像一个坑,每个坑里能够吸收到光线情况是有差异的(我在iPhone5S部分会更详细讲解)。再加上苹果的高清屏幕,拍出来的照片,就是更加好看。
麦克风
有了麦克风,就可以听到声音了,iPhone有了耳朵。
湿度传感器(MoistureSensor,并不是真正的传感器)
每代iPhone都有湿度传感器,主要是监测iPhone是否浸水。它只是湿度试纸,如果浸水,就会变红色,苹果店会拒绝维修。经网友指正,这东西叫浸液指示器,隐藏在充电口、耳机口、卡槽等位置,并不是标准的传感器,但能起到感知环境的作用。
2G/Wi-Fi/蓝牙(BlueTooth)
iPhone一代只支持2G信号,像手机信号就是电磁波。其实我们看到的光也是电磁波,不同的信号,需要不同的接收器进行解码操作。2G信号接收器,就是一个可以感知2G电磁波的“眼睛”。有了Wi-Fi传感器,就可以连接Wi-Fi了,没错,Wi-Fi信号也是电磁波。蓝牙也是接收某一频段电磁波的传感器。
许多专业人士或网友并不同意将这些信号接收设备归为传感器,它们只是信号接收装置,并没有一个把一种物理量转变为光电量的过程。而我认为正是有了这些装置,才让手机能够“感知”到这些信号。像人体虽然笼罩在各种无线信号之下,但却不能感知。我这种归类方法大家不要当成专业划分,权当促进思考的手段吧。
二、iPhone3G(2008)
3G
在iPhone二代,增加了对3G信号的支持,在上网速度上,有了比较大的飞跃。
GPS
有了GPS传感器,可以通过卫星信号,定位手机的当前位置。同样,专业人士不认为GPS是传感器。
三、iPhone3GS(2009)
300万像素摄像头
iPhone三代把摄像头升级到了300万像素,并且增加了视频录制功能。
磁力传感器(Compass)
有了GPS,虽然能够定位,但是无法辨别方向。只有你拿着手机朝一个方向走上20米,才能通过位移估算你的方向,但这还是不够精准。在卫星信号不好的地方,定位的偏差可能都有几百米,这种估算的方向完全不可信。有了磁力传感器就不一样了,就是手机有了指南针,打开地图,我们不只是知道当前位置,还会知道我们当前的手机朝向,再也不用看着太阳辨别方向了(这种古老的技术,我发现周围许多人都无法掌握)。
四、iPhone4(2010)
陀螺仪(Gyroscope)
你应该打过陀螺,也见过独轮电动平衡车,这两种东西都利用了一种物理原理。就是转动的物体,会沿着轴心方向保持稳定。转动的陀螺即使被碰一下,还是会晃动几下回到稳定朝下。而陀螺仪还有个特性就是可以通过转动位移,来计算出转动加速度。
虽然在iPhone一代中通过加速度传感器可以感知到手机的倾斜,但无法很好的计算手机的旋转,特别在玩一些赛车游戏的时候,你无法实现手机晃动灵敏的控制方向盘。有了陀螺仪就不一样了,乔布斯在现场演示了一个拆积木的游戏,通过手机旋转,可以从不同的角度去拆积木。乔布斯还在最后把这五种智能的传感器都放在一起,可见他对传感器是情有独钟。
这里要补充的是iPhone手机用的陀螺仪并不是这种旋转轮子式的机械陀螺,而是一种微机电结构(MEMS)的,通过转动时的电容变化量来测定角速度,再配合加速度计传感器,来计算姿态。
内部温度传感器(InternalTemperatureSensor)
iPhone4上还有个温度传感器,并不是为了测外部温度,主要是为了监测手机本身是否过热。手机温度过热时,会提示关机一段再开机。
500万像素摄像头
摄像头升级到了500万像素,拍照效果更好。这里要说的是,iPhone的闪光灯,会根据周围的环境亮度,来决定闪光灯到底要多亮,而不是一视同仁,避免过爆的问题。
30万像素前置摄像头
终于有了前置摄像头,可以看到对方的脸了。
双麦克风
在手机的顶部耳机插口旁边,又增加了一个麦克风,这是干嘛的?我后面会讲。
iPhone4是乔布斯最后一次亲自发布,之后一年去世。在科技与人文的交叉口,目前还没有第二个人。罗永浩在3年前曾经尝试过,但只能站在UI和段子的交叉口。
五、iPhone4S(2011)
蓝牙4.0(Bluetooth4.0)
iPhone4S据说是最早支持蓝牙4.0的手机之一。蓝牙4.0相比之前的版本,功耗更低,默认开着蓝牙也不用担心费电,这主要为物联网时代做铺垫。
800万像素摄像头
iPhone4S摄像头升级到了800万像素,并且支持1080P的视频录制。这次发布让我印象比较深刻的是拍照响应速度,等待时间缩短。
六、iPhone5(2012)
4G(LTE)
增加了4G信号接收器,上网速度和用Wi-Fi没区别了。
120万像素前置摄像头
iPhone5的前置摄像头升级到了120万像素。
三麦克风
我问了身边好几个朋友是否知道iPhone背面摄像头和闪光灯之间的孔是干嘛的?都没有回答出来。事实上,那是一个麦克风。一般都知道在Home健下侧的耳机孔旁边,是个麦克风,打电话的时候需要用,为什么要在闪光灯旁边加个麦克风呢?答案是为了降噪。我们在打电话时,声音会传给耳机孔旁的麦克风,但周围可能有噪音。这些噪音同时会传到这两个麦克风,那么,我们将主麦克风接收到的声音,再滤除掉闪光灯旁麦克风的声音,就达到了降噪的目的,让声音更清晰。
Onemorething,在正面耳机的听筒里,也还隐藏这一个麦克风。也就是iPhone5配有三个麦克风,它们组合在一起,一方面为了降噪,另一方面可以从多个角度接收语音,使声音更加真实。
在几个月前,我发现自己的iPhone6Plus在微信视频时说话对方听不到,几周前发现插上耳机可以听到。而平时打电话是正常的,说明我的麦克风是正常的啊,百思不得其解。几天前iOS10发布后,我进行了升级,并想尝试一下新的Siri,结果发现Siri并不能识别我说话。于是我在网上查资料,渐渐意识到Siri并不是通过Home键旁边的麦克风接收语音的,而是用了听筒内部的那个隐藏麦克风。我就去苹果店进行了检测,果真是隐藏麦克风坏了。坑爹的是这个麦克风是和屏幕一体的,如果要解决这个问题,就得花1100元更换屏幕,想想还是算了。
七、iPhone5C/5S(2013)
指纹识别(TouchID)
iPhone5S增加了指纹识别,解除屏保不用输密码了。指纹识别同样是一个识别指纹的传感器。
协处理器M7(Motioncoprocessor,不是传感器,是专为传感器服务的处理器)
传感器越来越多,对CPU的资源占用越来越大,耗电量也越来越大。于是苹果推出了M7协处理器,把这些运动相关的传感器(包括加速度传感器、陀螺仪、磁力传感器)的数据采集与处理,都交由M7来完成,这样降低耗电量,并且让CPU可以专门做其他的事情。
M7并不是传感器,只是苹果设计出来专门为传感器信息处理服务的,我把它列出来,主要是为了强调苹果在传感器周边所花的心思。
更大单位像素的摄像头
许多人有个误区,就是觉得摄像头的像素越多越好,比如会觉得1200万像素的摄像头要比800万像素的更好。其实不是的,还要看每个像素能够接受的光线强度,色彩丰富度。iPhone5S使用了更大面积的图像传感器,但像素依旧是800万像素,这样每个像素对应的传感器宽度从1.4微米提升到了1.5微米,也就是面积增加了15%,这样单个像素的采光情况更好,进而提升的拍照质量。相反,有些手机的摄像头有1300万像素,但是可能只是1.1微米,这样采光情况要差一些,拍出来的照片质量就大打折扣了。所以苹果说“BiggerPixels=BetterPictures”。
这一代还升级了闪光灯为双闪光灯,一个暖光一个冷光,这样再配合光度传感器(我目前尚不确定是否采用的正面听筒旁边的光度传感器,还是在主摄像头或者闪光灯里还隐藏了一个),可以打出匹配环境的光亮,这样拍出来的照片更为融合。闪光灯本身并不是传感器,配合光度传感器,发挥了更好的效果。
八、iPhone6/6Plus(2014)
近场通信(NFC)
在iPhone5S上有了指纹识别,而iPhone6上就增加了近场通信(也是电磁波),两个叠加到一起,就成了ApplePay,从此刷卡变成了刷手机,输入密码变成了刷指纹。虽然这些技术以前都有,但是苹果擅长就是把它们整合成优质的服务。我自己在星巴克用过几次,遗憾的是我的信用卡还有密码,刷了之后还得再输密码。。(据说现在已经不用输密码了,我改天去确认一下。)
气压计(Barometer)
有了气压计,就可以测量海拔了,还可以测量你爬了多少层楼梯。对我这样的户外爱好者来说,爬上某个山头,就可以看看到底有多高了。可能有人会有一个疑惑,我们在初中课本里不是学过,空气湿度对气压的影响吗?会不会因为天气不同,对测试的误差影响很大?从我目前收集到的资料来看,这个影响很小,可以忽略。
六轴陀螺仪
iPhone6系列中的陀螺仪是六轴的,相比iPhone4所使用的三轴陀螺仪多了三轴,主要是增加了三个轴的加速度计。按道理来说,就不需要再有专门的加速度传感器了,可以二合一了。可有人拆机后发现,还有专门的加速度传感器,这是为何呢?
答案是体验和功耗。加速度的启动需要一个时间,专门的加速度传感器只需要3ms,而六轴陀螺仪需要30ms。另外,同样是测量加速度,六轴陀螺仪是加速度传感器的3倍电耗。于是苹果在实现上,对于手机横屏、计步这样的应用,只调用加速度传感器,而对于灵敏度比较高的场景,再用六轴陀螺仪。苹果在细节设计上,真是舍得下功夫。
更好的图像传感器
iPhone6/6Plus采用了新的图像传感器,拍照效果更好。比如采用了一种叫做FocusPixels(相位检测自动对焦)的技术,可以使对焦速度更快。具体技术细节我也不懂,据说早就在单反相机上成熟应用,手机上应用的还比较少。
iPhone6Plus还增加了光学防抖,直接感受就是拍出来的照片在略微抖动的情况还会比较清晰。其基本原理是这样的:人拍照时相机抖动的话,等于同一物体,投射到了不同图像传感器的像素上。那么通过陀螺仪,监测到抖动的加速度情况,进而计算出位移情况,将摄像头向相反的方向移动,就实现了去除抖动带来的影响。当然,为了实现这一点,iPhone6Plus的摄像头不只是能够前后伸缩,还能够上下左右移动。
九、iPhone6S/6SPlus(2015)
压力传感器(3DTouch)
iPhone6S增加了屏幕压力传感器,能够采集到按压力度,这样在交互上可以玩出新花样来。屏幕能够感知到手按压的力度,但人并不会感受到屏幕真的被按压下去了。为了给人以反馈,内部增加了一个叫TAPTICEngine的设备,根据压力,会产生振动,这样人就能感受到按压了。但目前来看,这一功能的应用并不是特别广泛。
500万像素前置摄像头
前置摄像头都500万像素了。
1200万像素摄像头
后置摄像头升级到了1200万,光感更好。
在今年初,苹果还发布了iPhoneSE,主要是迎合喜欢小屏幕的客户。外观上就是iPhone5S的翻版,配置上更接近iPhone6S,如摄像头是1200万像素的,只是没有3DTouch功能。没有太多可说的地方,直接跳过。
十、iPhone7/7Plus(2016)
非机械按压Home键
iPhone将Home键换成了非机械按压式的,如果你按着没感觉,是不是很不爽?所以苹果把在实现3DTouch所用到的TAPTICEngine振动器加大,按压的时候振动一下,给你一种错觉,按键按压下去了。有了这种方式,一是不容易损坏(有人担忧按键是不会坏了,振动器是不是更容易坏了?),二是防水性更好,三是在玩游戏的时候,可以采用振动反馈,想象一下振动手柄。
700万像素前置摄像头
前置摄像头都升级到了700万像素。
更好的摄像头
采用更快速的图像传感器,拍照更快了。并且在iPhone7上,也增加了只有在Plus系列才有的光学防抖。
闪烁传感器(Flickersensor)
我们平时用的电灯之类的,都是交流电人造光,看着光线很稳定,实际是在不断的闪烁。这样在拍照时,因为图像传感器是一行行采集的图像,这样不同行采到的人造光影响可能就不一样,会导致拍出来的照片色彩不均。于是苹果增加了一个闪烁传感器,不断采集到光线情况,这样在图像处理时,就可以进行修正。闪烁传感器应该是和图像传感器放在一起的一块芯片,获取光线应该就是通过镜头,这点还有待确认。
双摄像头
iPhone7Plus采用了双摄像头,一个广角一个长焦,可以照顾两种需求,并且能拍微距照片。正是这个双摄像头吸引了我,我决定换手机了。
写到这里,我发现整个内容里,摄像头的比例非常大,可见苹果在摄像头上所花费的功夫。
十一、iPhone8/8Plus/X(2017)
iPhone8/8Plus可以说和iPhone7/7Plus相比变化不大,主要是把手机背部也换成了玻璃。但iPhoneX就是一次跨越了。
全面屏
iPhoneX采用全面屏,去除了Home键。伟大的产品在于不只是能加功能,还能去除功能,否则只会越来越臃肿。
真深度摄像系统(深度传感器)
全面屏对我没有造成太大冲击,但是真深度摄像系统还是震惊了我。第一次知道这玩意儿还是在去年上联想之星开学,有两个同学是做这一方面的。通过激光发射和接收,实现对空间情况进行3D建模。这次发布会后,我和同学专门就这块的实现原理进行探讨,这里做一下简单介绍。
深度传感器最核心的可以说是两个部分,发射端(Dotprojector)和接收端(Infraredcamera),发射端发射出30000个点的红外激光,有一定倾斜度,然后通过人脸反射到接收端中,这样根据反射角度情况,就能判断脸部每块的深浅了。
相比与普通的摄像头,这里获取到的面部是一个立体模型。苹果用它来做人脸识别(FaceID),可是光线太暗怎么办?苹果又增加了一个泛光照明器(FloodIlluminator),其就像一盏灯,均匀的打在人脸上,只是其发射的是红外线,并不是真的照亮,通过接收端可以拍摄二维的人脸照片。这样即使在黑夜中,也能够进行人脸识别。我在和同学沟通时,我发现即使他是在做这块的,开始也没意识到苹果竟然还加了个红外光源,可见苹果花了不少心思。如果再加上其它传感器,就形成了一排。
其中位置传感器(Plroximitysensor)用来感知人脸到屏幕的距离,而亮度传感器(Ambientlightsensor)感知环境的亮度,这些在前面介绍过。还好整个刘海设计成了黑色,不然密集恐惧症患者就不敢买了。
通过上面的回顾,我们看到苹果在传感器使用上可谓越来越广泛。事实上,不止是苹果,其他公司也同样在采用越来越多的传感器。有了各种传感器,就可以采集到各种数据,再加上大数据分析技术,就可以挖掘越来越多的价值。