无处可藏:人脸识别时代生活报告
现代科技的发展日新月异,目前已经出现了能够像人类那样识别脸部信息的技术。在美国,教会利用人脸识别技术来跟踪礼拜者的出席;在英国,商家们利用该技术来识别老客户。今年,威尔士警方利用该技术在一场足球赛的赛场外面逮捕了一名嫌疑犯。在中国,该技术已用于验证专车司机的身份、购买景区门票,以及通过一个小小的微笑进行付款。苹果最新款的iPhone X已经使用这项技术来解锁屏幕(请参看这篇文章)。
与人类的技能相比,这类应用的发展似乎是循序渐进式的。而一些突破性的技术,例如飞行技术和互联网,则显着改变了人类的能力。而人脸识别技术似乎只是对人类的技能进行编码。虽然面部特征是每个人所特有的,但也是公开的,所以,如果只是看一眼,那么该技术并不会侵犯人类的隐私。然而,廉价、快速、大规模地对人脸图像进行记录、存储和分析总有一天会从根本上改变人类对隐私、公平以及信任的理解。
前沿地带
我们先来聊聊隐私。人脸和其他生物识别数据(如指纹)相比有一个很重要的不同点,就是它可以远距离工作。任何人都可以用手机来拍摄用于人脸识别程序的照片。 FindFace,一款来自于俄罗斯的应用程序,它可以将陌生人的照片与VKontakte(社交网络)上的照片进行比较和识别,并有着70%的准确率。 虽然Facebook的人脸图像库不能被他人抓取,但是这是这家硅谷巨头可以获取到汽车展厅游客的照片,然后再使用人脸识别技术来为汽车打广告。虽然私营企业无法将图像和身份进行关联,但国家可以。中国政府保存了所有公民的面部照片;有一半的美国成年人口的照片存储在数据库中供联邦调查局使用。虽然执法机构现在拥有了追踪罪犯的强大武器,但在保护公民隐私上也存在着巨大的潜在成本。
人脸并不仅仅是一个姓名标签,它也会透露出很多机器可以读取的信息。当然,这也是有好处的。一些公司正在通过对人脸的分析来提供对罕见遗传病症的自动诊断,例如Hajdu-Cheney综合征。基于人脸识别技术的诊断远早于其他的诊断方式。可检测情绪的系统可以帮助自闭症患者掌握他们自己难以发现的社交信息。该技术也能用来预测威胁。斯坦福大学的研究人员已经证明,当把一张同性恋男子的照片与一张正常性取向男子的照片放在一起时,计算机算法有81%的概率正确判断出他们的性取向,而人类的判断成功率只有61%(请参看这篇文章)。在视同性恋为犯罪的国家中,根据人脸来判断性取向的应用程序将有着惊人的前景。
需要面对的一些问题
以冷暴力形式的歧视可能会变得普遍起来。雇主可能会因为某些歧视而拒绝求职者。而人脸识别技术可能会使这样的歧视程序化,让企业能够根据种族、智力和性取向对求职申请进行过滤。夜总会和运动场可能面临着通过扫描人群的脸部来保护人们免受暴力威胁的压力,尽管由于受到机器学习的固有特点的制约,所有的人脸识别系统都不可避免地存在一定的概率性。此外,这类系统似乎对白人的识别效果比较差,因为基于白人脸部数据集进行训练的算法并不像基于其他肤色人群的算法效果好。这种技术曾被用于法院针对嫌疑人的自动化评估中,它能给出有关嫌疑人判刑和保释方面的建议。
最后,如果持续地对人脸进行记录,并把相关数据绘制到现实世界中,可能会改变社交的本质。掩饰是生活的润滑剂。如果你的伴侣能够发现每一个被抑制住的哈欠,以及你老板每一个愤怒的表情,那么婚姻和工作将变得更加真实,但却更不和谐。社交的基础也可能会发生变化,从建立在信任基础上的一系列承诺,到计算机对从人脸获取到的信息的计算。人际关系可能会变得更加理性,但也更为事务性。
在民主国家,至少立法可以帮助调整好与坏之间的平衡。欧洲监管机构在即将出台的数据保护法规中增加了一个原则,生物特征信息(包括“脸部印记”)归其拥有者所有,并且对其的使用需要得到拥有者的同意,因此在欧洲,Facebook不能只是把广告卖给那些车展的参观者,这与美国是不同的。反对歧视的法律可以适用于雇主甄别求职人的照片。商业人脸识别系统的供应商可能会受到审查,以证明其系统不会在无意中宣扬歧视。使用此类技术的公司应该被追究责任。
然而,这样的规则并不会改变技术的发展方向。随着可穿戴设备的普及,相机将变得越来越普遍。从太阳镜到化妆,各种用来欺骗人脸识别系统的手段层出不穷;剑桥大学的研究表明,人工智能可用于在伪装中重建人脸的结构。谷歌已经明确反对将人脸与身份相关联,以防止这些信息被专政国家滥用。而其他一些技术公司似乎对此并不过分讲究。亚马逊和微软正在使用他们的云服务来为用户提供人脸识别支持。人脸识别是Facebook计划的核心。各国政府不会放弃人脸识别所能带来的好处。变化来了,就正视它。
文章原标题《What machines can tell from your face》,作者:未知,译者:夏天,审校:主题曲。
文章为简译,更为详细的内容,请查看原文
最后更新:2017-09-13 17:32:52