分享:

浅析面部识别技术的发展历程与存在问题

2021-03-23 16:08:12 中国航空报 逸文

今年“3·15”晚会上,许多商业机构被爆出在未授权的情况下,私自采用面部识别技术,对消费者进行人脸数据采集。此消息一经爆出,立刻引起社会大众的高度重视与警觉。时至今天,在这个机器或许已经比你自己更了解你的脸的时代,人们不禁要问这些商业机构收集如此多的个人信息会做什么?面部识别技术和大数据联手的滥用是否会造成个人隐私大面积泄露?会不会有人利用面部识别的漏洞与法律的空白模糊作恶?面部识别技术的使用边界在哪里?

人们的担心不无道理,往往新技术带来的不仅仅是便利,同时也会附加很多社会问题。

1964年,数学家、计算机科学家Woodrow Bledsoe首次尝试将嫌疑犯的面部与计算机中存储的面部照片相匹配的任务:他测量出打印出的照片中不同面部特征之间的距离,并将其输入计算机程序。这个步骤的完成,开启了接下来数十年里人类教会机器识别人脸的尝试。

43年来100多个数据集、1.45亿图像的调查

无论是在学校、便利店、公共广场、音乐会、公寓大楼、机场、社区公园,还是在个人设备上,面部处理技术(FPT, Facial Processing Technology)正不断地以无数种难以解释的方式,潜移默化地渗透到我们的日常生活中。

在早些时候,美国国家标准协会(NIST, the National Institute of Standards)曾宣布,从2014年到2018年,FPT的性能提高了20倍,失败率仅为0.2%。然而,现实世界中所呈现出的一系列失败的案例,残酷地打破了面部识别(face identification)作为学术界神话的传言。

2016年至2018年期间,在伦敦进行的8次FPT部署的试验中导致了对犯罪嫌疑人的错误识别率高达96%;而2019年的一份报告中发现,在伦敦警察厅(London’s Metropolitan)所使用的面部识别工具所标记的嫌疑人中,错误识别率达到了81%。类似的,纽约市大都会运输局(MTA, M e t r o p o l i t a n T r a n s p o r t a t i o n Authority)在面部识别的错误率达到100%后,果断停止试点项目。

且这些失败在人口统计学的子群体中并非平均分布。以肤色为例,面部识别在识别肤色偏深的黑人或棕色人种时的准确率较低。据2018年的一项研究显示,相比于肤色较浅的男性群组,商业面部识别API在肤色较深的女性群组上的表现要低30%。

美国国家标准与技术研究院(NIST, National Institute of Standards and Technology)和其他学者的研究,已经充分证实了这些表现差异。同样,在坐实亚马逊的Rekognition图像识别系统错误地匹配了28名国会议员的一年后,该技术又错误地将27名运动员与犯罪嫌疑人的脸部照片相匹配,由此便引起了公众对该技术在使用中存在局限性的特别关注。

技术局限性以外,更加棘手的是隐私问题。

在美国,许多州都通过了专门针对FPT系统开发和运行中固有的侵犯隐私问题的法律,更多的州还提出了立法提案。联邦方面,2019年的《商业面部识别隐私法》(the Commercial Facial Recognition Privacy Act of 2019)中明令禁止“在未获得终端用户的肯定性同意的情况下,某些实体使用面部识别技术来识别或跟踪终端用户”。

尽管公众越来越深刻地意识到,这些系统一旦用之于众,将会引发一系列的现实难题,但学术研究仍在持续给出“面部识别系统在基准数据集上性能近乎完美”的报告。

为了更好地理解在当前有限的评估规范下,这些系统的感知功能与现实部署时整体的性能表现之间的不协调,AAAI 2021文章About Face: A Survey of Facial Recognition Evaluation 中,作者Inioluwa Deborah Raji和纽约大学的Genevieve Fried,调查了自1976年至今的数字面部处理技术(digital facial processing technology)和数据集发展。

他们追踪了1976年~2019年年间、100多个用于训练面部识别系统的数据集情况,涵盖来自1700万个调查对象的1.45亿张图像。这也是目前所知的此类调查中规模最大、最新的一次。

责任编辑:实习编辑