人脸识别技术应用的风险与法律规制

来源:期刊VIP网所属分类:综合论文发布时间:2021-10-20浏览:

  摘 要:人脸识别技术是社会治理智能化转型过程中广泛应用的技术之一。人脸识别技术的身份认证和识别功能在虚拟空间实現了个人信息的自动化集合。人脸识别技术本身存在着技术风险,一旦被滥用将会侵犯公民权利、危害社会秩序、消弭共同体信任。当下,现有对人脸识别技术的法律规制呈现分散性和碎片化特征,法律本身的事后规制逻辑更是难以有效规制技术应用、防止技术滥用。应把握国家综合性立法的契机,根据场景理论对人脸识别技术进行细化规制,既发挥其强大的社会功用,又预防化解其潜在危害,实现法治化社会化协同治理的目标。

  关键词:人脸识别;个人信息保护法;场景理论;数字正义

计算机工程与设计

  刷脸进小区、进学校、进公司,刷脸支付、刷脸健康认证等刷脸行为已经成为当今社会向智能化转型的行为标志。人工智能和大数据等技术的发展与应用,已然成为影响社会治理现代化进程的重要技术因素,智能社会正在快速形成。人脸识别技术作为其中的代表,为社会生活带来高效便捷的同时,也为人身安全带来了新的风险和问题,引发了人们对技术伦理的担忧与反思。2020年初,Clearview AI公司30亿人脸数据被泄露,同年11月3日“万豪因泄露3亿客人信息被罚1.6亿”的新闻成为微博热搜。此前亦出现过诸多类似新闻,针对技术带来的风险进行法律规制的必要性,已经触动到了学者们敏锐的神经。“中国人脸识别第一案”受到各界关注,其当事人郭兵是一名法政学院副教授。郭兵凭借其敏锐的思维感受到了动物世界采集人脸信息行为背后存在的技术应用边界问题,并希望通过该案来推动各界对人脸识别技术应用达成最低共识[1]。法学界对人脸识别技术相关法律问题的探讨在近两年急剧增加。虽然人脸识别技术发展迅猛,但关于其技术应用限度和法律规制的问题却亟待完善,尤其是在《中华人民共和国民法典》和《中华人民共和国个人信息保护法(草案)》(以下简称《草案》)公布以后,如何对人脸识别技术进行体系化法律规制是实现社会治理现代化的重点。

  一、人脸识别技术应用的风险

  人脸识别又称人像识别、面像识别、面部识别等。人脸识别技术是一种利用已经存储的若干已知身份的人脸图像数据库,对给定场景的静态或动态图像中的一人或多人身份进行验证和鉴别的生物识别技术。人脸识别技术目前主要应用于金融业、安防业、公共场所、司法系统等。人脸识别主要有三种识别模式:第一种是一对一的识别模式,例如电子支付、企业打卡、地铁进站等;第二种是一对多或多对多的识别模式,主要是对特定群体的监控、追踪和识别;第三种是监控检测模式,例如公共场所客流量的监控,其主要目的不是用来识别,而是用来监测。

  人脸识别技术识别的是生物面部特征信息,属于个人信息的子项。《草案》第四条规定,个人信息是以电子或者其他方式记录的与已识别或者可识别的自然人有关的各种信息,不包括匿名化处理后的信息。第二十九条对敏感个人信息进行了定义,个人生物特征被列举在内1。《网络安全法》规定的个人信息包括个人生物识别信息。2020年修订的《信息安全技术 个人信息安全规范》中列举了个人信息范围,其中个人生物识别信息中就包括了面部识别特征。因此,人脸识别技术所涉及的生物面部识别特征属于个人信息中的敏感个人信息。敏感个人信息与个人的人身安全和财产安全息息相关,一旦被泄露、非法使用会产生无法预料的后果。

  (一)人脸识别技术应用隐含的技术风险

  科技是把双刃剑。技术本身的发展在带来收益的同时必然会带来风险。风险包括技术本身存在的风险和技术运用过程中引发的社会风险。人脸识别技术作为人工智能技术发展的一个分支,其本身受制于现有技术发展水平。人工智能技术的核心是算法,而算法的核心是数据,数据在收集、整理、计算过程中则会出现偏差和泄露,这是技术本身所不可避免的问题,是技术发展的自身局限性。对数据的依赖和盲目崇拜会陷入“技术乌托邦”的误区,导致唯数据论的甚嚣尘上[2]。虽然人脸具有独特性,但这种独特性是分等级的,如果个体面部的独特性高,即与其他人脸差别较大,则人脸识别的出错率更低。如果个体面部的独特性低,即与其他人脸差别较小,尤其是双胞胎或相似度较高的近亲属之间,人脸识别出错率会明显提升。这是技术本身存在的误差风险,如果人脸识别不与其他验证手段相结合,这种误差所带来的现实影响是不可估量的。此外,人脸具有可变性,会随着年龄的增长、妆容的修饰、自然环境的影响等而发生变化。这就导致人脸识别技术具有被破解的可能性。人脸识别技术还受制于摄像头等硬件设施的发展,和成像技术等软件技术的发展。研究机构已经证明了利用3D打印技术来破解人脸识别的可能性。

  随着人脸识别技术的广泛运用,技术的发展和衍生带来了更多的技术伦理风险。换脸视频的出现可以说是人脸识别技术的衍生品。换脸视频依托于深度伪造技术,即通过深度学习技术将视频进行智能化技术处理,从而实现对视频人物进行换脸,利用杨幂等公众人物制作的换脸视频就是其中的典型[3]。众多公众人物的形象被广泛用于换脸视频的制作,尤其是用于色情视频制作,真假难辨的视频被广泛传播,在伦理和道德领域引发公众的关注。显而易见,当前的人脸识别技术不仅止步于“识别”,更走向了“替换”,肖像的真实性问题引发了更深入的伦理讨论。进一步而言,关于人工智能技术的道德问题,是选择规制在前模式,还是选择实践演进模式,再次成为技术伦理的焦点。

  (二)人脸识别技术应用产生的侵权风险

  个体生物特征可以分为个人隐私信息、一般个人信息和个人数据三种[4]。一般个人信息和个人隐私信息都具有人格权属性,前者涵盖的范围更广,后者属于隐私权保护范围且不具有财产属性。个人数据是智能社会的产物,是数字经济的主要生产资料,包含财产属性。人脸识别技术应用所涉及的人脸信息包含多种法益,是人格属性与财产属性的结合,仅从个人角度而言,涉及公民个人的隐私、财产、个人身份、人身安全等各方面。陌陌旗下的AI变脸软件ZAO因为隐私问题被工信部约谈[5];Facebook因运用面部识别功能将他人详细个人信息进行标记链接而受到诉讼;瑞典一学校因未备案就运用面部识别技术进行考勤,违背了欧盟通过的《通用数据保护条例》(以下简称GDPR)中的隐私条款而被处罚款,如此种种都是技术侵权的体现。人脸识别技术应用不仅包括个人,还包括技术管理者、提供者、经营者等众多主体,涉及的不仅是个体的人格权与财产权,更是公共利益与社会安全。从数据安全法益的角度来看,人脸识别信息具有多元化、复杂化的法律特征,具有复合型的权利属性。因此,一旦人脸识别信息发生泄露,将产生广泛的侵权风险。如前所述的杨幂换脸视频,其转发量以亿为单位,造成的社会影响不可估量,对公众人物的肖像侵犯和情感伤害难以估量。

  推荐阅读:发表人脸识别论文的计算机类期刊

期刊VIP网,您身边的高端学术顾问

文章名称: 人脸识别技术应用的风险与法律规制

文章地址: http://www.qikanvip.com/lunwen/zonghelunwen/2021/1020/60036.html