一直以来人们津津乐道的人工智能技术,怎么就成为了公众对“脸面”的担忧? 去年以来,多地发生的“变脸”诈骗案就和人工智能技术“脱不了身”。 一段视频、一段语音未必是真人拍摄或者录制。在你不知道的手机App后台、支付界面、门禁闸机,或许有人正在盗刷你的脸……
仅需一张照片,出演天下“好戏”
随着深度合成技术迅猛发展、落地场景激增,一些不法分子趁机牟利。音频、视频等合成技术滥用,对人脸、声纹、指纹等个人敏感信息保护形成挑战。
近日,陈先生来到浙江省温州市公安局瓯海分局仙岩派出所报案,称自己被“好友”骗了近五万元。经过警方核实,骗子用了AI换脸技术,利用陈先生好友阿诚社交平台上先前发布的视频,截取了面部视频画面并进行了“换脸”,从而对陈先生进行了诈骗。 2021年4月,安徽省合肥市警方在公安部“净网2021”专项行动中打掉一个犯罪团伙,该团伙利用人工智能技术伪造他人人脸动态视频,为黑灰产业链提供注册手机卡等技术支撑。 在警方抓捕现场,几名犯罪嫌疑人正用电脑将一张张静态照片制作为人脸动态视频。模拟制作出来的动态人物不仅能做点头、摇头等动作,还可完成眨眼、张嘴、皱眉等丰富表情,效果极为逼真。 在嫌疑人的电脑里,警方发现了十几个G的公民人脸数据,人脸照片和身份证照片分门别类存放在一个个文件夹里。
“身份证正反面照片、手持身份证照片、自拍照等,被称为一套。”民警介绍,成套照片被称为“料”,出售照片的人被称为“料商”,这些“料”在网上已转手多次,而“料”的主人却毫不知情。
AI技术换脸视频的起源
2017年底,国外一位网友创造了AI换脸算法(Deepfake),并公开在帖子中详细介绍AI换脸视频的生成方法。短短30天,就有1.5万用户在社交媒体上阅读了这条消息,并根据教程生成出大量换脸视频。
“Deepfake”是一项基于AI的假视频生成方法,是人工智能大家族里的一个分支。实际上,“Deepfake”并不是一种单纯的技术和容易上手操作的软件,它是多种技术的组合形式,以特定人脸为目标来源,输入之后软件进行图像处理,原来的人脸被另一个人脸所替代。
换脸分为五个步骤:视频转换图片、提取脸部、训练模型、人脸替换、合成视频。经过适当的后期处理,生成的视频可以达到较高的真实度。
深度伪造让“眼见不再为实”
据了解,网络上可以买卖此类软件 。全套软件及教程售价有400元、800元两档,800元的为高阶版本,“过人脸成功率超高”有相关人士透露。 照片上传至软件后,标注出五官位置,调整脚本参数,一张脸便动了起来。“五官参数随教程送上,照抄即可。”据介绍,这些伪造视频不仅通过率高,人工审核都难辨真假。 “目前公众对照片等静态信息易被篡改已有所警惕,但对视频、声音等动态信息内容仍持有较高信任度。”清华大学人工智能研究院基础理论研究中心主任朱军说。 此外有专家担心,尽管针对深度合成技术的识别技术不断迭代、检测手段持续增强,但依然没能跑赢“伪造”技术升级的速度。 法律规定相对滞后,也给不法分子留下可乘之机。中伦律师事务所合伙人陈际红说,目前法律规定,禁止利用信息技术手段伪造等方式侵害他人的肖像权,但技术如何使用算合理使用,哪些情形下应禁止使用等,没有具体规定;收集或收购个人声纹、照片,使用人脸、指纹、DNA、虹膜等个人生物信息等行为,在哪些范围内构成犯罪、将面临怎样的惩罚,需要司法裁判进一步给出明确指引。
图:深度伪造典型事件
别再让公众为“脸面”担忧
生物识别信息包括身体特征和行为特征两类:身体特征包括指纹、静脉、掌型、视网膜、虹膜、人体气味、脸型、血管、DNA、骨骼等,行为特征包括签名、语音、行走步态等。 生物识别技术是通过人类生物特征进行身份认证的一种技术,人脸识别属于生物识别技术中的一种。 在人工智能时代背景下,个人生物识别信息非常容易被人工智能犯罪活动所利用。使用深度伪造技术合成换脸视频是盗用个人生物识别信息的行为,通过技术手段盗用他人的生物识别信息。
保护人脸、指纹、声纹等敏感信息,不再担忧信息“裸奔”损害个人隐私、财产、名誉等,是公众的共同期待。 近日,我国印发《关于加强科技伦理治理的意见》, 中国工程院院士、信息技术专家邬贺铨提出,针对深度合成技术滥用现象,应以技术规制技术,利用技术创新、技术对抗等方式,提升和迭代检测技术的能力。 技术规制之外,针对技术滥用暴露的风险治理应当体系化、完善化。“要构建数据集质量规范、根据应用场景对相关技术进行风险分级分类管理,明确设计开发单位、运维单位、数据提供方的责任。”国家工业信息安全发展研究中心副总工程师邱惠君说。
结语
以“最低限度”的原则搜集个人信息,以“最严厉”的原则保护个人信息,才能真正使得人工智能换脸技术向安全、可靠、可控的方向发展。
笔者认为,在合理平衡技术发展与生物识别信息保护的情况下,刑法介入的思路是:完善侵犯公民个人信息罪的犯罪构成,实现盗用个人生物识别信息的行为入罪化。