点击右上角
微信好友
朋友圈

请使用浏览器分享功能进行分享

作者:朱昌俊
据媒体报道,山东青岛警方前不久破获利用AI技术合成、带有“摇摇头”“眨眨眼”的动态人脸视频5万多条,这些动态视频能骗过人脸检验系统。在电诈团伙手里,他们利用这些AI换脸视频去做虚假实名认证,进而实施诈骗。
无独有偶,近日福建福州晋安区检察院也办理了当地首例AI生成视频绕过人脸识别的网络犯罪案件。曾几何时,人脸识别被视为一种既便捷又安全的身份认证方式——生物信息的唯一性,加之动态视频验证的叠加,似乎就等于拥有了双重“安全锁”。此类案件的出现,无疑提醒社会需要重新审视该技术的安全可靠性。
原本相当安全的人脸动态验证方式被技术轻易攻破,这一现实再次提醒我们,切勿低估犯罪手段的“进化”能力,也不应高估某种技术的实际安全保障能力。当然,这并非要完全否定动态人脸视频验证方式,而是要清醒认识到,技术进步并不必然带来信息安全水平的同步提升。
这至少带来两个方面的启示。其一,个人信息保护不能单纯寄望于技术的进步。要知道,技术本身是“双刃剑”,既可能被滥用,也可能在采集更多个人隐私的同时,放大信息泄露的风险;其二,不能以静态视角评估某种验证方式的长期有效性。正如相关检察机关所指出的,当前人脸识别验证被攻破,并非犯罪分子手段“高深莫测”,而主要在于部分AI技术公司、支付平台未能落实法律责任,技术防护能力未能跟上犯罪手段的演进,致使本该成熟可靠的人脸认证体系出现了“真空地带”。这意味着,验证方式的安全评价必须具备动态思维,并在技术层面持续评估和迭代升级,及时修补漏洞。
事实上,2025年6月起施行的《人脸识别技术应用安全管理办法》就明确规定,人脸识别技术应用系统应当采取数据加密、安全审计、访问控制、授权管理、入侵检测和防御等措施保护人脸信息安全。
此外,也必须从技术应用源头强化约束力,有效压缩“滥用”空间。相关检查机关也指出,部分AI技术公司漠视法律规定、缺失社会责任,缺乏基本的底线意识,对其开发的AI软件监管缺位,既没有建立有效的使用审核机制,也没有完善的风险防控体系,任由软件被不法分子用于破解人脸验证、侵害公民个人信息,沦为了犯罪的“帮凶”。这一现象,理当引起高度重视。
一言以蔽之,公民个人信息保护不能指望通过某项新技术就能实现“一劳永逸”。特别是在AI快速发展的当下,如何为个人信息安全建立一道真正相适配的安全防线,仍需要由技术开发者、监管部门和网络平台等多方有更多的协同探索。(朱昌俊)
