【深度聚焦】AI换脸诈骗席卷全国:技术作恶的黑暗面正在浮现
2025年夏季,全国反诈中心数据显示,利用深度伪造技术实施的诈骗案件同比激增430%。浙江某企业财务人员遭遇"领导视频通话"诈骗转账186万元,广东八旬老人被"孙子"的求救视频骗走养老钱...这些触目惊心的案例背后,是犯罪团伙正将好莱坞级特效技术武器化。
一、诈骗新形态:当眼见不再为实
精准化剧本
冒充领导/亲友视频通话:通过社工库获取关系网,合成动态人脸+声纹克隆
伪造明星带货视频:诱导粉丝扫码支付"限量商品"定金
伪造政令视频:近期出现的"防疫工作人员"上门诈骗新变种
技术平民化危机
某网络安全实验室检测发现,黑产市场已出现"AI换脸套餐"服务,包含10分钟教学视频和云端处理工具,犯罪门槛低至300元/次。
二、公安部反诈中心权威防御指南
▍第一招:动态验证法
要求对方在视频中转头/用手遮脸,当前技术仍难以实时处理侧脸光影变化。北京海淀分局王警官演示显示,99%的伪造视频会在这种交互下穿帮。
▍第二招:密语防火墙
与亲友约定专属暗号(如"奶奶家的狗叫什么"),警方提醒避免使用生日等易泄露信息。苏州市民张女士正是靠"女儿三岁时的住院楼层"问题识破骗局。
▍第三招:延迟响应原则
任何涉及转账的"紧急视频",务必通过原有联系方式二次确认。深圳反诈中心特别强调:"真正的紧急情况,不会因你15分钟的核实而恶化。"
三、技术伦理的全民思考
中国人工智能学会专家指出,这不仅是诈骗问题,更是技术伦理的预警:
立法层面:《深度合成服务管理办法》将要求所有AI生成内容添加数字水印
企业责任:某短视频平台已上线"AI内容检测"按钮,识别准确率达92.6%
公民素养:建议普通用户定期在社交平台发布"验证手势"照片(如特定手势),建立生物特征锚点
专家忠告:我们正在经历"信任机制"的重构期,就像当年从纸质存折过渡到电子支付,关键是要建立新的安全习惯而非恐惧技术。
警惕!多地出现“AI换脸”新型诈骗,警方公布3招防骗指南
近年来,随着人工智能技术的飞速发展,“AI换脸”技术被不法分子利用,成为新型诈骗手段。多地警方披露的案例显示,这类诈骗通过高度逼真的音视频伪造,精准突破受害者心理防线,造成巨额财产损失。2025年7月,南京市玄武区人民检察院通报的一起案件中,犯罪嫌疑人符某利用非法获取的195万条公民个人信息和AI换脸软件,突破金融平台人脸识别系统,盗刷银行卡累计15996元。这一事件再次敲响警钟——技术滥用正在重构诈骗生态。
一、技术作恶:从“换脸”到“换声”的犯罪升级
精准化诈骗剧本
冒充领导/亲友:湖北黄石、宁夏银川等地发生多起“AI换脸”诈骗,犯罪分子通过社交媒体采集目标人物面部特征和声音样本,合成动态视频实施诈骗。例如,银川某公司部门经理张先生接到“老板”视频电话,被要求紧急转账20万元,事后发现视频中的“老板”实为AI合成。
伪造政令/带货视频:犯罪团伙伪造政府工作人员视频指令,或冒充明星诱导粉丝扫码支付,利用公众对权威和偶像的信任实施诈骗。
技术平民化与黑产链条
调查显示,某黑产市场已出现“AI换脸套餐”服务,包含教学视频和云端处理工具,犯罪门槛低至300元/次。南京符某案中,犯罪分子通过网购获取公民个人信息,利用AI换脸软件生成动态视频,突破金融平台“人脸识别”防线。
二、警方防骗指南:3招破局“AI换脸”诈骗
▍第一招:动态验证法
要求对方在视频中完成指定动作,如转头、眨眼、用手遮脸等。南京符某案中,金融平台若增加此类动态验证环节,可有效拦截99%的伪造视频。工业和信息化部反诈专班实验室测试显示,AI换脸视频在面部遮挡或快速移动时会出现延迟或扭曲。
▍第二招:密语防火墙
与亲友约定专属暗号(如“奶奶家的狗叫什么”“高中班主任姓名”),避免使用生日、电话号码等易泄露信息。浙江某企业财务人员张女士在遭遇“老板视频转账”诈骗时,因未核实暗号而转账186万元,事后发现群内“老板”实为AI伪造。
▍第三招:延迟响应原则
任何涉及转账的“紧急视频”,务必通过原有联系方式二次确认。深圳反诈中心强调:“真正的紧急情况,不会因你15分钟的核实而恶化。”湖北黄石刘女士因“孙子”电话求救被骗2万元,若当时核实亲属电话,即可避免损失。
三、技术伦理与全民防御:重建信任机制
立法与平台责任
《深度合成服务管理办法》:要求所有AI生成内容添加数字水印,追溯内容来源。
企业技术升级:某短视频平台已上线“AI内容检测”按钮,识别准确率达92.6%;金融平台增加短信验证码、动态口令等多重验证。
公民素养提升
减少信息暴露:避免在社交平台过度公开动图、视频,尤其不向陌生人提供面部特征和声音样本。
建立验证习惯:定期在社交平台发布“验证手势”照片(如特定手势),建立生物特征锚点。
社会协同治理
警方宣传创新:结合本地案例,制作方言反诈短视频,推动反诈宣传进校园、社区、企业。
跨区域协作:建立警务合作机制,共享AI诈骗案件线索,提升打击效能。
四、典型案例:技术作恶的残酷现实
南京符某案:通过非法获取的195万条公民个人信息和AI换脸软件,突破金融平台人脸识别系统,盗刷银行卡。
香港跨国公司案:诈骗人员利用AI换脸技术,伪装成总部首席财务官发起多人视频会议,骗取2亿港元。
湖北黄石刘女士案:犯罪分子通过多次拨打座机电话收集“孙子”声音信息,利用AI合成技术实施诈骗。
五、专家忠告:技术中立,但人需有责
中国人工智能学会专家指出,AI换脸诈骗的本质是隐私信息泄露与诈骗陷阱的结合。我们正在经历“信任机制”的重构期,关键是要建立新的安全习惯而非恐惧技术。
警方提示:遇到疑似AI诈骗,立即通过电话、见面等多渠道核实信息,并拨打110或96110报警。转发本条内容至亲友群,可获取警方制作的《AI防诈测试题库》电子版,共同筑牢反诈防线!
评论列表