网上AI换脸诈骗是真实存在的,且技术逼真、危害严重。近年来,不法分子利用AI换脸技术伪造熟人视频、合成虚假场景,已导致多起高额诈骗案件,单笔涉案金额最高达2亿港元。关键风险包括:伪造身份视频通话、合成不雅照敲诈、窃取生物信息等,普通人稍有不慎便可能中招。
AI换脸诈骗的核心技术基于深度学习算法,通过人脸识别、特征提取与融合,结合语音合成,生成以假乱真的动态视频。例如,诈骗者只需获取目标对象的少量照片或语音样本,即可伪装成其亲友或领导,在视频通话中要求转账。近期案例显示,甚至有诈骗团伙在多人视频会议中伪造全部参会者身份,仅受害者一人为“真人”。
防范此类诈骗需掌握以下要点:
- 验证动态动作:要求对方在视频中完成挥手、眨眼等动作,AI生成的画面会出现抖动或异常。
- 提问隐私问题:通过询问只有真实对象知道的信息(如共同经历)来确认身份。
- 保护生物信息:避免随意公开人脸、声纹等数据,关闭非必要应用的摄像头和麦克风权限。
- 延迟转账操作:即使视频确认身份,也需通过电话或线下二次核实再处理资金请求。
AI技术本身无善恶,但滥用可能引发信任危机。目前,我国已出台《生成式人工智能服务管理行办法》等法规,要求对AI生成内容标注水印,同时加强源头端生物信息保护。牢记“眼见未必为实”,保持警惕是应对AI诈骗的第一道防线。