上传一张静态照片,即可生成动态视频;只需几秒语音,就能克隆声音……这不是科幻电影,而是发生在身边的真实事件,“AI换脸”正成为侵权违法的重灾区。
近期,为规范应用人脸识别技术处理人脸信息活动、保护个人信息权益,国家互联网信息办公室、公安部联合公布《人脸识别技术应用安全管理办法》,对应用人脸识别技术处理人脸信息的基本要求和处理规则、人脸识别技术应用安全规范、监督管理职责等作出了规定。办法将于2025年6月1日起施行。
人脸识别技术应用与人脸信息安全紧密相关。人脸识别具有唯一性、不可更改性、不可匿名性,一旦泄露,极易对个人的人身和财产安全造成危害,还可能威胁公共安全。
AI诈骗形式多样
换脸、变声、对口型
贵州省黔东南苗族侗族自治州凯里市公安局反诈中心负责人吴西福介绍,一家科技公司的负责人郭先生有一天接到好友打来的视频电话,说自己正在外地投标,需要几百万元保证金,想用郭先生的公司账户走一下账。不久后,好友说已经把钱转到郭先生的账户并截图证明。郭先生觉得通过视频能看到好友本人,便没等收到转账成功的通知就给好友转了钱。后来,郭先生迟迟没收到转款,联系好友时才发现自己被骗。
宁夏回族自治区银川市某公司部门经理张先生接到“老板”视频电话,对方称因情况紧急,急需转账汇款。在视频中确认是“老板”后,张先生放下了戒心,十几分钟内将20万元转入指定账户。直到下午当面汇报工作时,张先生才发现上当受骗。
这些案件都是典型的AI诈骗。“你以为在和朋友亲人视频聊天,其实是骗子使用的‘AI换脸’技术,让别人的嘴能够‘对口型’。”宁夏回族自治区公安厅刑侦总队副总队长、反诈中心负责人吴克刚介绍,如今,“AI换脸”技术不仅限于静态照片的活化,还能在即时视频通信中实时换脸。虽然需要采集大量不同角度的照片进行模型训练,但一旦成功,便可以假乱真。过去,公民个人身份证号、手机号以及家人信息需要重点防范,现在,人脸、声音、指纹等同样要避免泄露。
新型AI诈骗主要有以下类型:语音合成诈骗,不法分子利用AI技术,合成受害人亲友或熟人的声音,让受害人误以为是亲友或熟人需要帮助,进而实施电话诈骗;图像生成诈骗,不法分子通过AI技术,生成虚假的照片或视频,制造出受害人亲友紧急且合理的情景,从而获取个人信息,骗取钱财;智能客服诈骗,不法分子利用AI技术,制作智能客服系统,通过语音或文字同受害人交流,诱骗受害人提供个人信息或进行转账操作;AI情感诈骗,不法分子运用AI训练面向网聊的大语言模型,通过伪造场景、声音与受害人建立情感关系,进而获取个人信息。
吴西福介绍,共享屏幕等新型诈骗也要注意。不法分子以“提升信用卡额度”“航班延误退费”“赠送礼品”等为借口,向个人发送短信或拨打电话,诱导受害人下载指定软件,并开启软件的“共享屏幕”功能,就可以“实时监控”受害人手机、电脑屏幕,同步获取个人银行账户、口令、验证码等重要信息,从而盗取银行卡资金。
上一条:
下一条:
乌海市人民政府办公室 主办 乌海市大数据中心 维护
地址:内蒙古乌海市海勃湾区滨河区市行政中心 邮编:016000蒙公网安备:15030202000006蒙ICP备05000809号 政府网站标识码:1503000001
网站有害信息举报及维护电话:0473-3998316,邮箱:zwgkjdk@163.com