|
||||
新华社电 通过AI换脸和拟声技术,10分钟骗430万元;AI虚拟人在聊天中筛选出受害者,人工接力实施诈骗……近期,多起宣称利用AI技术实施诈骗的案件引发关注。 记者近日与公安部门核实确认,“AI诈骗全国爆发”的消息不实,目前此类诈骗发案占比很低。但公安机关已注意到此犯罪新手法,将加大力度会同有关部门开展技术反制和宣传防范。 “换脸”式诈骗引发焦虑: 你会被亲友的脸骗到吗? 近日,内蒙古包头警方通报一起利用AI实施诈骗的案件,福州市某公司法人代表郭先生10分钟内被骗430万元。据通报,骗子通过AI换脸和拟声技术,佯装熟人实施诈骗。 该案披露后,不少报道称需警惕“AI诈骗潮”到来,并曝光多起类似案件。如江苏常州的小刘被骗子冒充其同学发语音、打视频电话,小刘看到“真人”后信以为真,“借”了6000元给骗子。 那么,“AI诈骗潮”是否真的到来了?记者调查了解到,AI在技术上确实能做到换脸、拟音,但被用来进行“广撒网”式诈骗需要具备很多条件。 一位被列入公安部专家库的民警告诉记者,这类诈骗如果得手必须做到:收集到被换脸对象的个人身份信息、大量人脸图片、语音素材,通过AI生成以假乱真的音视频;窃取被换脸对象的微信号;充分掌握诈骗对象个人身份信息,熟悉其与被换脸对象的社会关系,综合作案成本很高。 公安机关研判,近期网上“AI换脸换声诈骗在全国爆发”传言不实,全国此类案件发生不到10起,但该动向值得高度关注。网上一键换脸功能的App、小程序有技术滥用风险,需要加强技术防范反制等工作。 AI进入快速迭代期 涉诈犯罪风险正在积聚 工信部信息显示,伴随AI技术快速发展,合成技术门槛持续降低,逐渐向低算力、小样本学习方向演进,利用手机终端即可完成,对算力和数据的要求下降明显。同时,随着AI大模型的技术加持,正逐步由面部合成向全身、3D合成发展,效果更加逼真。 国家开发投资集团特级专家、厦门美亚柏科AI研发中心总经理赵建强表示,AI技术正加速向网络诈骗、虚假信息、色情等领域渗透。如在一些网络平台上假冒明星、公众人物生成视频图像,吸引网民。此外,AI技术也可能被用来规模化地实施违法犯罪,如批量、自动维护网络账号,发送虚假信息,模拟人工在线聊天等。 值得关注的是,当前AI技术不再是实验室的半成品,引发热议的“换脸”“拟音”技术已有较成熟的开源软件,使用门槛低。记者注意到,网络上不乏AI换脸教程。 “老话说‘眼见为实’,但今后眼睛看到的也不一定是真实的。”北京市天元律师事务所合伙人杨虎城表示,未来涉及AI合成技术的诈骗、敲诈勒索等违法犯罪和肖像、名誉等民事侵权问题可能逐步显现。 尽快完善相关法规制度 为AI技术发展立规划线 中国移动信息安全中心品质管理处副处长周晶告诉记者,近年来,国际国内各界在积极探索深度合成技术的有效治理路径,研判AI技术给社会带来的风险和潜在威胁,正设法将AI技术发展纳入一定规则中,做到安全可控。 业内人士建议,首先,要加强AI反制技术研究,“以AI制AI”。一些科技公司正加强对图像、声音伪造技术的反制研究,在公安、金融的视频认证场景已有应用。有一线民警建议,要加强AI安全技术应用研发,将AI技术应用于犯罪识别、预警、对抗中,实现以“白”AI对抗“黑”AI。 其次,加强源头治理和行业引导,及时更新、完善相关法律、标准、规则,为AI技术发展保驾护航。 公安部有关负责人表示,当前,诈骗集团利用区块链、虚拟货币、远程操控、共享屏幕等新技术新业态,不断更新升级犯罪工具,与公安机关在通讯网络和转账洗钱等方面的攻防对抗不断加剧升级。公安机关会同相关部门与诈骗分子斗智斗勇,不断研究调整打击防范措施,确保始终保持主动权。 工信部表示,下一步,将强化监管执法,积极会同网信、公安等部门,督促企业健全完善深度合成信息管理及技术保障措施。 |
3上一篇 下一篇4 |
版权声明 @ 中原网 网站版权所有 |