站长之家(ChinaZ.com)10月16日 消息:随着AI技术的广泛应用,一些不法分子也将其用于实施诈骗。近日,国家金融监督管理总局发布消费者权益保护风险提示,提醒广大公众警惕利用AI新型技术实施的两种诈骗手段“拟声”和“换脸”。
“拟声”指利用AI技术合成他人声音,“换脸”是利用AI技术伪造他人脸部图像。这两种手段都可以制作出非常逼真的音频、视频和图片,用来冒充亲友或其他熟人,诱导受害人汇款或提供敏感信息。
不法分子通常先以各种借口取得受害人的发音样本或照片,然后使用AI技术制作出受害人亲友的虚假音频或视频。之后,利用这些合成内容联系受害人,以帮助亲友借钱或有紧急情况为由,哄骗受害人汇款或提供敏感信息。有时,不法分子也会利用AI技术伪造名人形象进行虚假宣传,达到诈骗目的。
由于这类诈骗手段隐蔽性强,不易察觉,一旦上当受骗,所造成的经济损失会很大。金融监管部门提醒广大公众,要提高警惕,在网上交流时注意保护好个人信息,避免过多暴露个人声音、照片等,特别是身份证、银行卡等敏感信息。即便是熟人要求汇款,也要核实对方身份,避免被骗。一旦发现问题,应及时报警处理。同时,相关部门也需加强监管,采取有力措施打击这类新型网络诈骗犯罪。
(举报)
以上就是本篇文章【国家金融监管总局:警惕AI新型技术诈骗风险】的全部内容了,欢迎阅览 ! 文章地址:http://www78564.xrbh.cn/news/3013.html
文章
相关文章
动态
同类文章
热门文章
栏目首页
网站地图
返回首页 迅博思语移动站 http://www78564.xrbh.cn/mobile/ , 查看更多