站长之家(ChinaZ.com)10月16日 消息:随着AI技术的广泛应用,一些不法分子也将其用于实施诈骗。近日,国家金融监督管理总局发布消费者权益保护风险提示,提醒广大公众警惕利用AI新型技术实施的两种诈骗手段“拟声”和“换脸”。
“拟声”指利用AI技术合成他人声音,“换脸”是利用AI技术伪造他人脸部图像。这两种手段都可以制作出非常逼真的音频、视频和图片,用来冒充亲友或其他熟人,诱导受害人汇款或提供敏感信息。
不法分子通常先以各种借口取得受害人的发音样本或照片,然后使用AI技术制作出受害人亲友的虚假音频或视频。之后,利用这些合成内容联系受害人,以帮助亲友借钱或有紧急情况为由,哄骗受害人汇款或提供敏感信息。有时,不法分子也会利用AI技术伪造名人形象进行虚假宣传,达到诈骗目的。
由于这类诈骗手段隐蔽性强,不易察觉,一旦上当受骗,所造成的经济损失会很大。金融监管部门提醒广大公众,要提高警惕,在网上交流时注意保护好个人信息,避免过多暴露个人声音、照片等,特别是身份证、银行卡等敏感信息。即便是熟人要求汇款,也要核实对方身份,避免被骗。一旦发现问题,应及时报警处理。同时,相关部门也需加强监管,采取有力措施打击这类新型网络诈骗犯罪。
(举报)