所见非所得,哪怕亲眼所见、亲耳所听都有可能是假的!
近日,话题#AI诈骗正在全国爆发#、#AI诈骗成功率接近100%#相继登上微博热搜,引发网友关切。AI诈骗常用套路是什么?生活中如何做好防范?
视频聊天获得信任
10分钟被骗走430万元
5月8日,包头市公安局电信网络犯罪侦查局发布一起使用智能AI技术进行电信诈骗的案件。
据悉,在4月20日11时40分左右,福州市某科技公司法人代表郭先生的好友突然通过微信视频联系到他,两人经过短暂聊天后,好友告诉郭先生,自己的朋友在外地投标,需要430万元保证金,且需要公对公账户过账,所以想要借用郭先生公司的账户走一下账。好友向郭先生要了银行卡号,声称已经把钱打到郭先生的账户上,还把银行转账底单的截图通过微信发给了郭先生。基于视频聊天信任的前提下,郭先生没有核实钱是否到账,于11时49分先后分两笔把430万元给对方打了过去。钱款转账后,郭先生给好友微信发了一条消息,称事情已经办妥。但让他没想到的是,好友回过来的消息竟然是一个问号。
△图/视觉中国
郭先生拨打好友电话,对方说没有这回事,他这才意识到竟然遇上了“高端”骗局,对方通过智能AI换脸技术,佯装成好友对他实施了诈骗。
“从头到尾都没有和我提借钱的事情,就说会先把钱给我打过来,再让我给他朋友账户转过去,而且当时是给我打了视频的,我在视频中也确认了面孔和声音,所以才放松了戒备”,郭先生说。
好在报警及时,警方已将该诈骗账户内的336.84万元被骗资金拦截,但仍有93.16万元资金被转移,目前福建警方与包头警方正在全力追缴中。
成功率接近100%
AI诈骗常用套路曝光
被“AI换脸”欺骗受害的不止郭先生,浙江温州公安曾发布消息,2021年拱宸桥派出所接到报警,受害人小陈称他在与女网友视频聊天后被对方敲诈勒索。经警方调查,对方利用AI换脸技术,将小陈视频中的面部合成到不雅视频中,借此对其实施勒索。
2020年,上海某公司高管因对方使用AI换脸与人工生成的语音技术制作公司领导的面孔,并要该高管转账,致使该高管被诈骗150万元。
除了AI换脸、合成语音外,AI诈骗还有这些常用套路,大家可保存知悉,谨防上当受骗!
在盗取微信号后,骗子便向其好友“借钱”,为取得对方的信任,他们会转发之前的语音,进而骗取钱款。尽管微信没有语音转发功能,但他们通过提取语音文件或安装非官方版本(插件),可实现语音转发。
AI筛选受骗人群
值得一提的是,这些骗局中,骗子不是漫无目的地全面撒网,而是根据所要实施的骗术,通过AI技术筛选受骗人群,别有用心地锁定特定对象。例如,当进行金融诈骗时,经常搜集投资信息的小伙伴就会成为他们潜在的目标。
“明星”直播带货?
当心是AI实时换脸
除此之外,AI实时换脸,也正在直播间悄然出现。近日,有网友点开直播间,却发现正在卖货的竟是当红女星。然而再定睛一看,这些带货“明星”很快露出了马脚——身穿中式服装,正在卖力带货的“明星”们,其实只是使用了AI实时换脸技术的普通主播。
目前的AI实时换脸,在直播中已能达到以假乱真的地步,不少人点进直播间以后以为主播只是长得像明星,不过也有一些直播间出现了人身比例失调的违和现象。有网友指出了其中一些破绽:“主播低头整理头发的时候,脑门上全是黑的。”
△红星新闻视频截图
有视频换脸研究者表示,实时换脸不存在延迟,也不会有Bug,而直播画面传输的延迟则取决于使用者的网络配置和进行直播的平台。
据一家提供“换脸软件”的网站客服表示,他们提供的全套模型购买价格为3.5万元,AI实时换脸可适用于各大直播平台。
在一些提供换脸软件的教程或网站上,提供者均提醒要警惕使用AI换脸进行诈骗或者侵权的行为。
AI诈骗以假乱真
生活中如何避免受骗?
AI诈骗极易通过身边人的信息来套取你的信任,对此,稍有不慎,便有可能“关心则乱”。针对这些花样翻新的AI诈骗套路,我们要牢记这5点:
1.不轻易提供人脸、指纹等个人生物信息给他人,不过度公开或分享动图、视频等;
2.网络转账前要通过电话等多种沟通渠道核验对方身份,一旦发现风险,及时报警求助;
3.如果有人自称“熟人”“领导”通过社交软件、短信以各种理由诱导你汇款,务必通过电话、见面等途径核实确认,不要未经核实随意转账汇款,不要轻易透露自己的身份证、银行卡、验证码等信息;
4.对于不明平台发来的广告、中奖、交友等链接要提高警惕,不随意填写个人信息,以免被骗子“精准围猎”;
5.如不慎被骗或遇可疑情形,请注意保护证据立即拨打96110报警。
潇湘晨报综合报道