微信/QQ好友视频来电别轻信,有人被“AI换脸”骗走98万元

今年是AI技术爆发的元年,全球很多公司都推出了类似ChatGPT的产品,它们可以自动学习生成不同的图片、视频、文本、声音等,为各种场景提供了智能化的解决方案。但越来越成熟的AI技术也被不法分子盯上了。

以往,朋友间相互借钱,会事先进行电话语音或者视频确认,以防被骗。但近来,因为“AI换脸”导致受害者被欺诈的问题时常出现,如今视频和电话也不能够完全相信了。

河南省反诈骗中心近日发布了一起“AI换脸”电信网络诈骗案。

据报道,安阳市民雷某与一个人陌生人加了QQ好友,对方自称是其朋友“崔某”,他准备向雷先生借钱。

为了让雷某相信,“崔某”还打来一通视频电话,雷某看到视频中的人确实是“崔某”本人,只不过视频时间很短,也没有说话。经过验证后,性格豪爽的雷某答应了借钱,并向对方提供的卡号转账98万元。

但当转账后雷某再打视频电话确认时,发现对方竟然是用QQ自动回复。这时,雷某意识到自己可能被骗并立即报警。

民警经研判分析,镜头中的“崔某”应是嫌疑人使用的“AI”换脸技术。随后将资金冻结,不过只冻结成功了68万元,另外30万元已经被取走。好在后续民警确认了银行卡主的身份,最终将不法分子抓捕。

这已不是第一起冒充熟人进行的“AI换脸”电诈案。今年5月,一公司法人代表被骗子利用人工智能“换脸”技术诈骗430万元。

骗子不仅获取了受害人和好友的关系信息,还掌握了很多受害人好友的图片、音视频信息用来训练模型,最终在视频通话时借助 AI 换脸和拟声技术进行诈骗。这类诈骗案件标志着电信诈骗进入智能化、定制化时代,专属于每个人的诈骗剧本或许正在路上。诈骗已经进化到如此可怕的程度,值得所有人谨慎对待。

在实际生活中,很多人连纯文字聊天都分不清真伪,想要一眼辨别出 AI 照片和 AI 视频也实属强人所难了,更别说还有各种以假乱真的 AI 语音、AI 换脸甚至实时的 AI 换脸视频聊天。微信通话,视频聊天,以假乱真,防不胜防。

我们不得不接受一个事实,AI换脸、合成声音的技术已相当成熟,这就说明了AI换脸的成本已相当低,换个角度看就是,使用AI诈骗的成本已相当低。

据媒体报道,制作一套“露脸且说话”视频成本低至数十元,只需提供正面照就能生成视频,不仅眼睛、嘴巴、头会动,如果提供文字口型也能对上,一个晚上就能完工。

难道对待这类新型诈骗就没有办法了?

对此,警方提示,对突如其来的电话保持警惕,即使是来自你认识的人,因为来电显示的号码可能是伪造的。如果有人自称“熟人”“领导”通过社交软件、短信以各种理由诱导你汇款,务必通过电话、见面等途径核实确认,不要未经核实随意转账汇款,不要轻易透露自己的身份证、银行卡、验证码等信息。另外,不轻易提供人脸、指纹等个人生物信息给他人,不过度公开或分享动图、视频等;陌生链接不要点,陌生软件不要下载,陌生好友不要随便加,防止手机、电脑中病毒及微信、QQ等被盗号。如不慎被骗或遇可疑情形,请注意保护证据,并立即拨打96110报警。最后,期待相关部门加强对人工智能技术的监管和对违法行为的打击力度,维护网络秩序和公众利益。

编辑:CC