查看原文
其他

AI技术改变诈骗,新骗局来袭,诈骗成功率接近100%

云山Dr 全民防骗局 2023-05-22

点击👆全民防骗局关注我,星标


01


近日,一名拥有百万粉丝的女网红爆出了一起“AI换脸”事件。这名女网红表示,她的视频评论区突然涌来了很多人说看过她的“视频”,但她从未发布过这样的视频。

她疑惑地点开了这个视频,结果发现里面的女生和她长得一模一样,但做着一些难以描述的动作,让她感到非常愤怒和无助。她随即意识到可能是她的脸被人工智能(AI)盗用了。



AI技术发展迅速,最近爆火的AI换脸,大家不知道玩过没有。
只需要提供一张带脸的照片,就可以把自己置换成视频、电视剧中的男(女)主角,而且拟真度非常高,毫无违和感。
有人把鹿晗的脸置换到刘亦菲扮演的“小龙女”角色中,就是下面这个效果。如果不是事先看过《神雕侠侣》,还以为就是本人呢。


02


技术改变生活,也改变了骗术!骗子很快就把新技术应用到了骗术中
近日,福州的李先生遭遇了冒充领导诈骗,被骗了48000元。
以前我们都认为,冒充领导诈骗的骗子肯定不敢跟你打电话,更不敢跟你视频。
但是,这个骗子冒充李先生的领导“曾某”,伪造微信账号添加李先生后,竟然直接跟李先生微信视频,取得了李先生的信任。
视频中,李先生看到确实是领导“曾某”,其正在某会场开会,不便接听电话,打完招呼后转入文字聊天。
“曾某”说他有个亲戚正在参加一个项目竞标,急需周转资金,自己不便出面,想先将钱转给李先生,再借李先生的名义转给亲戚。
既然都视频确认过了,李先生不疑有他,向“曾某”提供的账户转账48000元,后发现被骗。


无独有偶。前些天,常州的小刘也被骗了。

骗子冒充小刘的初中同学找小刘借钱,不但给小刘发了语音,还打了视频电话。刘看到“真人”后,相信了对方,“借”了6000元给骗子。


03


除了用AI换脸事先制作视频播放,有的软件还可以实时捕捉替换人脸,并且直接接替摄像头,用于视频聊天。
这款软件的操作很简单,只需要选择一张你要换脸的照片,比如爱因斯坦,软件就可以把你的脸换成爱因斯坦的脸。
这个时候,你做什么动作,这张人脸也会做什么动作,眨眼、张嘴、点头、摇头都可以,动作非常逼真。

骗子开发利用新技术的速度令人瞠目结舌。这样的骗局对只会看看视频玩玩微信的我们来说简直就是灾难。

我们一直说,“杀猪盘”的骗子不敢视频,冒充公检法的骗子不敢视频,各种冒充类的骗子不敢视频……

骗术在精进,在颠覆我们的认知,我们的认知却来不及改变。

抛开事后诸葛亮,试想你是福州的李先生,在领导和你视频聊天,明确表示他正在开会的时候,你真的会再打个电话去确认他的身份吗?

当然,李先生还犯了一个错误,在“曾某”所谓的转账没有到账的情况下,就给他的“亲戚”转了钱。
但是,并不是所有人都有那么谨慎,总有人在“领导”刻意的“关心”中胡思乱想,提前把钱转过去。
AI换脸技术大大提高了骗子诈骗的成功率,而这才刚刚开始,技术仍在飞速发展。
可以想见,很快AI换脸技术将在各类骗局中大量使用,就像半年内普及的共享屏幕一样。
可能某一天,你的“网恋女友”(抠脚大汉)会视着频撒着娇跟你要红包,你的“儿子们”要你把学费转到“老师”的银行卡里。也可能因此出现新的骗局。
如果事先不知道骗子的这些伎俩,被骗的可能性非常大。还是那句话:
你目前还没被骗,并不是因为你多聪明,也不是因为你没钱,而是适合你的“剧本”还在路上。
关注我并星标,及时了解最新的诈骗套路。关注关注
推荐阅读(点击蓝色字体即可阅读)

关于反诈工作的几个问题及思考

当前电信网络诈骗的的新形势和反诈工作面临的困境

“卧底”感悟:知乎上看看被骗者的惨状,提醒我们防骗才是最有效率的投资

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存