海螺新闻网
最新热点新闻

AI换脸成新型骗局 成功率接近100%,到底是咋回事?

AI换脸成新型骗局 成功率接近100%,到底是咋回事?

最近网络名人,一个拥有百万粉丝的女生,爆料了一个“AI变脸”事件。这位女网络名人说,突然有很多人来到t aの视频的评论区,说他们看到了taの的视频,但ta从未发布过这样的视频。Ta马上意识到,可能是taの’的脸被人工智能偷走了。人工智能技术

文本摘要:

最近网络名人,一个拥有百万粉丝的女生,爆料了一个“AI变脸”事件。这位女网络名人说,突然有很多人来到t aの视频的评论区,说他们看到了taの的视频,但ta从未发布过这样的视频。Ta马上意识到,可能是taの’的脸被人工智能偷走了。AI技术发展迅速。最近AI改头换面了。我们不知道它是否被播放过。近日,福州李先生因冒充领导被骗,被骗4.8万元。除了用AI提前进行视频回放,还有软件可以实时捕捉替换人脸,直接替换摄像头进行视频聊天。AI变脸技术大大提高了诈骗者的成功率,而这才刚刚开始,技术还在快速发展。关注我,及时了解最新骗局。
AI换脸成新型骗局 成功率接近100%究竟是肿么一回事,跟随小编一起看看吧。

01

最近网络名人,一个拥有百万粉丝的女生,爆料了一个“AI变脸”事件。这位女网络名人说,突然有很多人来到t aの视频的评论区,说他们看到了taの的视频,但ta从未发布过这样的视频。

Ta在一个迷茫的地方打开了这个视频,发现里面的女生和ta长得一模一样,却做了一些难以形容的动作,让ta感到非常气愤和无奈。Ta立刻意识到,这可能是taの’的脸被人工智能(AI)偷走了。

AI技术发展迅速。最近AI改头换面了。我们不知道它是否被播放过。

只要提供一张有脸的照片,就可以把自己换成视频或电视剧中的男(女)主角,而且保真度很高,没有违和感。

有人把鹿晗的脸换成刘亦菲饰演的“小龙女孩”,就是下面这个效果。如果不是提前看了《神雕侠侣》,我会以为是我。

02

技术改变了生活和欺骗!骗子很快就将新技术运用到行骗中。

近日,福州李先生因冒充领导被骗,被骗4.8万元。

以前我们都以为冒充领导诈骗的骗子肯定不敢给你打电话,更不敢和你视频。

然而,这个骗子冒充李先生领导“曾”,伪造微信账号添加李先生,甚至直接关注李先生的微信视频,以取得李先生的信任。

在视频中,李先生看到确实是领导“曾”,正在某会场开会,不方便接电话。寒暄过后,他转而短信聊天。

“曾某”称,t a的一个亲戚正在参加一个项目投标,急需周转资金,不方便出面。他想先把钱转给李先生,再以李先生的名义转给亲戚。

由于所有视频都已确认,李先生没有怀疑有TA,向“曾”提供了4.8万元的转账,后来发现被骗。

巧合的是。前几天,常州小刘也被骗了。

骗子冒充小刘的初中同学,找小刘借钱。他不仅给小刘发了语音,还打了视频电话。看到“真人”后,小刘信任了对方,向骗子“借”了6000元。

03

除了用AI提前进行视频回放,还有软件可以实时捕捉替换人脸,直接替换摄像头进行视频聊天。

这款软件操作简单,只需选择一张你想改脸的照片,比如爱因斯坦,软件就能把你的脸变成爱因斯坦的脸。

这个时候,无论你做什么,这张脸也行。你可以眨眼、张嘴、点头和摇头。动作很逼真。

骗子开发和使用新技术的速度是惊人的。这个骗局对于只会看视频玩微信的我们来说,简直就是一场灾难。

我们一直说“杀猪”,骗子不敢视频,冒充公检法,骗子不敢视频,各种冒充者不敢视频…

欺骗在提升和颠覆我们的认知,但是我们的认知已经来不及改变了。

抛开后知后觉,想象你是福州的李先生。当领导跟你视频聊天,明确表示TA在开会,你真的会再打电话确认TA的身份吗?

当然,李先生也存在在曾某所谓的“转账”未到帐的情况下,向Ta的“亲戚”转账的错误。

然而,并不是所有人都如此谨慎。总有人在“领导”和“照顾”上胡乱想,提前转账。

AI变脸技术大大提高了诈骗者的成功率,而这才刚刚开始,技术还在快速发展。

可以想象,AI变脸技术很快就会像半年后的分屏一样,被广泛应用于各种骗局中。

也许有一天,你的“网恋女友”(抠门男)会找你要红包,你的“儿子们”会让你把学费转到“老师”的银行卡上。这也可能导致一个新的骗局。

如果事先不知道这些招数,被骗的可能性很大。再次重申:

你还没被骗,不是因为你聪明,也不是因为你没钱,而是适合你的剧本还在路上。

关注我,及时了解最新骗局。#你好,守护者#

AI变脸成新骗局的成功率接近100%。相关阅读:

新骗局来了,骗局成功率接近100%。请关注一下,告诉身边的人。

以前常说“贪小便宜会吃大亏”。的确,大多数人都是因为贪小便宜而上当受骗。

但新时代,骗局也层出不穷,尤其是利用高科技等手段行骗,更是防不胜防。

比如电信诈骗就是这样。ta们通过一些科技手段让很多人损失惨重。但是近年来,随着国家对电信诈骗的打击力度越来越大,也有各个地方对这方面进行了宣传,让更多的人逐渐了解了电信诈骗的套路,尤其是国家反诈骗APP出来后,确实防止了更多的人上当受骗。

然而最近出现了一种新的骗局,其诈骗成功率接近100%。甚至一些学历高、防骗意识强的人,也容易掉入陷阱,上当受骗。希望大家关注一下,告诉身边的人。

这种骗局就是不法分子利用AI变脸技术行骗。目前,很多地方都出现了类似的情况。比如福州的李先生,前不久因为换脸被AI骗了4.8万元。

事情是の的,李先生在一家公司上班,那天突然收到TA领导的加好友邀请,传过去后和李先生做了视频。

然后他挂了电话,告诉李先生他在开会,但是他遇到了一个麻烦。因为亲戚急需用钱,但是现在缺钱,出不去,所以想让李先生帮帮我,借点钱给TA,过段时间还给TA。

李先生一看,借钱的是自己的领导,而且还是直接视频。看起来不像诈骗,他就想尽办法给“领导”收点钱。但是后来我才知道领导根本没有向TA借钱,意识到自己被骗了。

无独有偶,前段时间常州的小刘也发生了类似的事情。骗子冒充小刘的初中同学,不仅给t a发了语音,还打了视频电话。

让小刘相信对方是TAの小学的同学,借给对方6000元。然而,后来我才知道我被骗了,在我及时报警后,我才知道这是最新的の骗局。对方是利用AI变脸等高科技手段行骗。

这几年科技发展非常迅速,AI技术这几年特别火,这也是因为AI技术已经发展到非常成熟的阶段,只需要一张照片就很容易改变人的面貌。

相信很多人也玩过AI变脸,就是把自己的照片加到一些视频或者电视剧中的人物脸上,不仅操作起来非常简单,而且非常逼真,可以说毫无违和感。如果是对于某些专业人士来说,更有可能是以假乱真。

现在的AI技术已经很成熟了。它不仅可以播放人脸替换视频,还可以用软件实时捕捉替换人脸,直接代替摄像头进行视频聊天。

比如你在和别人视频通话的时候,你可以换成你想换的任何人,关键是很逼真。特别是这些不法分子利用新技术开发的一些软件,已经到了令人咋舌的程度。

比如生活中,大部分人还是有很强的人防诈骗意识。一般遇到朋友或者亲戚借钱,会先打电话询问,有的甚至会直接视频通话,看看是不是自己。在以前,这一招真的很管用。骗子不敢和受害者直接对话,或者视频,所以很容易露馅。

但现在AI变脸技术的出现,大大提高了诈骗者的成功率。更可怕的是,AI技术才刚刚开始,这项技术还在飞速发展,其危害可想而知。

试想,未来的某一天,和你视频的“初恋女儿”可能是个抠门的男人,而当你的“孩子”向你要学费和生活费时,对方也可能是个骗子。

这一点大家一定要注意。如果事先不知道这些不法分子的伎俩,被骗的可能性很大。特别是对于一些老年人,犯罪分子会利用老年人爱子女的心切和识别能力差的特点进行诈骗。

这一点,尤其是农村老人,一定要重视。近年来,一些不法分子针对农村老人,以各种方式骗取养老钱。

所以以后遇到有人借钱,一定要多加注意。看到对方是熟人,听到过语音和视频,就不能认为是真的。很有可能是AI变脸了。以后最好还是当面借钱,你说呢?

赞(0)
版权声明:本文采用知识共享 署名4.0国际许可协议 [BY-NC-SA] 进行授权
文章名称:《AI换脸成新型骗局 成功率接近100%,到底是咋回事?》
文章链接:https://sourceopen.com.cn/5508.html

本站新闻文章由机器人程序自动发布,新闻内容具有时效性,仅供参考,不具备权威性,所有内容来源于互联网,并非官方发布信息,其真实性自行判断,不代表本站观点,如有侵权,误报,违法等不良信息,请联系删除.资源型信息仅供个人学习交流,请于下载后24小时内删除,不允许用于商业用途,否则法律问题自行承担。

相关推荐