9秒被骗245万!AI诈骗正在爆发

AI诈骗正在爆发,据迈克菲安全技术公司的最新报告,受到AI诈骗,77%的人会遭受经济损失。

诈骗者通过被害人的社交媒体、上网记录,采集其各方面的生活信息和行动轨迹,合成对方的声音、人脸,诈骗其朋友、亲人、同事,让人防不胜防。

去年,AI诈骗案频发,“9秒被骗245万”,“10分钟被骗430万”等诈骗案件多次登上热搜。

据安徽警方通报,去年4月,有人换脸成被害人的好友,称有一个项目招标需要周转资金,视频通话仅9秒钟,就诈骗到245万。

去年10月,有博主发文称,有人通过AI换脸,制作她的不雅照片对她进行敲诈。

如何识别AI诈骗,碰到后应该怎么办?

我们和AI诈骗的亲历者、AI工程师聊了聊。

声音和脸都像我朋友,

其实却是诈骗犯

自述:安安,20岁,大学生

我目前正在读大二。有一天我在QQ上收到了一个好朋友发来的消息,寒暄了几句后,她说她的微信被限制了,想转钱到我的银行卡,让我帮她买个东西。

涉及到钱,我就比较谨慎了,我说我们先视频一下。她也没犹豫,打开了视频。因为长相、声音和我朋友一模一样,我们视频了5秒钟就挂了。确认了脸,我便放松了警惕。

安安和对方的聊天截图

我问她想买什么,她没回复,直接让我发银行卡号过去,她转钱给我。我没有多想,把卡号发给了她。她给我发了个充值Q币的链接,让我点链接帮她买3500元的Q币。

我当时也挺奇怪的,无缘无故为什么要买Q币?我问她是不是在做暑假工,但她跳过了我的问题,说已经把钱转过来了,问我收到了没有。我并没有收到。她开始兜圈子,说再去问问客服,确认一下,让我先帮她买一下,钱一会儿就能到账。

如果我大意一些,钱也就转过去了,但我再次起了疑心,就让她再接一次视频电话。这时候她也有些不耐烦,说就是我本人,你放心。

我怎么能放心呢?我们平常都是在微信上联系,她怎么突然用QQ联系我?况且是买虚拟货币,发过来的也是陌生链接。我就用微信跟我这位朋友确认,她说她根本没有在QQ上找过我。

说实话我当时都快被吓哭了,又去QQ问对方,让她打开视频给我看,打开后还是我朋友的样子,根本看不出来脸是AI合成的。她为了让我放心,甚至拿出了身份证给我看。挂了电话,我骂了骗子几句,她看我迟迟不转账,觉得我识破了,就没有继续装了。

后来我朋友才发现她的QQ账号被盗了。至于身份证,她觉得可能是之前在某个网站上上传过身份证照片。但是想来想去,我们也不知道到底是哪个环节出了问题。如果不是去微信上多问了一句,我差点就被骗了。

留学生被骗:

骗子会利用“时空差”

自述:Mike,23岁,留学生

我今年23岁,目前在美国读书。说实话,第一次碰到AI诈骗的时候,我真的被吓出了一身冷汗。

去年圣诞节我和同学去南美洲玩儿,那阵子我和我爸妈联络也比较少。有一天半夜我突然接到我妈的微信电话,接上的时候发现她已经打了三四个了。我当时也吓了一跳,以为家里发生了什么事。她当时带着哭腔,问我怎么样,还好吗。我当时也有点蒙。

编造“留学生被绑架”,是诈骗犯常用的手段

她告诉我,她白天接到我的电话,来电显示是我国内的手机号,电话那头也是我的声音,我说自己在南美洲被绑架了,跟我妈要10万美元赎金,否则就活不了了,没说几句电话就挂了。

我妈当时差点就信了,她尝试着给我的手机打电话,发现打不通,当时隔着太平洋,她也没办法确认真假,只感觉声音是我的,她甚至报了警,警察告诉她再通过别的途径确认一下,因为当时是夜里,我的微信也打不通。

她有点着急了,后来我爸给我打手机电话,我妈尝试给我打微信电话,两个人折腾了半天,幸好我的手机平常不会关声音,最后我接到了我妈的电话。

我安慰她说我没事,就是在旅游。她当时都将信将疑的,问刚才我的声音是怎么回事。我当时根本不知道还有AI诈骗这回事,也是吓得够呛。

后来我们打开了视频,她看到我真的没事,才放心下来。后来我上网去查,才知道有些AI诈骗不仅会黑你的手机通讯录,还会黑进你的微信,除了声音,连脸都是可以伪造的。

电影《孤注一掷》剧照,主线故事围绕电信诈骗展开

平常我和我爸妈的联系频率还是比较高的,基本上每周都要打两三个电话,就是那次,我恰好在外面旅行,也发了自己旅行城市的定位,和家里联络就比较少了。

所以后来我想,可能就是因为这样,诈骗犯利用了这个“空档”,通过我的社交媒体知道了我的位置,也不知道怎么黑到了我国内的号码,提取了我的声音,来诈骗我爸妈。还特意选择了我晚上在睡觉,可能接不到电话的时间。

我是比较小心谨慎的性格,之前也比较保护自己的隐私,比如我在国内的时候,每次收到快递一定会把自己的个人信息涂抹掉再扔快递盒,也不轻易在外面留自己的电话号码,上网记录也会定时删除,但是有时候难免会泄露一些信息,太难防了。

“AI诈骗的门槛越来越低”

Q:AI诈骗主要指的是什么?

A:AI诈骗主要采用的技术是Deep fake,意思就是深度伪造。它是一项人工智能的人体图像合成技术。AI诈骗主要就是利用这项技术,进行换声、换脸,再通过电话、社交媒体进行的欺诈。

在《速度与激情7》的拍摄过程中,保罗·沃克意外车祸去世,片方讨论后,邀请保罗·沃克的两个弟弟担任替身,正脸则用AI技术复制保罗的脸。

Q:正常情况下,这项技术运用于哪些领域?它的发展经历了哪几个阶段?

A:早期,这项技术主要用于影视剧的后期剪辑,比如说最出名的《速度与激情7》,保罗·沃克出车祸去世后,片子的后半部分就是用了deep fake的换脸技术。

2018年,出现过一个政治方面的恶搞视频,一个美国演员用Deep fake技术制作合成了一个视频,奥巴马大骂特朗普是个笨蛋,其实他本人从没说过这种话。这个视频在推特上获得200多万次的播放,影响力非常大。也就是因为这个虚假新闻,让这个技术慢慢走进大众视野。

后来在日本,这个技术也被用来造黄谣,有年轻人通过换脸技术,出售伪造的不雅影片。再后来,就开始出现电话语音诈骗,还有我们看到的更高级的换脸变身诈骗。其实一直到2022年,AI诈骗才开始集中大量出现。

去年10月,一位自称裸体绘画艺术家的人称自己受到委托,按要求制作某博主的裸体图片,因委托人没有付费,所以他向博主索要500 USDT(加密货币,约合人民币3500元),否则自己将会公开出售其裸照。

Q:AI诈骗爆发的原因有哪些?

A:在早期,硬件设施还不是非常完善,deep fake也有一定的技术门槛,需要懂一些相关技术才会使用。所以AI诈骗没有那么猖獗。2023年,被称为“AI元年”,让人惊叹的chatgpt也出现了,可以说AI技术的发展突飞猛进,加上这几年计算机硬件革新,计算能力大幅提升,让能使用deep fake的硬件比较容易获得。

而且,这项技术是开源的,比较容易获取。在专业的软件网站、应用商店,甚至网购平台就能找到。任何人都可以下载、学习和使用。

并且经过不断的优化整合,现在的技术壁垒越来越低。比如说在网上,有些人会出售“一键安装包”,让普通小白一键安装后就能使用。甚至在某些渠道,你花几块钱就能找人帮你做一条换脸视频,所以主要是因为AI技术的学习、获取门槛越来越低,导致AI诈骗的门槛也越来越低。

来源:视觉中国

Q:AI诈骗常见的一些方式和手段包括哪些?

A:首先就是语音诈骗,比如通过一些唱歌、配音软件提取你的声音,通过骚扰电话来提取你的声音,并进行后期合成。还会通过盗号,用一些第三方的插件,实现语音转发,获取你的声音样本,再进行电话诈骗。

更高阶一些的,他们还会通过远程控制软件,向指定的目标人发送含有恶意软件的链接或者文件,一旦你打开,它可能会控制你手机上的一些APP,甚至盗取你的账号密码、个人身份信息等,获取你的声音和照片,再去了解你的生活,找到你熟悉的亲人、朋友,直接打视频过去,进行诈骗。

徐欣正在科普AI数字人,使用deep fake技术改换人脸。来源:@超级头脑AI魔法师

Q:AI诈骗为什么难以识别?能通过具体案例讲讲吗?

A:AI诈骗是一套“组合拳”。换脸变身,只是诈骗的最后一步。

第一步,犯罪分子会通过AI工具选取诈骗对象,一定是各方面条件都是他们可以把握的。我们在浏览网站的时候,会留下cookie。诈骗犯通过盗取QQ等社交媒体,可以推断出这个人大概的年龄段、经济水平。

你可能在公共社交软件(比如小红书、抖音等)上发布了一些个人信息,诈骗者可以通过这些信息大致推断出你的身份、对什么感兴趣。了解你的个人形象和你的生活圈、行动轨迹,之后为你量身定制一个“诈骗剧本”。

比如之前有新闻说一个人10分钟被诈骗了430万,假如说那是一个没有做过功课的骗子,就只是换脸成他的一个普通的朋友,单纯地跟他去借钱,别说借430万,几万块可能都有点困难。

因为骗子之前盗他的账号,收集了他的个人隐私信息,了解到他最好的朋友是谁,这个朋友在什么时候,刚好有一个项目,这个事是真实存在的。然后他就来冒充这个朋友打电话给被害人,说我这边的项目可能需要借点钱。被害人当时肯定有所顾虑,但是两个人打开视频,看了视频发现确实是朋友的脸,声音也是,这才上当受骗。

还有一个学生,他刚好那段时间出国旅游,没开国际漫游,诈骗犯就是盯准了他和父母电话沟通不是很顺畅这一点,便冒充他去跟他父母要钱,说是在国外遇到了什么事儿,让他父母把钱打到一个账户。利用这种时空差也是诈骗犯常用的手段。

工具在变,但是诈骗最终骗的都是人性。诈骗者会利用受害者的一些恐惧心理,冒充领导、公检法之类的,利用受害者对权威天生的畏惧心理,通过伪基站,用官方号码给受害者发送信息。

Q:我们应该如何防止隐私泄露?

A:首先我们浏览网页的时候,尽量关闭cookie,及时清除浏览记录,关闭“登录网站自动保存密码”的选项,不要在非官网的网站留下身份信息、电话信息。

在社交平台,尽量不要发清晰的正面照,发朋友圈关闭定位,不接骚扰电话。最重要的就是不点陌生链接,在手机上下载国家反诈APP。

来源:视觉中国

Q:作为普通人,我们如何识别对方是否是AI诈骗?

A:在开视频的情况下,我们可以有意识地引导对方做一些动作,比如张大嘴巴,或者大幅度摇头,让对方用手挡在脸前面等等。因为目前这个技术虽然可以换脸,但是它对于突然出现在摄像头前的阻碍物,是没有办法进行快速分辨的,这个时候,人的面部就会发生变化,产生一些变形。

而且deep fake训练模型的时候,大部分用的是人物正脸,对于侧面甚至后脑勺是训练不到的。它能够训练人物的五官,但是很难改变人的脸型、骨骼形状。所以说对方做大幅度动作的时候,可以从侧面、后面这些方位去看,就能看到一些瑕疵。

此外,伪造的人脸,他的眨眼频率会比较低,对方的情绪也可能和当时的情景不符合,画面会停顿,这时候先不要考虑是不是网不好,可以考虑有可能是伪造的。

如果对方打来的是语音电话,我们可以尝试用方言交流。假如骗子已经高阶到连方言都对答如流,那只有一个办法,就是聊隐私,聊你们从来没有同任何人讲过或没有在社交软件上说过的事情。

还有一个办法是,直接拨打对方的电话,但是注意不要通过通讯录寻找对方的名字打,因为对方很可能已经黑进了你的通讯录,最好直接输入对方的手机号打过去询问,这样可以多一个渠道验证。核心就是,只要谈到钱,无论对方是谁,都要谨慎。

Q:AI诈骗案件的侦破方面,有哪些难度?

A:最大的难度在于AI诈骗具有高隐蔽性,很难获得线索。假如诈骗犯设置了一个虚拟IP,他就可以在全世界任何一个国家、任何一个地区来诈骗任何人。

你可能在中国受骗了,你去报警,但是骗你的人是在大洋彼岸的其他国家。加上对方的声音、形象都是合成的,这就更是难上加难了。但我还是建议被AI诈骗后一定要先报警,至少留下一份档案。

Q:在电信诈骗、AI诈骗这方面,我们国家有相应的法律举措吗?还有哪些方面需要完善?

A:2023年1月份,我们国家颁布了一条《互联网信息服务深度合成管理规定》,规定了深度合成服务提供者的主体责任,就是从技术提供者的源头去规范和管理。

当然,漏洞依然有,目前急需完善的地方就是技术层面。对于第三方软件、AI软件,我们对它们的拦截、识别技术,还是比较滞后的。

对于我们来说,AI工具的使用范围离普通民众还是有些远的,AI技术更多应用于大健康产业、天气预测等。其实我们普通人也可以提高AI技术的素养,多了解一些AI知识和它的底层逻辑,这样也有助于我们识破骗局。

每天一条原创短视频,每天讲述一个动人的故事,每天精选人间美物,每天来和我一起过美好的生活。一条(ID:yitiaotv)。

展开阅读全文

页面更新:2024-02-01

标签:诈骗者   保罗   诈骗犯   被害人   社交   声音   电话   朋友   技术   视频

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2008-2024 All Rights Reserved. Powered By bs178.com 闽ICP备11008920号-3
闽公网安备35020302034844号

Top