国家金融监督管理总局:警惕利用AI新型技术实施诈骗

国家金融监督管理总局发布风险提示,当前,AI技术的广泛应用为社会公众提供了个性化、智能化的信息服务,也给网络诈骗带来可乘之机。如不法分子通过面部替换、语音合成等方式,制作虚假图像、音频、视频,仿冒他人身份实施诈骗,侵害消费者合法权益。国家金融监督管理总局发布消费者权益保护风险提示,提醒广大金融消费者警惕新型诈骗手段,维护个人及家庭财产安全。国家金融监督管理总局提示:一、网络渠道“眼见”不一定为实。“拟声”“换脸”等合成技术的一大特点即“以假乱真”,不法分子可利用此类技术轻易伪装成他人,并通过快速筛选目标人群、定制化诈骗脚本,精准实施诈骗。因此,在涉及资金往来时,一个“声音很熟的电话”、一段“貌似熟人的视频”都可能是不法分子的诈骗套路,消费者应提高警惕。二、转账汇款务必核验对方身份。三、保护好照片、声音等个人信息。

展开阅读全文

页面更新:2024-03-19

标签:金融   国家   家庭财产   不法分子   技术   消费者   身份   声音   提示   风险

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2008-2024 All Rights Reserved. Powered By bs178.com 闽ICP备11008920号-3
闽公网安备35020302034844号

Top