紧急提醒!接到陌生电话先别出声:只需5秒,你的“声音”就能被“偷走”

随着人工智能技术

和语音大模型应用的发展

如今,AI声音随处可见

但相关乱象也随之频发

从“张文宏医生”推销蛋白棒视频

被本人“打假”

到多位配音演员发声维权

控诉声音被AI“盗用”

再到不法分子利用AI合成语音

实施新型电信诈骗……

而这一系列乱象背后

声纹被盗用

正是其核心风险所在


仅需5秒

你的“声音”就能被偷走


声纹如同指纹一样具有唯一性,是个人身份的重要生物标识。而随着人工智能语音合成技术的成熟,声纹的采集与复刻门槛已大幅降低。


据国内声纹识别领域领军企业相关负责人表示,当前技术水平下,仅需5到10秒的语音样本,即可完整提取并复刻一个人的声纹。

5-10秒语音就能复刻你的声纹


这些样本往往来自日常通话中的随意应答、社交平台上的语音留言、彩信、短视频,甚至是在与陌生号码“闲聊”时不经意间留下的声音片段。


此前,央视也曾曝光过AI克隆声音乱象,在多个网络平台上,以“声音克隆”为关键词进行搜索,能轻易找到大量相关教程视频和软件下载信息。部分博主不仅详细演示操作过程,还直接提供软件资源。


网络安全专家潘季明介绍,基于开源的语音大模型,只需一段清晰的语音样本,任何人的声音都可能在极短时间内被克隆,并能被操纵说出攻击者设定的任意内容。


新型诈骗套路用你的声音

骗你的亲友


当前,一种正在悄然蔓延的新型诈骗模式:犯罪分子通过非法渠道获取目标人物的少量语音样本,利用AI语音合成技术复刻其声纹,再冒充本人向亲友实施诈骗。


“妈,我手机丢了,这是我新号,急需用钱!”“爷爷我打架进派出所了!”“姥姥我女朋友怀孕急需手术费!”骗子通过非法渠道获取家庭信息,用哭喊、喘息声甚至AI合成语音模拟求救声音,虚构车祸、斗殴、疾病等突发事件制造恐慌。


声音几乎一模一样,再加上情感上的紧迫感,亲属很容易放松警惕。这类骗局之所以成功率极高,正是因为它绕过了传统诈骗中“口音不正”“话术生硬”的弱点,直接利用了人与人之间最基础的信任——声音的辨识。


日常生活中如何警惕并防范

声纹被盗用及AI换声诈骗


不随意与陌生号码“闲聊”


接到自称“客服”“熟人”“公检法”等陌生来电时,避免长时间对话,更不要主动提供语音回应。一旦发现可疑,立即挂断。


不随意发送语音与彩信


在社交平台、短视频、短信等场景中,避免向陌生账号或公开渠道发送个人语音信息。语音彩信、语音留言同样可能被截取利用。


选择可信平台


不要随意下载未经官方认证的App,即便其提供免费通话或其他看似诱人的功能,也可能暗藏陷阱。


涉及转账汇款,务必“双重核实”


凡是接到亲友通过陌生号码、社交平台新号提出借钱、转账、代付款等请求,必须通过原有联系方式进行视频通话或当面核实。仅凭“声音像”就转账,存在极高风险。


声纹和身份证、银行卡密码一样

是我们个人核心隐私的一部分

无论是主动规避

抑或是在信息泄露后

及时止损、留存证据维权

每一步都需要我们

主动警惕、积极行动


保护好个人敏感信息

就是守住个人权益的第一道关卡

唯有重视细节、做好防范

才能让信息泄露的“暗箭”

无处可藏


来源:东方网综合央视新闻、湖北日报、法治日报、深圳新闻网

展开阅读全文

更新时间:2026-04-01

标签:科技   陌生   声音   紧急   电话   语音   样本   信息   随意   视频   亲友   社交   彩信

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight All Rights Reserved.
Powered By 71396.com 闽ICP备11008920号
闽公网安备35020302034844号

Top