只需5秒钟就能被盗用!很多人还在主动暴露!紧急提醒

2026-03-29

随着人工智能技术

和语音大模型应用的发展

如今,AI声音随处可见

但相关乱象也随之频发

从“张文宏医生”推销蛋白棒视频

被本人“打假”

到多位配音演员发声维权

控诉声音被AI“盗用”

再到不法分子利用AI合成语音

实施新型电信诈骗

......

而这一系列乱象背后

声纹被盗用

正是其核心风险所在

仅需5秒

你的“声音”就能被偷走

  声纹如同指纹一样具有唯一性,是个人身份的重要生物标识。而随着人工智能语音合成技术的成熟,声纹的采集与复刻门槛已大幅降低。

  据国内声纹识别领域领军企业相关负责人表示,当前技术水平下,仅需5到10秒的语音样本,即可完整提取并复刻一个人的声纹。

1-只需5秒钟就能被盗用!很多人还在主动暴露!紧急提醒.png

5-10秒语音就能复刻你的声纹

  这些样本往往来自日常通话中的随意应答、社交平台上的语音留言、彩信、短视频,甚至是在与陌生号码“闲聊”时不经意间留下的声音片段。

  此前,央视也曾曝光过AI克隆声音乱象,在多个网络平台上,以“声音克隆”为关键词进行搜索,能轻易找到大量相关教程视频和软件下载信息。部分博主不仅详细演示操作过程,还直接提供软件资源。

  网络安全专家潘季明介绍,基于开源的语音大模型,只需一段清晰的语音样本,任何人的声音都可能在极短时间内被克隆,并能被操纵说出攻击者设定的任意内容。

新型诈骗套路

用你的声音,骗你的亲友

  当前,一种正在悄然蔓延的新型诈骗模式:犯罪分子通过非法渠道获取目标人物的少量语音样本,利用AI语音合成技术复刻其声纹,再冒充本人向亲友实施诈骗。

  “妈,我手机丢了,这是我新号,急需用钱!”“爷爷我打架进派出所了!”“姥姥我女朋友怀孕急需手术费!”骗子通过非法渠道获取家庭信息,用哭喊、喘息声甚至AI合成语音模拟求救声音,虚构车祸、斗殴、疾病等突发事件制造恐慌。

2-只需5秒钟就能被盗用!很多人还在主动暴露!紧急提醒.png

  声音几乎一模一样,再加上情感上的紧迫感,亲属很容易放松警惕。这类骗局之所以成功率极高,正是因为它绕过了传统诈骗中“口音不正”“话术生硬”的弱点,直接利用了人与人之间最基础的信任——声音的辨识。

日常生活中如何警惕并防范

声纹被盗用及AI换声诈骗

  不随意与陌生号码“闲聊”

  接到自称“客服”“熟人”“公检法”等陌生来电时,避免长时间对话,更不要主动提供语音回应。一旦发现可疑,立即挂断。

  不随意发送语音与彩信

  在社交平台、短视频、短信等场景中,避免向陌生账号或公开渠道发送个人语音信息。语音彩信、语音留言同样可能被截取利用。

  选择可信平台

  不要随意下载未经官方认证的App,即便其提供免费通话或其他看似诱人的功能,也可能暗藏陷阱。

  涉及转账汇款,务必“双重核实”

  凡是接到亲友通过陌生号码、社交平台新号提出借钱、转账、代付款等请求,必须通过原有联系方式进行视频通话或当面核实。仅凭“声音像”就转账,存在极高风险。

声纹和身份证、银行卡密码一样

是我们个人核心隐私的一部分

无论是主动规避

抑或是在信息泄露后

及时止损、留存证据维权

每一步都需要我们

主动警惕、积极行动

3-只需5秒钟就能被盗用!很多人还在主动暴露!紧急提醒.png

保护好个人敏感信息

就是守住个人权益的第一道关卡

唯有重视细节、做好防范

才能让信息泄露的“暗箭”

无处可藏

来源:央视新闻、湖北日报、法治日报 、幸福福田

(责任编辑:山壬)