AI声音克隆乱象:全红婵"被带货"卖蛋4.7万单 明星普通人皆成目标

小编 61 0

撰文 Skin

在如今信息爆炸的短视频平台,AI配音内容已渗透日常,从"悟空四郎"等热门音效到定制化语音,人工智能语音合成技术正以惊人速度普及。

随着"声音克隆"技术模块化发展,普通用户通过短视频平台或AI工具,仅需录制3-5秒语音样本,即可生成包含语气、语速特征的个性化语音模型,这项曾属专业领域的技术现已实现"一键克隆"。

技术便利背后暗藏危机,个人声纹信息正面临被非法采集、滥用的风险,近期曝光的"AI明星带货"事件引发社会广泛关注。

短视频平台出现大量冒用奥运冠军全红婵名义的带货视频,画面中"全红婵"戴口罩出镜:"我是你们的婵宝,今天想帮妈妈分担压力,把老家土鸡蛋分享给粉丝们..."逼真声线促使商品销量攀升至4.7万单,众多网友误以为是本人助力家乡特产。

针对此类视频,全红婵家人通过央视新闻澄清:所有带货内容均为AI合成,本人及团队从未参与任何商业代言。

类似骗局蔓延至多位体坛明星,孙颖莎、王楚钦等运动员的AI克隆声音被用于农产品销售。调查显示,这些未获授权的虚假代言视频,已导致超4.7万名消费者误购,凸显AI语音诈骗的规模化危害。

你在短视频网站上见过AI克隆明星带货的视频吗?|央视新闻

名人AI仿冒事件早有先例,2023年雷军遭遇"AI语音恶搞",大量伪造内容用其形象发布不实言论;2024年美国大选期间,克隆的拜登语音致电选民误导投票,显示AI声纹滥用已形成跨国风险链条。

相较于公众人物,普通民众面临的AI语音诈骗威胁更为直接。网络安全专家指出,克隆声纹正成为精准诈骗的新型工具,通过模仿亲友声音实施财务欺诈案件激增。

McAfee网络安全公司7000人调研显示:70%受访者无法分辨克隆语音与真人声音,7.7%曾因此遭受经济损失。受骗金额中,36%案例损失500-3000美元,7%高达5000-15000美元。

诈骗场景呈现高度定制化特征:45%案件伪装成亲友紧急求助,其中配偶(40%)、母亲(24%)、子女(20%)为主要模仿对象。常见话术包括突发车祸(48%)、遭遇抢劫(47%)、证件丢失(43%)及境外意外(41%)等紧急情境。

骗子常用的诈骗场景:车祸、抢劫等。在每个国家都频繁发生。|参考资料1

此类"声纹鱼叉攻击"利用AI技术实现精准模仿,配合个人信息泄露形成完整诈骗链条。安全专家强调,建立多渠道身份验证机制至关重要,建议家庭设置"安全暗号"作为语音沟通的身份凭证。

老年人等对新型科技手段不熟悉的人更容易被骗。因此,提醒家里的老年人,并和他们约定验证身份的方式十分重要。|CBC截图

技术门槛的降低加剧风险扩散,研究表明3秒语音样本即可生成匹配度85%的克隆声纹,增加训练数据后相似度可达95%。当前地下产业链已形成"声纹采集-模型训练-诈骗实施"的完整体系。

AI音频工具现已能模拟呼吸声、环境音等细节特征,通过社交媒体、电话录音、配音兼职等渠道,个人声纹信息正被非法获取。专家特别警示"配音兼职试音"可能是声纹盗取陷阱,需提高警惕。

在网络上分享声音,已经成为了一个很普遍的现象。而平台和软件缺乏监管和保护,我们的声音就很有可能会被盗取。|参考资料1

(3)标榜赚钱的骗局:一些有声书"兼职配音"的线上试音,也许就是骗取个人隐私和声音的手段。

这种"配音兼职"有着刷单、诈骗和盗取个人资料的风险,所以一定要保持警惕。|图源网络

我国正构建多层次法律防护体系,2020年《民法典》首次确立声音权保护,将声纹纳入人格权范畴。2024年北京互联网法院就配音演员声纹侵权案作出判决,责令侵权公司赔偿25万元,创下国内AI声纹保护第一案。

2025年9月实施的《人工智能生成合成内容标识办法》明确要求,AI生成的音频、视频等内容必须添加显式标识,为技术应用划定合规红线。

老年人等对新型科技手段不熟悉的人更容易被骗。因此,提醒家里的老年人,并和他们约定验证身份的方式十分重要。|CBC截图

不过,更危险的是,骗子想要偷走"声音",难度比你想象得小多了。除了网络上的各种技巧和工具外,McAfee的研究人员还发现,3秒钟的音频就足以生成一个与原始语音匹配度高达 85% 的克隆语音。如果再加入一点点训练数据,匹配度可以达到95%。

而一些AI音频生成软件如今甚至还可以克隆出人声各种"呼吸声",比如沉重的叹气,气喘吁吁的声音等,甚至还能改变你说话时周围的环境音……

所以,骗子可以从哪些渠道偷走你的声音呢?

(1)在社交媒体、电话发布的已有的视频中的你的声音。

(2)当你在使用一些软件的时候,在没有花时间看的用户协议里,可能已经将自己的声音"授权"给了软件。

在网络上分享声音,已经成为了一个很普遍的现象。而平台和软件缺乏监管和保护,我们的声音就很有可能会被盗取。|参考资料1

(3)标榜赚钱的骗局:一些有声书"兼职配音"的线上试音,也许就是骗取个人隐私和声音的手段。

这种"配音兼职"有着刷单、诈骗和盗取个人资料的风险,所以一定要保持警惕。|图源网络

最后,我国正在出台各种监管手段,整治AI克隆声音的乱象,帮助受害者维权。

2020年,《民法典》首次将我们的声音纳入法律保护。非法模仿他人的声音,就和肖像一样可能是侵权行为。2024年,北京互联网法院判决两家公司向一名配音演员支付 25 万元人民币的赔偿,因为这两家公司未经同意克隆了该配音演员的声音。这是中国首例保护语音权免遭人工智能克隆的法律判决。

2025年9月1日起施行的《人工智能生成合成内容标识办法》则明确表示,服务提供者应当对文本、音频、图片、视频、虚拟场景等生成合成内容添加显式标识。

参考资料:

[1]https://www.mcafee.com/ai/news/ai-voice-scam/#:~:text=These%20tools%20required%20only%20a,small%20number%20of%20audio%20files.

原创文章版权归微信公众号

"把科学带回家"所有

转载请联系:bd@wanwuweb.com