从配音演员的声线被公然盗用,到名人的声音被随意克隆,AI声音侵权乱象频发。那么,目前AI技术克隆声音的门槛究竟有多低?近日,总台记者跟随网络安全专家做了一场声音克隆实验,我们跟随记者的镜头一探究竟。
在网络安全专家的实验室,记者亲身体验了一次AI克隆声音的全过程。实验中,记者尝试录制了一句话的音频作为声音克隆素材。
网络安全专家 卞瑞彪:截取的话,只要能保证截取引用音频的内容里面有一个比较清晰的吐字过程,就是以波纹为例的话,截取的部分最好语调和语气平和,就可以作为比较好的效果。
仅需1秒音频
声音就能被“偷走”
网络安全专家随意截取了其中1秒钟音频作为克隆样本,仅仅几秒钟后,记者的克隆声音就朗读出了一段从未录制过的文字。

从克隆声音的音色、语调来辨别,都与记者的原声高度相似,仅能听出一些AI合成的痕迹。
据网络安全专家介绍,后期只要进行一些微调,对克隆声音的语速、语气进行调整,就可以让它更接近真人发声,甚至可以做到以假乱真。他表示,目前AI克隆声音已经不再需要大量的音频素材,而技术核心,是对个人声音表达特征深度学习。
网络安全专家 潘季明:首先是从短短几秒的音频素材中学习到个人的表达习惯、语速、语调,还有一些个人的表达情感,可能都会内化到这个模型里面,这个模型再通过你让它读取的内容,去朗读指定内容,这样就能够实现一个声音克隆的完整过程。
网络安全专家潘季明介绍,随着AI克隆声音技术的使用门槛持续降低,技术滥用风险也随之加剧。

网络安全专家 潘季明:很多个人的音频如果被滥用的话,很可能会被恶意攻击者保留,利用它去做一些敲诈勒索,或者对于情感、金钱诈骗,以及一些侵权行为可能都会出现,所以当前这些生成出来的新录音片段,都是需要去做AI的标注,包括显式标注和隐式标注,以及这种数字水印方面的标注。所以平台方是有责任或者是有义务去做这些事情。
配音演员声线被盗用
AI仿声侵权频发
1秒钟的声音片段就能复刻出高度相似的声线,如今在各类短剧、广告中被AI克隆出来的声音肆意滥用,让以声音为生的配音演员面临“饭碗被砸”危机,更让普通人的声音权益暴露在风险之中。那么,这些被“偷走”的声音背后,究竟隐藏着什么样的侵权乱象与伤害?
配音演员 苏阳林:它现在已经克隆得非常相似了,它不是我录制的,但是确实是我的音色,也是我的声音技巧处理,这只是侵权声音的冰山一角。
今年年初,配音演员苏阳林在网上刷短剧的时候,突然听到了一个让他有些恍惚的声音,明明是自己的音色,但是他印象中却并没有录制过。
更让苏阳林震惊的是,他发现在抖音、小红书、红果等多个平台上,大量AI生成的短剧、动漫中都出现了盗用他的声音,其中还有播放量破亿的热门作品。

与苏阳林相比,配音演员刘中正的遭遇更具讽刺意味。2025年12月,刘中正在录音棚录制一部短剧的过程中,竟然在现场听到一段从未录制过的自己的声音,一番交涉后,对方现场认错并道歉,但是仅仅两个月后,这样的遭遇再次发生。
记者调查发现,近几年AI克隆声音侵权现象已经到了泛滥地步,从为哪吒配音的吕艳婷、为甄嬛配音的季冠霖等知名配音演员,都难逃声音被盗用的遭遇。
在采访中,一些配音演员告诉记者,他们所在的一个配音演员群里,超过一半的从业者有过声音被克隆遭遇,这让靠声音谋生的配音演员们陷入了前所未有的生存困境。
举证难 成本高
维权陷入困境
面对这样的侵权行为,配音演员们第一时间想到的就是拿起法律武器维护自己的权益,可现实却给满怀希望的他们泼了一盆冷水。举证困难、投诉渠道缺失、维权成本高,让不少维权者陷入了即使“赢了官司还可能倒贴钱”的困境。
2025年年底,安徽配音演员米子为北京一家连锁KTV录制了两句跨年广告的配音,可在最终发布的广告视频中,原本的两句台词却变成了三句,多出的那句,正是对方用AI克隆她的声音生成的,该广告还在全国百余家门店和多个网络平台传播。
为了维权,米子不仅拨打了12345、12315等多个投诉举报电话,还专门赶赴北京找律师、递交律师函,花费了三个月的时间和大量精力,可她的维权之路却陷入了“立案难”的死循环,核心问题在于证据不被法院认可,而补充证据的机会早已丧失。

除了高昂的经济成本,举证的难度更是让维权者望而却步。湖南的配音演员常喜博发现自己的声音被克隆后,想要向平台投诉,却发现根本没有专门的投诉选项。
侵权零成本维权高成本
下架易追责难

侵权者的零成本与维权者的高成本形成了鲜明对比,即便部分维权者能让侵权内容下架,也难以获得应有的道歉和赔偿。北京配音演员苏阳林向红果平台投诉侵权短剧后,等了一周视频才被下架,平台却始终未给出任何反馈;刘中正则遭遇了制作者删评论、推诿责任的情况,对方甚至辩称AI制作没有真人参与,不构成侵权。
AI声音克隆被利用
AI拟声诈骗案频发
当某个自然人的声音被恶意克隆,不仅会侵犯这个人的人格权,更可能被电信诈骗、敲诈勒索的违法者利用,甚至引发舆论安全危机,给社会公共秩序带来严重隐患。当技术失去了约束,被克隆的声音就有可能成为伤害他人的“利器”。
记者调查发现,AI克隆声音对于普通人来说,更为直接的风险就是电信诈骗。2025年12月中旬,四川雅安警方破获一起AI拟声诈骗案,雨城区西城派出所接到居民报警,称其父母可能正在遭遇电信诈骗。民警通过问询了解到,事发当天下午,老人接到了被克隆“孙子”的电话,对方以卷入治安案件、急需缴纳罚款为由,诱骗老人拿出4万元现金,幸亏民警及时赶到,才避免了老人的财产损失。

无独有偶,2025年4月,湖北黄石也发生了三起类似的AI拟声诈骗案,犯罪分子克隆老人“孙子”的声音,以打伤同学需要赎人为由,先后骗取三位老人共计6万元。负责转移诈骗资金的吴某被抓获,2025年12月,湖北省黄石市黄石港区人民法院依法判处吴某有期徒刑2年1个月,并处罚金人民币15000元。
法律如何为
声音克隆“上锁”
声音作为个人生物识别信息,具有极高敏感性,一旦被滥用,后果不堪设想。面对这一新型侵权问题,现有法律如何适用?如何摆脱维权困境?又该如何从法律层面为声音克隆技术戴上“紧箍咒”,为公民的声音权益筑起保护屏障?
我国民法典第1023条明确规定,自然人的声音参照肖像权进行保护,这为声音权益保护提供了基本的法律依据。另外,自然人的声音还属于“个人信息保护法”中规定的特殊生物识别信息,被侵权人既可以主张人格权侵权,也可从个人信息保护等多种角度进行维权追偿。
中国政法大学网络法学研究所所长 李怀胜:对于生物识别信息,我们法律实际上是要给予特殊的强化保护,意味着平台对声音等敏感的个人生物识别信息就要给予强化保护,那么这种是否尽到相应的保护义务,也是判断平台是否承担相应侵权责任的非常重要依据。

针对配音演员们反映的“源头侵权”,即声音被软件方未经授权的情况下投喂AI大模型的问题,法律专家明确表示,软件方的该类行为已构成直接侵权,需承担相应的法律责任。
中国人民大学未来法治研究院执行院长 张吉豫:如果在训练过程中,大量使用了包含他人的视听作品,或者是录音录像制品的数据进行训练的话,如果没有获得授权,那也会侵犯他人的著作权、邻接权。同时如果是生成之后的声音被用来做一些虚假广告,误导消费者,等等;它还可能会涉及反不正当竞争法、消费者权益保护法的相关约束。
如何破解
维权成本高收益低困境

为破解配音演员维权成本高、收益低的困境,法律专家也提出了行业组织发起集体诉讼、引入第三方机构建立技术维权等建议,同时,对于恶意侵权、社会影响恶劣行为,可引入惩罚性赔偿,加大侵权者的违法成本。
中国政法大学网络法学研究所所长 李怀胜:通过行业组织进行集体诉讼,这种模式的好处是可以综合相关的案件证据降低维权成本,并且通过集体诉讼的方式来形成维权压力,迫使相关的侵权人降低或者减少自己的相关侵权行为。

中国人民大学未来法治研究院执行院长 张吉豫:可以鼓励社会的第三方机构,就像过去在版权领域一样,先从第三方机构去建立起一种凭借技术维权的渠道。这种技术维权既可以为相关的声音权益的权益人提供服务,也可以未来去支持平台,采取更先进的措施来更好维护网络空间的良好秩序。
专家呼吁,技术的发展必须秉持“以人为本、智能向善”的原则。平台应履行主体责任,对AI生成内容进行相应的标识,建立专门的声音侵权投诉通道;软件方应建立伦理审查机制;而我们每一个人,也应增强声音权利保护意识。
法治热评
AI技术创新发展不应突破法律底线,AI克隆不能成为侵权挡箭牌,严管滥用,严惩盗用,守护声音权益。
编辑: 杨丹纠错:171964650@qq.com
中国宁波网手机版
微信公众号



















