未经许可用AI克隆、使用他人声音均属侵权

别让AI偷走我们的声音

版次:A08来源:深圳侨报    2026年04月14日

AI换脸乱象未平,AI盗声又成新隐患。前不久,叶清、季冠霖等配音演员3月集体维权事件引发广泛关注。

当AI“偷”走我们的声音,普通人该如何维权?记者采访法学专家、律师及司法鉴定专业人士获悉,我国法律明确保护自然人声音权益,未经许可用AI克隆、使用他人声音均属侵权,全链条固证、追责可有效守护数字人格权。

现状调查 声音咋会被“偷”走

AI如何生成以假乱真的声音?受访专家介绍,AI能够“克隆”声音,主要是依靠深度学习算法,即短时间内从采集的声音样本中提取关键特征,包括频率、音色、声调、语速、情感等,将这些特征记录为数学模型,再通过算法合成。

专家介绍,随着算法越来越先进,在高性能设备和高精度模型的加持下,AI生成的语音内容从两年前的“一眼假”升级到如今的“真假难辨”。

网友李先生在网络音乐播放器中收听几首翻唱歌曲,他一直以为这些歌曲由某知名女歌手翻唱,后来才得知其实全部是AI合成的。

AI声音在最近一两年时间内变得格外“流行”。专家分析,人工智能技术的普及,让AI模拟声音的门槛大幅降低。通过一些开源软件和平台,没有专业知识的普通用户也能操作。

据调查,大量APP能够进行AI合成声音,最快只需十几秒。比如,使用一款APP,花198元就能解锁付费会员,对着镜头说几遍“12345”,AI就会根据声音生成各类内容的出镜口播视频。而且通过这款软件生成的名人声音,基本可以以假乱真,且录入名人声音不需要提供任何授权证明。

业内人士介绍,AI模拟人声在互联网“流行”,有追逐流量和变现的目的。通过“克隆”名人声音制作的恶搞、猎奇类视频,在相关平台播放和点赞量均不低,有的甚至还被推上热搜。发布者也相应获得流量曝光、粉丝增长、广告收入等播放收益。

另据调查,“偷”人声音也有不法利益驱动。国家金融监管总局2024年7月发布的《关于防范新型电信网络诈骗的风险提示》中提到,不法分子可能对明星、专家、执法人员等音视频进行人工合成,假借其身份传播虚假消息,从而实现诈骗目的。

专家解析

维权面临三大难点

不少人误以为只有明星、配音演员的声音才受保护,实则不然。随着人工智能技术的发展,声音作为一种人格利益受到重视。

深圳大学民法制度与权利保障研究所副所长魏启证解析,我国民法典第1023条明确规定,自然人声音的保护参照适用肖像权保护的有关规定。同时,声音作为个人敏感信息受个人信息保护法保护,配音演员的声音还受著作权法保护。广东君龙律师事务所知识产权律师侯晓宇介绍,即便标注“非商用”“个人二创”,未经授权使用AI仿声也不能免责。

魏启证表示,声音保护不看名气,普通人声音只要能被家人、朋友、同事等特定群体识别,即具备可识别性。即便AI对音色做微调处理,只要仍能关联到特定自然人,就构成侵权。安证司法鉴定所司法鉴定人黄万巧也表示,声音可识别性不要求100%相同,达到高度混淆程度即可认定。

“侵权内容碎片化传播、发布者匿名难溯源;平台以‘技术中立’为由推诿,拒绝提供训练数据与用户信息;声音无形,相似度认定不直观、举证难。”魏启证认为,这是AI声音侵权维权面临的三大难点。

对策建议

防范AI盗声 平台责任重大

近年来,有关主管部门出台《人工智能生成合成内容标识办法(征求意见稿)》《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等规定,一定程度上给AI技术使用划定了红线。

防范AI盗声侵权,平台责任重大。《生成式人工智能服务管理暂行办法》明确要求使用服务提供者用于训练模型的声音数据必须具备合法来源。

“当AI工具被用于批量侵权时,平台已不是中性技术提供者,而是侵权的基础设施。”侯晓宇认为,AI工具平台与视频平台需履行事前审核素材来源、事中强制标注AI生成、事后及时下架侵权内容的义务,未尽义务需承担连带责任。

面对AI盗声,侯晓宇支招“维权三步走”:第一步24小时内通过公证处网络证据保全、区块链存证、录屏哈希值验证等方式快速固证。第二步委托具备资质的司法声纹鉴定机构对AI生成内容与权利人真实声音进行声纹比对。第三步向平台发送律师函、证据保全申请,要求提供内容生成日志、用户信息。若平台拒不配合,可申请法院证据保全令。

据悉,全国首例AI生成声音人格权侵权案中,法院正是依据声纹比对等证据,判令侵权方赔偿25万元并赔礼道歉。

总之,技术创新不可逾越人格权边界。从民法典确权到专项法规监管,再到刑事打击,法律已为AI侵权划定红线,守护每个人的数字人格尊严。

作者: