AI“偷”走你的声音怎么办?

AI“偷”走你的声音怎么办?
——《殷某桢诉北京某智能科技公司等人格权纠纷案(入库编号:2025-07-2-474-001)》解读
当前,人工智能技术快速发展,对经济社会发展和人类文明进步产生深远影响,也带来难以预知的各种风险和复杂挑战。在日常生活中,利用人工智能技术处理自然人的声音并进行商业化应用的情形较为常见,公众通常难以区分哪些是“合成”的声音,哪些是自然人的声音。一些企业滥用人工智能技术,未经授权随意“合成”足以以假乱真的声音用于经营性活动,引发公众对发展人工智能技术的担忧,应当依法予以规制。然而,对于“合成”声音是否侵犯自然人合法权益、侵犯何种权益,法律上并无明确规定,实践中亦存在一定认识分歧,亟待通过确立裁判规则予以回应。对此,人民法院案例库入库参考案例《殷某桢诉北京某智能科技公司等人格权纠纷案(入库编号:2025-07-2-474-001)》明确了经人工智能技术处理的声音受声音权益保护的认定标准,即“对于人工智能技术处理后的声音,一般社会公众或者一定范围内的公众根据音色、语调和发音风格,能够识别出特定自然人的,则该声音属于自然人声音权益的保护范围。未经自然人许可使用经人工智能技术处理的声音,构成对自然人声音权益的侵权”,为类案裁判提供借鉴和参考。现就有关问题解读如下:
一、经人工智能技术处理的声音属于自然人声音权益保护范围的认定
声音与肖像、姓名一样,都是民事主体的外在表征。民法典第一千零二十三条规定“对自然人声音的保护,参照适用肖像权保护的有关规定”,明确将自然人声音权益作为人格权予以保护。据此,民法典关于肖像的认定、肖像权的权能及合理使用等规定,适用于对自然人声音权益的保护。根据民法典第一千零一十八条第二款关于肖像的定义,肖像具有可以识别特定自然人的属性。因而,自然人声音受到人格权保护的前提,也应当是具有识别特定自然人的属性。实践中有争议的问题在于,经人工智能技术处理后的声音是否落入自然人声音权益的保护范围。对此,应当从自然人声音权益的认定标准出发,能识别出该特定自然人的,可以认定为属于该自然人声音权益的保护范围,反之则不能受自然人声音权益的保护。
关于声音的可识别性认定标准,可以从处理方式角度,结合主客观因素综合考量。根据声音的处理方式具体分为两类:一类是直接使用自然人声音,如通过音频、视频等形式对自然人声音录制、公开、模仿、拼接、篡改等;另一类是利用人工智能技术合成新的声音。本案例即为第二类合成声音的情形。声音领域的人工智能技术通常是指文本转语音,即利用深度学习技术对自然人声音数据进行学习,通过文本转语音操作。
经人工智能技术合成后的声音是否具备可识别性,关键在于能否识别出自然人主体身份。对此,不能仅依靠声纹辨认、声纹确认的客观标准,还需结合使用方式,将新的声音的音色、语音语调、发音风格等与自然人声音作对比,同时根据自然人的社会知名度,采取一般社会公众、一定范围内公众的主观标准进行综合判断。例如,对于知名人物,由于其声音音色、语音语调、发音风格等独特性,通常为一般社会大众所熟知,此时以一般社会公众能否识别作为判断标准进行判定;而对于配音演员等从事与声音密切的行业的人员,应以在一定范围内(如配音领域内)公众能否识别作为判断标准。
本案例中,殷某桢是配音演员,经当庭勘验,某软件公司利用人工智能技术处理后形成的声音与殷某桢的音色、语调、发音风格等具有高度一致性,能够引起一般人产生与殷某桢有关的思想或感情活动,能够将该声音联系到殷某桢本人,进而识别出殷某桢的主体身份。因此,案涉经人工智能技术合成的声音属于殷某桢声音权益的保护范围。
二、人工智能技术处理声音构成侵权的认定
民法典第九百九十五条规定:“人格权受到侵害的,受害人有权依照本法和其他法律的规定请求行为人承担民事责任。受害人的停止侵害、排除妨碍、消除危险、消除影响、恢复名誉、赔礼道歉请求权,不适用诉讼时效的规定。”该条规定为自然人的人格权益受到侵害时的救济提供法律依据,从而实现保护人格尊严的目的。本案例系人格权侵权案件,按照民法典关于侵权责任的有关规定,认定被告的行为是否构成对殷某桢声音权益的侵害,应从侵害行为、侵害后果、因果关系、主观过错等方面综合考量。关于侵害行为方面,本案例中被诉侵权行为有二:一是未经自然人许可使用其声音用于训练素材,二是未经许可使用经人工智能技术生成的声音。具体而言:
第一个侵权行为涉及人工智能训练素材的“投喂”过程。通常而言,训练方将自然人的声音片段进行“投喂”,“投喂”的素材越多,生成的声音准确度、还原度就越高。在“投喂”声音的过程中,还可以进行微调训练,让人工智能自主学习“投喂”的声音数据的音色、音调等信息,而随着训练次数的增加,生成的声音就与该自然人的声音越相似。由于“投喂”训练素材需要使用自然人原本的声音,若未经自然人许可就直接使用,则构成对自然人声音权益的侵害。根据查明事实,殷某桢为某文化公司录制录音制品,某文化公司依照约定对录音制品享有著作权等权利,但不享有授权他人处理并使用殷某桢声音的权利。某文化公司将并非殷某桢本人签署的《数据授权书》提供给某软件公司,允许某软件公司以商业或非商业的用途使用、复制、修改数据用于其产品及服务。某软件公司仅以殷某桢录制的一部录音制品作为素材进行人工智能处理,生成了案涉声音,而殷某桢本人也未直接参与两家公司的合作协商,且殷某桢并未授权某文化公司对外许可对其声音进行人工智能处理。因此,某软件公司是在未经殷某桢本人知情同意的情况下,利用人工智能处理并使用殷某桢声音,该行为无合法权利来源,构成对殷某桢声音权益的侵犯。
第二个侵权行为是某软件公司在经营活动中使用了经人工智能技术生成的声音。生成后的声音是对殷某桢原始声音的模仿,容易让公众误认为是殷某桢本人的声音,可能会造成其人格尊严的贬损,而某软件公司将未经授权处理生成的声音制作成文本转语音产品,授权他人在网络平台上销售,而北京某智能科技公司购买该文本转语音产品后,直接在其平台中使用,导致案涉声音在网络上被广泛传播,上述行为侵犯了殷某桢的声音权益。
此外,关于侵害后果方面,声音权益属于法定的人格权益,适用人格权请求权有关规定。行使人格权请求权不以造成损害后果为要件,对于可能发生的妨害或者已经存在的妨害,权利人可以通过停止妨害请求权寻求救济。行使侵权请求权则需要以存在一定损害作为前提,以对权利人的损害进行补偿救济。同时,人工智能技术处理声音的侵害行为与侵害后果发生之间应当存在因果关系,被告据此承担相应的责任。本案例中,某文化公司与某软件公司的案涉侵权行为造成了殷某桢声音权益受损的后果,应当承担赔偿损失的法律责任。其他被告对此不存在过错,不承担损害赔偿责任,但应当承担相应赔礼道歉责任。
有必要提及的是,人工智能训练素材的合法性问题较为复杂,世界范围内尚无成熟解决方案。对此,本案例明确了使用自然人声音作为训练素材的,使用人应当有较高的注意义务,未取得自然人授权且不属于合理使用的,构成人格权的侵权。同时也应看到,人工智能技术的快速发展,给人格权保护带来前所未有的挑战。在此背景下,如何发挥司法职能作用,推动在法治轨道上加强和完善人工智能治理,不断提升人工智能技术的安全性、可靠性、可控性、公平性,是人民法院工作面临的时代课题,需要在实践中不断探索,并形成有益的裁判规则。
来源:人民法院报
-
AI“偷”走你的声音怎么办?
AI“偷”走你的声音怎么办?——《殷某桢诉北京某智能科技公司等人格权纠纷案(入库编号:2025-07-2-474-001)》解读当前,人工智能技术快速发展,对经济社会发展和人类文明进步产生深远影响,也带来难以预知的各种风险和复杂挑战。在日常生活中,利用人工智能技术处理自然人的声音并进行商业化应用的情
-
东北林业大学:学生求职 AI“开方”
图为学生体验AI面试。受访单位供图学生们手持简历,在智能终端与专家咨询区之间穿梭;一台台人工智能设备在3秒内生成多维度的简历诊断报告,不仅标注出内容匹配度、关键词优化等硬性指标,还能分析“职业形象定位”“成长路径逻辑”等软性要素。这是近日东北林业大学(以下简称“东北林大”)“简历午间门诊Pro”活动
-
听·见丨AIGC的“身份证”,也是锐进的“护身符”
你的声音,我们愿意听见;你的关切,我们一同看见。图片来源:视觉中国 近日,国家互联网信息办公室、工业和信息化部、公安部、国家广播电视总局联合发布了《人工智能生成合成内容标识办法》(以下简称《办法》),并明确将于2025年9月1日起施行。专家认为,《办法》是我国推进人工智能领域安全治理、促进产业规范健
-
全球人工智能治理 包容可持续发展是共识
从2024年12月开始,中国人工智能科创公司发布的DeepSeek大模型,正持续在全球引发关注。如何保障以务实有效的多边合作推进人工智能治理,为全球范围内实现普惠包容平等开放的可持续发展注入更多的确定性和领导力,逐渐成为多数负责任行为体的共同认识。1月,世界经济论坛2025年年会在瑞士小镇达沃斯召开
-
1秒2公里!比亚迪发布超级e平台技术 首搭车型汉L EV、唐L EV开启预售
每经记者:李星 每经编辑:孙磊3月17日晚间,比亚迪超级e平台技术正式发布。“超级e平台整合了全球首个超级千伏架构、闪充电池、兆瓦闪充系统,以及量产30000rpm电驱系统。”比亚迪集团执行副总裁、汽车工程研究院院长廉玉波表示。图片来源:每经记者 李星 摄据廉玉波介绍,比亚迪e平台1.0始于2010