《数字虚拟人信息服务管理办法(征求意见稿)》正式向社会公开征求意见。从人脸合成到声音克隆、从直播场景到短剧视频,技术在奔跑,法治在补位。未经特定自然人同意,不得提供足以识别特定自然人身份的数字虚拟人服务。虚拟偶像、数字主播、金融客服、医疗导诊,当数字虚拟人涉嫌侵权,如何清晰划定使用边界?《新闻1+1》关注:从换脸到盗声,AI侵权怎么治?
随着人工智能等新技术发展,大众身边逐渐出现了更丰富的虚拟数字人应用场景。从AI主播到金融客服、医疗导诊等服务领域,虚拟数字人的应用越来越广泛。但同时, “撞脸”名人、任意“复活”逝者、深度伪造等现象也层出不穷。
就在4月3日,国家互联网信息办公室发布《数字虚拟人信息服务管理办法(征求意见稿)》,向社会公开征求意见,有舆论分析称这意味着对数字虚拟人这一新兴业态的治理将迈入全面、系统的法治化规范新阶段。
最主要指向哪些当下最迫切解决的问题?
中国社会科学院大学互联网法治研究中心主任 刘晓春:主要涉及数字虚拟人应用当中的一些乱象,比如我们说到数字虚拟人,通常指虚拟主播、数字主播带货,或者我们可以给自己做一个数字分身,有可能自己没有收钱,别人就做了数字分身。还有像虚拟偶像,有可能一方面这些虚拟人、数字人会产生一些不太好的内容,有害的或者不良的内容;另一方面,它也会对于我们个人的脸、声音造成一些侵权,甚至有可能进一步实施诈骗,这些行为都是一些乱象,需要进行治理。
治理侵权方面最大的难点到底是什么?
刘晓春:最大的难点就是数字人生成的技术门槛太低了。以前我们要生成一个AI生成的人物或片子,可能要专业机构制作,现在因为AI技术突飞猛进的发展,所以会变成个人甚至是小的机构就可以生成,这就形成了侵权泛滥,同时很难追溯到底是谁在进行这样的行为,因为我们可能看到传播出来的内容,但是追溯不到责任人。另外,如果我们的脸、声音被盗用之后,有的时候不是一模一样的盗用,它有时候认定说是不是这个自然人,去比对的时候也存在标准不太清楚的地方,这又导致维权本身很困难。所以,这些难点会导致对于自然人的侵权扩展和泛滥。
怎样能让四类主体形成全链条的共同治理和问责?
刘晓春:如果去看数字人侵权的情况,通常会找最后那个传播端,到底谁是把这个上传的,并且在平台上传播的。但是我们也发现,如果你只找那个传播端,不去找前面服务的提供者或者生成端,甚至再往前,整个技术比如基础模型的提供者,如果不去找他们,是治标不治本,可能你把这个内容掐掉了,其他内容又源源不断产生出来。我们现在这个征求意见稿实际上是把生成数字人服务的提供者和使用者,就是使用这个服务去生成数字人这两者的责任压的最实,他们要承担所有一系列带来的法律责任。同时,对于传播平台是从传播端要求他们采取相应的措施,源头上也要求技术支持者按照跟服务提供者的约定履行他们的义务。在这个意义上,整个链条上的主体都被纳入进来,同时都要针对相应的侵权以及其他的法律责任去承担他们相应的义务。
如果要细化,哪些方面可以有进一步延展的空间?
刘晓春:我觉得一个是范围,我们叫数字人,到底什么是数字人?比如里面提到了这个数字人可能能跟人互动,这个数字人可能有自己的想法,体现出他的想法和行为。到底具备哪些才是数字人,哪些不是?边界不是那么清楚,能不能给它进一步类型化,比如说虚拟主播怎么办?数字分身怎么办?
还有涉及它的责任分配,刚才说了全链条都有责任,但是真要出了侵权的情况,到底维权的时候我们找谁是最直接的?谁的责任是最重的?这个如果能够区别一下,包括谁应该做到什么,这些具体的义务能够更具体一点,大家去维权的时候,就更清楚了。
最后,也是涉及认定标准的问题。虽然我们说侵犯了肖像权,用了别人的声音,盗了别人的脸,会承担责任,但是的确有可能会出现不是一模一样,只有60%、70%相似,那么这个时候,认定标准如果能够更加清晰一点,是很值得期待的。
传播平台对于AI技术的侵权现象是否有提前判断或阻断?
刘晓春:平台的确在传播上非常重要,我们叫它“守门人”,如果平台不对它进行传播的话,那些损害都是可控的。在这个意义上,我们也意识到,现在各种使用数字人也好,或者短剧也好,这种对于肖像、声音的使用跟以前的使用可能有了很大的区别。直接来说,平台要从简单比对转向动态审核,因为视频是动态的,一帧帧里面可能只有几帧会涉及侵害。平台需要开发这样的技术模型,适应技术的新变化。另外,我们也建议平台开发新的比对数据库,比如声音可能没有这个比对库,特别是对于已经出现侵权的,比如说一些名人,出现了侵权的高发情况,要事先建立一个比对库,对于上传的素材进行一些审核和对照。另一方面,我们也会承认,如果你要对所有的普通人都建一个在线的数据库,可能还是比较困难的,因为也不知道谁的会被侵权。这个时候,平台要去建立一个比较便捷的维权通道,及时地、高速地对于相应的侵害的投诉进行反馈。
(央视新闻客户端)