只需上传自己的照片,相关系统即可自动“换脸”,成为“主角”穿越到热播网剧中。这样的AI(人工智能)换脸已经成为了不少剧迷追剧的新玩法。然而,这种深度合成技术就像一柄双刃剑,也有可能给使用者带来威胁。对此,近日发布并将于明年1月10日起实施的《互联网信息服务深度合成管理规定》中明确,AI换脸等应当进行显著标识,避免公众混淆或者误认。
图源:东方IC
前两年,中年妇女迷恋短视频平台上的“假靳东”事件,让人记忆犹新。随着技术的发展,不法分子已经可以通过深度合成技术进行变声、变脸的“深度伪造”,让“假靳东”们更加逼真,难以辨别真假,进行新型诈骗。合肥警方在“净网2021”专项行动中打掉一个利用深度合成技术进行犯罪的团伙,犯罪嫌疑人利用电脑将一张张静态照片制作为人脸动态视频,为黑灰产业链提供注册手机卡等技术支撑。
当眼见不再为实时,就需要制度予以规范。此次出台的规定中,除了要求对AI换脸等进行显著标识之外,还要求深度合成服务提供者等,应当提示使用者依法告知被编辑的个人,并取得其单独同意。同时,深度合成服务提供者和应用商店都要从源头上对深度合成内容提前把关,否则也要担责。
有了制度还需要具体的执行。一方面,有关部门要提高公众对深度合成技术的认知,除了显著标识之外,更要让他们了解到技术可能带来的风险,让公众一起参与到对深度合成技术的治理中,促使深度合成技术健康良性发展;另外一方面,有关部门也应该看到,随着“元宇宙”等技术的发展,全身合成、3D塑型等将被广泛应用,全新的场景将以深度合成技术为基石展开,也需要相关的“底线”和“红线”进一步明确,避免虚假信息在短时间内引发产生病毒式扩散。
深度合成技术不是法外之地,也非“洪水猛兽”,不能“一刀切”地禁止。深度合成服务治理需要政府、企业、社会、网民等多方主体共同参与,推动深度合成技术的依法、合理、有效使用,积极防范化解深度合成技术带来的风险,促进其正向应用与创新,助力打造网络空间良好生态。
方翔/文
标签: