促进“深度合成技术”健康发展

■ 梅 麟

版次:05  2022年12月20日

日前,国家互联网信息办公室、工业和信息化部、公安部联合发布《互联网信息服务深度合成管理规定》(以下简称《规定》),强调不得利用深度合成服务从事法律、行政法规禁止的活动,要求深度合成服务提供者落实信息安全主体责任。

深度合成技术一般指利用人工智能(AI)、深度学习、虚拟现实(VR)等生成合成类算法制作文本、图像、音频、视频、虚拟场景等网络信息的技术,常见于“AI换脸”“AI变声”等应用。随着技术日益成熟,深度合成运用已能实现以假乱真的效果,人们仅凭感官难以有效识别,甚至可以“骗过”信息识别系统,容易诱发各类违法犯罪活动。例如,合肥市公安部门曾捣毁一个在合肥、青岛等地活动的犯罪团伙,该团伙利用深度合成技术伪造他人人脸动态视频,出售给黑灰产业链不法分子,严重侵犯受害者隐私权、肖像权、财产权等权益。若利用深度合成技术制造网络谣言,在热点事件中“推波助澜”,无疑将威胁国家安全和社会稳定。

党的二十大报告强调,要强化经济、重大基础设施、金融、网络、数据、生物、资源、核、太空、海洋等安全保障体系建设。此次《规定》出台,对构建深度合成技术安全保障体系提出明确要求,释放促进深度合成技术向上向善的积极信号。职能部门应依照《规定》要求,在鼓励探索深度合成技术多元化应用场景同时,持续优化配套法规,细化具体处罚标准。督促相关行业完善行业标准、行业准则和自律管理制度,落实职业道德与法治宣传教育工作,引导从业者自觉履行从业备案义务,未经允许不得擅自收集、使用、编辑他人敏感信息。业内机构应联合行动,把参与违法活动人员列入禁止从业“黑名单”,形成人人合理运用技术、抵制犯罪诱惑的良好风气。健全受害者援助机制,协助受害者追讨侵权损失,消除不良影响,对因技术滥用造成心理创伤的受害者还应做好干预疏导工作,帮助受害者早日走出阴影。

促进深度合成技术向上向善,既要构建常态化监管机制,也要与时俱进提升监管者专业能力,更好适应高标准监管要求。定期邀请行业专家、前沿工作者等开展专业技术培训,让监管人员深入理解深度合成技术,掌握相关违法犯罪活动特点。考虑到深度合成技术仅凭感官往往真假难辨,可联合相关企业、科研院所等开发预警监测系统,自动分析信息内容是否存在技术滥用风险,及时反馈可疑信息,实现监管提质增效。

深度合成技术一旦遭到滥用,将对全社会造成难以估量的损失,应为推动相关技术有序发展凝聚社会合力。涉及用户财产管理行业应加大安全技术研发投入,建立更加完备的身份认证流程,为保障用户信息安全打造高标准“防火墙”。网络平台应强化内容审核力度,强制要求使用深度合成技术的内容信息必须提供显著标识功能,对故意将合成内容伪造成真实信息的发布者,第一时间封停账号,保留关键证据信息,配合执法部门调查。媒体应广泛宣传深度合成技术发展状况及存在的安全风险,引导公众强化自我保护意识,主动举报违法违规线索,促进深度合成技术依法有序发展,为经济社会发展作出更大贡献。