中国报告大厅网讯,近年来,人工智能技术的快速发展在推动社会进步的同时,也催生了虚假信息泛滥、身份冒用等新型风险。为规范人工智能生成合成内容传播秩序,四部门联合发布的《人工智能生成合成内容标识办法》(以下简称“办法”)将于2025年9月1日正式实施。该办法通过建立全流程监管机制,明确了内容制作方、分发平台及用户的多方责任,旨在构建可信赖的AI技术应用环境。
办法要求所有人工智能生成合成的内容必须添加显式标识与隐式标识。对于文本、音频、图片、视频等各类内容,在传播过程中需确保文件中包含符合标准的显式标识;同时,服务提供者还须在元数据中嵌入不可篡改的隐式标识。这一举措通过技术手段实现“生成即标记”,为后续传播环节的风险防控打下基础。
互联网应用程序分发平台需承担起内容安全的第一道防线职责。根据办法规定,平台在审核应用程序上架或更新时,必须要求服务提供者说明是否涉及生成合成技术,并核验其标识合规性材料。此举将倒逼开发者主动落实标识规范,从源头减少未标注内容进入传播链条的可能性。
办法不仅约束技术服务方和平台方,还明确用户在发布生成合成内容时应主动使用服务提供者的标识功能,并声明内容来源。同时,禁止任何组织或个人恶意删除、伪造标识,或为他人实施此类行为提供工具支持。这一全面覆盖生产、传播、使用的治理框架,将显著提升虚假信息的识别效率与追溯能力。
办法同步推进强制性国家标准《网络安全技术 人工智能生成合成内容标识方法》的实施,通过统一技术规范确保标识系统的兼容性和可靠性。该标准为显式标识的可视化设计、隐式标识的数据结构等提供具体指导,使监管要求转化为可落地的技术方案,进一步夯实安全治理基础。
总结:划清责任边界 助力AI向善发展
《人工智能生成合成内容标识办法》通过建立“生产分发传播”全链条标识机制,既为技术应用划定清晰的合规边界,也为公众识别信息真伪提供了可靠依据。这一政策不仅回应了当前深度伪造、虚假消息等社会关切问题,更体现了我国在推动AI技术创新与安全治理协同发展的制度智慧。未来随着配套措施逐步落地,人工智能生成合成内容将实现“可标识、可追溯、可监管”,为技术健康发展营造清朗空间。