■王元卓 汪彧
近日,国家互联网信息办公室、工业和信息化部、公安部和国家广播电视总局联合发布《人工智能生成合成内容标识办法》(以下简称《标识办法》)。该办法自9月1日起施行。
2022年底,以ChatGPT为代表的生成式AI爆火,其强大的语言理解和内容生成能力迅速渗透到各行各业。但AI并非万能的,其生成的内容也会出错,部分场景下的错误率甚至远超人类。同时,不法分子利用AI生成的逼真内容实施诈骗,尤其是AI换脸技术引发的诈骗案件频发。如果不加以规范管理,随着AI技术的进一步发展,此类问题很可能越来越严重。
《标识办法》旨在规范AI健康、良性发展,明确要求对AI生成内容进行标识,切实保护公民、法人及组织的合法权益,维护社会公共利益。
对内容生成和传播提出明确要求
对于服务提供者,即使用AI生成内容的个人或企业来说,标识要做到两点。
一是显式标识,能让普通人一眼看出内容是否为AI生成。例如,AI生成的文章应在开头或结尾处进行明显标注;AI生成的音视频应在开头、中间或结尾处以语音、文字提示或特殊图标的形式提示用户。
二是隐式标识,就是服务提供者需在文件元数据中嵌入“隐藏信息”。例如,标记文件是谁生成的、编号是多少、用的是什么AI服务等。这些信息普通人虽不可见,但监管机构和平台能通过技术手段检测出来,用于追溯和监管。
此外,抖音、微信视频号等运营平台和应用商店不能只是单纯的传播渠道,还应负起监管责任,检查其平台发布的内容有无明确的AI标识,避免用户被误导。
从长远看,新规是为AI创作内容建立“防火墙”。对公众而言,知道了哪些内容是AI生成的,就会多一分谨慎,少一分被骗的可能;对平台和从业者而言,明确的规则能降低违规风险,促进行业健康发展。
新规带来新影响
《标识方法》的出台,看似仅涉及简单的标识要求,实际上会对服务提供者、运营平台和普通用户产生显著影响,从而助力构建更透明、更可信的网络环境。
对服务提供者而言,发布AI生成内容不再是简单的复制粘贴,而需要仔细审核内容的真实性、合法性,并正确添加显式与隐式标识。这不仅要求从业者提升技术能力,更要求其强化责任意识。一旦出现问题,隐式标识可以轻松溯源,明确责任主体,不认真落实标识义务将面临相应处罚。
对创作者而言,短期可能会担心“AI标签”影响创作内容美观度及传播效果,但从长远来看,这能保护创作者权益——明确标注来源不仅可防止作品被滥用,还有助于厘清版权归属。
对运营平台而言,其职责也发生了变化,不再是单纯的信息搬运者,而变成内容监管的第一道关卡。对此,平台需升级审核机制,自动识别未标识内容并补充提示,同时记录传播全流程的标识信息。此举虽增加了技术成本,但能有效降低平台因传播AI虚假内容而引发的声誉风险,提升公信力。
对用户而言,新规可以让大家不再被铺天盖地的AI内容“蒙在鼓里”。有了明确的AI标识,用户可以快速判断哪些内容值得信任、哪些需要保持警惕,不再轻易被虚假内容或诈骗行为迷惑。
明确的标识制度,不仅压缩了造假和不法行为的空间,也为监管提供了技术依据,提高了治理效率。从更长远的角度看,AI内容标识的实施不仅为公众带来安心与便利,也为未来AI产业的健康发展奠定基础。
诸多问题亟待解决
尽管《标识方法》对AI生成内容提出了明确要求,但在落实过程中仍需解决一系列问题。
首先,技术上存在难点。比如“隐式标识”看似只是在文件里“埋个码”,但要保证所有内容都正确添加标识,且跨平台传播过程中标识不会被篡改、删除或丢失,并不简单。这既考验服务提供者的技术能力,也要求平台具有快速识别标识真伪的能力,甚至可能需要平台专门研发自动检测标识的新技术。这对一些小平台来说可能存在成本和技术方面的压力。
其次,监管层面需防范恶意去除或伪造标识的行为。这不仅是技术问题,也是一个长期的监管博弈过程。尤其是在内容跨境传播时,要想实现快速有效监管,还需要国际协作。
最后,部分创作者可能有抵触心理。新规实施初期,创作者会觉得“AI标签”影响创作内容的美观度,还担心标识后的内容被用户认为是虚假信息。这就要求平台和监管部门加大宣传和引导力度,进行适当的督促和检查。
尽管面临诸多挑战,但从长远来看,《标识方法》仍是规范生成式AI良性发展的重要举措。未来,随着监管机制的不断完善、技术工具的不断成熟,行业生态有望更加规范。同时,政府和企业可进一步探索更智能、更高效的AI识别技术,实现“AI自动识别AI”,通过多方协同,推动生成式AI产业健康有序发展。
(作者单位:中国科学院计算技术研究所)
《中国科学报》(2025-03-25第1版要闻)
特别声明:本文转载仅仅是出于传播信息的需要,并不意味着代表本网站观点或证实其内容的真实性;如其他媒体、网站或个人从本网站转载使用,须保留本网站注明的“来源”,并自负版权等法律责任;作者如果不希望被转载或者联系转载稿费等事宜,请与我们接洽。