2025年9月1日,我国《人工智能生成合成内容标识办法》正式实施,标志着人工智能生成内容进入"全面标识"时代。新规要求所有AI生成的文本、图片、音频、视频等内容必须同时添加显性和隐性标识,这一举措被视为遏制AI技术滥用、治理网络虚假信息的重要里程碑。
在新规出台前,国内主要互联网平台已开始自发探索AI内容标识。抖音、小红书、B站等平台相继出台管理规则,要求创作者标注AI生成内容。据统计,2024年至2025年间,各平台处置未标识AI内容账号超20万个,清理违规内容百万余条。然而平台自查自纠存在明显局限,数据显示仍有近40%的AI生成内容未被正确标识。
根据网信办专项治理行动数据显示,AI技术滥用主要集中在三个领域:
一是虚假信息制作,特别是国际军事、历史虚无主义等领域,月均产生违规内容超2万条;
二是低俗内容生产,AI生成的色情擦边内容同比增长300%;
三是违法犯罪活动,利用AI换脸、变声等技术实施的诈骗案件造成经济损失超2亿元。
新规实施面临多重挑战:
技术上,隐式水印的稳定性和识别准确率有待提升,特别是视频内容的标识成功率仅为78.3%;
管理上,中小平台技术能力不足,黑产团队水印规避技术不断升级;
监管上,跨境平台内容治理存在盲区,协同机制尚不完善。
纵观全球,AI内容治理呈现多元化趋势:
欧盟采用严格立法模式,实行强制性标识制度;
美国推行行业自律为主,政府监管为辅的双轨制;
日本创新性地推出"AI内容信用评分"系统,利用区块链技术实现全链路溯源。
专家指出,电子水印仅是治理体系的第一道关口。未来需要构建技术、法律、伦理三位一体的治理框架:
技术上研发更可靠的数字水印和内容溯源系统;
法律上明确责任主体和问责机制;
伦理上建立行业准则和标准规范。
电子水印标识制度的实施,标志着我国AI治理进入规范化新阶段。然而,要真正实现虚假信息的有效治理,仍需突破技术瓶颈、完善制度设计、加强国际协作,在创新发展与有效治理之间寻求动态平衡。这条治理之路任重而道远,需要社会各界的共同参与和努力。
更新时间:2025-09-02
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight 2020-=date("Y",time());?> All Rights Reserved. Powered By bs178.com 闽ICP备11008920号
闽公网安备35020302034844号