自9月1日起,由国家互联网信息办公室、工业和信息化部等多部门联合发布的《人工智能生成合成内容标识办法》(以下简称《办法》),以及配套强制性国家标准《网络安全技术人工智能生成合成内容标识方法》已正式实施,标志着AI生成内容治理进入新阶段。
汇业律师事务所律师史宇航向《IT时报》记者指出,《办法》不仅对生成合成服务提供者(如模型开发者)提出了明确的标识要求,还要求内容传播服务提供者(如社交媒体平台)履行核验和添加标识的义务。这一举措将监管责任覆盖从内容生成到传播的全过程,构建了全链条责任体系,有助于从源头到终端对AI生成内容进行有效管控,为国际社会提供了AI内容治理的中国范例。
《IT时报》记者实测显示,抖音、小红书、B站等主流视频平台已允许创作者主动标识视频中的AI生成内容,作者可在发布视频时,在“创作声明”中注明是否由AI生成。然而,对于未主动标识的AIGC内容,平台的自动识别能力仍显不足,检测机制有待完善。
记者在抖音、B站、小红书三个平台分别发布了3条AI生成的视频,其中一条主动标注了AIGC,另两条未作标注。
发布后记者发现,主动标注后,B站的AI标识较为醒目,视频左下角和简介中均显示了相关提示,而小红书的标识则相对隐蔽,仅点击作者头像才能看到“笔记含AI生成内容”的提示。
但对于未主动标注的另两条AI视频,平台识别准确率不高。抖音自动识别出其中一条,并提示“作品含有AI生成内容”,而B站和小红书的系统均未能有效识别这两条内容。
总体来看,各平台在AI生成内容的检测和提示机制上存在差异,自动识别和强制标识能力仍需提升。
强调平台主动核验的背景是当前AI滥用案例频发。据央视报道,有博主利用AI模仿奥运冠军全红婵声音带货土鸡蛋,17条视频累计销售超4.7万件,严重侵犯运动员及家人权益,也暴露了平台监管的缺失。
随着AI技术普及,“克隆”特定人物面貌和声音已实现“一键式”操作,治理挑战日益凸显。
今年3·15期间,记者曾制作几条明显带有AI换脸痕迹的视频,尝试在各大平台发布。令人惊讶的是,所有视频均顺利上传,且未被平台自动检测为AI生成内容。甚至当记者在标题中明确标注“AI换脸”,平台也未触发任何警示。
在AI换脸视频审核机制上,各大平台此前存在明显漏洞,对AIGC内容的监测和管理较为松散。
《办法》实施的初衷之一就是规范平台对AI生成内容的管理,新规生效后,“深度伪造”内容如不加声明,将面临严格处罚。例如,用户利用AI换脸、合成语音制作虚假视频,平台若未履行核验和提示义务,均可能被追责。
史宇航认为,《办法》及其配套国标的生效,对企业和开发者施加了明确的技术和管理义务,核心约束力体现在“必须标识”和“规范标识”两个层面。
《办法》生效后,一个可能“撞上处罚枪口”的典型现象是:短视频平台用户使用“AI换脸”或“AI声音模仿”功能,制作并发布模仿名人的恶搞或不实信息短视频,而该App开发者未按规定在生成视频上添加“AI生成”的显著标识。
史宇航表示,对于AI生成服务提供者,处罚措施包括警告、通报批评、责令限期改正;对于传播平台,如果未尽到核验和提示义务,也可能面临监管处罚;对于恶意用户,可能面临平台关停账号、限制功能等处罚,甚至承担民事、行政或刑事责任。
从创作者视角看,《办法》的实施带来了新挑战。
AI视频创作者俞国汉告诉《IT时报》记者,随着平台对AI生成内容规范的收紧,创作者的感知愈发明显。
“现在大家都很小心,必须遵守新规则。”在俞国汉看来,行业规范化是好事,随着AI技术发展,一些伪造图片骗取流量的做法更加隐蔽难辨,即便业内人士也难以一眼识别,因此防止不规范行为尤为必要。
潜在风险在于,有些甲方可能排斥带有明显AI标识的内容,“如果内容带有明显AI标识,部分甲方可能不愿购买,创作者收益可能因此减少。”俞国汉说。
但长远看,这是内容创作者的必经之路。俞国汉感慨,从2022年底ChatGPT发布至今,平台对AI创作内容的管理越来越严格,这既是对创作者的挑战,也意味着AI创作正走向更规范的未来。
另一位创作者阿远(化名)认为,随着通用大模型能力提升和开源社区繁荣,创作者即使不懂技术也能轻松生成高质量内容。
作为技术小白,阿远在不到一天时间内,使用近百张图片在阿里魔搭平台训练出能生成“小红书风格”图片的专属模型,“几乎没有任何门槛”。
记者试用了阿远训练的模型,仅输入简单提示词,几秒钟后便生成了逼真的“小红书风格”图片。像这样的图片,该模型每天能生成1000张。
在生成过程中,魔搭平台提供了“无水印生成”与“添加AI标识并生成”两个选项,选择“无水印生成”时,平台会提示用户:“请自行落实标识及法定义务,相关责任由您独立承担”。
对此阿远认为:“平台没有强制打标,可能是考虑到平台出的素材直接打AI标识会影响创作,创作者可以在创作完成后自行标注。”
但对于这些“低门槛”制作的图片,阿远强调必须标注,“否则即便我们这些‘玩家’也很难看出是不是AI生成的”。
创建自定义AI大模型的门槛正越来越低。魔搭平台作为国内较大的AI大模型开源社区,堪称国内开源大模型超市。记者上传三张图片后,选择某个开源基础模型,模型训练便开始,无论是车、人或其他形象,都可进行训练。
“如果你上传的图片都是一个人的,以后这个模型出的人物就可以‘锁脸’,明星图片也可以训练。”阿远坦言,将训练出的模型下载到本地,便可随意生成内容,不受平台限制,唯一成本可能是硬件投入。以阿里万相训练的视频模型为例,下载到本地使用至少需要数万元的高配电脑,生成视频质量越高,硬件要求也“水涨船高”。但一旦涉及发布,便仍需遵守《办法》的标注要求。
当技术门槛降低,法律底线更需提高,以对低成本不法行为形成威慑和约束。
AI创作的便利和普及背后,知识产权问题不容忽视。阿远训练的模型使用了大量来自小红书的图片,且未获得原作者授权。那么,阿远的AI模型生成的图片所有权归谁?是图片原作者、上传训练的创作者、平台本身,还是最终生成图片的使用者?
这种模糊的知识产权界定,正是当前AI创作中亟待解决的重要问题。随着《办法》实施,平台对AI生成内容的管理趋于严格,如何平衡创作者自由与原作者权益保护,将成为AI创作领域亟待探索的难题。
史宇航表示,AI作品的版权在法律上争议很大,不同案例中法院认定不一致。《办法》要求文件元数据中的隐式标识必须包含“生成合成服务提供者”“内容制作编号”等关键信息,“理论上每一份AI生成内容都可追溯到源头服务平台和具体生成记录,该技术有助于在争议发生后识别原始作者。”
对此,史宇航建议,使用AI工具进行创作的个人用户和企业,应在生成文本、图片、音视频等内容合理位置添加“AI生成”或类似显著文字提示。
“这不仅是合规要求,也是向公众和版权机构表明内容属性的第一步,避免‘冒充原创’嫌疑。”他建议用户仔细阅读用户服务协议,了解平台对生成内容版权归属的规定、使用限制及侵权责任划分,这直接关系到用户能否将生成内容用于商业目的,以及侵权责任承担。
此外,为在潜在版权纠纷中有效举证、厘清责任及应对监管部门检查,史宇航还建议个人和企业在使用AI工具输出内容时,系统做好合规记录,如具体使用的AI服务提供商;保存完整输入提示词并保留AI生成原始文件,作为证明创作意图和人类智力输入的直接证据;详细记录对AI生成初稿的修改、编辑和重构;并完整保存与AI服务提供者签订的用户服务协议副本或开源模型和数据集的开源许可协议。
图片/ IT时报 小红书 豆包AI
本文由主机测评网于2025-12-29发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://www.vpshk.cn/20251213599.html