中新网北京10月30日电(记者 吴涛)“乍一看像是某领域的专业人士,深入了解后却发现人物和身份都是AI虚构出来的。”“宣传图片呈现得十分精美,可实际场景却天差地别,后来才知道图片是AI合成的。”
随着AI技术的普及应用,AI广告的违规风险日益凸显,这些广告内容存在违背公序良俗、侵权抄袭、虚假宣传等问题。怎样构建一套行之有效的AI广告治理体系,成为当下多个行业亟待解决的难题。
部分AI内容未作标识
通常来讲,AI内容是指借助人工智能技术生成、合成的文本、图片、音频、视频、虚拟场景等信息。当下,一些不良广告主利用AI技术制造出逼真却虚假的消费场景,在短视频、电商等平台上大肆传播。
此前,国家互联网信息办公室、工业和信息化部等四部门联合发布的《人工智能生成合成内容标识办法》于9月1日正式施行,该办法规定人工智能生成合成内容需有显式标识和隐式标识。
记者在多个短视频和电商平台浏览时发现,疑似AI生成但未标注AI标识的内容仍有可能出现,特别是2025年9月1日之前的存量宣传内容。有业内人士指出,受技术和算力成本的限制,平台大多依靠自带的AI水印或作者主动声明来识别AI内容,若内容并非本平台AI生成,识别难度就会加大。
据CNNIC发布的数据显示,截至2025年6月,我国生成式人工智能用户规模达到5.15亿人,相较于2024年12月增加了2.66亿人。庞大的AI用户群体,对AI内容治理提出了更高的要求。
AI广告将如何治理?
面对海量的AI内容,传统的人工审核方式已难以满足需求。治理AI违规广告,必须借助技术手段。据悉,在AI生成内容活跃的短视频社交平台上,已经开始应用大模型技术。
例如,某平台宣称,在AI标识审核方面,90%的素材能在10分钟内完成审核,与传统审核方式相比,效率提升了75%。对于违规广告,大模型通过推理判断,能够迅速给出精细化的拒审理由,并告知违规内容在视频中的具体时间点或具体画面。
巨量引擎商业安全治理标准负责人项韵向中新网记者透露,针对违规行为,设置了从预警整改、限制新开、账户封停到主体清退等梯度化、多元化的处置体系,“今年第三季度已前置拦截涉AI违规素材84万余个。”
快手平台表示,会在AI生成的内容中添加“AI生成”的显示标识以及嵌入文件元数据中的隐式标识。若内容被平台检测为疑似AI内容,会进行显著提示。
中国政法大学副教授、中国广告协会法德委朱巍对中新网表示,鉴于AI技术的复杂性和应用的广泛性,AI治理需要实现跨领域的协同合作。这既需要监管部门持续加强监管力度,也需要平台强化自身责任,更需要广大网民积极参与。面对AI换脸宣传、深度合成侵权等新型风险,需要组建由监管部门、平台和伦理委员会组成的“共治联盟”,形成治理合力。
中国广告协会会长张国华近日表示,目前专门用于AI训练的优质语料仍然匮乏,要从源头上保证AI语料的真实性、合规性以及导向的正确性。
那么,如何识别潜在的AI谎言呢?“公安部网安局”公众号29日发布消息称,对于图片和视频,要仔细观察是否存在AI生成的典型特征,如人物手指数量异常、光影效果不自然、视频口型与声音不同步或背景模糊扭曲等。



