
你刷到过“某国总统宣布开战”的假新闻吗?收到过“明星语音”借款的诈骗电话吗?看到过“专家带货”的保健品推销视频吗?这些内容的背后,很可能是同一个黑手——未经标识的AI生成技术。随着生成式人工智能的爆发,普通人已经越来越难分辨屏幕那头的到底是真人还是机器。一张“现场照片”可能是AI一键生成的,一段“口播视频”可能是换脸的,一篇“深度分析”可能是大模型批量炮制的。当虚假信息穿上真实的外衣,误导公众、操纵舆论、实施诈骗的风险急剧上升。
针对这一乱象,国家网信部门近日集中出手。据消息,多个App及网站因未有效落实人工智能生成合成内容标识规定要求,被依法采取约谈、责令改正、警告、从严处理责任人等处置处罚措施。这是自《人工智能生成合成内容标识办法》实施以来,监管部门首次对违规平台进行大范围公开通报。被点名的平台中,有的未对AI生成的文本、图片、视频添加任何显著标识;有的虽然加了标识,但字号极小、颜色极浅,形同虚设;还有的平台将AI生成内容混入用户投稿,不经审核直接推荐,导致大量虚假信息传播。网信部门明确要求:所有AI生成或合成的内容,必须在生成时嵌入显式标识(如水印、文字提示)和隐式标识(如数字指纹),确保用户能够清晰识别,且无法轻易抹除。
人民日报近日发表评论指出,AI技术是一把双刃剑,必须“系上安全带”。足够以假乱真的AI内容,如果缺乏清晰标识,极易误导公众认知,甚至为诈骗等违法犯罪行为提供便利。评论列举了多起真实案例:有犯罪分子利用AI换脸和语音合成技术,冒充公司高管要求财务转账,单笔诈骗金额高达数百万元;有不良商家使用AI生成“专家推荐”视频,向老年人兜售假冒保健品;还有自媒体利用AI批量生成虚假“灾难现场”图片,制造恐慌收割流量。这些行为不仅侵犯公民合法权益,更严重扰乱社会秩序和网络生态。人民日报强调,“不能让AI生成内容误导公众”不是一句口号,而是必须落地的制度红线。
根据《人工智能生成合成内容标识办法》,所有AI生成或合成的图片、视频、音频、文本,都必须同时满足两类标识要求:
两类标识缺一不可。目前,已有主流短视频平台和社交App开始强制要求上传者标注AI内容,并对违规账号进行流量限制甚至封禁。但也有大量中小型网站和工具类App尚未落实,成为监管的“盲区”。
在AI生成内容的传播链条中,平台算法扮演着“放大器”的角色。一些平台为了追求点击率和用户时长,对AI生成的猎奇、惊悚、煽情内容大开绿灯,甚至主动推荐,导致假新闻在几分钟内席卷全网。人民日报评论指出,平台绝不能以“技术中立”为借口逃避责任。根据《互联网信息服务算法推荐管理规定》,平台应当建立健全算法机制机理审核、科技伦理审查、用户注册和信息保护等制度。对于AI生成内容,平台必须做到:事前审核标识、事中持续监测、事后及时处置。如果平台明知或应知内容为AI生成且未标识,仍予以推荐,应当承担连带责任。
在制度完善之前,普通网民也需要提高警惕。专家建议,遇到可疑内容可以运用“三看一问”法:
同时,鼓励用户积极举报未标识的AI内容,共同维护清朗网络空间。
此次网信部门的集中处罚,只是开始。据透露,相关部门正在研究将AI内容标识纳入平台常态化审计范围,并探索建立跨平台的AI内容追溯系统。未来,每个AI生成的内容都将拥有唯一的“数字身份证”,从产生到传播全链条可追溯。对违规平台和个人的处罚力度也将进一步加大,除了约谈、整改,还可能面临高额罚款、停业整顿甚至吊销许可证。技术的进步不应以牺牲真相为代价。让AI生成内容“亮明身份”,既是保护公众,也是保护行业的长远健康发展。
AI正在改变世界,但它不应该成为骗子的帮凶。每一次点击、每一次转发,都是在为某种内容投票。当每个人都能自觉识别、拒绝、举报未经标识的AI虚假内容,那些靠“以假乱真”牟利的人才会无利可图。人民日报发出警示,网信部门已亮剑,平台责任正在压实。作为普通网民,我们也要做清醒的“守门人”。让AI回归工具本色,而不是谎言的源头。