作者:自建丽
近日,国家网信办、公安部等八部门联合发布《可能影响未成年人身心健康的网络信息分类办法》(以下简称《办法》),自2026年3月1日起施行。这一新规首次系统性地将影响未成年人身心健康的网络信息划分为四大类,并细化列举了数十种具体表现形式,从网络暴力、炫富拜金到畸形审美,再到不当使用未成年人形象及泄露其个人信息,覆盖全面、指向精准。此举不仅填补了以往“灰色地带”监管空白,更标志着我国未成年人网络保护体系正从粗放式管理向全链条、立体化、精细化治理跃升,为构建清朗网络空间注入制度动能。
长期以来,未成年人网络保护面临“识别难、界定难、处置难”的困境。一方面,法律明令禁止的违法信息边界清晰;另一方面,大量游走于道德与法律边缘的内容,如诱导非理性打赏、宣扬“读书无用论”、利用“网红儿童”博流量等,虽未直接违法,却潜移默化侵蚀着青少年的价值观,危害不容小觑。由于缺乏统一标准,平台审核尺度不一,家长学校难以判断,监管部门亦常陷于“无法可依”的被动局面。《办法》的出台,正是对这一治理痛点的精准回应。通过明确四类风险信息及其具体情形,它为内容生产者、平台运营方、监护人乃至执法机关提供了清晰的操作指南,使“何为有害”不再模糊,让“如何防范”有章可循。
尤为值得称道的是,《办法》并非止步于静态分类,而是着力构建覆盖内容生产、算法推荐、信息展示、用户提示等环节的全链条防护机制。例如,明确要求平台不得在首页首屏、弹窗、热搜等醒目位置呈现相关风险信息;对生成式人工智能、算法推荐等新技术应用提出安全管理制度要求;强制在风险内容前添加显著提示效果的标识功能等等,这些规定将责任压实到平台运营的关键节点,推动治理重心从“事后删帖”转向“事前预防”与“过程干预”,体现了“疏堵结合、以防为主”的现代治理理念。而这种全链条的制度设计,既尊重成年人的信息自由,又为未成年人筑起了一道柔性但有效的数字防火墙。
在笔者看来,《办法》的深层价值还在于推动网络生态治理走向协同化。未成年人保护从来不是单一主体的责任。《办法》通过厘清政府、平台、家庭、学校等多方权责,搭建起协同治理的制度框架:监管部门提供标准与执法依据,平台履行主体责任优化算法与审核机制,家长借助提示标识加强引导,学校则可据此开展媒介素养教育。这种多元共治模式,有助于打破“平台推给家长、家长依赖学校、学校呼吁监管”的责任空转,形成合力守护的良性循环。
当然,制度的生命力在于落实。《办法》要真正落地见效,仍需配套细则、技术支撑与持续监督。尤其在AI生成内容迅猛发展的背景下,风险形态将不断演变,《办法》中“包括但不限于”的开放性表述,也为未来动态调整预留了空间。
总之,《可能影响未成年人身心健康的网络信息分类办法》不仅是一份风险清单,更是一张治理路线图。它以精细化分类为基础,以全链条防控为路径,以多元协同为保障,为未成年人网络保护体系注入了系统性、前瞻性和可操作性。当规则清晰、责任明确、执行有力,清朗网络空间才真正可期。毕竟,那不仅是技术的胜利,更是对下一代成长权利最切实的守护。


