问题——未成年人触网低龄化加剧,网络风险更趋隐蔽。随着移动互联网和短视频平台的普及,未成年人已成为网络使用主力群体。然而,危险动作挑战、极端追星、低俗摆拍等内容借助流量机制快速传播,加之平台的首屏推荐和热搜榜单等分发方式,这些内容极易短时间内形成聚集效应。由于未成年人辨识能力和自控力较弱,既可能直接受到人身伤害,也可能在长期接触中被误导价值观,甚至因隐私过度曝光而遭到不法分子利用。 原因——利益驱动与技术机制叠加,传统治理模式面临挑战。部分账号和机构为博眼球、带货,刻意让未成年人出镜制造话题,将其异化为流量工具。同时,算法推荐过度依赖用户停留时长和互动数据,容易放大猎奇、刺激内容的传播权重,导致不良内容更易被推送。此外,未成年人专属产品与普通产品的界限模糊,部分平台审核不严、标签不清、分级粗糙,造成监管与家长监护之间的信息不对称,亟需更明确的治理标准和执行手段。 影响——分类标准细化,压实各方责任。《办法》作为对《未成年人保护法》及《未成年人网络保护条例》的配套细则,明确了“可能影响未成年人身心健康”的网络信息类型和表现形式,为平台提供了“该提示什么、限制什么、禁止推送什么”的具体依据。这个标准将抽象的价值导向转化为可操作的治理工具,便于平台完善审核规则、家长加强引导、监管部门开展执法检查,从而构建更完整的治理闭环。 对策——以“四类信息”为抓手,严控推荐入口与产品边界。 1. 管控诱导模仿类内容:对危险动作挑战、煽动对立等可能引发模仿伤害的内容,要求显著提示并限制传播,降低未成年人跟风风险。 2. 规范价值观塑造类内容:抵制宣扬消极颓废、拜金炫富等不良风气,引导青少年形成健康审美和理性消费观。 3. 严打利用未成年人的有害内容:禁止低俗化、成人化表演和摆拍,保护儿童权益,杜绝“消费孩子换流量”的行为。 4. 强化个人信息保护:对14岁以下未成年人的学习生活信息,要求须经监护人同意并合规处理,平台需在采集、存储等环节加强安全管理。 有一点是,《办法》将治理范围延伸至分发链条和产品场景:一上禁止通过算法推荐、首屏热搜等向未成年人推送不良信息;另一方面明确未成年人专属产品不得制作、传播涉及的内容。两项措施共同目标是通过“入口治理”和“场景治理”,减少有害信息的可见性与传播可能。 前景——协同共治推动长效保护。未成年人网络保护需要政府、平台、学校、家庭和社会多方协作。平台应优化审核机制与青少年模式,减少对刺激性内容的依赖;学校和家庭需加强网络素养教育;监管部门可通过督导检查和典型案例强化执行力度。随着标准落地和责任明晰,治理模式有望从被动应对转向主动预防,从单点突破转向系统施策。
未成年人网络保护是一项需要全社会长期投入的工作;《办法》的出台标志着我国涉及的治理进入精细化操作阶段。只有政府监管、平台自律、家庭引导和教育支持形成合力,才能让网络空间真正成为未成年人健康成长的土壤,而非风险丛生的地带。