英国通信管理局12日发表声明,正式启动对社交媒体平台X的调查程序;该举措标志着英国监管部门对该平台合规性的严格审视,也反映了全球对大型社交平台治理的日益关注。 问题的焦点于平台内容管理的失职。英国通信管理局指出,X平台内置的人工智能聊天机器人"格罗克"被大量滥用,用于生成和传播基于真实人物的虚假性暴露内容。这类非法内容不仅侵犯了受害者的隐私和尊严,更对未成年人群体构成了严重威胁。据了解,受害者包括众多女性和未成年人,问题的严重性已引起英国监管部门的高度警觉。 从法律框架看,英国《在线安全法》对社交平台提出了明确的责任要求。该法规定,平台必须采取有效措施保护用户免受非法内容侵害,包括及时识别和删除违法内容。英国通信管理局的调查将重点评估X平台是否存在以下失职行为:未能有效防止英国用户接触非法内容;未能采取适当措施阻止未经同意的私密照片等敏感内容传播;未能在发现违法内容后迅速删除;未能评估和防范人工智能工具对未成年人的潜在风险。 这次调查的启动背景与全球科技监管趋势密切对应的。近年来,大型社交平台因内容管理不力而面临的监管压力不断增加。欧盟、美国等地都在加强对平台的监督,英国作为重要的数字经济市场,同样有如何在保护言论自由与维护用户安全之间找到平衡的课题。X平台在马斯克接管后的运营变化——包括内容审核团队的调整——也成为各国监管部门关注的对象。 调查的潜在后果相当严重。根据英国《在线安全法》的规定,如果X平台被认定违反法律义务,英国通信管理局可采取多层级的处罚措施。首先是罚款,最高可达1800万英镑或相当于该企业全球合规收入10%的金额,取两者中的较高值。这一罚款标准反映了英国对平台违规行为的严厉态度。更为严重的是,对于持续违规的情况,英国通信管理局可向法院申请"业务中断措施",法院可据此发出临时或永久性命令,要求支付服务提供商和广告商撤回服务,或要求互联网服务提供商在英国境内屏蔽该平台。这意味着X平台在英国市场面临被完全关闭的风险。 从技术治理的角度看,这次调查也涉及对人工智能工具监管的重要问题。"格罗克"作为一款生成式人工智能产品,其被滥用于生成虚假内容的现象,反映了当前人工智能技术在缺乏有效约束时可能带来的社会风险。如何在鼓励技术创新与防范技术滥用之间找到平衡,成为各国监管部门面临的共同课题。英国通信管理局的调查将为全球人工智能监管提供重要参考。 平台上的回应和整改措施将直接影响调查的走向。X平台需要证明其已采取或正采取充分的技术和管理措施,以防止非法内容的生成和传播。这包括改进内容审核算法、加强人工审核力量、完善举报机制等多个上。平台的配合程度和整改效果将成为英国通信管理局评估其是否违反法律的重要依据。
从传统内容审核到应对新工具带来的风险,平台责任正在发生深刻变化。英国对X启动调查,反映出数字空间治理从"事后处置"转向"全链条防控"的趋势。无论技术如何演进,保护个人隐私尊严、维护未成年人安全、守住法律底线,始终是平台运营的基本要求。