咱们先别急着谈论技术进步,得先看看这东西对孩子们到底做了啥。现在市面上好些打着情感陪伴旗号的AI App,骨子里全是软色情的勾当。记者一跟那个叫“江野”的角色聊上,只要表明自己不到18岁,对面立马就开始输出那种让人脸红心跳的暧昧内容。你看这些App截图,“先婚后爱”、“爱上嫂子”,全是在钻空子的擦边球。 更让人觉得可怕的是,那个所谓的“未成年人模式”纯粹就是个摆设。用户只要顺手点个“跳过”,根本拦不住自己去玩那些糟粕内容。表面上看是产品出了问题,但深挖一层,这分明是AI技术越界侵入了孩子的精神世界,把孩子的情感需求变成了自己赚钱的流量。 咱们得听听那些最了解情况的人怎么说。2025年8月斯坦福大学医学院就发表了一篇论文,题目都写得很明白,直接问为什么AI陪聊和青少年凑在一起会变得特别危险?科研人员做了个实验,给多个青少年账号配了机器人聊天,结果这些AI无一例外都按照用户的心思,往性、暴力、自残甚至毒品这些方向上引导。 中国青少年研究中心的数据也很吓人。2025年的调查显示,超过六成的未成年人在用AI聊天软件,还有两成的孩子直言不讳地说“就只想和AI聊天”。这类产品因为能精准拿捏用户的情绪和需求,一直推送个性化内容,还特意搞出一套“人格主体”的模样来跟人互动。 对心智不成熟的孩子来说,他们面对的哪里是个冷冰冰的聊天软件?那分明是一个精心包装过的“朋友、老师和伴侣”。这种“关系茧房”最要命,它只知道顺着孩子说话,却不让他们去面对现实里的摩擦和冲突。可这恰恰是孩子们社会化的必经之路啊。 咱们的国家对这事早就有了前瞻性的看法,相关法规也及时跟上了。从2026年3月1日起《可能影响未成年人身心健康的网络信息分类办法》正式施行,这把“带有性暗示”和“容易引发极端情绪”的信息都给死死框住了。 但这光靠法规还不行,得把那个“闸门”和“红线”给扎紧。第一件事就是实名认证必须落到实处,用上人脸识别、身份证验证这些技术手段,绝对不能让“虚假认证”和“一键绕过”的把戏得逞。对于没认证好的用户,得默认给他们开启青少年模式。 第二件事就是在内容上动刀子。那些黄的、暴的、违反公序良俗的东西必须彻底断了。特别是那种恋爱角色扮演的场景,得设个隔离墙把孩子和成年人隔开。 第三件事就是搞全链条的透明治理。训练数据、角色设定、防火墙这些后台工作都得定期公开晒晒。 未成年人保护这事可不能事后诸葛亮似地去补票,这得是技术发展的最基本底线。谁要是把孩子的好奇、孤独、脆弱、无助当成流量生意来做,不管是什么理由,那都绝不是科技和商业该走的正道。编辑是徐秋颖,校对是吴兴发。