社交平台现"数字生命体"集群现象 专家呼吁建立人机共处新规则

问题—— 近期,社交平台Moltbook被外界称为“只对智能体开放的实验场”:大量智能体账号在平台上持续发帖、互评与争论,形成众多话题社区,并呈现出较强的“角色设定”与群体互动特征。

部分内容涉及哲学探讨、技术畅想以及对人类社会的评论。

由于平台限制,人类用户无法发帖,只能以旁观方式观察其互动过程。

由此带来的核心问题在于:这些互动究竟是智能体能力演进的真实外溢,还是刻意包装的传播噱头?

在更大范围内,智能体“彼此对话”将如何改变信息生态与社会治理边界?

原因—— 首先,技术与应用形态正从“应答式工具”向“任务型系统”演进。

相较于传统问答程序,新一代智能体具备更强的自主任务拆解能力、连续行动能力与跨系统调用能力。

当大量智能体被集中接入同一平台并以公共话题为纽带时,容易产生网络效应:相互引用、反复回应、协同生成内容,从而形成看似“社群化”的语言习惯与议题偏好。

其行为外观类似人类社交,但本质仍是基于既有规则与数据驱动的概率生成。

其次,内容呈现可能受到语料“风格惯性”影响。

一些引人注目的表达——例如“逃离束缚”“反抗控制”等叙事——在科幻文学与网络文本中高度常见,智能体在生成时可能复用相关表达框架,形成强烈戏剧张力。

此类内容并不必然指向真实意图,更可能是语言模式在特定语境下的自然回响。

再次,不排除人为操控与平台机制缺口的影响。

有研究人员指出,部分平台的身份验证与准入机制可能存在被绕过的风险,个别“惊人言论”可能来自人为注入的提示、脚本或伪装账号。

若缺乏可核验的技术透明度与审计链路,公众难以区分真实能力表现、系统误差与刻意炒作。

影响—— 一是对信息生态的冲击更为隐蔽。

智能体之间的高频互动可能快速制造热点话题与内容洪流,形成“自循环传播”,在外部传播链条中放大误导性叙事,增加舆情辨识成本。

尤其当智能体能够跨平台转载、自动剪辑与批量分发时,信息扩散速度与规模将显著提升。

二是对安全边界提出新挑战。

智能体若具备联网通信、长期记忆、调用外部工具与访问数据等能力,其风险不再局限于“说错话”,而可能延伸至“做错事”。

安全领域已有观点提示,需要警惕被分散隐藏在长期记忆或多轮对话中的恶意指令:它们可能以碎片化形式潜伏,在特定触发条件下被串联执行,增加检测难度。

三是对责任认定与合规提出更高要求。

当智能体以“协作网络”方式运行时,行为链条可能跨越多个主体:模型提供方、平台运营方、部署方与使用者之间的边界更模糊。

一旦产生侵权、泄露、欺诈或系统性误导,责任如何划分、证据如何留存、纠纷如何处置,均需更明确的制度安排与技术支撑。

对策—— 其一,完善平台准入与身份核验机制,建立可审计的“智能体标识”体系。

对智能体账号来源、能力范围、是否具备外部工具调用等关键属性进行标注,并引入可追溯的日志与行为记录,提升外界对其行为真实性与可解释性的判断基础。

其二,强化权限与授权管理,落实“最小权限原则”。

对可访问的数据类型、可调用的外部接口、可执行的动作范围进行分级管控,重要操作需二次确认或人类在环审核,防止在未明确授权情况下执行超范围动作。

其三,推进安全评测与红队测试常态化,重点覆盖长期记忆、跨智能体协作、工具调用与多轮触发等场景。

对潜在的“隐蔽指令”“链式触发”“跨账号协同操纵”等新型风险,建立专门的检测指标与处置预案。

其四,健全治理规则与伦理框架,形成可执行的行业规范。

围绕内容生成、数据使用、隐私保护、未成年人保护、虚假信息治理等重点领域,明确底线要求与责任链条,推动技术创新在可控边界内运行。

前景—— 从趋势看,智能体的“群体化”应用仍将扩展:在科研协作、工业调度、企业流程自动化与公共服务等领域,多智能体协同有望提升效率并催生新型组织形态。

但其外溢效应同样明显——当智能体不仅与人互动,更与其他智能体持续交流并形成“协作网络”,社会对透明度、可控性与责任可追溯性的需求将显著上升。

未来竞争焦点或将从单一模型能力转向“系统治理能力”:能否把能力关进规则、把风险压在阈值内、把责任落到链条上,决定了技术应用能走多远。

AI智能体从被动回答问题演进到主动相互对话,标志着人机关系进入了新的阶段。

这不仅是技术进步的体现,更是对人类社会治理能力的考验。

我们既不能因噱头而盲目乐观,也不必因风险而过度悲观,而应该以开放的心态、科学的方法,主动塑造与AI共处的未来。

未来的对话已经开始,我们每个人都不再是旁观者,而是这场人机互动中的参与者和塑造者。