上海交大提升“致远一号”算力与安全能力,为开源智能体“龙虾”提供可控可用的校内运行环境

问题:开源AI智能体安全风险凸显 以OpenClaw为代表的开源AI智能体工具,因其能够自主执行文件管理、邮件处理等任务,近年来在高校科研与教学中广泛应用。然而,其高执行权限特性也带来显著安全隐患。工信部3月12日发布的专项建议指出,此类工具存在公网暴露、隐私泄露及第三方插件投毒等风险,部分师生因缺乏专业部署能力,可能引发数据失控甚至系统瘫痪。 原因:技术特性与使用场景不匹配 分析表明,OpenClaw的“散养”式部署模式是风险主因。该工具需直接操作用户终端设备,而普通个人电脑往往缺乏企业级安全防护;同时,依赖公网API调用可能导致敏感数据外流。上海交大网络信息中心监测发现,校内约37%的OpenClaw试用案例存在未隔离运行环境或过度授权问题。 影响:算力瓶颈制约技术探索 除安全问题外,Token额度不足成为师生使用障碍。此前,单个账号的API调用限额仅能满足基础需求,复杂任务常因资源耗尽中断。该矛盾在2025年该校“AI融合创新计划”推进后尤为突出,多学科团队反馈“科研效率被算力卡脖子”。 对策:构建闭环安全体系 针对上述问题,上海交大以“致远一号”国产智算平台为核心推出三级解决方案: 1. 能力扩容:将大模型API吞吐量提升30倍,确保高频调用需求; 2. 数据闭环:通过本地化部署DeepSeek等模型,实现校园网数据全程留痕; 3. 云上隔离:提供预配置虚拟主机,采用容器技术严格限制权限边界。 网络信息中心主任李明表示,该方案使OpenClaw从“散养”转为“标准化圈养”,既保留技术灵活性,又符合《教育系统数据管理办法》要求。 前景:打造高校AI应用范式 作为国家新一代AI创新发展试验区重点案例,该模式已吸引清华、浙大等高校调研。业内专家认为,这种“算力基座+轻量化应用”的组合,为平衡技术创新与安全管理提供了可复制经验。随着“致远一号”二期工程2026年投产,其服务范围有望扩展至长三角高校联盟。

当前,AI技术发展迅速但安全风险突出,如何在拥抱创新的同时防范风险,是高等学府面临的重要课题。上海交通大学的实践表明,通过自主可控的算力平台、完善的隔离防护机制和易用的使用方案,完全可以将OpenClaw这样的前沿工具从"散养"转变为"圈养",实现安全与创新的统一。这种做法不仅为校内师生提供了可靠的支撑,也为其他高校和社会各界探索AI应用的规范化管理提供了有益的借鉴。