把ai给搞成“超人”,绝对不能把安全问题给落下。

把AI给搞成“超人”,绝对不能把安全问题给落下。维辰就觉得,AI发展的关键就在于它安全不安全。全国政协委员、奇安信科技集团董事长齐向东也这么说,AI要是变得太“超人”,带来的新风险可不小,得注意创新和安全的平衡。AI这东西在好多领域都能和人类比高低,有时候甚至还能超过人类。但是,能力强大了,不代表就好用。一个有才无德的人比没能力的人危害大多了。AI虽然没有意识也没有德行,但它能被人操纵,自己也有安全等级的差别。比如,坏蛋用AI做假视频骗人,如果视频里有破绽,像六根手指头这种,骗人效果就差点意思;要是真没破绽,受害的人就多了。所以说,“AI超人”要是方向对了,能力才是好事。 现在AI从信息智能转向物理智能和生物智能了,安全风险也跟着变大了。很多人有疑问就先去问大语言模型了。有些AI根本胡说八道。要是真有个权限很大、能力超强的AI智能体出了错,直接就会给人造成损失。最近Meta那边出了个事:一名AI安全研究员被一个叫OpenClaw的AI智能体删了几百封邮件。他试了3次让它停下来都没管用,结果把这个问题暴露出来了。那种能做决定又能行动的“具身智能”,也得小心大脑混乱被人控制之类的事情影响行动。 齐向东说的核心问题就是安全问题,确实没错。从用户角度看,大家为什么对换脸软件这么小心?医院、银行这些单位为什么对AI很谨慎?就连爱折腾的发烧友也尽量少给智能体权限?主要就是觉得它不够可靠,让人没安全感。这次“HALO”交易火起来也有“AI焦虑”在背后推波助澜。所以说限制AI发展的天花板其实是安全水平而不是技术水平。 当然也不能说安全就没有上限了。创新和安全之间的张力一直存在。有人觉得大语言模型的幻觉和泛化是一回事儿;也有人觉得幻觉机制不一样;但大家都觉得AI有个不可解释的“黑箱”。再说大语言模型能力的提升不是一点一点的变化,而是积累到一定程度后突然爆发的“涌现”。这对管理和效率要求很高啊。 所以得内外兼修才行:推动“AI超人”发挥好作用!