让我来给你讲讲MistralAI这次出的大招吧。他们上个月16号放出了Mistral Small 4 119B-A6B,这东西简直是推理和编程结合的完美作品。这可是个大动作,以前大家总在各种模型里挑挑拣拣,现在好了,给用户准备了个一揽子的解决方案,真正实现了“我全都要”。 MistralAI这次用了那个MoE架构,也就是Mixture of Experts的结构。这模型总共才119B的参数,激活的只有6B,再加上256k的上下文窗口,处理起复杂信息那叫一个快。因为设计给力,它在推理和深度学习这块表现特别亮眼。 最牛的是延迟这块优化得很到位,端到端的时间直接砍了40%。要是开启吞吐模式,每秒能处理的请求数居然是上一代Small 3的三倍!这性能在基准测试里跟OpenAI的GPT-OSS 120B打平了,说明不管是自然语言处理还是编程辅助都很在行。 至于硬件配置也很灵活,最低要求只要4×HGXH100/2×HGXH200/1×DGXB200就行。如果你想跑得快一点,推荐用4×HGXH100/4×HGXH200/2×DGXB200。这发布的意义可太大了,直接把AI技术往前推了一大步。 像Mistral Small 4这样能把推理和编程合在一起的模型以后肯定会越来越多。它们不仅是个技术产品,更是对未来的一种探索和承诺。不管是搞教育的、搞医疗的、还是搞金融和创意的,这个Mistral Small 4都有可能变成改变规则的关键。