最近,日本科技圈里闹得沸沸扬扬,原本期待中的“日本最强AI”居然是中国开源AI模型的翻版。3月18日,日本乐天集团高调发布了号称“日本最大、性能最强”的AI大模型Rakuten AI 3.0,7000亿参数看起来确实很吓人。乐天集团CEO Ting Cai在发布会上自信满满地表示,这款模型在全球范围内都处于领先地位。然而,没过几天,开源社区的程序员们就发现了这个秘密。这个号称自主研发的AI模型,居然是在中国开源模型DeepSeek-V3的基础上微调而来的。程序员们指出,这个模型的架构完全来源于DeepSeek-V3,只是做了一些日文数据的微调而已。这个发现让很多日本网友感到非常失望,他们觉得自己被愚弄了。 乐天集团在开源代码时,还偷偷删除了MIT协议中的部分内容,后来被揭发后才补了个NOTICE文件。有位日本网友表示,“这个做法太让人无法接受了”,他觉得乐天集团不仅使用了中国的技术基础,还要偷偷摸摸地隐瞒真相。还有人调侃说,“这个操作比直接承认还要差劲”。 在这个事件中,还有一个细节值得注意。在开源社区里,很多日本顶尖AI模型都是基于中国开源模型进行本土化微调的。比如ABEJA QwQ 32b模型就是基于中国Qwen模型进行微调的。实际上,前十大日本顶尖AI模型中有6个都是这样改装而来的。只要公开透明地说明底层技术来源,大家都不会有意见,毕竟MIT协议只要求保留原作者名而已。 然而,乐天集团这波操作却显得太小家子气了。他们不仅没有公开说明底层技术来源,还试图隐藏真相。乐天集团CEO Ting Cai本身是移民背景,在谷歌和微软工作过一段时间,对开源技术非常熟悉。他这次发布的Rakuten AI 3.0参数逼近7000亿,但测试数据对比对象只有别人的小模型或者已经被下线的GPT 4o,成绩自然是想怎么来就怎么来。 日本政府给资源、戴光环支持本土研发并不是什么新鲜事了。GENIAC是日本经济产业省专门扶持本土大模型研发的计划,目标就是减缓对海外技术的依赖。虽然这个计划听起来很有道理,但实际上这次乐天集团的操作却让人看清楚了现实:日本要想搞自研AI还是得靠中国团队写的代码。 开源界讲究拿了就要说一声这个规矩都要偷奸耍滑真是让人难以理解。这次事件让日本网友集体翻车,“贴牌微调”这种套路让很多人感到失望。“贴牌微调”虽然不是什么新鲜事了,但如果连公开透明这点都做不到的话,“自研”这两个字恐怕就很难站得住脚了。 最后想问大家一个问题:你怎么看待“贴牌微调”的套路?当“全村希望”被扒掉马甲后,日本AI的自信还能剩多少?