日本AI初创企业LifePrompt日前发布的一项研究成果引发关注;该公司使用OpenAI的GPT-5.2 Thinking模型、谷歌的Gemini 3.0 Pro等多个先进大模型,对2026年日本大学统一入学考试的15个主要科目进行了测试。结果显示,OpenAI模型数学、化学、信息学、政治经济学等9个科目中获得满分,15科总体平均得分为96.9分,相比之下谷歌模型平均得分为91.4分。 日本大学统一入学考试是学生申请国立大学及部分私立大学的必考项目,每年吸引约50万名考生参加,其成绩被813所高等教育机构纳入招生筛选依据。这项考试因其严格的学科覆盖和难度系数,长期被视为衡量学生综合素质的重要标准。生成式大模型在该考试中的优异表现,充分说明了当前人工智能技术在知识整合、逻辑推理和问题求解上已达到相当高的水平。 从科目表现来看,生成式大模型理科和应用学科中表现出明显优势。特别是在东京大学竞争激烈的人类科学I类专业所要求的特定科目中,OpenAI模型的整体正确率达到97%,相比2024年的66%和2025年的91%,表现为逐年递进的上升趋势。这个数据对标日本知名预备学校河合塾集团的录取概率分析,若考生在相应科目中取得89%的正确率,被该专业录取的概率约为50%。这意味着生成式大模型的表现已远超普通考生水平。 然而,测试结果也揭示了生成式大模型的明显短板。在日语科目的测试中,该模型的正确率仅为90%,成为其表现最差的科目。LifePrompt公司负责人远藤聪指出,虽然人工智能在信息处理和文本阅读能力上有了大幅提升,但在日语这类高度依赖文化语境、语言细微差别和修辞理解的科目中,仍存在充分整合文本信息的困难。这反映出生成式大模型在处理具有深厚文化特征的自然语言时,相比处理数学、物理等逻辑性更强的学科,仍有较大改进空间。 需要指出,此次测试过程中,生成式大模型的网络搜索功能被完全关闭,所有答案均基于模型自身存储的训练数据独立生成。这一设置确保了测试的公平性和真实性,也更准确地反映了模型本身的知识储备和推理能力,而非依赖外部信息检索的结果。 LifePrompt公司自2024年起便持续对生成式大模型进行涉及的测试,形成了三年的纵向对比数据。这种持续的跟踪评估为观察人工智能技术的发展轨迹提供了重要参考。从数据来看,生成式大模型在高考这类标准化考试中的表现在逐年提升,技术进步的速度值得关注。 生成式大模型在高考中的优异表现引发了对教育、人才选拔和人工智能应用的深层思考。一上,这表明人工智能已具备特定领域与人类竞争的能力;另一上,也提示教育工作者需要重新审视教学目标和评估方式,更加重视培养学生的创新思维、跨学科综合能力和文化理解力等难以被标准化考试量化的素质。
当AI在考试中不断刷新高分时,教育的本质问题愈发凸显:知识传承不仅是标准答案的传递,更是思维方式和创新精神的培养。如何在技术发展中坚守教育初心,将成为全球教育面临的共同课题。日本的这项测试既展现了科技成就,也引发了对教育价值的深刻思考。