如果你打算靠ai编android 程序,谷歌那一套新的考核办法就能帮你挑出最对路的模型。

假如你打算靠AI编Android程序,谷歌那一套新的考核办法就能帮你挑出最对路的模型。对于那些平时就离不开AI写代码的安卓开发者来说,要选个合适的工具其实挺头疼的,毕竟不是所有模型都是一个模子刻出来的,好多还没专门针对安卓开发练过呢。为了解决这个烦恼,谷歌弄出来了这个叫Android Bench的测试平台。这东西专门拿来试试那些大型语言模型(也就是LLM)到底在日常写安卓软件的时候能不能干活。谷歌说得挺明白,他们就是去GitHub上扒拉那些公开的真实项目出来,让模型去解决那些开发者遇到的实际问题,甚至要它能还原出真实的拉取请求。最后再核对一遍看它到底有没有真把事儿给办成。 因为市面上AI模型多得让人眼花缭乱,所以选个最适合自己活儿的AI确实让人犯晕。这也是大家都盯着LLM测评榜单的原因。说白了,这个测试就是要看看AI生成的代码能不能真的解决问题,而不是光看着像对就行。这就给了谷歌一个机会去衡量不同的模型在解决真实安卓开发难题上的实际价值。在第一个版本里头,谷歌打算只盯着模型的性能去看,不想在辅助功能或者工具使用这些方面花太多心思。结果一出来发现差距还挺大,有的模型只能干好16%的活儿,有的能干到72%。 公司表示公布这些数字能让开发者更容易对比各家的货色,也能帮咱们挑出那个真正能处理复杂安卓编码任务的家伙。除了给开发者指路,这个测试可能还能逼着那些做AI的公司把安卓开发这一块的本事给练得更好。为了支持这件事,谷歌已经把这套Android Bench的玩法、用到的数据集还有测试框架都扔到GitHub上了。等以后时间长了,这肯定能催生出那种能更顺畅地在复杂代码库里逛荡、还能帮咱们把应用做得又快又稳的AI工具。