周四,Laude研究所宣布了其首批"弹弓"(Slingshots)资助计划的获奖项目,旨在"推进人工智能的科学研究和实践应用"。
"弹弓"项目被设计为研究人员的加速器,意在提供大多数学术机构无法获得的资源,无论是资金支持、计算能力,还是产品和工程技术支持。作为回报,获奖者承诺产出某种最终成果,可以是初创公司、开源代码库或其他类型的研究成果。
首批入选队列包含十五个项目,特别关注AI评估这一难题。其中一些项目对TechCrunch读者来说并不陌生,包括命令行编程基准测试Terminal Bench和长期运行的ARC-AGI项目的最新版本。
其他项目则对长期存在的评估问题采取了全新方法。由加州理工学院和德州大学奥斯汀分校研究人员构建的Formula Code项目,旨在评估智能体优化现有代码的能力,而哥伦比亚大学的BizBench项目则提出了针对"白领智能体"的综合基准测试。其他资助项目还探索了强化学习或模型压缩的新结构。
SWE-Bench联合创始人John Boda Yang也是入选队列的一员,他领导着新的CodeClash项目。受到SWE-Bench成功的启发,CodeClash将通过动态竞赛框架来评估代码质量。
Yang告诉TechCrunch:"我确实认为人们继续在核心第三方基准测试上进行评估会推动进步。我有点担心未来基准测试会变得只针对特定公司。"
Q&A
Q1:Laude研究所的"弹弓"资助计划是什么?
A:"弹弓"项目是Laude研究所推出的研究人员加速器,旨在推进人工智能的科学研究和实践应用。该项目为研究人员提供大多数学术机构无法获得的资源,包括资金支持、计算能力以及产品和工程技术支持。
Q2:首批"弹弓"资助计划有多少个项目?主要关注什么领域?
A:首批入选队列包含十五个项目,特别关注AI评估这一难题。项目包括Terminal Bench、ARC-AGI项目最新版本、Formula Code以及BizBench等,涵盖了代码优化评估、白领智能体基准测试等多个方向。
Q3:CodeClash项目有什么特色?
A:CodeClash项目由SWE-Bench联合创始人John Boda Yang领导,受到SWE-Bench成功启发。该项目将通过动态竞赛框架来评估代码质量,采用了全新的代码评估方法。
好文章,需要你的鼓励
当超级计算机被压缩进一个比书本还小的盒子里,这画面有多炸裂?想象一下,你桌面上摆着的不是什么花瓶摆件,而是一台能跑200B参数AI推理的"超算怪兽"——这就是我们今天要聊的主角:华硕Ascent GX10。
Adobe研究院与UCLA合作开发的Sparse-LaViDa技术通过创新的"稀疏表示"方法,成功将AI图像生成速度提升一倍。该技术巧妙地让AI只处理必要的图像区域,使用特殊"寄存器令牌"管理其余部分,在文本到图像生成、图像编辑和数学推理等任务中实现显著加速,同时完全保持了输出质量。
香港科技大学团队开发出A4-Agent智能系统,无需训练即可让AI理解物品的可操作性。该系统通过"想象-思考-定位"三步法模仿人类认知过程,在多个测试中超越了需要专门训练的传统方法。这项技术为智能机器人发展提供了新思路,使其能够像人类一样举一反三地处理未见过的新物品和任务。