周四,Laude研究所宣布了其首批"弹弓"(Slingshots)资助计划的获奖项目,旨在"推进人工智能的科学研究和实践应用"。
"弹弓"项目被设计为研究人员的加速器,意在提供大多数学术机构无法获得的资源,无论是资金支持、计算能力,还是产品和工程技术支持。作为回报,获奖者承诺产出某种最终成果,可以是初创公司、开源代码库或其他类型的研究成果。
首批入选队列包含十五个项目,特别关注AI评估这一难题。其中一些项目对TechCrunch读者来说并不陌生,包括命令行编程基准测试Terminal Bench和长期运行的ARC-AGI项目的最新版本。
其他项目则对长期存在的评估问题采取了全新方法。由加州理工学院和德州大学奥斯汀分校研究人员构建的Formula Code项目,旨在评估智能体优化现有代码的能力,而哥伦比亚大学的BizBench项目则提出了针对"白领智能体"的综合基准测试。其他资助项目还探索了强化学习或模型压缩的新结构。
SWE-Bench联合创始人John Boda Yang也是入选队列的一员,他领导着新的CodeClash项目。受到SWE-Bench成功的启发,CodeClash将通过动态竞赛框架来评估代码质量。
Yang告诉TechCrunch:"我确实认为人们继续在核心第三方基准测试上进行评估会推动进步。我有点担心未来基准测试会变得只针对特定公司。"
Q&A
Q1:Laude研究所的"弹弓"资助计划是什么?
A:"弹弓"项目是Laude研究所推出的研究人员加速器,旨在推进人工智能的科学研究和实践应用。该项目为研究人员提供大多数学术机构无法获得的资源,包括资金支持、计算能力以及产品和工程技术支持。
Q2:首批"弹弓"资助计划有多少个项目?主要关注什么领域?
A:首批入选队列包含十五个项目,特别关注AI评估这一难题。项目包括Terminal Bench、ARC-AGI项目最新版本、Formula Code以及BizBench等,涵盖了代码优化评估、白领智能体基准测试等多个方向。
Q3:CodeClash项目有什么特色?
A:CodeClash项目由SWE-Bench联合创始人John Boda Yang领导,受到SWE-Bench成功启发。该项目将通过动态竞赛框架来评估代码质量,采用了全新的代码评估方法。
好文章,需要你的鼓励
ChatGPT发布三年后,物理AI成为行业最新热词。物理AI是指在硬件中实现的AI系统,能够感知周围世界并进行推理以执行操作。与传统机器人不同,物理AI具备推理、行动和与环境交互的能力。智能眼镜是物理AI的典型代表,能够看到和听到用户所体验的内容。高通专家指出,AI可穿戴设备可以为机器人提供基于真实人类体验的高质量数据集,形成良性生态系统。
德国弗劳恩霍夫研究院提出ViTNT-FIQA人脸质量评估新方法,无需训练即可评估图像质量。该方法基于Vision Transformer层间特征稳定性原理,通过测量图像块在相邻层级间的变化幅度判断质量。在八个国际数据集上的实验显示其性能可媲美现有最先进方法,且计算效率更高,为人脸识别系统提供了即插即用的质量控制解决方案,有望广泛应用于安防监控和身份认证等领域。
来自加州大学伯克利分校和康奈尔大学的研究团队,通过分析130万篇学术论文发现,使用ChatGPT等AI工具的科学家论文产出平均提升40-60%,且英语非母语研究者受益最大。
布朗大学联合图宾根大学的研究团队通过系统实验发现,AI医疗助手的角色设定会产生显著的情境依赖效应:医疗专业角色在急诊场景下表现卓越,准确率提升20%,但在普通医疗咨询中反而表现更差。研究揭示了AI角色扮演的"双刃剑"特性,强调需要根据具体应用场景精心设计AI身份,而非简单假设"更专业等于更安全",为AI医疗系统的安全部署提供了重要指导。