Google 的 AI R&D 实验室 DeepMind 表示,他们开发了一种新的 AI 系统,用于处理具有 "machine-gradable"(可由机器评分)解决方案的问题。
DeepMind 表示,在实验中,该系统名为 AlphaEvolve,可帮助优化 Google 用于训练其 AI 模型的一些基础设施。公司表示,他们正在构建与 AlphaEvolve 交互的用户界面,并计划在可能更大范围推广之前,为部分学者推出早期访问计划。
大多数 AI 模型会产生幻觉。由于其概率架构,这些模型有时会自信地编造信息。实际上,新一代 AI 模型(如 OpenAI 的 o3)比其前辈产生更多幻觉,这也反映了该问题的复杂挑战。
AlphaEvolve 引入了一种巧妙的机制以减少幻觉现象:自动评估系统。该系统利用模型生成、评判并综合出一个问题的可能答案池,同时自动评估和打分以判断答案的准确性。
DeepMind 表示,AlphaEvolve 系统的设计目标是供领域专家使用。
AlphaEvolve 并不是第一个采用这种方法的系统。包括几年前 DeepMind 团队在内的研究人员,曾在数学各领域中应用过类似技术。但 DeepMind 声称,AlphaEvolve 所使用的 "state-of-the-art"(最先进)模型——特别是 Gemini 模型——使其相比以前的 AI 系统具有显著更强的能力。
要使用 AlphaEvolve,用户必须向系统输入一个问题,并可选地附上说明、方程、代码片段以及相关文献等详细信息。用户还需要提供一种以公式形式自动评估系统答案的机制。
由于 AlphaEvolve 只能解决其自身能进行评估的问题,该系统仅适用于某些类型的问题——特别是计算机科学和系统优化等领域的问题。另一项主要限制是,AlphaEvolve 只能以算法形式描述解决方案,这使得它对于非数值类问题的适用性较差。
为了对 AlphaEvolve 进行基准测试,DeepMind 让该系统尝试了一组精挑细选的约 50 道数学题,涵盖从几何到组合数学等多个分支。DeepMind 声称,AlphaEvolve 在 75% 的情况下能够“重新发现”这些问题的最佳解答,并在 20% 的案例中找到改进方案。
DeepMind 还将 AlphaEvolve 应用于实际问题,如提高 Google 数据中心的效率及加速模型训练。根据该实验室的数据,AlphaEvolve 生成的一种算法平均可持续回收 Google 全球计算资源的 0.7%。该系统还提出了一项优化措施,将 Google 训练 Gemini 模型的总体时间缩短了 1%。
需要明确的是,AlphaEvolve 并没有带来突破性的发现。在一次实验中,该系统成功找到了优化 Google TPU AI 加速器芯片设计的改进方案——这一问题此前已被其他工具指出。
然而,DeepMind 与许多 AI 实验室一样,主张 AlphaEvolve 能够节省时间,从而释放专家去关注其他更为重要的工作。
好文章,需要你的鼓励
CoreWeave发布AI对象存储服务,采用本地对象传输加速器(LOTA)技术,可在全球范围内高速传输对象数据,无出口费用或请求交易分层费用。该技术通过智能代理在每个GPU节点上加速数据传输,提供高达每GPU 7 GBps的吞吐量,可扩展至数十万个GPU。服务采用三层自动定价模式,为客户的AI工作负载降低超过75%的存储成本。
IDEA研究院等机构联合开发了ToG-3智能推理系统,通过多智能体协作和双重进化机制,让AI能像人类专家团队一样动态思考和学习。该系统在复杂推理任务上表现优异,能用较小模型达到卓越性能,为AI技术的普及应用开辟了新路径,在教育、医疗、商业决策等领域具有广阔应用前景。
谷歌DeepMind与核聚变初创公司CFS合作,运用先进AI模型帮助管理和改进即将发布的Sparc反应堆。DeepMind开发了名为Torax的专用软件来模拟等离子体,结合强化学习等AI技术寻找最佳核聚变控制方式。核聚变被视为清洁能源的圣杯,可提供几乎无限的零碳排放能源。谷歌已投资CFS并承诺购买其200兆瓦电力。
上海人工智能实验室提出SPARK框架,创新性地让AI模型在学习推理的同时学会自我评判,通过回收训练数据建立策略与奖励的协同进化机制。实验显示,该方法在数学推理、奖励评判和通用能力上分别提升9.7%、12.1%和1.5%,且训练成本仅为传统方法的一半,展现出强大的泛化能力和自我反思能力。