继几个月前发布首个 Gemini 2.0 AI 模型后,Google 又推出了全新升级。该公司称新的 Gemini 2.5 Pro Experimental 是其"最智能"的模型,具有超大的上下文窗口、多模态能力和推理能力。Google 展示了一系列基准测试,显示新版 Gemini 远超其他大语言模型 (LLM),我们的测试也证实了这一点——Gemini 2.5 Pro 是我们见过的最令人印象深刻的生成式 AI 模型之一。
与 Google 未来所有的模型一样,Gemini 2.5 内置推理功能。AI 在生成输出的过程中会对自身进行事实核查。我们称之为"模拟推理",因为目前没有证据表明这个过程类似于人类推理。不过,这确实能大幅提升 LLM 的输出质量。Google 特别提到模型的"主动性"编程能力得益于这一过程。例如,Gemini 2.5 Pro Experimental 可以通过单个提示生成一个完整的可运行视频游戏。我们已经测试过这个功能,在公开版本中确实可用。
Google 对 Gemini 2.5 Pro 做出了诸多描述:更智能、更懂上下文、会思考—但很难量化生成式 AI 机器人的提升程度。不过,有一些明显的技术优势。Gemini 2.5 Pro 具有 100 万 token 的上下文窗口,这对 Gemini 大模型来说很常见,但相比 OpenAI GPT 或 Anthropic Claude 等竞争模型要大得多。你可以在单个提示中向 Gemini 2.5 Pro 输入多本很长的书,输出最多可达 64,000 个 token。这与 Flash 2.0 相同,但与其他 LLM 相比仍然是相当大的 token 数量。
当然,Google 已经对 Gemini 2.5 Experimental 进行了一系列基准测试,结果略高于其他 AI 系统。例如,在衡量 AI 回答科学和数学复杂问题能力的 GPQA 和 AIME 2025 测试中,它略胜于 OpenAI 的 o3-mini。在由领域专家策划的 3,000 个问题组成的"人类最后考试"基准测试中,它也创造了新纪录,Google 新 AI 的得分为 18.8%,而 OpenAI 为 14%。
这些试图客观衡量 AI 能力的方法效果如何还不清楚。有时,主观评估可能更有帮助——可以称之为"氛围评分"。Google 的新 AI 已经位居 LMSYS Chatbot 竞技场排行榜榜首,这是一个值得注意的成就。这表明用户普遍更喜欢 Gemini 2.5 Pro Experimental 的输出,而不是 OpenAI o3-mini、Grok、DeepSeek 等产品的输出。
即时 AI 升级
在使用 Gemini 2.5 Pro Experimental 时,我们也感受到了良好的体验。我们向 Gemini 2.5 提出了一些复杂的任务——这些任务经常让 2.0 模型感到困惑——升级后的 AI 处理得更好。编程、数学和科学问题的表现也比之前版本的 Gemini 更好。
Google 的新专业模型速度也非常快。它仍然像其他模型一样逐个输出 token,在"推理"过程中得出答案,但整体感觉比最新的 OpenAI 和 Anthropic 模型都要快。Google 拥有大量 AI 计算资源,这里显然得到了很好的利用。这也解释了为什么像 Gemini 2.5 Pro Experimental 这样的 Gemini 模型具有如此大的上下文窗口——在这种情况下,大约是 o3-mini 输入限制的五倍。而这仅仅是开始,Google 表示上下文窗口很快将增加到 200 万个 token。
几个月前发布时,Google 的 2.0 Pro 模型看起来相当令人印象深刻,但那个 AI 已经成为过去。Google 表示,Gemini 2.5 Pro 是 2.0 的直接替代品,拥有 Gemini Advanced 订阅 (每月 20 美元) 的用户都可以在 Google 的各种产品中使用它。新模型现在已在移动应用程序和网页上可用,也可以在 Google 的 AI Studio 中使用。它很快也将在 Vertex AI 中推出。
Google 尚未公布 Gemini 2.5 Pro Experimental 的 API 定价,但目前你能用它做的事情也不多。Google 设置了与旧实验模型相同的每日 50 条消息限制,目前是免费的。不过这种情况将会改变。Google 的 Logan Kilpatrick 在 X (前 Twitter) 上表示,2.5 Pro Experimental 将是第一个具有更高 API 限制和定价的实验模型。具体细节将在稍后公布。
好文章,需要你的鼓励
这项研究提出了R1-Searcher++框架,通过两阶段训练策略使大语言模型能像人类一样灵活利用内部知识和外部信息。该方法创新性地采用强化学习激励模型优先使用内部知识,并引入记忆机制将检索到的信息转化为内部知识,实现动态知识获取。实验表明,R1-Searcher++不仅在多步问答任务上表现优异,还大幅减少了检索次数,显著提高了推理效率。
这项研究提出了AutoRefine,一种革新性的强化学习框架,为大语言模型引入了"边思考边搜索和完善"的全新范式。与传统方法不同,AutoRefine在连续搜索调用之间添加知识完善步骤,让模型能够有效过滤和组织信息。通过结合答案正确性和检索质量双重奖励,该方法在七项问答基准测试中平均提升6.9%的准确率,特别在复杂多跳推理场景中表现突出,解决了现有检索增强推理的核心局限性。
这项研究揭示了一种新型网络安全威胁:利用普通网络广告攻击AI网页代理。中科院研究团队开发的AdInject攻击无需特殊权限,仅通过精心设计的广告内容就能误导AI代理点击恶意链接,成功率高达90%以上。研究使用严格的黑盒模型,更符合现实场景,暴露了当前AI代理面临的实际安全漏洞。实验还表明,即使添加专门的防御提示,这类攻击仍能成功率超过50%,凸显了设计更强大防御机制的紧迫性。
东北大学与快手科技联合研发的UNITE系统为多模态信息检索带来突破性进展。这项发表于2025年5月的研究首次系统分析了模态特定数据如何影响检索性能,并提出创新的模态感知掩码对比学习技术,有效解决不同模态间的竞争关系。UNITE能同时处理文本、图像、视频及其组合,在40多项测试中超越现有方法,即使与参数规模更大的模型相比也表现出色。研究发现视频-文本对在通用检索中表现优异,而文本-文本和文本-图像对对指令遵循任务至关重要,为未来多模态系统研究提供了宝贵指南。