继几个月前发布首个 Gemini 2.0 AI 模型后,Google 又推出了全新升级。该公司称新的 Gemini 2.5 Pro Experimental 是其"最智能"的模型,具有超大的上下文窗口、多模态能力和推理能力。Google 展示了一系列基准测试,显示新版 Gemini 远超其他大语言模型 (LLM),我们的测试也证实了这一点——Gemini 2.5 Pro 是我们见过的最令人印象深刻的生成式 AI 模型之一。
与 Google 未来所有的模型一样,Gemini 2.5 内置推理功能。AI 在生成输出的过程中会对自身进行事实核查。我们称之为"模拟推理",因为目前没有证据表明这个过程类似于人类推理。不过,这确实能大幅提升 LLM 的输出质量。Google 特别提到模型的"主动性"编程能力得益于这一过程。例如,Gemini 2.5 Pro Experimental 可以通过单个提示生成一个完整的可运行视频游戏。我们已经测试过这个功能,在公开版本中确实可用。
Google 对 Gemini 2.5 Pro 做出了诸多描述:更智能、更懂上下文、会思考—但很难量化生成式 AI 机器人的提升程度。不过,有一些明显的技术优势。Gemini 2.5 Pro 具有 100 万 token 的上下文窗口,这对 Gemini 大模型来说很常见,但相比 OpenAI GPT 或 Anthropic Claude 等竞争模型要大得多。你可以在单个提示中向 Gemini 2.5 Pro 输入多本很长的书,输出最多可达 64,000 个 token。这与 Flash 2.0 相同,但与其他 LLM 相比仍然是相当大的 token 数量。
当然,Google 已经对 Gemini 2.5 Experimental 进行了一系列基准测试,结果略高于其他 AI 系统。例如,在衡量 AI 回答科学和数学复杂问题能力的 GPQA 和 AIME 2025 测试中,它略胜于 OpenAI 的 o3-mini。在由领域专家策划的 3,000 个问题组成的"人类最后考试"基准测试中,它也创造了新纪录,Google 新 AI 的得分为 18.8%,而 OpenAI 为 14%。
这些试图客观衡量 AI 能力的方法效果如何还不清楚。有时,主观评估可能更有帮助——可以称之为"氛围评分"。Google 的新 AI 已经位居 LMSYS Chatbot 竞技场排行榜榜首,这是一个值得注意的成就。这表明用户普遍更喜欢 Gemini 2.5 Pro Experimental 的输出,而不是 OpenAI o3-mini、Grok、DeepSeek 等产品的输出。
即时 AI 升级
在使用 Gemini 2.5 Pro Experimental 时,我们也感受到了良好的体验。我们向 Gemini 2.5 提出了一些复杂的任务——这些任务经常让 2.0 模型感到困惑——升级后的 AI 处理得更好。编程、数学和科学问题的表现也比之前版本的 Gemini 更好。
Google 的新专业模型速度也非常快。它仍然像其他模型一样逐个输出 token,在"推理"过程中得出答案,但整体感觉比最新的 OpenAI 和 Anthropic 模型都要快。Google 拥有大量 AI 计算资源,这里显然得到了很好的利用。这也解释了为什么像 Gemini 2.5 Pro Experimental 这样的 Gemini 模型具有如此大的上下文窗口——在这种情况下,大约是 o3-mini 输入限制的五倍。而这仅仅是开始,Google 表示上下文窗口很快将增加到 200 万个 token。
几个月前发布时,Google 的 2.0 Pro 模型看起来相当令人印象深刻,但那个 AI 已经成为过去。Google 表示,Gemini 2.5 Pro 是 2.0 的直接替代品,拥有 Gemini Advanced 订阅 (每月 20 美元) 的用户都可以在 Google 的各种产品中使用它。新模型现在已在移动应用程序和网页上可用,也可以在 Google 的 AI Studio 中使用。它很快也将在 Vertex AI 中推出。
Google 尚未公布 Gemini 2.5 Pro Experimental 的 API 定价,但目前你能用它做的事情也不多。Google 设置了与旧实验模型相同的每日 50 条消息限制,目前是免费的。不过这种情况将会改变。Google 的 Logan Kilpatrick 在 X (前 Twitter) 上表示,2.5 Pro Experimental 将是第一个具有更高 API 限制和定价的实验模型。具体细节将在稍后公布。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。