Google今天发布了其最强大的Gemini模型,但普通用户可能无法体验。在去年5月I/O大会上首次亮相Gemini 2.5 Deep Think后,Google正式在Gemini应用中推出这一AI功能。Deep Think专为处理最复杂的查询而设计,这意味着它需要消耗比其他模型更多的计算资源。因此,只有订阅Google价值250美元AI Ultra计划的用户才能使用这项功能。
Deep Think基于与Gemini 2.5 Pro相同的基础架构,但通过更大规模的并行分析增加了"思考时间"。据Google介绍,Deep Think会探索解决问题的多种方法,甚至会重新审视和重组它生成的各种假设。这一过程帮助它产出更高质量的答案。
与其他重量级Gemini工具类似,Deep Think需要几分钟时间才能给出答案。这显然让AI在设计美学、科学推理和编程方面更加出色。Google已经用常规基准测试对Deep Think进行了评估,结果显示它超越了标准的Gemini 2.5 Pro以及OpenAI o3和Grok 4等竞争模型。Deep Think在"人类最后考试"基准测试中表现尤其突出,这是一个包含2500个复杂多模态问题的测试集,涵盖100多个学科。其他模型的得分最高只达到20%或25%,而Gemini 2.5 Deep Think取得了34.8%的成绩。
数学是Deep Think的一个重要专长领域,它在AIME基准测试中也展现了强劲表现。不过,这方面仍有改进空间。Google最近透露,它使用了经过特殊训练的Deep Think版本参加国际数学奥林匹克竞赛(IMO),这个版本可以持续思考数小时才给出解决方案。该模型首次赢得了IMO金牌。Google目前只将IMO版本的Deep Think分发给可信测试人员,但希望稍后更广泛地发布。与此同时,标准版Deep Think在2025年IMO测试中仍能达到铜牌水平。
Google AI Ultra订阅用户从今天开始可以在Gemini应用和网页界面中使用Deep Think,但它不会出现在主模型菜单中。当用户选择Gemini 2.5 Pro时,可以将其作为工具访问(与Deep Research、Canvas等功能并列)。即使拥有Google昂贵的AI订阅服务,Google表示每天使用Deep Think查询的次数仍有限制。公司并未明确具体限制数量,也不提供详细信息,暗示这一限制会随时间调整。Deep Think最终将通过API开放,为开发者提供付费服务方式来获得更多提示功能。
Q&A
Q1:Gemini 2.5 Deep Think与普通版本有什么区别?
A:Deep Think基于Gemini 2.5 Pro架构,但通过更大规模的并行分析增加了"思考时间"。它会探索解决问题的多种方法,重新审视和重组生成的假设,产出更高质量的答案,但需要几分钟才能给出回应。
Q2:哪些用户可以使用Gemini 2.5 Deep Think?
A:目前只有订阅Google价值250美元AI Ultra计划的用户才能使用Deep Think功能。即使是付费用户,每天使用Deep Think查询的次数也有限制,具体数量Google未公开。
Q3:Gemini 2.5 Deep Think在数学方面表现如何?
A:Deep Think在数学领域表现出色,在AIME基准测试中有强劲表现。特殊训练版本甚至首次赢得了国际数学奥林匹克竞赛金牌,标准版本也能在2025年IMO测试中达到铜牌水平。
好文章,需要你的鼓励
Allen AI研究所联合多家顶尖机构推出SAGE智能视频分析系统,首次实现类人化的"任意时长推理"能力。该系统能根据问题复杂程度灵活调整分析策略,配备六种智能工具进行协同分析,在处理10分钟以上视频时准确率提升8.2%。研究团队创建了包含1744个真实娱乐视频问题的SAGE-Bench评估平台,并采用创新的AI生成训练数据方法,为视频AI技术的实际应用开辟了新路径。
联想推出新一代NVMe存储解决方案DE6600系列,包含全闪存DE6600F和混合存储DE6600H两款型号。该系列产品延迟低于100微秒,支持多种连接协议,2U机架可容纳24块NVMe驱动器。容量可从367TB扩展至1.798PiB全闪存或7.741PiB混合配置,适用于AI、高性能计算、实时分析等场景,并配备双活控制器和XClarity统一管理平台。
中科院团队首次系统评估了AI视觉模型在文本压缩环境下的理解能力,发现虽然AI能准确识别压缩图像中的文字,但在理解深层含义、建立关联推理方面表现不佳。研究通过VTCBench测试系统揭示了AI存在"位置偏差"等问题,为视觉文本压缩技术的改进指明方向。