谷歌带有语音输入功能的搜索实时功能现已在美国地区的iOS和Android应用程序中推出。用户需要在实验室模式中选择启用AI模式才能使用该功能,启用后便可与搜索进行双向语音对话。
要使用此功能,用户需打开谷歌应用程序并点击新的实时图标进行语音提问。谷歌将通过AI生成音频进行回应,用户还可以自然地提出后续问题。该功能的技术核心是一个具备先进语音功能的定制版Gemini。
谷歌表示,这项功能特别适合在外出或多任务处理时使用,比如打包行李。在谷歌提供的示例中,用户询问如何防止亚麻裙子在行李箱中起皱,Gemini进行了语音回应。随后用户提出了几个后续问题,无需退出搜索实时界面或再次点击实时图标。用户甚至可以在打开其他应用程序时继续对话,也可以查看谷歌回应的文字记录,并在希望转换为文字对话时输入更多问题。
虽然该功能具有成为便利工具的潜力,但谷歌获取信息的原始来源可能无法从这种交互中获得任何流量。谷歌确实在搜索实时界面上显示了来自网络各处的链接,但这些链接以微小卡片的形式显示,如果用户确实在与Gemini对话时同时进行其他活动,这些链接很容易被忽略。
在未来几个月中,谷歌将扩展搜索实时功能,增加实时显示和询问用户所见内容的能力。谷歌在今年的I/O大会上宣布了这项特定功能。例如,用户可以向搜索展示一道复杂的数学题并请求帮助解决,或要求解释难以理解的概念。
好文章,需要你的鼓励
是德科技高级副总裁兼通信解决方案事业部总裁Kailash Narayanan现场指出,算力固然重要,但如果能耗过高,技术的实用性将大打折扣,因此,所有的高速、高性能计算,都必须在极低的功耗下实现,这是AI等技术能否大规模落地的核心前提。
DeepSeek-AI团队通过创新的软硬件协同设计,仅用2048张GPU训练出性能卓越的DeepSeek-V3大语言模型,挑战了AI训练需要海量资源的传统观念。该研究采用多头潜在注意力、专家混合架构、FP8低精度训练等技术,大幅提升内存效率和计算性能,为AI技术的民主化和可持续发展提供了新思路。
来自上海交通大学和浙江大学等机构的研究团队开发出首个AI"记忆操作系统"MemOS,解决了AI系统无法实现人类般持久记忆和学习的根本限制。该系统将记忆视为核心计算资源进行调度、共享和演化,在时间推理任务中相比OpenAI记忆系统性能提升159%。MemOS采用三层架构设计,通过标准化记忆单元实现跨平台记忆迁移,有望改变企业AI部署模式。
加拿大女王大学研究团队首次系统评估了大型视频语言模型的因果推理能力,发现即使最先进的AI在理解视频中事件因果关系方面表现极差,大多数模型准确率甚至低于随机猜测。研究创建了全球首个视频因果推理基准VCRBench,并提出了识别-推理分解法(RRD),通过任务分解显著提升了AI性能,最高改善幅度达25.2%。