虽然苹果尚未确认哪些Apple Intelligence和Siri功能将使用谷歌Gemini模型,但根据传言,我们可以了解以下信息。
《The Information》的一份报告详细介绍了几项由Gemini模型驱动的Siri新功能。根据该报告,iPhone用户可以期待一个改进版的Siri。
该报告还概述了作为iOS 27一部分推出的Siri功能,这些功能将在6月的WWDC上宣布。
Google Gemini模型还将用于驱动苹果在2023年WWDC上首次宣布的Apple Intelligence功能。这些功能原计划包含在iOS 18中,但被推迟了。
据报道,首批基于Gemini的iPhone功能有望作为iOS 26.4的一部分发布,该版本将在下个月进入测试阶段。
Q&A
Q1:Google Gemini会为iPhone带来什么新功能?
A:Google Gemini将为iPhone的Siri带来重大升级,包括增强的语音交互能力和更智能的响应功能。同时,Gemini模型还将驱动Apple Intelligence功能。
Q2:这些新功能什么时候能用上?
A:首批基于Gemini的iPhone功能预计将作为iOS 26.4的一部分发布,该版本将在下个月进入测试阶段。更多功能将在iOS 27中推出,预计在6月的WWDC上宣布。
Q3:苹果为什么要使用Google的AI技术?
A:苹果选择使用Google Gemini模型来增强Siri和Apple Intelligence功能,这表明苹果希望通过与谷歌的合作来提升其AI服务的能力和竞争力。
好文章,需要你的鼓励
FORTIS是专门测量AI代理"越权行为"的基准测试,研究发现十款顶尖模型普遍选择远超任务需要的高权限技能,端到端成功率最高仅14.3%。
谷歌在Android Show发布会上宣布,将Gemini更深度整合至Android系统,推出名为"Gemini Intelligence"的升级功能。该功能可跨应用处理日常任务,包括自动填写表单、安排日程、生成购物清单及自定义小组件等,无需用户频繁切换应用。此外,Gboard新增"Rambler"功能,可自动过滤语音输入中的口误和填充词。Gemini Intelligence将率先登陆三星Galaxy和谷歌Pixel手机,并支持Android Auto、Wear OS及智能眼镜。
荷兰Nebius团队提出SlimSpec,通过低秩分解压缩草稿模型LM-Head的内部表示而非裁剪词汇,在保留完整词汇表的同时将LM-Head计算时间压缩至原来的五分之一,端到端推理速度超越现有方法最高达9%。