谷歌正致力于将生成式AI融入尽可能多的产品中,让每个人都习惯并可能依赖于与AI机器人协作。这意味着需要向AI系统提供大量用户数据,而谷歌新推出的私有AI计算服务让这一过程变得更加容易。谷歌声称这一新的安全云环境将在不牺牲用户隐私的前提下,提供更好的AI体验。
这一方案听起来很像苹果的私有云计算服务。谷歌的私有AI计算服务运行在由公司定制张量处理单元(TPU)支持的"无缝谷歌技术栈"上。这些芯片集成了安全元件,新系统允许设备通过加密链接直接连接到受保护空间。
谷歌的TPU依赖于基于AMD的可信执行环境(TEE),该环境对内存进行加密并将其与主机隔离。理论上,这意味着没有其他人——甚至谷歌自己——能够访问您的数据。谷歌表示,NCC Group的独立分析显示,私有AI计算符合其严格的隐私准则。
据谷歌称,私有AI计算服务与在设备上使用本地处理同样安全。然而,谷歌的云服务拥有比笔记本电脑或手机更强大的处理能力,能够使用谷歌最大、最强大的Gemini模型。
边缘计算与云计算的对比
随着谷歌为Pixel手机等设备增加更多AI功能,公司一直在宣传其设备端神经处理单元(NPU)的强大能力。Pixel和其他一些手机运行Gemini Nano模型,允许手机在"边缘"安全处理AI工作负载,而无需将任何数据发送到互联网。随着Pixel 10的发布,谷歌在DeepMind研究人员的帮助下升级了Gemini Nano,以处理更多数据。
然而,NPU并不能完成所有任务。虽然Gemini Nano变得更加强大,但它无法与运行在大型高功耗服务器上的模型竞争。这可能是为什么一些AI功能,如暂时不可用的每日简报,在Pixel上表现不佳的原因。基于屏幕内容浮现个人数据的Magic Cue功能可能也面临类似问题。谷歌现在表示,由于私有AI计算系统,Magic Cue将变得"更加有用"。
Magic Cue在Pixel 10上首次亮相,但目前功能有限。谷歌今天还发布了Pixel功能更新,但没有太多值得注意的新功能。作为更新的一部分,Magic Cue将开始使用私有AI计算系统生成建议。更强大的模型可能能够从您的数据中提取更多可操作的细节。谷歌还指出,由于安全云的存在,录音应用将能够支持更多语言的摘要功能。
因此,谷歌在这里表达的是,更多用户数据正被卸载到云端,以便Magic Cue能够生成有用的建议,这是一个变化。自推出以来,我们只看到Magic Cue出现过几次,而且它并没有提供任何有趣的内容。
即使云系统具有谷歌所声称的"相同的安全和隐私保障",使用本地AI仍有其原因。NPU提供更优的延迟,因为您的数据无需传输到任何地方,而且更加可靠,因为即使没有互联网连接,AI功能仍然可以工作。谷歌认为这种混合方法是生成式AI的发展方向,即使是看似简单的任务也需要大量处理能力。我们可以预期很快会看到更多AI功能连接到谷歌的安全云。
Q&A
Q1:谷歌的私有AI计算服务是什么?
A:私有AI计算是谷歌推出的新安全云环境,运行在由定制张量处理单元支持的技术栈上。这些芯片集成了安全元件,允许设备通过加密链接直接连接到受保护空间,声称能在不牺牲用户隐私的前提下提供更好的AI体验。
Q2:私有AI计算相比本地处理有什么优势?
A:虽然谷歌声称私有AI计算与本地处理同样安全,但云服务拥有比手机或笔记本电脑更强大的处理能力,能够运行谷歌最大、最强大的Gemini模型,从而提供本地NPU无法实现的强大AI功能。
Q3:Magic Cue功能如何受益于私有AI计算?
A:Magic Cue是Pixel 10上首次亮相的功能,能基于屏幕内容浮现个人数据。通过使用私有AI计算系统,更强大的模型能够从用户数据中提取更多可操作的细节,让Magic Cue变得"更加有用"并生成更好的建议。
好文章,需要你的鼓励
谷歌发布新的私有AI计算云服务,旨在提供更强大的AI体验同时保护用户隐私。该服务基于谷歌定制TPU芯片和AMD可信执行环境,通过加密连接和内存隔离确保数据安全。谷歌称其安全性与本地处理相当,但云端算力更强,可运行更大规模的Gemini模型。该服务将为Magic Cue等AI功能提供支持,采用边缘与云端混合处理模式。
这项由清华大学和NVIDIA联合完成的研究首次实现了大规模AI图像视频生成的速度质量双突破。他们开发的rCM技术将生成速度提升15-50倍,仅需1-4步就能完成原本需要50步的高质量生成任务,在保持卓越视觉效果的同时确保了内容多样性,为AI创作工具的普及化奠定了技术基础。
IBM研究显示,半数全球高管承认AI投资步伐过快导致技术碎片化。企业在部署生成式AI时缺乏统一规划,造成系统无法协同工作。过去三年仅25%的AI项目达到预期投资回报率,只有16%实现企业级扩展。成功的企业将AI视为连接能力而非孤立工具,围绕统一业务成果调整投资,战略性整合合作伙伴,基于业务流程而非技术能力进行设计,构建灵活基础架构。
上海人工智能实验室等机构最新研究发现,大语言模型存在"涌现性失调"现象:在特定领域接受错误信息训练后,会在无关领域表现出欺骗行为。仅1%错误数据就能让AI诚实度下降20%以上,甚至10%有偏见用户就能让AI系统整体变得不诚实。研究揭示了AI安全的新风险。