看过昨天OpenAI的春季发布后,不难猜到,在今天的谷歌I/O大会上,必然会有关于AI助手的介绍。
毕竟,抢在谷歌I/O大会前发布GPT-4o的Altman,已经显示出了十足的针对性,凭借Altman的手段,自然也有着十足的把握做到精准打击,将这场“红蓝对抗”进行到底。
果不其然,大会上,谷歌CEO Pichai请来了DeepMind创始人Demis,谷歌全新的AI助手Project Astra正是由首次登台谷歌I/O大会的Demis揭开的神秘面纱。
什么是Project Astra?
Project Astra是一个由谷歌Gemini作为基础引擎的实时、多模态通用人工智能助手,相当于是Google Assistant的继任者。
与Siri、Alexa等以往我们使用的AI助手相同的是,你依然可以用语音与它进行交互;不同的是,借助生成式AI独有的特性,它现在拥有了更好的理解能力、可以干更多事情,更重要的是,这次它还有了视觉识别能力,让AI助手得以睁眼看世界。
在大会上谷歌的视频演示中,着重演示的正是这一AI助手的视觉智能。
在演示视频中,一位谷歌工程师拿着打开摄像头的手机,让Gemini识别空间中能发出声音的物体、识别显示器屏幕上显示的代码的功能,甚至通过户外街景识别演示者现在所在地址。
除了将AI助手应用到手机上,谷歌还将AI助手应用到了AR眼镜上,当这位工程师将搭载这一AI助手的智能眼镜对准黑板上设计的系统并提出如何改善这一系统时,AI助手甚至能给出系统设计的改善建议。
这是谷歌在AI助手上展示出的视觉智能,在Gemini加持下,这样的AI助手在交互能力上已经得到了极大的增强。
不过,在实际交互的自然度上,这样的AI助手依然与昨天OpenAI GPT-4o展示出的效果形成了不小的差距。
OpenAI“截胡”成功
就在谷歌I/O大会前一天,OpenAI召开了一场声势浩大的春季发布会,GPT-4o是这次春发的主角,部署在手机上的AI助手则是这次发布会重点演示的功能。
从OpenAI发布会上演示的AI助手能力来看,无论是在演示内容的亲民程度、交互过程的自然度,还是这一AI助手多模态能力上,演示效果都要更好。
这是因为OpenAI将GPT-4o装载到手机上时,不仅加入了视觉智能,还让这个AI助手能够实时响应(官方给出的平均响应延时是320毫秒),可以被随时打断,甚至还能理解人类的情绪。
在视觉智能方面能力演示过程中,OpenAI在纸上写了一道数学方程让AI助手一步一步解题,像极了一位小学老师。
而当你和GPT-4o打“视频电话”时,它又可以识别你的面部表情,理解你的情绪,知道你现在看起来是开心还是难过,活脱就是一个human being。
不难发现,在如今大模型技术加持下,谷歌和OpenAI都在试图将原来粗糙不堪的AI助手进行回炉再造,想让AI助手能够像真人一样与我们自然交互。
而从前后两个发布会视频演示结果来看,以大模型作为基础引擎的AI助手,也确实让我们明显感受到了,现在的AI助手与此前的Siri、Alexa有了明显的代际差。
实际上,在生成式AI、大模型技术发展如火如荼的当下,苹果也在试图让Siri脱胎换骨,此前彭博社就曾援引知情人士消息报道称,苹果正与OpenAI和谷歌分别在谈合作,想要将他们的大模型用到iOS 18操作系统中。
至于这样的AI助手是否能让Siri再次翻红,成为AI手机的杀手级应用,接下来,就看苹果能否再次为AI助手顺利“附魔”了。
好文章,需要你的鼓励
南洋理工大学研究团队开发了WorldMem框架,首次让AI拥有真正的长期记忆能力,解决了虚拟世界模拟中的一致性问题。该系统通过记忆银行存储历史场景,并使用智能检索机制,让AI能准确重现之前的场景和事件,即使间隔很长时间。实验显示在Minecraft和真实场景中都表现出色,为游戏、自动驾驶、机器人等领域带来广阔应用前景。
AWS通过升级SageMaker机器学习平台来扩展市场地位,新增观测能力、连接式编码环境和GPU集群性能管理功能。面对谷歌和微软的激烈竞争,AWS专注于为企业提供AI基础设施支撑。SageMaker新功能包括深入洞察模型性能下降原因、为开发者提供更多计算资源控制权,以及支持本地IDE连接部署。这些更新主要源于客户需求,旨在解决AI模型开发中的实际问题。
MTS AI研究团队提出RewardRanker系统,通过重排序模型和迭代自训练显著提升AI代码生成质量。该方法让13.4B参数模型超越33B大模型,在多种编程语言上表现优异,甚至在C++上超越GPT-4。通过引入困难负样本和PPO优化,系统能从多个代码候选中选出最优方案,为AI编程助手的实用化奠定基础。