看过昨天OpenAI的春季发布后,不难猜到,在今天的谷歌I/O大会上,必然会有关于AI助手的介绍。
毕竟,抢在谷歌I/O大会前发布GPT-4o的Altman,已经显示出了十足的针对性,凭借Altman的手段,自然也有着十足的把握做到精准打击,将这场“红蓝对抗”进行到底。
果不其然,大会上,谷歌CEO Pichai请来了DeepMind创始人Demis,谷歌全新的AI助手Project Astra正是由首次登台谷歌I/O大会的Demis揭开的神秘面纱。
什么是Project Astra?
Project Astra是一个由谷歌Gemini作为基础引擎的实时、多模态通用人工智能助手,相当于是Google Assistant的继任者。
与Siri、Alexa等以往我们使用的AI助手相同的是,你依然可以用语音与它进行交互;不同的是,借助生成式AI独有的特性,它现在拥有了更好的理解能力、可以干更多事情,更重要的是,这次它还有了视觉识别能力,让AI助手得以睁眼看世界。
在大会上谷歌的视频演示中,着重演示的正是这一AI助手的视觉智能。
在演示视频中,一位谷歌工程师拿着打开摄像头的手机,让Gemini识别空间中能发出声音的物体、识别显示器屏幕上显示的代码的功能,甚至通过户外街景识别演示者现在所在地址。
除了将AI助手应用到手机上,谷歌还将AI助手应用到了AR眼镜上,当这位工程师将搭载这一AI助手的智能眼镜对准黑板上设计的系统并提出如何改善这一系统时,AI助手甚至能给出系统设计的改善建议。
这是谷歌在AI助手上展示出的视觉智能,在Gemini加持下,这样的AI助手在交互能力上已经得到了极大的增强。
不过,在实际交互的自然度上,这样的AI助手依然与昨天OpenAI GPT-4o展示出的效果形成了不小的差距。
OpenAI“截胡”成功
就在谷歌I/O大会前一天,OpenAI召开了一场声势浩大的春季发布会,GPT-4o是这次春发的主角,部署在手机上的AI助手则是这次发布会重点演示的功能。
从OpenAI发布会上演示的AI助手能力来看,无论是在演示内容的亲民程度、交互过程的自然度,还是这一AI助手多模态能力上,演示效果都要更好。
这是因为OpenAI将GPT-4o装载到手机上时,不仅加入了视觉智能,还让这个AI助手能够实时响应(官方给出的平均响应延时是320毫秒),可以被随时打断,甚至还能理解人类的情绪。
在视觉智能方面能力演示过程中,OpenAI在纸上写了一道数学方程让AI助手一步一步解题,像极了一位小学老师。
而当你和GPT-4o打“视频电话”时,它又可以识别你的面部表情,理解你的情绪,知道你现在看起来是开心还是难过,活脱就是一个human being。
不难发现,在如今大模型技术加持下,谷歌和OpenAI都在试图将原来粗糙不堪的AI助手进行回炉再造,想让AI助手能够像真人一样与我们自然交互。
而从前后两个发布会视频演示结果来看,以大模型作为基础引擎的AI助手,也确实让我们明显感受到了,现在的AI助手与此前的Siri、Alexa有了明显的代际差。
实际上,在生成式AI、大模型技术发展如火如荼的当下,苹果也在试图让Siri脱胎换骨,此前彭博社就曾援引知情人士消息报道称,苹果正与OpenAI和谷歌分别在谈合作,想要将他们的大模型用到iOS 18操作系统中。
至于这样的AI助手是否能让Siri再次翻红,成为AI手机的杀手级应用,接下来,就看苹果能否再次为AI助手顺利“附魔”了。
好文章,需要你的鼓励
新加坡人工智能机构与阿里云发布全新大语言模型Qwen-Sea-Lion-v4,专门针对东南亚语言和文化特色进行优化。该模型结合阿里云Qwen3-32B基础模型和大量东南亚地区数据集,在东南亚语言模型评估榜单中位居开源模型首位。模型支持119种语言,能在32GB内存的消费级笔记本上运行,采用字节对编码技术更好处理非拉丁文字,并具备3.2万词元上下文长度,可执行文档级推理和摘要任务。
中科大联合快手等机构推出VR-Thinker技术,首次实现AI视频评判员的"边看边想"能力。该系统通过主动选择关键画面、智能记忆管理和三阶段训练,在视频质量评估准确率上达到75%-82%,特别擅长处理长视频场景,为AI视频生成的质量控制提供了突破性解决方案。
AI智能体是下一代业务自动化工具,不仅能对话交流,还能执行复杂任务。与ChatGPT聊天机器人不同,它们可在最少人工干预下规划并完成工作。文章介绍了五个高影响力应用:自动化客户服务解决方案、销售CRM管理、合规自动化、招聘筛选与排程、市场情报报告。这些应用都具有重复性工作流程、依赖结构化数据、遵循可预测规则等特点,能够释放员工宝贵时间用于更有价值的工作。
微软研究院发布BitDistill技术,通过三阶段优化将大型语言模型压缩至1.58位精度,在保持性能的同时实现10倍内存节省和2.65倍速度提升。该技术包括模型结构稳定化、持续预训练适应和知识蒸馏传承三个关键步骤,解决了模型量化中的性能衰减和规模化问题,为AI模型在资源受限设备上的高效部署提供了新方案。