近期,谷歌公司对其Search Live功能的全球推广计划进行了重要更新。该公司最初计划宣布全球可用性,但随后收回了这一消息。
功能介绍
Search Live是谷歌在2025年I/O大会上首次发布的创新搜索功能。这项功能允许用户将手机摄像头对准任何物体或场景,并就所看到的内容提出问题,实现视觉搜索和实时对话。该功能于去年9月向所有美国谷歌应用用户正式推出。
最新进展
根据最新消息,Search Live目前仍仅在美国和印度地区正式提供服务,但正在其他市场进行测试。谷歌公司表示:"Search Live并未向全球所有用户推出。目前仍在美国和印度可用,正在其他市场进行测试。我们为之前的沟通失误道歉。"
技术升级
据了解,谷歌已将Search Live功能升级至基于Gemini 3.1 Flash模型运行。这一升级为用户带来了更自然的对话体验,同时提供更快速、更可靠的服务。新模型还具备原生多语言支持能力,进一步提升了用户体验。
使用方式
用户可以通过Android和iOS设备上的谷歌应用访问Search Live功能。在谷歌应用中,点击搜索栏下方的"Live"按钮即可开始使用。此外,用户也可以通过Google Lens访问该功能,在屏幕底部附近寻找"Live"图标来启动对话。
未来展望
虽然全球推广计划暂时搁置,但考虑到谷歌正在更多市场进行测试,Search Live的全球发布可能会在不久的将来实现。这项技术代表了搜索引擎向视觉智能和实时交互方向发展的重要步骤。
Q&A
Q1:Search Live是什么功能?
A:Search Live是谷歌开发的视觉搜索功能,允许用户将手机摄像头对准物体或场景,就所看到的内容提出问题并获得实时答案。该功能在2025年I/O大会首次发布,去年9月向美国用户正式推出。
Q2:Search Live目前在哪些地区可以使用?
A:目前Search Live正式服务仅在美国和印度地区提供,其他市场还在测试阶段。谷歌原计划全球推广,但后来收回了这一消息,表示仍在更多市场进行测试。
Q3:如何使用Search Live功能?
A:用户可通过Android和iOS设备上的谷歌应用使用Search Live。在谷歌应用中点击搜索栏下方的"Live"按钮,或通过Google Lens在屏幕底部找到"Live"图标来启动功能。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。