Google LLC 正在更新 Google 搜索中的新"AI 模式"功能,引入多模态能力,使其能够"看到"用户上传的图片,从而更好地回答用户的问题。
AI 模式上个月在 Google One AI Premium 订阅用户中进行了有限预览。这是 Google 搜索中的一项实验性功能,它使用生成式人工智能,允许用户提出复杂的多部分问题和后续查询,以深入探索特定主题。
通过今天的更新,那些能够访问 AI 模式的用户现在可以上传图片并询问关于它所看到内容的问题,Google 在今天的博客文章中透露了这一信息。此外,AI 模式功能正在向数百万已加入其 Labs 计划以获取新应用程序早期访问权限的新用户推出。
Google 表示,AI 模式的图像分析功能由 Google Lens 中的多模态搜索能力提供支持。Google Lens 是一款智能手机应用程序,允许用户使用相机拍照并在 Google 搜索中搜索这些照片。
据 Google 介绍,AI 模式将能够理解任何上传图像中的整个场景,包括其中不同物体之间的关系。它还能够确定这些物体的材料、形状、颜色及其排列方式。它将就图像和其中的物体提出多个问题,从而能够提供比传统 Google 搜索更详细的回答。
举例来说,Google 表示,用户可以拍摄自己书架的照片,并输入查询"如果我喜欢这些书,有哪些类似的书可能适合我?" AI 模式将扫描图像以识别每本书,然后在研究这些书籍后推荐一系列其他书籍。
此外,用户可以提出后续问题。例如,用户可能强调"我在寻找一本快速阅读的书,这些推荐中哪一本最短?"
Google 搜索产品副总裁 Robby Stein 强调,"AI 模式建立在多年视觉搜索领域的工作基础上,并将其更进一步。"
鉴于 AI 模式仍是一项实验性功能,目前尚不清楚该服务的受欢迎程度如何。Google 上个月推出它是为了响应流行的生成式 AI 搜索应用程序,如 Perplexity 和 OpenAI 的 ChatGPT Search,这些应用程序提供类似的功能。
Google 表示,在更广泛发布之前,将继续完善用户体验并扩展 AI 模式的功能。
好文章,需要你的鼓励
研究人员基于Meta前首席AI科学家Yann LeCun提出的联合嵌入预测架构,开发了名为JETS的自监督时间序列基础模型。该模型能够处理不规则的可穿戴设备数据,通过学习预测缺失数据的含义而非数据本身,成功检测多种疾病。在高血压检测中AUROC达86.8%,心房扑动检测达70.5%。研究显示即使只有15%的参与者有标注医疗记录,该模型仍能有效利用85%的未标注数据进行训练,为利用不完整健康数据提供了新思路。
西湖大学等机构联合发布TwinFlow技术,通过创新的"双轨道"设计实现AI图像生成的革命性突破。该技术让原本需要40-100步的图像生成过程缩短到仅需1步,速度提升100倍且质量几乎无损。TwinFlow采用自我对抗机制,无需额外辅助模型,成功应用于200亿参数超大模型,在GenEval等标准测试中表现卓越,为实时AI图像生成应用开辟了广阔前景。
AI云基础设施提供商Coreweave今年经历了起伏。3月份IPO未达预期,10月收购Core Scientific计划因股东反对而搁浅。CEO Michael Intrator为公司表现辩护,称正在创建云计算新商业模式。面对股价波动和高负债质疑,他表示这是颠覆性创新的必然过程。公司从加密货币挖矿转型为AI基础设施提供商,与微软、OpenAI等巨头合作。对于AI行业循环投资批评,Intrator认为这是应对供需剧变的合作方式。
中山大学等机构联合开发的RealGen框架成功解决了AI生成图像的"塑料感"问题。该技术通过"探测器奖励"机制,让AI在躲避图像检测器识别的过程中学会制作更逼真照片。实验显示,RealGen在逼真度评测中大幅领先现有模型,在与真实照片对比中胜率接近50%,为AI图像生成技术带来重要突破。