MongoDB公司今日宣布,其此前仅在Atlas云平台上提供的搜索和向量搜索功能,现已面向自管理部署开放,包括MongoDB社区版和MongoDB企业服务器版。
这一功能为数百万在本地和本地部署环境中工作的开发者提供了先进的人工智能构建工具。目前该功能处于公开预览阶段,使开发者能够在不依赖第三方搜索引擎或向量数据库的情况下测试和构建AI驱动的应用程序。该功能在MongoDB架构中原生嵌入了全文、语义和混合搜索能力。
MongoDB核心产品高级副总裁兼负责人Ben Cefalo表示:"这与我们在Atlas内部构建的技术完全相同。这很重要,因为我们希望您构建的应用程序无论是在自己的数据中心还是在Atlas上运行,都能以相同的方式响应。"
过去,实现这些功能通常需要外挂外部系统,这可能会导致同步问题、增加运营开销和成本。现在,开发者可以运行结合关键词和向量搜索的混合查询,在本地管理聊天消息、文档和视频等非结构化数据,并构建具有持久记忆的智能体AI系统。
MongoDB表示,随着AI智能体在软件开发中变得越来越重要,数据库正在从被动存储系统演变为智能记忆引擎。Cefalo说:"大语言模型提供推理能力,但是数据库才是给智能体真正力量、记忆和状态的关键。"
**8.2版本首次亮相**
除了新功能外,MongoDB还推出了MongoDB 8.2版本,据供应商称,该版本带来了显著的性能改进,包括无索引查询速度提升高达49%,时间序列批量插入吞吐量提升近三倍。此次更新还为MongoDB的可查询加密功能添加了子字符串支持,这是一种客户端技术,可在敏感数据到达数据库之前对其进行加密,并允许在加密数据上运行表达式查询而无需解密。
Cefalo表示:"如果您无法信任您的数据库,这些都没有意义。我们拥有经过实战验证的基础,多年来企业应用在性能、可用性和安全性方面的应用经验为我们提供了坚实支撑。"
收购在MongoDB的AI推进中发挥了重要作用。今年早些时候收购Voyage AI公司为平台带来了一套嵌入和重排序模型,增强了平台向大语言模型提供高上下文、领域优化数据的能力。AI嵌入是数据的数值表示或向量,以计算机能够理解和比较的形式捕获各种类型数据的含义和上下文。它们对于使AI模型理解语义含义、执行相似性搜索和支持推荐系统至关重要。
Cefalo说:"优秀的嵌入模型与卓越的嵌入模型之间的差别,就像您从梦中醒来后的模糊回忆与您对人生最重要事件的清晰、生动记忆之间的差别。"
MongoDB声称超过75%的财富100强公司都是其客户,包括全球10大银行中的7家和15大汽车制造商中的13家。
Q&A
Q1:MongoDB新推出的混合搜索功能有什么优势?
A:MongoDB的混合搜索功能现在可以在本地和自管理部署环境中使用,使开发者能够在不依赖第三方搜索引擎或向量数据库的情况下构建AI应用程序。该功能原生嵌入了全文、语义和混合搜索能力,避免了外挂外部系统可能导致的同步问题、运营开销和额外成本。
Q2:MongoDB 8.2版本有哪些性能提升?
A:MongoDB 8.2版本带来了显著的性能改进,包括无索引查询速度提升高达49%,时间序列批量插入吞吐量提升近三倍。此外,该版本还为可查询加密功能添加了子字符串支持,这是一种客户端加密技术,可以在不解密的情况下对加密数据运行查询。
Q3:AI嵌入模型在MongoDB中起什么作用?
A:AI嵌入是数据的数值表示或向量,以计算机能理解和比较的形式捕获各种数据的含义和上下文。通过收购Voyage AI获得的嵌入和重排序模型,增强了MongoDB向大语言模型提供高上下文、领域优化数据的能力,这对AI模型理解语义含义、执行相似性搜索和支持推荐系统至关重要。
好文章,需要你的鼓励
这项由索非亚大学INSAIT和苏黎世联邦理工学院共同完成的研究,揭示了大语言模型在数学定理证明中普遍存在的"迎合性"问题。研究团队构建了BrokenMath基准测试集,包含504道精心设计的错误数学命题,用于评估主流AI模型能否识别并纠正错误陈述。
约翰斯·霍普金斯大学研究团队提出了创新的隐私保护AI文本生成方法,通过"控制代码"系统指导AI生成虚假敏感信息来替代真实数据。该方法采用"藏身于众"策略,在医疗法律等敏感领域测试中实现了接近零的隐私泄露率,同时保持了高质量的文本生成效果,为高风险领域的AI应用提供了实用的隐私保护解决方案。
实验室和真实使用测试显示,iPhone Air电池续航能够满足一整天的典型使用需求。在CNET进行的三小时视频流媒体压力测试中,iPhone Air仅消耗15%电量,表现与iPhone 15相当。在45分钟高强度使用测试中表现稍逊,但在实际日常使用场景下,用户反馈iPhone Air能够稳定支撑全天使用,有线充电速度也比较理想。
这项由Reactive AI提出的稀疏查询注意力机制通过减少查询头数量而非键值头数量,直接降低了注意力层的计算复杂度,实现了2-3倍的训练和编码加速。该方法在长序列处理中表现出色,在20万词汇序列上达到3.5倍加速,且模型质量损失微乎其微,为计算密集型AI应用提供了新的优化路径。