MongoDB公司今日宣布,其此前仅在Atlas云平台上提供的搜索和向量搜索功能,现已面向自管理部署开放,包括MongoDB社区版和MongoDB企业服务器版。
这一功能为数百万在本地和本地部署环境中工作的开发者提供了先进的人工智能构建工具。目前该功能处于公开预览阶段,使开发者能够在不依赖第三方搜索引擎或向量数据库的情况下测试和构建AI驱动的应用程序。该功能在MongoDB架构中原生嵌入了全文、语义和混合搜索能力。
MongoDB核心产品高级副总裁兼负责人Ben Cefalo表示:"这与我们在Atlas内部构建的技术完全相同。这很重要,因为我们希望您构建的应用程序无论是在自己的数据中心还是在Atlas上运行,都能以相同的方式响应。"
过去,实现这些功能通常需要外挂外部系统,这可能会导致同步问题、增加运营开销和成本。现在,开发者可以运行结合关键词和向量搜索的混合查询,在本地管理聊天消息、文档和视频等非结构化数据,并构建具有持久记忆的智能体AI系统。
MongoDB表示,随着AI智能体在软件开发中变得越来越重要,数据库正在从被动存储系统演变为智能记忆引擎。Cefalo说:"大语言模型提供推理能力,但是数据库才是给智能体真正力量、记忆和状态的关键。"
**8.2版本首次亮相**
除了新功能外,MongoDB还推出了MongoDB 8.2版本,据供应商称,该版本带来了显著的性能改进,包括无索引查询速度提升高达49%,时间序列批量插入吞吐量提升近三倍。此次更新还为MongoDB的可查询加密功能添加了子字符串支持,这是一种客户端技术,可在敏感数据到达数据库之前对其进行加密,并允许在加密数据上运行表达式查询而无需解密。
Cefalo表示:"如果您无法信任您的数据库,这些都没有意义。我们拥有经过实战验证的基础,多年来企业应用在性能、可用性和安全性方面的应用经验为我们提供了坚实支撑。"
收购在MongoDB的AI推进中发挥了重要作用。今年早些时候收购Voyage AI公司为平台带来了一套嵌入和重排序模型,增强了平台向大语言模型提供高上下文、领域优化数据的能力。AI嵌入是数据的数值表示或向量,以计算机能够理解和比较的形式捕获各种类型数据的含义和上下文。它们对于使AI模型理解语义含义、执行相似性搜索和支持推荐系统至关重要。
Cefalo说:"优秀的嵌入模型与卓越的嵌入模型之间的差别,就像您从梦中醒来后的模糊回忆与您对人生最重要事件的清晰、生动记忆之间的差别。"
MongoDB声称超过75%的财富100强公司都是其客户,包括全球10大银行中的7家和15大汽车制造商中的13家。
Q&A
Q1:MongoDB新推出的混合搜索功能有什么优势?
A:MongoDB的混合搜索功能现在可以在本地和自管理部署环境中使用,使开发者能够在不依赖第三方搜索引擎或向量数据库的情况下构建AI应用程序。该功能原生嵌入了全文、语义和混合搜索能力,避免了外挂外部系统可能导致的同步问题、运营开销和额外成本。
Q2:MongoDB 8.2版本有哪些性能提升?
A:MongoDB 8.2版本带来了显著的性能改进,包括无索引查询速度提升高达49%,时间序列批量插入吞吐量提升近三倍。此外,该版本还为可查询加密功能添加了子字符串支持,这是一种客户端加密技术,可以在不解密的情况下对加密数据运行查询。
Q3:AI嵌入模型在MongoDB中起什么作用?
A:AI嵌入是数据的数值表示或向量,以计算机能理解和比较的形式捕获各种数据的含义和上下文。通过收购Voyage AI获得的嵌入和重排序模型,增强了MongoDB向大语言模型提供高上下文、领域优化数据的能力,这对AI模型理解语义含义、执行相似性搜索和支持推荐系统至关重要。
好文章,需要你的鼓励
PDF协会在欧洲会议上宣布,将在PDF规范中添加对JPEG XL图像格式的支持。尽管Chromium团队此前将该格式标记为过时,但此次纳入可能为JXL带来主流应用机会。PDF协会CTO表示,选择JPEG XL作为支持HDR内容的首选解决方案。该格式具备广色域、超高分辨率和多通道支持等优势,但目前仍缺乏广泛的浏览器支持。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
Ironclad OS项目正在开发一个新的类Unix操作系统内核,面向小型嵌入式系统,计划支持实时功能。该项目的独特之处在于采用Ada编程语言及其可形式化验证的SPARK子集进行开发,而非常见的C、C++或Rust语言。项目还包含运行在Ironclad内核上的完整操作系统Gloire,使用GNU工具构建以提供传统Unix兼容性。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。