向量数据库初创公司 Pinecone 推出了 Pinecone Assistant,这是一个 AI 代理构建 API 服务,旨在加速 RAG 开发。
大型和小型生成式 AI 语言模型 (大语言模型) 通过查找请求与数学编码表示的项目多个方面或维度之间的相似性来生成响应,这些编码表示被称为向量嵌入。这些向量嵌入存储在具有搜索功能的数据库中。AI 代理用于对文本输入提供自动智能响应,并可以调用大语言模型来完成工作。大语言模型为代理提供自然语言处理能力,使其能够以类人方式与用户交互,理解复杂查询并生成详细响应。Pinecone Assistant 就是为构建这样的 AI 代理而设计的。
该公司表示:"Pinecone Assistant 是一个 API 服务,旨在精确且便捷地为基于聊天和代理的应用提供支持。" 该公司声称它抽象化了构建检索增强生成 (RAG) 应用所需的分块、嵌入、文件存储、查询规划、向量搜索、模型编排、重排序等步骤。
Pinecone Assistant 包括:
- 通过新的聊天和上下文 API 为代理应用优化的接口 - 可根据特定用例或要求定制助手行为和响应的自定义指令 - 新的输入和输出格式,现支持 JSON、.md、.docx、PDF 和 .txt 文件 - 可选择在欧盟或美国构建的区域控制
它提供了评估 API 和聊天 API,"通过简单的步骤提供带有引用的结构化、有据可依的响应。它支持流式和批处理模式,允许实时呈现引用或将其添加到最终输出中。"
还有一个上下文 API,可以提供结构化上下文 (即与输入查询最相关的数据集合),以扩展块的形式呈现,包含相关性分数和引用。Pinecone 表示,这使其成为代理工作流的强大工具,提供必要的上下文来验证源数据,防止幻觉,并识别最相关的数据以生成精确、可靠的响应。
上下文 API 可与客户首选的大语言模型一起使用,与其他数据源组合,或作为核心知识层集成到代理工作流中。
Pinecone Assistant 包括元数据过滤器,可按用户、组或类别限制向量搜索,还包括自定义指令,用户可以通过提供简短描述或指令来定制响应。例如,您可以将助手设置为法律专家以提供权威答案,或作为客户支持代理进行故障排除和用户协助。
它采用无服务器架构,具有直观的界面和内置的评估和基准测试框架。Pinecone 表示,只需"通过简单的 API 上传原始文件"即可轻松上手,并且可以快速实验和迭代。
Pinecone 在其基准测试中估计,Pinecone Assistant 的结果准确率比 OpenAI 助手高出最多 12%。
Pinecone Assistant 现已在美国和欧盟对所有用户全面开放,更多信息可在此处获取。它由 Pinecone 的全托管向量数据库提供支持。该公司表示,客户数据在静态和传输过程中都会加密,从不用于训练,并可随时永久删除。
好文章,需要你的鼓励
铠侠正在测试最新的UFS v4.1嵌入式闪存芯片,专为智能手机和平板电脑设计,可提供更快的下载速度和更流畅的设备端AI应用性能。该芯片采用218层TLC 3D NAND技术,提供256GB、512GB和1TB容量选择。相比v4.0产品,随机写入性能提升约30%,随机读取性能提升35-45%,同时功耗效率改善15-20%。新标准还增加了主机发起碎片整理、增强异常处理等功能特性。
上海AI实验室团队提出创新的异步拍摄方案,仅用普通相机就能实现高速4D重建。该方法通过错开相机启动时间将有效帧率从25FPS提升至100-200FPS,并结合视频扩散模型修复稀疏视角导致的重建伪影。实验结果显示,新方法在处理快速运动场景时显著优于现有技术,为低成本高质量4D内容创作开辟新路径。
谷歌在伦敦云峰会上发布Firebase Studio更新,新增Gemini命令行界面集成、模型上下文协议支持和"代理模式"。代理模式提供三种AI协作层次:对话式"询问"模式用于头脑风暴,人机协作代理需开发者确认代码变更,以及几乎完全自主的代理模式。尽管谷歌声称已有数百万应用使用该平台,但目前仍需精心设计提示词,非工程师用户还无法直接创建成熟应用。
上海AI实验室联手复旦大学提出了POLAR方法,这是一种革命性的奖励模型训练技术。通过让AI学会识别不同策略间的差异而非死记评分标准,POLAR在多项任务上实现了显著提升,7B参数模型超越72B现有最强基线,为AI对齐问题提供了全新解决思路。