OpenAI 终于为 ChatGPT 用户添加了一项期待已久的功能:引用内部知识源的能力。
在此测试期间,ChatGPT Team 付费用户可以直接将内部知识数据库连接到平台,引入公司特定信息。许多企业表示,这一功能将能够提供更好的问题解答。
这使用户能够对数据进行语义搜索,在回答中直接链接到内部资源,获取最相关和最新的上下文信息,并确保 ChatGPT 能够理解公司内部术语。
目前,ChatGPT Team 管理员可以将 Google Drive 连接到 ChatGPT。不过,OpenAI 的产品经理 Nate Gonzales 在 LinkedIn 上发文表示,团队"正在开发下一波连接器,目标是支持团队当前依赖的所有关键内部知识源"。这可能包括数据分析平台和客户关系管理系统 (CRM)。
Gonzales 说:"我最喜欢的一点是:随着时间推移,模型会学习你组织的独特语言,包括项目名称、缩写词和团队特定术语,同时遵守用户权限,确保响应建立在正确的上下文中。(在 OpenAI,我们都喜欢使用代号)"。
内部文档提升机构知识
通过连接内部知识库,ChatGPT Team 可能对那些已经在使用平台进行战略咨询或分析的用户变得更加不可或缺。查询公司和领域特定数据为用户对话提供了更多上下文,使 AI 聊天机器人更加实用。
毫不意外,许多拥有 AI 平台、聊天机器人、代理或应用程序的公司都将其专有的内部知识图谱作为差异化优势。这也是企业搜索成为企业 AI 领域新兴方向的原因。
像 Glean 这样的公司提供了使用 AI 在企业内部查找信息的方法。ServiceNow 收购 MoveWorks 就是为了增强其企业搜索能力。
OpenAI 已经允许用户直接从 Google Drive 或 Microsoft OneDrive 上传文档。Google 将 Gemini 的能力引入其 Workspace 产品,这意味着用户可以在文件中向模型询问有关工作的问题。Perplexity 也增加了使用内部文档作为数据源的功能。
控制和定制
OpenAI 表示,对于某些用户来说,数据源的控制方式会有所不同。
虽然只有管理员可以添加数据连接器,但小型团队的用户可以配置 ChatGPT 何时访问内部知识库以及访问哪些云盘。然而,对于较大的团队,需要管理员决定可以访问哪些共享的 Google Drive。
OpenAI 表示,对于许多常见的提示,ChatGPT 知道何时访问连接的数据源。用户仍可以在消息编辑器中选择"内部知识"。
该公司表示,ChatGPT "完全遵守现有的组织设置和权限",因此没有特定云盘或文档访问权限的用户无法强制 ChatGPT 读取这些内容。
好文章,需要你的鼓励
惠普企业(HPE)发布搭载英伟达Blackwell架构GPU的新服务器,抢占AI技术需求激增市场。IDC预测,搭载GPU的服务器年增长率将达46.7%,占总市场价值近50%。2025年服务器市场预计增长39.9%至2839亿美元。英伟达向微软等大型云服务商大量供应Blackwell GPU,每周部署约7.2万块,可能影响HPE服务器交付时间。HPE在全球服务器市场占13%份额。受美国出口限制影响,国际客户可能面临额外限制。新服务器将于2025年9月2日开始全球发货。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
安全专业协会ISACA面向全球近20万名认证安全专业人员推出AI安全管理高级认证(AAISM)。研究显示61%的安全专业人员担心生成式AI被威胁行为者利用。该认证涵盖AI治理与项目管理、风险管理、技术与控制三个领域,帮助网络安全专业人员掌握AI安全实施、政策制定和风险管控。申请者需持有CISM或CISSP认证。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。