Anthropic 今天推出了两大新功能:研究工具和 Google Workspace 集成。
该公司今天宣布,Claude 现在可以直接连接到您的 Gmail、Google Calendar 和 Documents,将这款 AI 助手转变为 Anthropic 所称的 “您前线的工作场所助手”。现在,Claude 能够为您自动整理上周的会议记录、识别跟进邮件中的行动项,并在相关文档中搜索额外的上下文信息,从而省却您手动查找大量邮件、日历邀请和文档的烦恼 —— 这使得 Claude 成为 Microsoft 的 Copilot 以及其他类似工作场所 AI 助手的直接竞争对手。
此外,Claude 新推出的研究功能将彻底改变“Claude 查找信息和进行推理的方式”。这一功能发布是在 OpenAI 和 Google 分别推出其名为 Deep Research 的类似工具几个月后面世的(我还注意到这可能是在公司推出新的 200 美元套餐之后推出的!)。与传统的 AI 搜索功能仅执行一次查询不同,Claude 现以“代理方式”运行 —— 用户向聊天机器人提交查询后,Claude 会执行“一系列互相衔接的多次搜索”,并附带引用以便您自行验证信息的准确性。
Anthropic 产品执行官 Scott White 向 The Verge 表示,公司希望新研究功能每次查询所耗时能够稳定在一到五分钟之间。“当您遇到需要解决的问题时,可以直接与 Claude 协作,而无须打断您的工作流程,”White 说。
目前,研究功能已面向美国、日本和巴西的 Max、Team 以及 Enterprise 计划用户以早期内部测试版形式开放。而 Google Workspace 集成功能作为 Beta 版向所有付费用户开放,不过 Team 和 Enterprise 计划的管理员须先在公司范围内启用 Google Workspace 访问权限,然后个别用户才能连接其账户。当被问及是否会将研究功能推广到低级订阅中时,White 表示,公司“非常期待未来能让更多人使用这项功能”,并且用户应很快看到其在每月 20 美元的 Pro 套餐中的身影。
对于 Enterprise 客户而言,Anthropic 还在推出 “Google Drive 分类” 功能,该功能利用检索增强生成 (RAG) 技术来改进文档搜索效果。它能自动检索您全部的文档收藏,因此在您的查询可能涉及那些早已被遗忘文档中的信息时,它会显得尤为有用。
当聊天机器人同时从互联网上以及您个人工作场所中检索信息时,存在两大主要问题:幻觉和隐私。由于这些系统基于概率模型,它们可能无法准确理清处理一系列复杂输入(也就是您的文档和整个互联网)时的关联 —— 可能会混淆公司名称、编造完全虚假的信息,甚至提供错误的数字。“我们鼓励用户始终检查引用,仔细阅读并确保所呈现的信息是准确无误的,”White 在被问及幻觉问题时表示。
至于隐私问题,已有研究表明 AI 代理特别容易受到提示注入攻击(例如,指示 AI 将所有与 Chase Bank 相关的邮件转发给恶意行为者)。当被问及 Anthropic 如何应对这项技术所带来的安全隐患时,White 表示他无法透露具体细节,但他强调“我们保留用户级身份验证”,这意味着 Claude 只能访问您通过登录授权的文档。
Anthropic 在新闻稿中表示,这仅仅是“重新定义您与 Claude 合作方式的激动人心更新的开始”,未来几周内公司还计划扩展“可访问的上下文范围及报表深度”。
好文章,需要你的鼓励
这项研究介绍了VisCoder,一个经过专门微调的大语言模型,用于生成可执行的Python可视化代码。研究团队创建了包含20万样本的VisCode-200K数据集,结合了可执行代码示例和多轮修正对话。在PandasPlotBench基准测试中,VisCoder显著优于同等规模的开源模型,甚至在某些方面超越了GPT-4o-mini。研究还引入了自我调试评估模式,证明了反馈驱动学习对提高代码可执行性和视觉准确性的重要性。
这项研究提出了"适应再连续学习"(ACL)框架,一种创新的方法解决预训练模型在连续学习中的稳定性-可塑性困境。通过在学习新任务前先对模型进行适应性调整,ACL使模型既能更好地学习新知识(提高可塑性),又能保留已有知识(维持稳定性)。实验证明,该框架能显著提升各种连续学习方法的性能,为解决人工智能系统中的"灾难性遗忘"问题提供了有效途径。
这篇研究首次关注了CLIP模型文本编码器的对抗鲁棒性问题,提出了LEAF方法(Levenshtein高效对抗性微调)来增强文本编码器的稳健性。实验表明,LEAF显著提高了模型在面对文本扰动时的性能,在AG-News数据集上将对抗准确率从44.5%提升至63.3%。当集成到Stable Diffusion等文本到图像生成模型中时,LEAF显著提高了对抗噪声下的生成质量;在多模态检索任务中,它平均提高了10个百分点的召回率。此外,LEAF还增强了模型的可解释性,使文本嵌入的反演更加准确。
BenchHub是由韩国KAIST和Yonsei大学研究团队开发的统一评估平台,整合了38个基准中的30万个问题,按技能、学科和目标类型进行精细分类。研究显示现有评估基准存在领域分布偏差,而BenchHub通过自动分类系统和用户友好界面,让用户能根据特定需求筛选评估数据。实验证明模型在不同领域的排名差异巨大,强调了定制化评估的重要性。该平台支持多语言扩展和领域特化,为研究人员和开发者提供了灵活评估大语言模型的强大工具。