又一周过去,又一个新的 AI 模型面向公众发布。这次是 Anthropic 推出的 Claude 3.7 Sonnet。该公司将其最新发布的产品描述为市场上首个"混合推理模型",这意味着新版 Claude 既可以几乎瞬间回答问题,也可以花时间逐步思考解决问题。作为用户,你可以通过下拉菜单选择想要 Claude 采用的"思考模式"来决定其处理方式。
Anthropic 表示:"我们开发 Claude 3.7 Sonnet 的理念与市场上其他推理模型不同。正如人类使用同一个大脑既能快速响应又能深度思考,我们认为推理能力应该是前沿模型的一项集成功能,而不是一个完全独立的模型。这种统一的方法也为用户创造了更流畅的使用体验。"
虽然 Anthropic 没有明确点名 OpenAI,但显然是在暗指这个竞争对手。在 GPT-4、o1、o1-mini 和现在的 o3-mini 之间,OpenAI 提供了多个不同的模型,但除非你密切关注该公司,否则这么多系统会让人感到困惑。事实上,Sam Altman 最近也承认了这一点。他本月早些时候在 X 平台上发帖说:"我们和你一样讨厌模型选择器,希望能回归到统一的智能系统。"
Anthropic 表示,他们在开发 Claude 的推理能力时也采取了不同的方法。"我们在数学和计算机科学竞赛问题上的优化相对较少,转而更关注企业实际使用大语言模型的真实场景任务,"该公司写道。就此而言,当前的 Claude 用户可以期待"在编程和前端网页开发方面有特别显著的改进。"
Claude 3.7 Sonnet 从今天开始在所有 Claude 计划中可用,包括 Anthropic 的免费版本。同时,开发者可以通过该公司的 API、Amazon Bedrock 和 Google Cloud 的 Vertex AI 访问新模型。
说到开发者,Anthropic 还推出了 Claude Code,这是一个新的"代理式"工具,允许你直接从终端界面将编码任务委托给 Claude。目前作为有限的研究预览版提供,Anthropic 表示 Claude Code 可以读取代码、编辑文件、编写和运行测试,甚至可以向 GitHub 推送提交。
好文章,需要你的鼓励
是德科技高级副总裁兼通信解决方案事业部总裁Kailash Narayanan现场指出,算力固然重要,但如果能耗过高,技术的实用性将大打折扣,因此,所有的高速、高性能计算,都必须在极低的功耗下实现,这是AI等技术能否大规模落地的核心前提。
DeepSeek-AI团队通过创新的软硬件协同设计,仅用2048张GPU训练出性能卓越的DeepSeek-V3大语言模型,挑战了AI训练需要海量资源的传统观念。该研究采用多头潜在注意力、专家混合架构、FP8低精度训练等技术,大幅提升内存效率和计算性能,为AI技术的民主化和可持续发展提供了新思路。
来自上海交通大学和浙江大学等机构的研究团队开发出首个AI"记忆操作系统"MemOS,解决了AI系统无法实现人类般持久记忆和学习的根本限制。该系统将记忆视为核心计算资源进行调度、共享和演化,在时间推理任务中相比OpenAI记忆系统性能提升159%。MemOS采用三层架构设计,通过标准化记忆单元实现跨平台记忆迁移,有望改变企业AI部署模式。
加拿大女王大学研究团队首次系统评估了大型视频语言模型的因果推理能力,发现即使最先进的AI在理解视频中事件因果关系方面表现极差,大多数模型准确率甚至低于随机猜测。研究创建了全球首个视频因果推理基准VCRBench,并提出了识别-推理分解法(RRD),通过任务分解显著提升了AI性能,最高改善幅度达25.2%。