又一周过去,又一个新的 AI 模型面向公众发布。这次是 Anthropic 推出的 Claude 3.7 Sonnet。该公司将其最新发布的产品描述为市场上首个"混合推理模型",这意味着新版 Claude 既可以几乎瞬间回答问题,也可以花时间逐步思考解决问题。作为用户,你可以通过下拉菜单选择想要 Claude 采用的"思考模式"来决定其处理方式。
Anthropic 表示:"我们开发 Claude 3.7 Sonnet 的理念与市场上其他推理模型不同。正如人类使用同一个大脑既能快速响应又能深度思考,我们认为推理能力应该是前沿模型的一项集成功能,而不是一个完全独立的模型。这种统一的方法也为用户创造了更流畅的使用体验。"
虽然 Anthropic 没有明确点名 OpenAI,但显然是在暗指这个竞争对手。在 GPT-4、o1、o1-mini 和现在的 o3-mini 之间,OpenAI 提供了多个不同的模型,但除非你密切关注该公司,否则这么多系统会让人感到困惑。事实上,Sam Altman 最近也承认了这一点。他本月早些时候在 X 平台上发帖说:"我们和你一样讨厌模型选择器,希望能回归到统一的智能系统。"
Anthropic 表示,他们在开发 Claude 的推理能力时也采取了不同的方法。"我们在数学和计算机科学竞赛问题上的优化相对较少,转而更关注企业实际使用大语言模型的真实场景任务,"该公司写道。就此而言,当前的 Claude 用户可以期待"在编程和前端网页开发方面有特别显著的改进。"
Claude 3.7 Sonnet 从今天开始在所有 Claude 计划中可用,包括 Anthropic 的免费版本。同时,开发者可以通过该公司的 API、Amazon Bedrock 和 Google Cloud 的 Vertex AI 访问新模型。
说到开发者,Anthropic 还推出了 Claude Code,这是一个新的"代理式"工具,允许你直接从终端界面将编码任务委托给 Claude。目前作为有限的研究预览版提供,Anthropic 表示 Claude Code 可以读取代码、编辑文件、编写和运行测试,甚至可以向 GitHub 推送提交。
好文章,需要你的鼓励
Docker公司通过增强的compose框架和新基础设施工具,将自己定位为AI智能体开发的核心编排平台。该平台在compose规范中新增"models"元素,允许开发者在同一YAML文件中定义AI智能体、大语言模型和工具。支持LangGraph、CrewAI等多个AI框架,提供Docker Offload服务访问NVIDIA L4 GPU,并与谷歌云、微软Azure建立合作。通过MCP网关提供企业级安全隔离,解决了企业AI项目从概念验证到生产部署的断层问题。
哈佛大学研究团队开发出LangSplatV2系统,实现了超高速3D语言查询功能。该系统通过创新的稀疏编码技术和高效渲染算法,将3D场景语言理解速度提升了47倍,达到每秒384帧的实时处理能力。系统采用全局语义字典和稀疏系数表示,彻底解决了传统方法中解码器速度瓶颈问题,为AR/VR、智能机器人等应用提供了强大的技术基础。
马斯克的AI女友"Ani"引爆全球,腾讯RLVER框架突破情感理解边界:AI下半场竞争核心已转向对人性的精准把握。当技术学会共情,虚拟陪伴不再停留于脚本应答,而是通过"心与心的循环"真正理解人类孤独——这背后是强化学习算法与思考模式的化学反应,让AI从解决问题转向拥抱情感。
马里兰大学研究团队提出了CoLa(Chain-of-Layers)方法,让AI模型能够根据任务难度动态调整内部层的使用策略,实现"快思考"和"慢思考"的灵活切换。通过蒙特卡洛树搜索算法,该方法在推理任务上显著提升了模型的准确性和效率,为75%的正确答案找到了更短的处理路径,并纠正了60%的错误答案,为AI模型的架构优化开辟了新方向。