Anthropic宣布将为Claude推出新的每周使用限制,以控制那些"24/7不间断在后台运行"AI编程工具Claude Code的订阅用户。Anthropic表示,这些限制也旨在阻止少数违反使用政策的用户共享账户和转售Claude Code访问权限。
这些新的使用限制将于8月28日对Anthropic的每月20美元Pro计划以及每月100美元和200美元Max计划的订阅者生效,公司周一通过邮件和X平台向订阅者发布了这一消息。
Anthropic表示,现有的每五小时重置一次的使用限制将继续保留。公司还将引入两项每七天重置一次的新周限制:一项是总体使用限制,另一项专门针对Anthropic最先进的AI模型Claude Opus 4。Anthropic表示,Max订阅用户可以按标准API费率购买超出限制的额外使用量。
此公告发布仅数周后,Anthropic悄悄为Claude Code引入了使用限制。当时公司表示已意识到这些问题,但拒绝进一步详述。虽然Anthropic的AI编程工具在开发者中大受欢迎,但公司似乎在广泛提供服务方面遇到困难。Anthropic的状态页面显示,过去一个月内Claude Code至少经历了七次部分或重大服务中断——可能是因为一些重度用户似乎不停地运行Claude Code。
"Claude Code自推出以来需求前所未有,"Anthropic发言人Amie Rotherham在给TechCrunch的电子邮件中谈到每周使用限制时表示。Rotherham指出"大多数用户不会注意到差异",但未提供关于订阅者现在应该期待多少使用量的具体细节。
公司指出,根据当前使用模式,这一限制将影响不到5%的订阅者。大多数Pro用户可以在每周限额内使用Sonnet 4约40至80小时,据Anthropic称。然而,Anthropic表示使用量可能因代码库大小和其他因素而异。
Anthropic此前曾表示在计算资源方面受到很大限制,这似乎是当今大多数AI模型提供商面临的情况。大多数AI公司都在竞相建立新的AI数据中心,以满足提供和训练AI模型的巨大需求。
多家AI编程工具提供商正在重新审视其产品的定价策略。6月,Cursor背后的公司Anysphere改变了其每月20美元Pro计划的使用定价方式,以限制重度用户滥用该计划。然而,Anysphere后来为沟通不当道歉,导致一些用户支付了超出预期的费用。另一家AI编程工具提供商Replit也在6月做出了类似的定价调整。
在给Claude订阅者的电子邮件中,Anthropic表示承诺"未来通过其他选项支持长时间运行的使用场景"。然而,公司声称这些使用限制将帮助他们在短期内广泛维持可靠的服务。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
延世大学研究团队通过分析AI推理过程中的信息密度模式,发现成功的AI推理遵循特定规律:局部信息分布平稳但全局可以不均匀。这一发现颠覆了传统的均匀信息密度假说在AI领域的应用,为构建更可靠的AI推理系统提供了新思路,在数学竞赛等高难度任务中显著提升了AI的推理准确率。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
蒙特利尔大学团队发现让AI"分段思考"的革命性方法Delethink,通过模仿人类推理模式将长篇思考分解为固定长度块,仅保留关键信息摘要。1.5B小模型击败传统大模型,训练成本降至四分之一,计算复杂度从平方级降为线性级,能处理十万词汇超长推理,为高效AI推理开辟新道路。