据《连线》杂志报道,Anthropic已经撤销了OpenAI对其Claude系列AI模型的访问权限。
消息人士向《连线》透露,OpenAI一直在将Claude连接到内部工具,这使得该公司能够在编程、写作和安全等类别中将Claude的性能与自家模型进行比较。
TechCrunch已联系Anthropic寻求评论。在给《连线》的声明中,Anthropic发言人表示:"OpenAI的技术人员在GPT-5发布前也在使用我们的编程工具,这明显违反了我们的服务条款。"(Anthropic的商业条款禁止公司使用Claude来构建竞争服务。)
不过,Anthropic也表示将继续为OpenAI提供"基准测试和安全评估"方面的访问权限。
与此同时,OpenAI发言人在自己的声明中将其使用行为描述为"行业标准",并补充说:"虽然我们尊重Anthropic切断我们API访问的决定,但考虑到我们的API仍然对他们开放,这令人失望。"
Anthropic高管此前已经表现出对向竞争对手提供访问权限的抗拒态度,首席科学官贾里德·卡普兰此前曾为公司切断Windsurf(传闻中OpenAI的收购目标,后被Cognition收购)访问权限的决定辩护,他说:"我认为我们向OpenAI出售Claude会很奇怪。"
Q&A
Q1:为什么Anthropic要切断OpenAI对Claude模型的访问?
A:因为OpenAI违反了Anthropic的服务条款。OpenAI将Claude连接到内部工具来与自家模型进行性能比较,并且其技术人员在GPT-5发布前使用了Anthropic的编程工具。Anthropic的商业条款明确禁止公司使用Claude来构建竞争服务。
Q2:Anthropic完全禁止OpenAI访问Claude模型了吗?
A:不是完全禁止。虽然Anthropic撤销了OpenAI的常规API访问权限,但表示将继续为OpenAI提供"基准测试和安全评估"方面的访问权限,这说明在某些特定用途上仍然保持合作。
Q3:OpenAI对被切断访问权限有什么回应?
A:OpenAI发言人将其使用Claude的行为描述为"行业标准"做法,并表示虽然尊重Anthropic的决定,但感到失望,特别是考虑到OpenAI的API仍然对Anthropic开放,这种单方面切断访问的做法让他们觉得不公平。
好文章,需要你的鼓励
苏州大学研究团队提出"语境降噪训练"新方法,通过"综合梯度分数"识别长文本中的关键信息,在训练时强化重要内容、抑制干扰噪音。该技术让80亿参数的开源模型在长文本任务上达到GPT-4o水平,训练效率比传统方法高出40多倍。研究解决了AI处理长文档时容易被无关信息干扰的核心问题,为文档分析、法律研究等应用提供重要突破。
在Cloudera的“价值观”中,企业智能化的根基可以被概括为两个字:“源”与“治”——让数据有源,智能可治。
清华大学团队首次揭示了困扰AI训练领域超过两年的"幽灵故障"根本原因:Flash Attention在BF16精度下训练时会因数字舍入偏差与低秩矩阵结构的交互作用导致训练崩溃。研究团队通过深入分析发现问题源于注意力权重为1时的系统性舍入误差累积,并提出了动态最大值调整的解决方案,成功稳定了训练过程。这项研究不仅解决了实际工程问题,更为分析类似数值稳定性挑战提供了重要方法论。