据英国《金融时报》今日报道,Google LLC 正在向 Anthropic PBC 投资超过 10 亿美元。
这笔资金是在 Google 已经向这家人工智能开发公司提供的 20 亿美元基础上追加的投资。另外,据悉 Anthropic 正在由 Lightspeed Venture Partners 领投的机构投资者团队那里筹集 20 亿美元。后者这笔交易预计将使公司估值达到 600 亿美元。
Anthropic 开发了一系列面向企业的大语言模型,名为 Claude。这些模型可以生成文本、编写软件代码并执行多种其他任务。Anthropic 通过应用程序接口 (API) 提供其大语言模型,使其能够集成到第三方软件中。
该公司在去年 6 月推出了其最强大的模型 Claude 3.5 Sonnet。Anthropic 声称该算法在多项推理任务中的表现优于 OpenAI 的通用型 GPT-4 模型。Claude 3.5 Sonnet 还可以代表用户在商业应用程序中执行操作。
在本周的《华尔街日报》活动中,Anthropic 首席执行官 Dario Amodei 分享了该公司 AI 路线图的新细节。他详细说明了 Anthropic 计划为其大语言模型增加网页浏览能力,并在不同项目中记住用户偏好。此外,Anthropic 将提高其 API 的速率限制,让开发者能够向其大语言模型发送更多提示。
据 Amodei 表示,Anthropic 限制 API 使用部分原因是其后端基础设施难以满足需求。该公司目前正在升级这些基础设施。据报道来自 Google 的 10 亿美元投资可能会让 Anthropic 更容易购买更多 AI 硬件。
去年 11 月,这家大语言模型开发商从 Amazon.com Inc. 筹集了 40 亿美元融资。作为合作的一部分,Anthropic 将使用 Amazon Web Services Inc. 的定制 AWS Trainium 芯片来训练未来的基础模型。目前尚不清楚来自 Google 的投资是否会让 Anthropic 增加使用这家搜索巨头的竞争性公共云来支持大语言模型项目。
上个月,AWS 详细介绍了正在与 Anthropic 合作建设一个名为 Project Rainier 的 AI 超级计算机。该系统将包含数十万个 Trainium 芯片。一旦投入使用,预计将提供比 Anthropic 用于训练其当前旗舰大语言模型的集群多出五倍的计算能力。
除了升级基础设施外,Anthropic 计划更直接地与 OpenAI 不断扩大的推理优化大语言模型阵容展开竞争。在本周的《华尔街日报》活动中,Amodei 表示该公司正在开发可以处理更复杂任务的新模型。他暗示 Anthropic 并非只专注于构建推理型大语言模型,而是计划为通用模型配备更好的问题解决能力。
好文章,需要你的鼓励
多伦多大学研究团队提出Squeeze3D压缩框架,巧妙利用3D生成模型的隐含压缩能力,通过训练映射网络桥接编码器与生成器的潜在空间,实现了极致的3D数据压缩。该技术对纹理网格、点云和辐射场分别达到2187倍、55倍和619倍的压缩比,同时保持高视觉质量,且无需针对特定对象训练网络,为3D内容传输和存储提供了革命性解决方案。
浙江大学与腾讯联合研究团队提出MoA异构适配器混合方法,通过整合不同类型的参数高效微调技术,解决了传统同质化专家混合方法中的表征坍塌和负载不均衡问题。该方法在数学和常识推理任务上显著优于现有方法,同时大幅降低训练参数和计算成本,为大模型高效微调提供了新的技术路径。
耶鲁、哥大等四校联合研发的RKEFino1模型,通过在Fino1基础上注入XBRL、CDM、MOF三大监管框架知识,显著提升了AI在数字监管报告任务中的表现。该模型在知识问答准确率提升超过一倍,数学推理能力从56.87%提升至70.69%,并在新颖的数值实体识别任务中展现良好潜力,为金融AI合规应用开辟新路径。
加州大学圣巴巴拉分校研究团队开发出能够自我进化的AI智能体,通过《卡坦岛拓荒者》桌游测试,这些AI能在游戏过程中自主修改策略和代码。实验显示,具备自我进化能力的AI显著超越静态版本,其中Claude 3.7模型性能提升达95%。研究验证了AI从被动工具向主动伙伴转变的可能性,为复杂决策场景中的AI应用开辟新路径。