Together Computer Inc. 今天推出了其 Fine-Tuning Platform(微调平台)的一项重大更新,旨在让开发者能够以更低廉且便捷的方式,随着时间的推移调整开源大语言模型。
这家以 Together AI 名义运营的初创公司经营着一个针对 AI 模型开发优化的公有云。新增功能支持在浏览器内进行微调,从而无需安装 Python 软件开发工具包或调用应用程序接口。
公司还新增了对直接偏好优化微调的支持,以及通过单个命令从先前运行结果中启动微调作业的功能。同时,其也调整了定价以降低训练成本。
Together AI 表示,这些更新反映了他们的信念: AI 模型不应是静态的,而应与所服务的应用程序共同进化。基于浏览器的界面允许开发者在无需编写任何代码的情况下启动微调作业。此前,这类任务需要额外的设置和专业技能。开发者可以上传数据集、定义训练参数并跟踪实验,从而降低持续微调的门槛。
Together AI 的微调产品负责人 Anirudh Jain 表示:“虽然质量上没有固有提升,因为底层方法与通过 API 进行微调完全相同,但基于浏览器的流程消除了脚本编写的需要,并将整个过程简化为直观的无代码体验。这使得非技术用户也能轻松进行微调,并比手动使用 API 的方法节省大约 50% 的时间。”他还指出,Python SDK 和 API 仍然可用,但并非必需。
Preference-based training 直接偏好优化是一种利用偏好数据训练语言模型的方法,在这种方法中,模型会针对同一提示同时展示一个较优响应与一个较差响应。模型不再仅仅模仿固定答案,而是通过对比损失函数,根据人类反馈学习偏好某些响应。该方法教会模型在其表示空间中将相似内容拉近距离,而将不相似内容推远。
Jain 说:“监督微调(SFT)帮助模型学会应说什么,而直接偏好优化(DPO)则教会模型不该说什么。”在使用标注的输入/输出对时,通常采用监督微调,而当训练数据包含来自人工评分者或 A/B 测试的偏好信息时,则采用 DPO。
与传统的强化学习技术不同,DPO 无需额外构建单独的奖励模型,因此其实现更为简单、迅速且稳定。开发者可以微调模型,使其更加符合用户与应用程序交互的方式,从而提升准确性和可信度。
持续训练允许开发者从先前训练的模型检查点继续进行微调。此功能对于随着时间的推移不断完善模型,或运行结合指令微调与偏好优化等方法的多阶段训练工作流非常有用。调用方式是通过引用先前训练作业的任务 ID,并从上一次任务结束后继续构建。
Jain 表示:“这大幅提升了效率和成本效益,使得模型迭代和改进的速度更快。”
平台的另一个改进允许开发者为对话数据中的消息分配不同权重,从而在不将其完全从训练上下文中移除的前提下,对某些响应进行降低优先级或忽略。同时,全新的余弦学习率调度器为训练动态提供了更大的灵活性和更精细的控制。
公司表示,对平台数据预处理引擎的更新已使大规模训练任务的性能提高最多达 32%,而小规模任务提高约 17%。
为了帮助小团队及独立开发者更便捷地尝试定制的大语言模型,Together AI 现还提供按需付费的定价模式,无最低消费限制。价格会根据模型大小和训练方法而有所不同。
目前,该平台支持对流行的开源模型进行微调,包括 Llama 3、Gemma 和 DeepSeek-R1 变体。公司表示未来计划支持更大规模的模型,如 Llama 4 及未来的 DeepSeek 版本。
好文章,需要你的鼓励
OpenAI CEO描绘了AI温和变革人类生活的愿景,但现实可能更复杂。AI发展将带来真正收益,但也会造成社会错位。随着AI系统日益影响知识获取和信念形成,共同认知基础面临分裂风险。个性化算法加剧信息茧房,民主对话变得困难。我们需要学会在认知群岛化的新地形中智慧生存,建立基于共同责任而非意识形态纯洁性的社区。
杜克大学等机构研究团队通过三种互补方法分析了大语言模型推理过程,发现存在"思维锚点"现象——某些关键句子对整个推理过程具有决定性影响。研究表明,计划生成和错误检查等高层次句子比具体计算步骤更重要,推理模型还进化出专门的注意力机制来跟踪这些关键节点。该发现为AI可解释性和安全性研究提供了新工具和视角。
传统数据中心基础设施虽然对企业至关重要,但也是预算和房地产的重大负担。模块化数据中心正成为强有力的替代方案,解决企业面临的运营、财务和环境复杂性问题。这种模块化方法在印度日益流行,有助于解决环境问题、满足人工智能的电力需求、降低成本并支持新一代分布式应用。相比传统建设需要数年时间,工厂预制的模块化数据中心基础设施可在数周内部署完成。
法国索邦大学团队开发出智能医学文献管理系统Biomed-Enriched,通过AI自动从PubMed数据库中识别和提取高质量临床案例及教育内容。该系统采用两步注释策略,先用大型AI模型评估40万段落质量,再训练小型模型处理全库1.33亿段落。实验显示该方法仅用三分之一训练数据即可达到传统方法效果,为医学AI发展提供了高效可持续的解决方案。