Together Computer Inc. 今天推出了其 Fine-Tuning Platform(微调平台)的一项重大更新,旨在让开发者能够以更低廉且便捷的方式,随着时间的推移调整开源大语言模型。
这家以 Together AI 名义运营的初创公司经营着一个针对 AI 模型开发优化的公有云。新增功能支持在浏览器内进行微调,从而无需安装 Python 软件开发工具包或调用应用程序接口。
公司还新增了对直接偏好优化微调的支持,以及通过单个命令从先前运行结果中启动微调作业的功能。同时,其也调整了定价以降低训练成本。
Together AI 表示,这些更新反映了他们的信念: AI 模型不应是静态的,而应与所服务的应用程序共同进化。基于浏览器的界面允许开发者在无需编写任何代码的情况下启动微调作业。此前,这类任务需要额外的设置和专业技能。开发者可以上传数据集、定义训练参数并跟踪实验,从而降低持续微调的门槛。
Together AI 的微调产品负责人 Anirudh Jain 表示:“虽然质量上没有固有提升,因为底层方法与通过 API 进行微调完全相同,但基于浏览器的流程消除了脚本编写的需要,并将整个过程简化为直观的无代码体验。这使得非技术用户也能轻松进行微调,并比手动使用 API 的方法节省大约 50% 的时间。”他还指出,Python SDK 和 API 仍然可用,但并非必需。
Preference-based training 直接偏好优化是一种利用偏好数据训练语言模型的方法,在这种方法中,模型会针对同一提示同时展示一个较优响应与一个较差响应。模型不再仅仅模仿固定答案,而是通过对比损失函数,根据人类反馈学习偏好某些响应。该方法教会模型在其表示空间中将相似内容拉近距离,而将不相似内容推远。
Jain 说:“监督微调(SFT)帮助模型学会应说什么,而直接偏好优化(DPO)则教会模型不该说什么。”在使用标注的输入/输出对时,通常采用监督微调,而当训练数据包含来自人工评分者或 A/B 测试的偏好信息时,则采用 DPO。
与传统的强化学习技术不同,DPO 无需额外构建单独的奖励模型,因此其实现更为简单、迅速且稳定。开发者可以微调模型,使其更加符合用户与应用程序交互的方式,从而提升准确性和可信度。
持续训练允许开发者从先前训练的模型检查点继续进行微调。此功能对于随着时间的推移不断完善模型,或运行结合指令微调与偏好优化等方法的多阶段训练工作流非常有用。调用方式是通过引用先前训练作业的任务 ID,并从上一次任务结束后继续构建。
Jain 表示:“这大幅提升了效率和成本效益,使得模型迭代和改进的速度更快。”
平台的另一个改进允许开发者为对话数据中的消息分配不同权重,从而在不将其完全从训练上下文中移除的前提下,对某些响应进行降低优先级或忽略。同时,全新的余弦学习率调度器为训练动态提供了更大的灵活性和更精细的控制。
公司表示,对平台数据预处理引擎的更新已使大规模训练任务的性能提高最多达 32%,而小规模任务提高约 17%。
为了帮助小团队及独立开发者更便捷地尝试定制的大语言模型,Together AI 现还提供按需付费的定价模式,无最低消费限制。价格会根据模型大小和训练方法而有所不同。
目前,该平台支持对流行的开源模型进行微调,包括 Llama 3、Gemma 和 DeepSeek-R1 变体。公司表示未来计划支持更大规模的模型,如 Llama 4 及未来的 DeepSeek 版本。
好文章,需要你的鼓励
惠普企业(HPE)发布搭载英伟达Blackwell架构GPU的新服务器,抢占AI技术需求激增市场。IDC预测,搭载GPU的服务器年增长率将达46.7%,占总市场价值近50%。2025年服务器市场预计增长39.9%至2839亿美元。英伟达向微软等大型云服务商大量供应Blackwell GPU,每周部署约7.2万块,可能影响HPE服务器交付时间。HPE在全球服务器市场占13%份额。受美国出口限制影响,国际客户可能面临额外限制。新服务器将于2025年9月2日开始全球发货。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
安全专业协会ISACA面向全球近20万名认证安全专业人员推出AI安全管理高级认证(AAISM)。研究显示61%的安全专业人员担心生成式AI被威胁行为者利用。该认证涵盖AI治理与项目管理、风险管理、技术与控制三个领域,帮助网络安全专业人员掌握AI安全实施、政策制定和风险管控。申请者需持有CISM或CISSP认证。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。