近日,HPE宣布推出HPE Swarm Learning解决方案,作为突破性的AI解决方案,其能够在不损害数据隐私的情况下共享和统一AI模型的学习成果,加速组织在边缘挖掘洞见。
HPE Swarm Learning由HPE的研发机构Hewlett Packard Labs开发,是业界第一个用于边缘和分布式站点且具有隐私保护能力的分布式机器学习框架。该解决方案为客户提供的容器使用HPE swarm API ,能够轻松地与AI模型集成,让用户可以在组织内部或是外部的行业同行间共享AI模型的学习成果,从而在不共享实际数据的条件下提升AI训练水准。
HPE HPC&AI执行副总裁兼总经理 Justin Hotard表示,“群体学习是一种全新的、强大的机器学习方法,已经用于应对诸多全球性的挑战,例如改善患者的医疗保健体验,以及提升异常检测水准来支持欺诈检测和预测性维护等。HPE此次通过提供企业级解决方案,将以一种有意义的方式为群体学习的利用做出贡献,该解决方案将加速组织在AI模型上的协作和创新,同时确保各个组织恪守自身的道德、数据隐私和治理标准。”
引入全新的AI方法,安全地利用边缘的洞见力
现在,大多数AI模型训练都是在一个中心位置进行,这依赖于集中合并的数据集。但由于必须将大量数据移回同一数据源,往往带来了效率低下和成本高昂的问题。同时,由于限制数据共享和移动的法律法规的限制,模型还可能存在偏差。而通过在边缘训练模型和利用洞见力,企业可以更快地做出决策,从而带来更好的体验和结果。 此外,不同组织通过在数据源上分享学习成果,可以让世界各地的各个行业联合起来,并进一步提高智能水平,从而带来巨大的商业价值和社会成果。
然而,外部的数据共享可能会给组织带来数据治理、监管或合规性的挑战,要求数据保留在原有位置。对此,HPE Swarm Learning独特地设计使组织能够在源头使用分布式数据,增加了训练数据集的规模,以构建机器学习模型进行公平地学习,同时满足了数据治理和隐私要求。为确保仅共享从边缘捕获的学习内容,而不是数据本身,HPE Swarm Learning使用区块链技术安全地加入用户,动态选举领导者并合并模型参数,从而为群体网络提供弹性和安全性。此外,通过仅共享学习成果,HPE Swarm Learning允许用户在不损害隐私的情况下利用大规模训练数据集,有助于消除偏差和提高模型的准确性。
“蜂拥而至”数据赋能人工智能,造福人类
HPE Swarm Learning可以促进组织协作并提升洞见力,例如:
? 医疗行业:医院的AI模型可以从影像记录、CT 、MRI扫描和基因数据中进行学习,并将学习成果共享给其他医院,在保护患者信息的前提下,提升诊断的准确性和治疗水平。
? 金融行业:通过与多个金融机构分享欺诈相关的AI模型学习成果,银行与其他金融服务组织可以应对——未来十年内全球损失预计超过4000亿美元的信用卡欺诈。
? 制造业:制造企业可以从预测性维护中受益,比如深入了解设备维修需求,并在发生故障和导致停机前解决问题。通过利用群体学习,维护人员可以从多个制造站点的传感器数据中收集学习成果来获得更好的洞见力。
完整的即用型机器学习开发解决方案
HPE同时宣布推出全新的HPE机器学习开发系统,以此帮助企业轻松构建和大规模训练机器学习模型,从而更快地实现价值。这一新系统专为人工智能打造,是一种端到端解决方案,集成了机器学习软件平台、计算、加速器和网络,可以更快、更大规模地开发和训练更准确的人工智能模型。
好文章,需要你的鼓励
这项研究由浙江大学、复旦大学等机构联合完成,提出了ReVisual-R1模型,通过创新的三阶段训练方法显著提升了多模态大语言模型的推理能力。研究发现优化的纯文本冷启动训练、解决强化学习中的梯度停滞问题、以及分阶段训练策略是关键因素。ReVisual-R1在各类推理基准测试中超越了现有开源模型,甚至在某些任务上超过了商业模型,为多模态推理研究开辟了新途径。
这项研究提出了一种名为"批评式微调"的创新方法,证明仅使用一个问题的批评数据就能显著提升大语言模型的推理能力。研究团队对Qwen和Llama系列模型进行实验,发现这种方法在数学和逻辑推理任务上都取得了显著提升,平均提高15-16个百分点,而且只需要强化学习方法1/20的计算资源。这种简单高效的方法为释放预训练模型的潜在推理能力提供了新途径。
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。