阿里巴巴集团旗下的云计算部门阿里云在农历新年之际发布了其最新突破性的人工智能大语言模型:Qwen 2.5-Max,声称其性能超越了当今最强大的 AI 模型。
在过去两周内,这是继 DeepSeek 的 R1 推理模型之后中国发布的第二个重要大语言模型。中国 AI 研究初创公司 DeepSeek 此前声称,R1 模型能够与美国公司开发的最强大模型相媲美,且训练成本仅为后者的一小部分,这一说法引起了广泛关注。
阿里云在博客文章中表示:"我们开发的 Qwen 2.5-Max 是一个大规模混合专家 LLM 模型,该模型已经在超过 20 万亿个 token 上进行了预训练,并通过精选的监督微调和基于人类反馈的强化学习方法进行了后续训练。"
混合专家模型 (MoE) 是一种大语言模型架构,它使用多个专门模型协同工作,根据特定的专业领域更高效地处理复杂任务。这就像一个 AI 模型团队,每个模型都在特定知识子类别中表现出色,它们共同合作,结合各自的训练来回答问题和完成任务。
据阿里巴巴称,使用这种技术的新 Qwen 模型在关键基准测试中超越了 DeepSeek-V3(该初创公司在去年 12 月底发布的最新非推理模型),包括 ArenaHard、LiveBench 和 MMLU-Pro。公司还声称其性能超过了 Anthropic 的 Claude 3.5 Sonnet、OpenAI 的 GPT-4 和 Meta 的 Llama 3.1-401B。
该架构还使公司能够以更小的资源消耗构建模型,仅需要 20 万亿个 token 进行训练。这使得模型部署时能够使用更少的资源,并以更高的效率运行。
阿里云表示:"数据和模型规模的扩展不仅展示了模型智能的进步,也反映了我们在开创性研究方面的坚定承诺。我们致力于通过创新应用规模化强化学习来增强大语言模型的思维和推理能力。"
与其他开源的 Qwen 模型不同,Qwen 2.5-Max 目前仍是闭源的。阿里巴巴通过阿里云提供了与 OpenAI API 兼容的应用程序接口,方便开发者集成。用户还可以通过类似 ChatGPT 的聊天机器人界面 Qwen Chat 访问该模型。
阿里巴巴最近在去年 8 月还发布了新的视觉语言模型 Qwen2-VL。该模型具有先进的视频理解能力,可以处理长达 20 分钟的高质量视频并回答相关内容的问题。
好文章,需要你的鼓励
研究人员基于Meta前首席AI科学家Yann LeCun提出的联合嵌入预测架构,开发了名为JETS的自监督时间序列基础模型。该模型能够处理不规则的可穿戴设备数据,通过学习预测缺失数据的含义而非数据本身,成功检测多种疾病。在高血压检测中AUROC达86.8%,心房扑动检测达70.5%。研究显示即使只有15%的参与者有标注医疗记录,该模型仍能有效利用85%的未标注数据进行训练,为利用不完整健康数据提供了新思路。
西湖大学等机构联合发布TwinFlow技术,通过创新的"双轨道"设计实现AI图像生成的革命性突破。该技术让原本需要40-100步的图像生成过程缩短到仅需1步,速度提升100倍且质量几乎无损。TwinFlow采用自我对抗机制,无需额外辅助模型,成功应用于200亿参数超大模型,在GenEval等标准测试中表现卓越,为实时AI图像生成应用开辟了广阔前景。
AI云基础设施提供商Coreweave今年经历了起伏。3月份IPO未达预期,10月收购Core Scientific计划因股东反对而搁浅。CEO Michael Intrator为公司表现辩护,称正在创建云计算新商业模式。面对股价波动和高负债质疑,他表示这是颠覆性创新的必然过程。公司从加密货币挖矿转型为AI基础设施提供商,与微软、OpenAI等巨头合作。对于AI行业循环投资批评,Intrator认为这是应对供需剧变的合作方式。
中山大学等机构联合开发的RealGen框架成功解决了AI生成图像的"塑料感"问题。该技术通过"探测器奖励"机制,让AI在躲避图像检测器识别的过程中学会制作更逼真照片。实验显示,RealGen在逼真度评测中大幅领先现有模型,在与真实照片对比中胜率接近50%,为AI图像生成技术带来重要突破。