中国科技公司阿里巴巴于周一发布了 Qwen 3 系列 AI 模型,该公司声称这些模型在某些情况下可以与 Google 和 OpenAI 提供的最佳模型媲美甚至超越它们。
大多数模型目前已经或将很快可通过 AI 开发平台 Hugging Face 和 GitHub 在 “open” 许可 下下载。它们的参数规模从 6 亿到 2350 亿不等。参数大致对应模型解决问题的能力,通常参数越多,模型的表现越好。
像 Qwen 这样由中国发展起来的模型系列的崛起,加大了对像 OpenAI 这样的美国实验室提供更强大 AI 技术的压力。同时,这也促使政策制定者实施限制措施,以限制中国 AI 公司获取训练模型所需芯片的能力。
据阿里巴巴介绍, Qwen 3 模型是 “混合式” 模型,这意味着它们既可以花费较长时间 “推理” 解决复杂问题,也可以快速响应简单请求。推理使得这些模型能够有效地自我核查,与 OpenAI 的 o3 等模型类似,但代价是较高的延迟。
Qwen 团队在博客中写道:“我们已将思考模式与非思考模式无缝整合,为用户提供了灵活的思考预算控制选项。此设计使用户能够更轻松地配置针对具体任务的预算。”
阿里巴巴表示, Qwen 3 模型支持 119 种语言,并在近 36 万亿个 Token 的数据集上进行了训练。Token 是模型处理的原始数据单位; 100 万个 Token 约等于 75 万个单词。阿里巴巴称, Qwen 3 的训练数据包括教科书、“question-answer pairs”、代码片段、 AI 生成的数据等多种内容。
阿里巴巴表示,这些改进以及其他优化大幅提升了 Qwen 3 相较于前作 Qwen 2 的性能。在编程比赛平台 Codeforces 上,最大的 Qwen 3 模型 —— Qwen-3-235B-A22B —— 刚刚超越了 OpenAI 的 o3-mini 与 Google 的 Gemini 2.5 Pro。Qwen-3-235B-A22B 在最新版本的 AIME (一个具有挑战性的数学基准测试)和 BFCL (一项评估模型 “推理” 问题能力的测试)中也超越了 o3-mini。
但 Qwen-3-235B-A22B 尚未公开发布 —— 至少目前还没有。
最大的公开 Qwen 3 模型 Qwen3-32B 仍与多种专有及开放的 AI 模型保持竞争优势,包括中国 AI 实验室 DeepSeek 的 R1。Qwen3-32B 在包括编码基准测试 LiveCodeBench 在内的多个测试中均超过了 OpenAI 的 o1 模型。
阿里巴巴表示, Qwen 3 在调用工具能力、遵循指令以及复制特定数据格式方面表现 “出色”。除了可供下载的模型外, Qwen 3 还可以通过云服务提供商 Fireworks AI 和 Hyperbolic 获得。
AI 云托管服务 Baseten 的联合创始人兼 CEO Tuhin Srivastava 表示, Qwen 3 是开放模型在追赶 OpenAI 等封闭系统趋势中的又一里程碑。
他在给 TechCrunch 的声明中表示:“美国正在加大对向中国销售芯片和从中国采购的限制,但像 Qwen 3 这样既先进又开放 [ … ] 的模型无疑将被国内使用。它反映出企业既在自主开发工具 [ as well as ] 也在通过 Anthropic 和 OpenAI 等封闭模型公司购买现成产品的现实。”
好文章,需要你的鼓励
上海交通大学研究团队开发出革命性AI癌症诊断系统,通过深度学习技术分析50万张细胞图像,实现94.2%的诊断准确率,诊断时间从30分钟缩短至2分钟。该系统不仅能识别多种癌症类型,还具备解释性功能,已在多家医院试点应用。研究成果发表于《Nature Communications》,展示了AI在精准医疗领域的巨大潜力。
南华理工大学等机构提出3DFlowAction方法,让机器人通过预测物体3D运动轨迹来学习操作技能。该研究创建了包含11万个实例的ManiFlow-110k数据集,构建了能预测三维光流的世界模型,实现了跨机器人平台的技能迁移。在四个复杂操作任务上成功率达70%,无需特定硬件训练即可在不同机器人上部署,为通用机器人操作技术发展开辟新路径。
这是首个系统性探索跨视角协作智能的综合性研究,由南京大学、东京大学等顶尖机构联合完成。研究团队首次将"第一人称视角"与"第三人称视角"的协作应用进行了全面梳理,提出了三大技术方向和十三个关键任务,涵盖从智能厨房到手术机器人的八大应用场景。这项突破性工作为人工智能向人类认知迈进提供了重要的技术路径和理论基础。
这项由台湾大学与微软研究团队合作的研究探索了使用音频感知大语言模型(ALLMs)作为自动评判员来评估语音生成模型的说话风格。研究设计了"语音风格指令跟随"和"角色扮演"两个任务,测试了四种语音模型的表现,并比较了人类与AI评判的一致性。结果表明,特别是Gemini-2.5-pro模型,其评判结果与人类评判的一致性甚至超过了人类评判者之间的一致性,证明ALLMs可以作为可靠的自动评估工具。同时研究也发现,即使是最先进的语音模型在说话风格控制方面仍有显著改进空间。