01
简介
今天阿里云开源了Qwen2.5系列新一代大模型,这是继今年6月份Qwen2系列模型开源后的又一重磅更新,三个月一次大迭代,速度可谓非常之迅速。
本次开源的Qwen2.5语言模型主要包含7种尺寸,0.5B到72B全尺寸覆盖,弥补了Qwen2 14B/32B这两种业务黄金尺寸缺失的遗憾,并且开源了强劲的3B的端侧模型。本次开源,一个字:尺寸丰富,性能强劲。(此外还包括Math、Code和VL专项模型)
Qwen2.5语言模型的主要特点如下:
ModelScope:
https://modelscope.cn/organization/qwen?tab=model
HuggingFace:
https://huggingface.co/collections/Qwen/qwen25-66e81a666513e518adb90d9e
02
模型性能
Qwen2.5-72B基础模型在各个任务上显著超过同类模型,以不到1/5的参数达到了与Llama-3-405B相当的表现。相比Qwen2-72B,Qwen2.5-72B几乎在所有基准评测上都有显著提升,尤其在通用任务、数学和代码竞赛中。
Qwen2.5-72B-Instruct模型展现出了极为优异的表现,甚至在多个核心任务上超越了Llama-3.1-405B,在数学、代码和对话任务任务中表现尤为突出。相较于Qwen2-72B-Instruct,Qwen2.5-72B-Instruct在各项任务上的表现都有显著提升。
Qwen2.5-14B在多项任务中表现出色,超越了许多规模更大的竞争对手。Qwen2.5-32B 表现尤为出色,甚至优于参数更大的同类模型。特别是在数学和代码等挑战性任务中,Qwen2.5-32B 大幅领先Qwen1.5-32B,在 MATH中获得 57.7分,在MBPP中获得84.5分。
除此之外,Qwen2.5-7B/3B/1.5B/0.5B等小参数规模的模型在同量级模型中也展现出了非常强大的性能。
Qwen2.5也是一个多语言模型,支持东南亚语、阿拉伯语、葡萄牙语、日语、韩语等。在多语言评测中,Qwen2.5-72B-Instruct的总体能力显著超越GPT4o-mini、Llama3.1-70B-Instruct、Mistral-Large-Instruct-2407等模型。
Qwen2.5-7B-Instruct的多语言能力也显著优于同量级模型。
03
推理 & 微调
Qwen2.5的模型结构与Qwen2、Qwen1.5对齐,所以可以直接沿用此前的推理脚本,脚本如下:
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "Qwen/Qwen2.5-7B-Instruct"
device = "cuda" # the device to load the model onto
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype="auto",
device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained(model_name)
prompt = "Find the value of $x$ that satisfies the equation x+5 = 6x+7$."
messages = [
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True
)
model_inputs = tokenizer([text], return_tensors="pt").to(device)
generated_ids = model.generate(
**model_inputs,
max_new_tokens=512
)
generated_ids = [
output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
此外,你也可以直接使用Firefly对Qwen2.5进行微调,与Qwen1.5和Qwen2的微调方式完全一样。
Firefly项目链接:https://github.com/yangjianxin1/Firefly
首先拉取项目代码库:
git clone https://github.com/yangjianxin1/Firefly.git
执行以下命令,即可使用QLoRA训练Qwen2.5-7B-Instruct模型:
cd Firefly
python train.py --train_args_file train_args/sft/qlora/qwen2.5-7b-sft-qlora.json
结合QLoRA,开启Unsloth训练Qwen2.5-7B,最少仅需8.43GB显存,开启Unsloth后,实测Qwen2.5-7B的训练速度可提升47.32%,训练时间可减少32.12%,显存占用可减少39.13%。可以拍拍手中的1080ti、4090显卡的灰尘,拿来训练Qwen2.5模型了。
04
模型体验
JSON格式遵循,利好开发。
输入:将"通义千问Qwen2.5 YYDS"进行倒序输出,首先输出你的思考过程,最后再输出结果
Qwen2.5理解了藏头诗的含义。
好文章,需要你的鼓励
人工智能领域正在通过改进模型工作方式来释放新功能。研究人员开发了一种名为"SVDquant"的4位量化系统,可以使扩散模型运行速度提高3倍,同时提升图像质量和兼容性。这种技术通过压缩参数和激活值来大幅降低内存和处理需求,为资源受限的系统带来新的可能性。
Meta公司开发了一种机器学习模型SEAMLESSM4T,能够实现36种语言之间的近即时语音翻译。该模型采用创新方法,利用互联网音频片段避免了繁琐的数据标注。这一突破性技术有望简化多语言交流,但仍需解决噪音环境、口音等挑战,并关注技术可能带来的偏见问题。
生物制药行业正积极拥抱人工智能技术,大型企业投入巨资,小型公司谨慎布局。行业面临人才、数据和工作流程等挑战,但预计到2025年将在AI就绪度方面取得实质性进展。AI有望加速药物研发,提高效率,最终造福患者,重塑医疗保健的未来。
随着 AI 需求激增,数据中心行业面临严峻挑战。能源消耗激增威胁可持续发展目标,新项目遭遇公众反对。电力供应和分配方式亟需改革,行业或将迎来动荡的 2025 年。