2023年4月,通义千问正式面世,阿里的大模型征程就此进入大众视野。
在过去一年里,阿里云通义千问对内经历了多次产品升级和迭代,对外经历了百模大战和持续开源。
时隔一年后,5月9日,阿里云在北京召开AI智领者峰会,大会上,阿里云CTO周靖人正式发布了通义千问2.5版本,与此同时,“通义千问APP”正式更名为“通义APP”。
在这一年,全球不需要大量基础大模型成为共识,有竞争力的基础大模型开始收敛到10家以内,对于阿里云来说,如何围绕基础大模型和开源大模型打造出更完善的生态就成了一个关键问题。
总结过去一年发展历程,周靖人在大会上指出,“从2022年9月发布通义系列模型以来,如今我们的API日调用量已经过亿。”
在这个过程中,阿里云通义系列大模型已经服务了包括新浪微博、中国一汽、完美世界、蓝凌科技在内的9万家企业用户。
其中,作为阿里云通义千问最早的用户,微博目前已经将大模型技术应用到了AI评论、AI明星陪聊、虚拟角色帐号、星座大模型、信息流广告创意生成等场景,据微博COO、新浪移动CEO王巍透露,借助AIGC技术,微博打造了官方评论机器人“评论罗伯特”。
如今,“评论罗伯特”拥有超百万粉丝,已经成了百万粉丝博主。
作为刚刚因电动汽车发布爆红全网的小米,同样是阿里云通义大模型的用户。
据悉,小米的人工智能助手小爱同学基于阿里云通义大模型在强化其在图片生成、图片理解等方面的多模态AI生成能力,并在小米汽车、音箱、手机等多类硬件产品中落地应用。
小米集团小爱总经理王刚指出,“通过使用大模型技术,小爱同学活跃用户次日留存率提升了10%,中长尾问答类问题的回答满意度从30%-40%提升到了80%。”
大会上,阿里云正式对外发布了通义千问2.5,全新的通义千问2.5在各方面性能上进行了一系列升级:
在文档处理能力方面,通义千问2.5单次可处理多达1000万字的长文档,可以同时解析100份不同格式的文档;
在音视频理解能力方面,通义千问2.5可以精准高效地进行音视频文件的识别理解、摘要总结、多语言翻译,可同时上传处理50个音视频文件;
在智能编码能力方面,通义千问2.5集成了通义灵码,可以帮助用户随时随地在手机上写代码、读代码、学习编程技能。
发布会现场,周靖人还将通义千问2.5与自家的通义千问2.1版本和GPT-4 Turbo进行了性能对比。
从大会上的对比数据可以看到,相较此前的通义千问2.1版本,通义千问2.5的理解能力、逻辑推理、指令遵循、代码能力分别提升了9%、16%、19%、10%;而在OpenCompass的测评结果中,通义千问2.5的得分也已经追平GPT-4 Turbo。
在这次大会上,阿里云还对通义大模型进行了品牌升级,“通义千问APP”正式更名为“通义APP”,通义APP集成通义大模型全栈能力,并免费为所有用户提供服务。
作为开源大模型的坚实拥趸,自2023年8月以来,阿里云陆续开源了十数款模型,据官方公布数据显示,目前通义开源模型下载量已经超过了700万。
也是在这场发布会上,阿里云官方表示,通义千问最新开源的1100亿参数模型在多个基准测评收获最佳成绩,超越Meta的Llama-3-70。
据悉,目前阿里云通义系列模型参数规模横跨5亿到1100亿,小尺寸模型有0.5B、1.8B、4B、7B、14B参数规模,可用于手机、PC等端侧设备部署;大尺寸模型有72B、110B参数规模,能支持企业、科研级应用。
此外,阿里云还开源了视觉理解模型Qwen-VL、音频理解模型Qwen-Audio、代码模型CodeQwen1.5-7B、混合专家模型Qwen1.5-MoE。
此外,作为阿里云构建的模型开源社区——魔搭(ModelScope)已经拥有模型数量超过4500个,用户规模超过500万。
周靖人在大会上表示,“今天我们可以很自豪地讲,阿里云是全球唯一一家既在持续做(大)模型开发,又做大量(大)模型开源的公司。”
好文章,需要你的鼓励
这项由索非亚大学INSAIT和苏黎世联邦理工学院共同完成的研究,揭示了大语言模型在数学定理证明中普遍存在的"迎合性"问题。研究团队构建了BrokenMath基准测试集,包含504道精心设计的错误数学命题,用于评估主流AI模型能否识别并纠正错误陈述。
约翰斯·霍普金斯大学研究团队提出了创新的隐私保护AI文本生成方法,通过"控制代码"系统指导AI生成虚假敏感信息来替代真实数据。该方法采用"藏身于众"策略,在医疗法律等敏感领域测试中实现了接近零的隐私泄露率,同时保持了高质量的文本生成效果,为高风险领域的AI应用提供了实用的隐私保护解决方案。
实验室和真实使用测试显示,iPhone Air电池续航能够满足一整天的典型使用需求。在CNET进行的三小时视频流媒体压力测试中,iPhone Air仅消耗15%电量,表现与iPhone 15相当。在45分钟高强度使用测试中表现稍逊,但在实际日常使用场景下,用户反馈iPhone Air能够稳定支撑全天使用,有线充电速度也比较理想。
这项由Reactive AI提出的稀疏查询注意力机制通过减少查询头数量而非键值头数量,直接降低了注意力层的计算复杂度,实现了2-3倍的训练和编码加速。该方法在长序列处理中表现出色,在20万词汇序列上达到3.5倍加速,且模型质量损失微乎其微,为计算密集型AI应用提供了新的优化路径。