[2022年6月25日 成都] 在2022昇腾AI开发者创享日成都站上,华为正式发布昇腾人工智能人才发展加速计划和昇腾科研创新使能计划,协同推动人工智能人才高质量发展和科研创新全面提速。同时,华为与电子科技大学、四川大学、西南交通大学进行昇腾“众智项目”签约,并与成都大学签约合作建设四川首个“鲲鹏&昇腾产教融合育人基地”。
教育部-华为“智能基座”产教融合协同育人项目自启动以来,得到了广大高校的积极响应,已经在全国72所高校的落地。为进一步深化高校人工智能人才培养产教融合改革,鼓励高校利用昇腾教学资源,围绕昇腾AI基础软硬件技术开展人工智能学科建设和人才培养,华为现面向全国本科类高校推出“昇腾人工智能人才发展加速计划”,将提供教学、实践和营销三方面资源,携手高校培养昇腾人工智能人才,共筑数字经济发展人才根基。

昇腾人工智能人才发展加速计划发布仪式
日前,在华为伙伴暨开发者大会2022上,中国算力网-智算网络正式上线,成都智算中心也是智算网络的重要节点。中国算力网实现了全网算力统筹,统一任务编排与资源调度,数据与生态协同共享,让众多的开发者可以基于算力网络展开更广泛的研究与开发,例如需要大算力的大模型研发。本次,华为正式发布昇腾科研创新使能计划,面向高校科研团队、科研院所等科研机构基于昇腾AI基础软硬件平台开展科学研究与自主创新的激励计划。该计划主要适用于对科研创新、研究论证、基础模型的研究与创新等,具体包括:将高价值科研课题适配迁移至昇腾AI基础软硬件平台;基于昇腾AI基础软硬件平台开展科学研究,进行自主原生创新开发;基于昇腾AI基础软硬件平台开展基础模型研究和创新等。华为将从技术扶持和赋能、资源支撑、行业影响力三大维度给予全路径支持。其中,基于中国算力网-智算网络的统一算力大市场,将为昇腾科研创新使能计划提供充沛算力支持。

昇腾科研创新使能计划发布仪式
为更好推动四川区域高校人工智能研发能力提升与资源供给,培养和锻炼学生的实践创新能力,华为与电子科技大学、四川大学、西南交通大学进行昇腾“众智项目”签约。签约高校将基于昇腾AI基础软硬件平台开发算子、网络模型及行业参考设计。截至目前,已有来自80所高校/科研院所的300+个高校老师团队参与昇腾众智计划,共同完成3000+个算子、模型、参考设计等项目。

昇腾“众智项目”签约仪式
以产业汇聚人才,以人才引领产业。“鲲鹏&昇腾产教融合育人基地”是华为面向高水平本科高校推出的人才发展合作项目。四川首个“鲲鹏&昇腾产教融合育人基地”落地成都大学,双方围绕鲲鹏、昇腾计算产业核心技术路线,帮助高校在课程知识结构、教学资源体系、师资培养方法和学生产业实践等多个方面进行改革。

华为—成都大学“鲲鹏&昇腾产教融合育人基地”签约授牌仪式
在活动现场,多位人工智能技术专家为成都区域企业和高校开发者提供了一系列专项技术赋能活动,包括训练营、技术分享沙龙、答疑会等,帮助开发者更深入、全面的了解昇腾AI软硬件产品知识和应用能力。
昇腾AI开发者创享日介绍
昇腾AI开发者创享日是华为推出的面向昇腾AI产业全栈开发者的系列活动,旨在汇聚区域伙伴、客户、高校及科研院所的开发人员,通过最前沿的技术思考、最纯粹的技术分享、最真实的动手体验,为开发者提供一个深度探讨与交流的平台,与开发者共创昇腾AI产业的未来,共享非凡成长成就成功。了解更多详情,请访问昇腾社区:www.hiascend.com。
好文章,需要你的鼓励
在2025年KubeCon/CloudNativeCon北美大会上,云原生开发社区正努力超越AI炒作,理性应对人工智能带来的风险与机遇。随着开发者和运营人员广泛使用AI工具构建AI驱动的应用功能,平台工程迎来复兴。CNCF推出Kubernetes AI认证合规程序,为AI工作负载在Kubernetes上的部署设定开放标准。会议展示了网络基础设施层优化、AI辅助开发安全性提升以及AI SRE改善可观测性工作流等创新成果。
维吉尼亚理工学院研究团队对58个大语言模型在单细胞生物学领域的应用进行了全面调查,将模型分为基础、文本桥接、空间多模态、表观遗传和智能代理五大类,涵盖细胞注释、轨迹预测、药物反应等八项核心任务。研究基于40多个公开数据集,建立了包含生物学理解、可解释性等十个维度的评估体系,为这个快速发展的交叉领域提供了首个系统性分析框架。
DeepL作为欧洲AI领域的代表企业,正将业务拓展至翻译之外,推出面向企业的AI代理DeepL Agent。CEO库蒂洛夫斯基认为,虽然在日常翻译场景面临更多竞争,但在关键业务级别的企业翻译需求中,DeepL凭借高精度、质量控制和合规性仍具优势。他对欧盟AI法案表示担忧,认为过度监管可能阻碍创新,使欧洲在全球AI竞争中落后。
西湖大学王欢教授团队联合国际研究机构,针对AI推理模型内存消耗过大的问题,开发了RLKV技术框架。该技术通过强化学习识别推理模型中的关键"推理头",实现20-50%的内存缩减同时保持推理性能。研究发现推理头与检索头功能不同,前者负责维持逻辑连贯性。实验验证了技术在多个数学推理和编程任务中的有效性,为推理模型的大规模应用提供了现实可行的解决方案。