创新是发展的第一要义,开发者是推动产业创新的核心力量。今年5月,由华为技术有限公司主办的鲲鹏应用创新大赛和昇腾AI创新大赛正式拉开帷幕。经过数月的激烈角逐,近日,两大赛事正式进入区域决赛阶段。
在8月11日举办的“2023东湖算力与大数据创新大会”上,鲲鹏应用创新大赛和昇腾AI创新大赛2023湖北赛区决赛宣布启动。数千名开发者凭借创新能力与技术实力崭露头角,将携手勇攀下一座高峰。
会上,国家工信部人才交流中心人才发展处处长程宇,武汉市科学技术局高新技术处处长胡远,东湖新技术开发区企业服务与重点项目推进局副局长吕世公,中国计算机学会武汉主席、武汉理工大学计算机学院院长熊盛武,武汉光谷产业投资有限公司副总经理伍雄,华为昇腾计算业务副总裁史沛,华为湖北代表处产业与生态发展部部长柳俊逸共同出席并见证此次决赛启动仪式。
“数智未来 因你而来”,两大顶级赛事成就开发者梦想
作为面向全国开发者的两大顶级赛事,鲲鹏应用创新大赛和昇腾AI创新大赛分别面向鲲鹏、AI创新应用、创新解决方案以及创新型人才等多种维度,共同聚焦“数智未来,因你而来”的主题,“以赛促兴”激发行业应用创新,促进人才培养。
其中,面向全国基础软/硬件领域开发者,鲲鹏应用创新大赛2023围绕企业赛、科研赛和高校赛三大赛事共设置五大赛道。湖北赛区作为全国16个赛区之一,由长江鲲鹏生态创新中心主办,具体承接面向企业开发者的行业应用创新赛道,以及面向科研机构与高校的HPC应用创新赛道、openEuler开源创新赛道、openGauss开源创新赛道。
相较往届,鲲鹏应用创新大赛2023在人群覆盖、专业领域和参赛权益等维度进一步升级——首次独立设置高校赛和科研赛,面向高校及科研机构的开发者群体开放,与企业赛一起,在开发者人群层面形成更广范围的覆盖。大赛鼓励广大开发者基于鲲鹏全栈根技术,围绕产业真实难题,共同打造软硬件产品与解决方案,以此推动行业技术革新,繁荣计算生态。
昇腾AI创新大赛2023湖北赛区由武汉人工智能计算中心主办,在往届应用赛道、昇思赛道基础上,新增设开发者套件创新赛道,以三类竞技形式多元化匹配产业方向,全方位挖掘价值方案,鼓励广大AI开发者共同打造基于昇腾AI的解决方案、算法模型,加速AI与行业融合,促进开发者能力提升。
据了解,本届鲲鹏应用创新大赛和昇腾AI创新大赛覆盖了多项权益激励,各自总奖金池均高达1000万元以上。针对湖北赛区,优秀项目将有机会在长江鲲鹏生态创新中心、武汉人工智能计算中心展示,获奖作品还可获得全渠道宣传推广等专项权益。以赛促应用、以赛激活力,鲲鹏应用创新大赛和昇腾AI创新大赛已经成为推动行业应用落地的盛会。
以赛促才、因才成产,华为助力产业生态繁荣发展
在数字经济高速发展的今天,各行各业对算力和人才的需求越来越旺盛。对此,武汉建设了以鲲鹏、昇腾为底座的HPC+AI算力基础设施,以期赋能千行百业。面向广大开发者,华为携手武汉地区,通过两项大赛开放了鲲鹏和昇腾的先进技术与产品,希望为其提供创新与成长、成果转化、技术扶持、共探行业创新路径的舞台和桥梁。
同时,华为希望依托鲲鹏和昇腾的软/硬件解决方案,激励开发者进一步加强对行业需求的洞察与理解,促进行业应用的优化和升级,从而激发产业创新发展,共建共享繁荣的计算和AI生态。
璀璨赋能,奋楫者先。鲲鹏&昇腾应用创新大赛2023湖北赛区决赛的号角已然吹响,谁能冲进最后的决赛圈,夺取最后的耀眼冠军?让我们拭目以待!
好文章,需要你的鼓励
惠普企业(HPE)发布搭载英伟达Blackwell架构GPU的新服务器,抢占AI技术需求激增市场。IDC预测,搭载GPU的服务器年增长率将达46.7%,占总市场价值近50%。2025年服务器市场预计增长39.9%至2839亿美元。英伟达向微软等大型云服务商大量供应Blackwell GPU,每周部署约7.2万块,可能影响HPE服务器交付时间。HPE在全球服务器市场占13%份额。受美国出口限制影响,国际客户可能面临额外限制。新服务器将于2025年9月2日开始全球发货。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
安全专业协会ISACA面向全球近20万名认证安全专业人员推出AI安全管理高级认证(AAISM)。研究显示61%的安全专业人员担心生成式AI被威胁行为者利用。该认证涵盖AI治理与项目管理、风险管理、技术与控制三个领域,帮助网络安全专业人员掌握AI安全实施、政策制定和风险管控。申请者需持有CISM或CISSP认证。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。