7月8日,第四届世界人工智能大会在上海召开。华为轮值董事长胡厚崑在开幕式发表演讲,主题为“根深叶茂,共筑人工智能新生态“。胡厚崑在演讲中,代表华为就如何促进人工智能产业规模化发展,提了三条建议:第一,汇聚各方力量,大力发展以人工智能计算中心为代表的新型城市基础设施,让AI的算力像水和电一样,成为新型的城市公共资源,让智能触手可及。第二,技术要扎到根,根深才能叶茂。第三,大胆运用技术手段,改变AI应用开发模式,突破AI普惠瓶颈。
胡厚崑强调,随着技术的不断发展,需求的持续涌现,当前应用开发效率成了最大的瓶颈,这严重阻碍了技术和需求的结合。现在业界AI开发高度依赖专家和数据,不仅需要花费大量时间收集和处理数据,还要消耗大量专家精力进行参数调优,很难在短时间内就达到产品化要求,我们把这种叫做手工作坊模式。
华为认为要用技术手段去改变这样的开发方式,提高开发效率。超大规模预训练模型这项技术,有望解决这个难题。基于预训练大模型,开发者只需要少量行业数据就可以快速开发出精度更高、泛化能力更强的AI模型。这种工业化的AI开发新模式,将极大促进AI在产业的发展。
华为云盘古大模型旨在建立一套通用、易用的人工智能开发工作流,以赋能更多的行业和开发者,实现人工智能工业化开发。通过与行业知识结合,盘古大模型能快速实现不同场景的适配,加速AI行业应用,让AI开发由作坊式转变为工业化开发的新模式。华为云盘古系列大模型包括中文语言(NLP)、视觉(CV)大模型,多模态大模型、科学计算大模型。
2021世界人工智能大会期间,华为云盘古超大规模预训练模型已开放体验,观众在华为展区可通过多种交互方式感受盘古在中文语言处理方面的强大能力。
2021世界人工智能大会华为展区盘古大模型
2021年4月,在权威的中文语言理解评测基准CLUE榜单中,盘古NLP大模型在总排行榜及分类、阅读理解单项均排名第一,刷新三项榜单世界历史纪录。与CLUE评测标准一致,本次盘古大模型的展示包括成语填空、阅读理解、快速分类三项。盘古能应对中文中同词不同义的特殊情况,以 “明明明明明白白白喜欢他,但他就是不说”为例,“明明”既是一个人名又是一个形容词,断句复杂,但是盘古大模型能轻松回答“白白喜欢谁?”、“谁喜欢明明?”的问题。在快速分类的演示中可以看到,盘古大模型能对商品及服务的评价做出“正面”或“负面”的分类,即使不包含任何感情色彩的词语,例如“凌晨下单第二天就从几千公里来到了手里”,盘古大模型能给出“正面评价”的结论。
盘古NLP大模型具备广泛的运用场景,在金融领域,可以辅助识别企业风险,助力企业尽调和项目审核。在医疗方面,其强大的信息抽取能力,可以帮助科研人员和医生从海量文献中快速提取关键知识。
除了NLP外,华为云盘古系列大模型还包括30亿参数的全球最大视觉(CV)预训练模型。CV大模型在ImageNet 1%、10%数据集上的小样本分类精度上均达到目前业界最高水平(SOTA),ImageNet上线性分类评估首次达到了和全监督相比拟的结果,相关创新成果也被人工智能顶级学术会议CVPR 2021和ECCV 2020、ICCV 2019等收录。
盘古CV大模型在业界首次实现了模型的按需抽取,根据不同部署环境的运行要求可以自动抽取出适合的模型,模型差异动态范围可达三个数量级。目前已经在医学影像、金融、工业质检等100余项实际任务中得到了验证,平均缩短开发时间 80% 以上,极大地提升了开发效率以及模型性能。
未来,华为云盘古预训练大模型将上线华为云AI资产共享社区(AI Gallery),提供多种使用方式,降低人工智能的使用门槛,服务更广大的开发者群体。
胡厚崑表示,华为希望有更多的合作伙伴和企业能通过盘古大模型实现AI应用的快速开发,让AI普惠千行百业。
好文章,需要你的鼓励
Blackwell GPU的生产制造工作量达到Hopper GPU的两倍有余,但带来的收入仅增加至约1.7倍。
由AMD驱动的El Capitan超级计算机(现位于美国劳伦斯利弗莫尔国家实验室(LLNL))成为世界上速度最快的超级计算机。